Google klar med vildt AI-værktøj: Nu er det ikke til at se om videoen er ægte

Lumiere er en ny softwaremodel fra Google, som ud fra tekst og billeder kan lave kunstige videoer, der ser uhyre ægte ud

Videobillederne er troværdige, men det de viser har aldrig fundet sted i virkeligheden.

Billederne er fra videoer skabt med kunstig intelligens. Det de viser har aldrig fundet sted i den virkelige verden.

© Google.

Det er ikke længere bare billeder, som kunstig intelligens kan genere med uhyggelig overbevisning. Nu er det også video.

Google har fremvist eksempler på, hvad deres nye AI-model, Lumiere, er i stand til. Ud fra en simpel tekstlinje eller et billede kan den genere videoer af særdeles overbevisende karakter, som det ses i videoen herunder.

Video

Banebrydende AI-model

Modellen er udviklet af Google i samarbejde med Weizmann Institute of Sciences og Tel Aviv University. Den bygget op om en arkitektur, der gør det muligt at forstå både rummet, hvor objekterne er og tiden, hvor de bevæger sig i en video.

Det gør resultaterne mere realistiske, end noget vi har hidtil har set.

Sådan ser du om videoen er falsk

At kunne lave video på den måde kan give mange sjove muligheder, men det vil også blive sværere at se forskel på det, der er ægte, og det der er AI-genereret.

Hvis du er i tvivl, så se efter mangel på sammenhæng mellem ansigtsudtryk og bevægelser, unaturlig belysning, skygge, skarphed og detaljer samt misformede hænder.

Det er ofte tegn på, at der er er tale om en falsk video.