Google med vilt AI-verktøy: Nå klarer du ikke å se om videoen er ekte

Lumiere er en ny programvaremodell fra Google som bruker tekst og bilder til å lage kunstige videoer som ser ekstremt ekte ut.

Videoene er troverdige, men det de viser har aldri skjedd i virkeligheten.

Bildene er fra videoer som er laget med kunstig intelligens. Det de viser, har aldri skjedd i den virkelige verden.

© Google.

Kunstig intelligens kan ikke lenger bare generere uhyggelig overbevisende bilder. Nå får du også video.

Google har vist frem eksempler på hva den nye KI-modellen Lumiere er i stand til. Med utgangspunkt i en enkel tekstlinje eller et bilde kan den generere svært overbevisende videoer, som du kan se i videoen nedenfor.

Video

Banebrytende KI-modell

Modellen er utviklet av Google i samarbeid med Weizmann Institute of Sciences og Tel Aviv University. Den er bygget opp rundt en arkitektur som gjør det mulig å forstå både rommet der objekter befinner seg og tiden de beveger seg i en video.

Dette gjør resultatene mer realistiske enn noe annet vi har sett så langt.

Slik ser du om videoen er falsk

Å kunne lage video på denne måten kan gi mange spennende muligheter, men det vil også gjøre det vanskeligere å se forskjell på hva som er ekte og hva som er KI-generert.

Hvis du er i tvil, bør du se etter uoverensstemmelser mellom ansiktsuttrykk og bevegelser, unaturlig lyssetting, skygger, uskarphet og detaljrikdom, og misdannede hender.

Dette er ofte tegn på at videoen er falsk.