En KI-generert Sam Altman lanserte Sora 2 for et par uker siden. (Skjermbilde: Youtube / OpenAI
En KI-generert Sam Altman lanserte Sora 2 for et par uker siden. (Skjermbilde: Youtube / OpenAI

Med Sora 2 og Veo 3 – kan vi lenger tro på det vi ser?

Det begynner å bli lenge siden vi lo av dårlig genererte KI-videoer. – Snart kan ikke video brukes som bevis for noe, sier ekspert. Mer om dette og alt annet som har skjedd i tech-verdenen i ukas Bits & Bytes.

Bits & Bytes

De siste ukene har KI-genererte videoer fra OpenAIs Sora 2 og Googles Veo 3 tatt internett med storm.

Kong Henry den åttende spiller basket med Kobe Bryant. Dyr oppfører seg som mennesker på overvåkningsbilder. Oskar Westerlin flyr rundt i en luftballong.

Det meste av dette er harmløse greier. Men det er ikke til å komme unna at KI-genererte videoer på kort tid har begynt å se skremmende realistiske ut.

Må møte video med samme skepsis som ord

Da snakker vi ikke bare om såkalt AI slop: meningsløse og harmløse klipp som er i ferd med å oversvømme sosiale medier – men også om mer alvorlige typer innhold.

Som falske videoer av historiske hendelser, manipulerte nyhetsinnslag og deepfakes av kjente personer i situasjoner som aldri har skjedd.

Det har for eksempel heller aldri vært enklere å fabrikkere falske videoer i forbindelse med forsikringssvindel, som The New York Times påpeker i en ny artikkel:

– Teknologien kan markere slutten på det visuelle som sannhetsbevis, troen på at video kan fungere som et objektivt bilde av virkeligheten. Som samfunn må vi nå møte videoer med samme skepsis som vi allerede møter ord, skriver Brian Chen, teknologiskribent i The New York Times.

Teknologien beveger seg raskt

Joda, det finnes verktøy som kan detektere om noe er laget med kunstig intelligens. Videoer laget i Sora kommer også med et vannmerke.

Men vannmerker kan redigeres bort og KI-teknologien beveger seg raskere enn verktøyene som skal avsløre den.

– Snart kommer ingen lenger til å godta videoer som bevis på noe som helst, sier Lucas Hansen, grunnlegger av CivAI, en ideell organisasjon som jobber med å lære folk mulighetene med KI.

Som om deepfakes har fått sin egen PR-agent

Mens folk flest før var grunnleggende skeptiske til falske videoer som et konsept, er også dette i ferd med å endre seg, skriver NPR.

De trekker frem at deepfakes i dag primært oppfattes som lettbeint underholdning som sprer seg lynraskt på sosiale medier.

– Det er som om deepfakes har fått sin egen PR-agent og distribusjonsavtale, sier Daisy Soderberg-Rivkin, tidligere sikkerhetssjef i TikTok, til NPR.

– Dette er en forsterkning av noe som har vært skremmende lenge, men som nå har fått en helt ny plattform.

Aaron Rodericks, som leder arbeidet med tillit og sikkerhet i Bluesky, mener vi ikke er godt nok forberedt på hvor uklart skillet mellom ekte og falskt er i ferd med å bli.

– I en polarisert verden er det blitt skremmende enkelt å lage falske «beviser» rettet mot enkeltpersoner eller grupper – eller å lure folk i stort omfang, sier Rodericks.

– Det som tidligere bare var et rykte, som en oppdiktet historie om en politiker eller en innvandrer, kan nå fremstå som et troverdig videobevis. De fleste mangler både kunnskapen og verktøyene til å skille ekte fra falskt.

– Unngå sosiale medier

Så hva kan man egentlig gjøre for å unngå falske videoer? Ifølge Hany Farid ved Universitetet i California finnes det ingen enkel løsning.

– Den eneste helt sikre måten å unngå falske videoer på, er å slutte å bruke apper som TikTok, Instagram og Snapchat, sier han til The New York Times.

Det har skjedd mye annet spennende innen teknologi, digitalisering og data den siste uken. Her har vi samlet de viktigste nyhetene for deg:

Mer om utviklingen innen bilde-, video- og tekstredigering

Nyheter om kunstig intelligens

Dingser og duppeditter

Slutt på Windows 10:

Datasentersaker

Hva skjer om vi mister strømmen?

Sikkerhet

Bilnytt

Diverse