Studie: Deepfakes gir bensin på bålet for konspirasjons-teorier

Selv når KI-genererte deepfakes ikke er overbevisende, gir det grobunn for usikkerhet. Nå vil Meta ha deepfake-merking på Facebook og Instagram. Her er ukens viktigste tech-nyheter.

Vi har snakket mye – og da mener vi mye – om kunstig intelligens (KI) de siste årene, og det er ikke uten grunn: Ulike KI-teknologier har hatt en enorm utvikling både i hvor de brukes, og hvordan.

Samtidig har et viktig spørsmål bare blitt enda viktigere: hva kan vi egentlig stole på?

Diskusjonen om desinformasjon på nett er ikke ny. Faktisk viser en ny global studie at 85 prosent er bekymret for konsekvensene av nettopp dette, skriver The Guardian denne uken. Men KI-fremmarsjen gjør dette enda mer prekært.

Uansett om det er snakk om populære YouTubere eller reklameinnhold fra kjente, seriøse aktører, er det urovekkende hvor enkelt det er å bli lurt til å tro at noen som fremstår som ekte, ikke er det.

Og ikke bare det – deepfakes er også glimrende fôr for konspirasjonsteorier, viser en ny studie publisert i tidsskriftet PLOS ONE.

Det gjelder selv når de KI-genererte forfalskningene ikke er spesielt overbevisende, skriver IEEE Spectrum i sin omtale av studien.

«Krigen er en deepfake»

Forfatterne bak studien har analysert nesten 1400 innlegg på X/Twitter fra de første syv månedene av 2022, som angår KI-genererte deepfake-videoer i forbindelse med krigen i Ukraina. Deepfake er her definert som videoer «generert ved hjelp av teknologier for dyplæring».

Ifølge IEEE Spectrum er brorparten av deepfake-skepsisen usunn:

  • Mer enn fem ganger så mange innlegg anklaget genuine videoer for å være deepfakes enn innlegg som identifiserte reelle deepfakes
  • Noen pekte på at deepfakes var grunn til å betvile all informasjon om krigen, selv fra anerkjente kilder
  • Andre utnyttet deepfakes som en plattform for å hevde at journalister og regjeringer var skyldige i å ha en ondsinnet agenda

Og de mest ekstreme innleggene var fulle av konspiratorisk språk:

«Vi blir lurt av Ukraina, sannsynligvis ler de sammen med Putin for å ha tatt dollarene våre. Krigen er en deepfake», skriver en bruker. «Dette er en deepfake fra vestlig media. Disse journalistene er under globalistenes tommelfinger. Vi vet hva som vil skje videre. Pris Herren», fastslår en annen.

Løgnernes utbytte

Funnene tyder på at selv uskyldige deepfakes kan bidra til det som omtales som løgnernes utbytte (eng. «liar’s dividend»). Kort forklart dreier det seg om hvordan noen kan utnytte at et ordskifte er blitt giftig på grunn av desinformasjon, for eksempel ved å avvise kritikk som falske nyheter.

IEEE Spectrum gir et eksempel: Den ukrainske regjeringen delte en video på sin offisielle X-konto der Russlands president Vladimir Putin går rundt i den krigsherjede ukrainske byen Mariupol. Videoen er tydelig merket som uekte, men når slike videoer kommer fra offisielle kilder, kan det slå tilbake på avsenderen.

Tilsynelatende uskyldige deepfakes av denne typen, kan nemlig fungere som bensin på bålet for konspirasjonsteorier, og bidra til løgnernes utbytte. 

Meta krever deepfake-merking 

Den store utfordringen forblir hvordan deepfakes håndteres. Denne uken kunngjorde Meta at de vil kreve at annonser knyttet til politikk, valg og sosiale utfordringer må merkes dersom de er endret digitalt, skriver BBC News.

Det gjelder for endringer i hva noen sier, bearbeidelser av bilder og video fra virkelige hendelser, og gjengivelser av tilsynelatende ekte mennesker som egentlig ikke eksisterer.

Men det er ikke sikkert at slike tiltak er tilstrekkelige. Til IEEE Spectrum sier deepfake-studiens hovedforfatter:

– Den nåværende tilnærmingen til deepfake-inngrep ser ut til å være basert på å simpelthen identifisere om en video er en deepfake eller ikke. Jeg er overbevist om at man også må ta høyde for at deepfakes kan øke feilaktige slutninger, sier John Twomey ved University College Cork.

Du kan lese mer om den nye studien hos IEEE Spectrum. Og her har du et lite utvalg av det som ellers er skrevet om kunstig intelligens den siste uken:

Hvordan bruke KI på en smart og trygg måte? Her er kurset for deg:

Introkurs

Hvordan bruke generativ kunstig intelligens?

I dette kurset får du noen tips til ulike typer KI- verktøy for hjelp til tekst, bilder, lyd og video og hvordan bruke slike verktøy på en smart og trygg måte.

158 Moduler0% Fullført

Kan denne KI-pinsen erstatte mobilen?:

Eller er den litt vel upålitelig? 

Møt Grok – Elon Musks ChatGPT-utfordrer:

… som blir kalt for en «klein boomer» av OpenAI-sjefen.

Musk har også andre visjoner i sikte: 

… Men i Sverige støter rikmannen på Tesla-problemer:

Samtidig som at andre bilprodusenter ser ut til å ha sitt på det tørre.

Snart kommer delvis norsk robot-bygningsarbeider:

Zuckerbergs nye betalingsløsning under lupen:

Nav-ansatte har hatt tilgang til sensitive opplysninger:

Snart kroken på døra for din gamle Gmail-konto:

Prøv et av våre gratis kurs:

Tjenester

Digitale kurs

Trenger du eller dine ansatte kompetanseheving på teknologi, innovasjon og digitale verktøy? Kursene er helt gratis og utviklet i samarbeid med noen av de tyngste fagmiljøene i norsk næringsliv og akademia.