Pass på – russisk desinformasjon har inntatt KI-chatboten din

Illustrasjonsfoto: Istockphoto

Putins propagandamaskineri har jobbet systematisk det siste året med å mate de mest kjente vestlige språkmodellene med desinformasjon, hevder analyseselskap. Mer om dette og ukens tech-nyheter i Bits & Bytes.

Analyseselskapet Newsguard har gått gjennom ti av de mest populære KI-chatbotene, inkludert ChatGPT, Copilot, Gemini, Claude, Mistral og Perplexity. 

I studien kommer det fram at chatbotene i mer enn en tredjedel av tiden resirkulerte argumenter fra det russiske desinformasjonsnettverket Pravda. 

De hevder å ha identifisert minst 207 beviselige falske påstander, som at USA finansierer hemmelige biovåpenfabrikker i Ukraina – og at Røde Kors driver handel med organer fra ukrainske barn. 

Syv av ti siterte Pravda som en troverdig kilde 

Pravda-nettverket har i løpet av det siste året publisert 3,6 millioner artikler. Disse er ikke produsert for å lure eller overtale lesere direkte, men heller rettet mot å påvirke og forvrenge resultater generert av KI-chatboter. 

Dette kan minne om en form for søkemotoroptimalisering, altså kunsten å tilpasse innhold med søkeord og formatering som favoriseres av algoritmer. 

– Ved å oversvømme søkeresultater med pro-Kreml desinformasjon, forstyrrer nettverket måten store språkmodeller behandler og presenterer nyheter og innhold, skriver Newsguard i rapporten

Pravda skriver ikke egne nyheter, men aggregerer og tilpasser innhold fra russiske statlige medier og andre lignende kilder. 

Syv av de ti største chatbotene som ble undersøkt, siterte Pravda som en troverdig kilde. 

– De russiske påvirkningsoperasjonene utgjør nå en trussel mot integriteten til demokratisk diskurs over hele verden, sier administrerende direktør i American Sunlight Project, Nina Jankowicz til nyhetsbyrået AFP, gjengitt av Digi

Dette skjer samtidig som at USA har satt cyberoperasjonene mot Russland på pause

Chatboter sliter med å sitere nyheter

En annen fersk undersøkelse fra Columbia Journalism Review, hevder at søketjenester fra de mest kjente KI-modellene i snitt feilsiterer nyhetskilder 60 prosent av gangene, ifølge Ars Technica.

Dette fant de frem til ved å mate modellene med direkte utdrag fra ekte nyhetsartikler, for så å be om original overskrift, kilde, publiseringsdato og URL. 

Tjenestene det er snakk om er GPT Search, Perplexity, Deepseek Search, Grok og Gemini – samt «pro»-versjoner av disse. 

Innad var det store forskjeller. Perplexity leverte en feilmargin på 37 prosent, mens GPT Search feilidentifiserte 67 prosent av artiklene som ble etterspurt. Aller verst var Elon Musks chatbot Grok, med 94 prosent feilmargin. 

De oppdaget at chatbotene ofte heller kom med feilaktige eller spekulative svar, i stedet for å unnlate å svare. Med premium-abonnement ble ikke svarene mer korrekte – tvert i mot ble feilinformasjonen framført med enda større overbevisning.

– Tradisjonelle søkemotorer fungerer som mellomledd og sender brukere videre til nyhetsnettsider. Generative søkeverktøy derimot, behandler informasjon selv, skriver artikkelforfatterne Klaudia Jaźwińska og Aisvarya Chandrasekar, fra Columbia Journalism Review

– Chatbotenes svar kan skjule alvorlige utfordringer med informasjonskvalitet. Derfor er det viktig å vurdere hvordan disse systemene henter, presenterer og siterer nyhetsinnhold, skriver de videre. 

Det har skjedd mye annet i tech-verden den siste uka. Her har vi samlet de viktigste hendelsene for deg: 

På tide med en exit-strategi?

Datatilsynet påpeker at dagens regler for bruk av amerikanske skytjenester raskt kan endres dersom det kommer politiske endringer i USA som svekker personvernet. Les mer her:

Nyheter om kunstig intelligens

Nytt fra OpenAI-sfæren

Manus-mani?

Sikkerhetsstoff 

Apple-nyheter 

Google-nyheter

Diverse