
7 tips for å unngå KI-feilene
Lite er kjedeligere enn å publisere feilaktige, KI-genererte resultater. Heldigvis kan du ta grep for å minimere risikoen.
For et par uker siden publiserte NTB en artikkel om Telenors årlige sikkerhetsrapport. Ved første øyekast så det ut som en helt uproblematisk sak. Det tenkte også Finansavisen, som publiserte samme artikkel.
Problemet var at den besto av flere feilaktige, KI-genererte sitater, unøyaktig innhold og en fiktiv sikkerhetsdirektør.
Saken ble trukket tilbake, og NTB beklaget at «KI ble brukt på feil måte».
Det er ikke første gang KI-generert feilinformasjon sniker seg inn i en artikkel, en rapport eller møtereferat.
Men hva betyr det egentlig at «KI blir brukt på feil måte», og hva er i så fall riktig måte?
Pass på brukerfeil
Når man er inne på temaet KI-feil er det sjeldent konstruktivt å legge all skylden på verktøyet.
– Ofte er det en viss grad av brukerfeil involvert, sier Dragana Trifunovic, fagansvarlig for KI i Digital Norway.
Det kan dreie seg om upresise instruksjoner, uklare rammer, feil i datagrunnlaget, eller at man rett og slett ikke kvalitetssikrer godt nok før publisering.
Først og fremst en avansert autokorrektur
Joda: Kunstig intelligens kan gjøre feil. Til og med når man selv har gjort «alt» riktig, kan teknologien produsere svar som ikke stemmer overens med virkeligheten – selv om det ser overbevisende riktig ut.
En studie NRK deltok i, viste for eksempel at KI-assistenter ofte havner på villspor når de skal formidle nyhetsinnhold.
Det betyr ikke at modellene forsøker å motarbeide oss. De har verken vilje eller agenda, men baserer seg snarere på statistiske mønstre og enorme mengder data. Vi snakker i realiteten om en svært avansert autokorrektur.
Målet er å generere det mest sannsynlig riktige svaret. Og når dette svaret tilsynelatende krysser av i alle bokser, er det lett å glemme advarselen med liten skrift om at «svarene kan inneholde feil».
Mulig å redusere risiko
Heldigvis er mye av dette mulig å jobbe med.
– Det finnes teknikker og metoder man kan bruke for å redusere risikoen for typiske KI-feil, slik at du kan bruke teknologien på en tryggere måte i din arbeidshverdag, sier Trifunovic.
Her er syv grep som gjør at man kan jobbe etterrettelig og faktabasert, og likevel bruke verktøy som ChatGPT, Gemini og Copilot på en trygg måte.
(Merk: I tipsene bruker vi ofte ChatGPT eller tilpassede GPT-er som eksempler. Alle de store leverandørene har tilsvarende varianter. Google har for eksempel Gemini og Gems, Microsoft har Copilot og agenter, mens Anthropic har Claude og prosjekter.)
1. Bruk KI til noe du kan, bruk sunn fornuft – og husk å kvalitetssikre
Et godt utgangspunkt er å bruke KI på områder du faktisk kan noe om. Da skriver du bedre instrukser, og du står sterkere til å verifisere innholdet.
Er du inne på områder du ikke kan noe særlig om fra før, bør du være ekstra var på om du er i ferd med å la deg lure.
Stopp heller opp og sjekk én ekstra gang om du faktisk er på riktig spor, at informasjonen er korrekt og at kilder ikke er feilsitert.
Husk også på at du er ansvarlig for resultatet kunstig intelligens genererer.
Hva er KI-assistenter?
Dette mikrokurset gir en enkel innføring i KI-assistenter (og agenter), hvilke typer som finnes og hvordan de fungerer. Du får også innblikk i hva som skiller hyllevareløsninger fra assistenter du kan tilpasse selv – helt uten å være utvikler. Innholdet i kurset bygger på en nasjonal veileder på KI-assistenter, «KI-assistenter i arbeidslivet – en praktisk guide", som er utviklet av en bred ekspertgruppe på oppdrag fra Digitaliserings- og forvaltningsdepartementet. Dette lærer du: - Forstå ulike typer KI-assistenter og deres bruksområder - Utforske hvordan KI-assistenter fungerer - Vurdere behov og muligheter for bruk av KI-assistenter i egen arbeidshverdag
Start kurs2. Be modellen faktasjekke seg selv
Et KI-verktøy kan faktisk være en ganske god faktasjekker – hvis du ber den gjøre det på riktig måte.
Dette kalles for selv-verifisering, og er en metodikk der man ber KI-verktøyet vurdere sin egen logikk og kildebruk.
Tips:
- Be KI-verktøyet sjekke egne påstander: Be den liste opp de viktigste påstandene og vise hvilke kilder som støtter dem – be den om å skrive «ukjent» hvis den ikke finner kilder.
 - Sjekk om svaret faktisk samsvarer med spørsmålet: Mange feil oppstår fordi modellen vrir litt på premisset. Be den sjekke om svaret faktisk svarer på spørsmålet som ble stilt – ikke bare på noe som ligner.
 - Be den vise regnegrunnlaget sitt: Hvis du jobber med tall, kan du be verktøyet vise hvilke data den bruker og hvordan den kom frem til svaret. Det gjør det enklere å se om logikken henger på greip.
 
NB: KI-verktøyet sin interne faktasjekk kan selvfølgelig fortsatt være feil, og fratar deg ikke ansvaret for å sikre at resultatene er korrekte.
Men det kan være en god måte å bli kjent med hvordan modellen kommer frem til et svar, slik at du enklere kan identifisere skjevheter og feilslutninger.
3. Vær varsom for følgefeil og selvbekreftelse
KI-verktøy er dyktige til å holde samtaler i gang, men kan miste tråden. Det er ikke alltid så enkelt å merke når det skjer. Men gradvis, med små forskyvninger mellom spørsmål og svar i en meldingstråd, kan du ende et helt annet sted enn der du begynte.
Det kan være lurt å stoppe opp og spørre: Hvilket spørsmål er det KI-verktøyet egentlig svarer på? Hvilken oppgave er det vi løser – og hva er målet? Mye av dette handler om måten vi stiller spørsmål på.
Hvis du for eksempel ber et KI-verktøy om å underbygge en påstand, vil den gjøre alt den kan for å få påstanden til å stemme. Den vil lete etter mønstre som passer, i stedet for å vurdere om selve påstanden holder vann, eller om den i det hele tatt er relevant for oppgaven.
Selv når du ber om et nøytralt perspektiv, vil modellen alltid forsøke å validere eller bekrefte det den tror du spør om.
– Resultatet kan bli et svar som virker overbevisende, men som i praksis bare bekrefter antakelsene du selv la inn i spørsmålet. Å være denne trenden bevisst, er en god måte å unngå selvbekreftelse på, sier Trifunovic.
Still åpne spørsmål, be modellen om å vurdere ulike forklaringer, og sjekke hva den ikke fant ut av. Still heller spørsmål på vegne av «en venn» for et mer nøytralt svar.
Tips:
The New York Times har skrevet en god artikkel om dette temaet, som kan være verdt å lese for den som vil forstå fenomenet bedre.
4. Lag ulike GPT-er for ulike oppgaver
Noen ganger vil du at KI skal improvisere og være kreativ. Andre ganger trenger du høyere grad av presisjon og etterrettelighet.
– Derfor kan det være lurt å lage ulike GPT-er for ulike formål. Én til brainstorming, en annen som jobber med fakta, tall og etter faste regler, tipser Trifunovic.
Dette er «GPT-er»
I ChatGPT kan du lage egne GPT-er med spesifikke instruksjoner, data og annen bakgrunnsinformasjon. Hos Gemini heter det Gems, mens du i Copilot kan lage egne agenter.
Du finner funksjonen i fanen «utforsk GPT-er» i ChatGPT, «utforsk Gems» i Gemini. I Copilot lager du agenter i Copilot Studio.
I de to neste tipsene skal vi gå nærmere inn på hva data og instruksjoner innebærer.
På denne måten får du også et aktivt forhold til oppgavens nøyaktighetsnivå, slik at du unngår å sile alle oppgaver gjennom samme KI-filter.
Samtidig er grensene mellom kreativitet og presisjon ofte flytende. Bruk gjerne GPT-er om hverandre, så lenge du har et tydelig skille mellom hvilken modell som brukes til hva.
Slik bygger du en skreddersydd KI-assistent eller chatbot
Hvordan bygge eller trene din egen KI-assistent ved hjelp av en GPT i ChatGPT sitt innebygde grensesnitt.
Start kurs5. Bind modellen til kilder
Jo mer kontroll du har over hvilke kilder modellen bruker, desto mer presise blir svarene.
Det er skrevet mye om hvordan generative KI-modeller kan knyttes til bedriftsdata. Slik forankres svarene fra modellen i en spesifikk virksomhetskontekst – og risikoen for misforståelser og feilslutninger reduseres.
– I en GPT kan du laste opp dokumenter, rapporter eller datasett som beskriver den virkeligheten du faktisk jobber i. Det kan være alt fra prosjektbeskrivelser og fagrapporter til rutiner, budsjetter eller kvalitetsmål.
Ønsker du å ta dette et skritt videre, er det mulig å forankre KI-verktøyet i oppdaterte fagsystemer og interne databaser. Dette blir fort veldig teknisk, og involverer kompliserte forkortelser som RAG og MCP.
Du trenger ikke kjenne detaljene, men det er nyttig å vite at de finnes – og at dette gjør det mulig for arbeidsgivere å bygge tryggere strukturer rundt de ansattes KI-verktøy – uten at de mister bredden og allsidigheten til en generell modell.
Fakta for de ekstra interesserte: RAG og MCP
- RAG (Retrieval-Augmented Generation): RAG er en metode som lar KI-modellen hente inn relevant informasjon fra utvalgte kilder – for eksempel interne databaser, dokumenter eller intranett – før den genererer et svar. På den måten bygger svaret på oppdatert og verifiserbar kunnskap, ikke bare på det modellen allerede er trent på.
 - MCP (Model Context Protocol) er et rammeverk som lar KI-modeller koble seg trygt til andre systemer – som budsjettsystemer, prosjektverktøy eller CRM. Det gjør at modellen trygt kan hente og oppdatere data i sanntid, uten spesialløsninger.
 
6. Lag innebygde regler
Hvordan pleier du vanligvis å jobbe med KI? Har du egne agenter og GPT-er til spesifikke oppgaver – eller taster du inn chatgpt.com, åpner et samtalevindu og spør om det du lurer på?
Det siste er ikke nødvendigvis feil. Ren hyllevare kan ofte være den raskeste veien til mål for mange.
– Problemet er at du på denne måten «inviterer» modellen til å definere hva som er god oppgaveløsing. I verste fall vil den trikse, overdrive eller «dikte opp» for å få ting til å henge sammen.
Slik kan du ende med fiktive kilder, feilaktige tall eller et svar som bygger på et skjevt utgangspunkt.
En enkel måte å avgrense en modell sitt handlingsrom på, er å lage innebygde regler og systeminstruksjoner for hvordan oppgaver skal løses.
Dette er systeminstruksjoner
Når du lager en egen GPT i ChatGPT, skriver du inn systeminstruksjoner i feltet «Tilpass instruksjoner». Der forteller du modellen hvordan den skal oppføre seg, hva den skal prioritere og hvilke regler den skal følge.
Dette trenger ikke å være komplisert. Du kommer langt med å fortelle hvor du jobber, hva du jobber med, hva som er målet til GPT-en – i tillegg til et par faste retningslinjer om hvordan den skal forholde seg til fakta.
Husk at systeminstruksjoner aldri vil eliminere hallunisasjoner og feil, men kan bidra til å redusere faren for at de oppstår, og gjøre en modell mer forutsigbar og etterrettelig.
Her er et eksempel på en generell systeminstruksjon du kan gi GPT-en for å få mer nøyaktige og gode svar:
- Nøyaktighet trumfer språkpynt. Fabrikker aldri kilder, tall eller sitater. Hvis grunnlaget mangler, skriv ukjent eller vet ikke, forklar hva som mangler og hvordan det kan avklares. Det er alltid bedre å innrømme usikkerhet enn å anta eller fylle hull.
 - Ikke trekk slutninger fra delvis informasjon uten å markere det som antakelse. Oppgi alltid hva svaret bygger på, og merk tydelig hva som er verifisert, antatt eller mangler.
 - Bruk ordrette sitater bare når de kan verifiseres. Når du vurderer noe som «riktig», «best» eller «effektivt», forklar hvilket kriterium eller perspektiv vurderingen bygger på (for eksempel kostnad, tid, kvalitet eller praksis).
 
(Merk: Dette er ikke en fasit, men et utgangspunkt).
7. Jobb sammen
Ha en KI-venn eller to på jobb! (Da snakker vi om ekte mennesker, ikke om KI-assistenter).
– Det er fort gjort å se seg blind på egne prosjekter. Derfor kan det være lurt å ha med et par friske øyne som kan se om alt faktisk henger sammen, eller om det har sneket seg inn glipp du ikke legger merke til selv.
Har du dobbeltsjekket denne påstanden? Henger denne konklusjonen egentlig sammen med funnene?
En kollega kan oppdage ting du selv ikke ser, stille spørsmål ved metoden, eller foreslå en mer treffsikker måte å bruke verktøyet på.
Slik blir samarbeidet en del av læringen. Man utvikler forståelse for både resultatet og prosessen, og bygger gradvis en mer moden og presis KI-praksis sammen.
Løsningen på workslop?
Saken med NTB kom etter en høst med flere store KI-blemmer, og flere medier har begynt å skrive om uttrykket workslop: Arbeid som oppstår når KI produserer innhold som ser ferdig ut, men som må rettes, forbedres eller gjøres på nytt for å faktisk kunne brukes til noe.
Ifølge en studie publisert i Harvard Business Review, er workslop et problem som koster bedrifter millioner av dollar og timesvis med ekstraarbeid.
Å jobbe mer målrettet med KI handler derfor ikke bare om å unngå feil, men også om å bygge struktur og kvalitet inn i prosessene fra start – slik at man reduserer behovet for manuell opprydding i etterkant.
– Ingen er tjent med hullete møteoppsummeringer eller prosjektbeskrivelser på feilaktig grunnlag, som må skrives om igjen – eller i verste fall leder til et helt feil sluttresultat. Å bruke KI riktig handler til syvende og sist om å styrke menneskelig arbeid, ikke å skape mer av det.
KI-assistenter i arbeidslivet
Dette dybdekurset er for ledere og nøkkelpersoner som har ansvar for å planlegge, tilpasse, innføre og drifte KI‑assistenter på en trygg og lovlig måte. Målet er at du skal sitte igjen med økt trygghet, bedre forståelse og en tydeligere retning for hvordan KI kan brukes i organisasjonen – uavhengig av hvor langt dere har kommet i prosessen. Innholdet i kurset bygger på en nasjonal veileder på KI-assistenter, «KI-assistenter i arbeidslivet – en praktisk guide", som er utviklet av en bred ekspertgruppe på oppdrag fra Digitaliserings- og forvaltningsdepartementet. Du lærer: - Å definere formålet med KI-bruken og hva slags løsning som passer behovet - Hvordan man klargjør organisasjonen, og hvordan ansatte og tillitsvalgte bør involveres i prosessen - Hvilke lover og regler som gjelder, og hva det betyr for virksomheten - Tekniske valg som må tas, og hvordan de påvirker data, kostnader og sikkerhet - Hva som må til for å sikre løpende forbedring, robusthet og brukertilfredshet
Start kurs