Hva kan vi lære av «den første store KI-skandalen i offentlig sektor»? 

Illustrasjonsfoto: Istockphoto

Tromsø kommune brukte KI til å dikte opp kilder. Det er enkelt å unngå, mener KI-ekspert. Mer om dette og ukens tech-nyheter i Bits & Bytes.

Da iTromsø gjennomgikk kunnskapsgrunnlaget bak forslaget om ny skolestruktur i Tromsø kommune, fant avisen at rapporten inneholder flere oppdiktede kilder. 

– Jeg har tidligere blitt sitert og tolket feil, men jeg har aldri opplevd å bli sitert på noe jeg aldri har skrevet, sier professor Thomas Nordahl ved Universitetet i Innlandet til avisen. 

Rapporten, som er på 120 sider, argumenterer for å legge ned åtte skoler. Den viser blant annet til boken «Kvalitet i skolen: Læring, trivsel og relasjoner» av Nordahl – en bok som ikke eksisterer i virkeligheten.

Av 18 oppføringer i kildelisten, er det kun syv som lar seg spore opp. 

I ettertid har kommunedirektøren fortalt at det ble brukt kunstig intelligens for å utforme kunnskapsgrunnlaget. 

– Intet mindre enn kanskje den første store KI-skandalen i norsk offentlig sektor. Dette er klassisk ChatGPT og som stadig vekk skjer i studentarbeider, skriver UiT-forsker Jonas Stein på Facebook.

– Ville vært juks på en masteroppgave

Det blir stadig vanligere å bruke verktøy som ChatGPT, Perplexity, Copilot eller Gemini i forbindelse med tekstarbeid. 

Dette kan spare deg for mye tid, hjelpe deg med korrektur og research. Samtidig kan det fort gå galt om man bruker KI-verktøyet feil. 

Til NRK sier KI-ekspert Morten Goodwin at kommunen har gått på en blemme. 

– Her er det ikke bare brukt som en sparringpartner, eller som en språkvask, men til det faktiske innholdet i dokumentet. Det ville for eksempel vært juks på en masteroppgave, sier han. 

Likevel er han tydelig på at disse feilene enkelt kan unngås. 

Anbefaler kurs 

At en språkmodell har funnet på såpass mye, tyder blant annet på at kommunen har tatt i bruk en eldre språkmodell, sier Goodwin. Nyere og mer oppdaterte versjoner har nemlig blitt ganske mye bedre på å unngå oppdikting. 

Han kommer også med et eksempel på en instruksjon man kan bruke for å minimere fabrikkert informasjon: 

– Nå skal vi skrive en veldig viktig rapport skolestruktur, og det er helt essensielt at alle kilder stemmer. Hvis man sier det så blir den litt mer seriøs, og da kommer det litt mer sannferdige kilder, sier han til NRK

– Så man trenger ikke veldig mye erfaring, men litt erfaring må man ha for å få kildene riktig.

I samme artikkel oppfordrer førsteamanuensis ved Institutt for informatikk ved Universitetet i Oslo, Henrik Skaug Sætra, kommunen til å ta et kurs om språkmodeller. 

– Kjør noen kurs om hva generativ KI og store språkmodeller kan og ikke kan gjøre, og ha veldig klare retningslinjer for hva man kan og ikke kan bruke det til, sier han.

Psst! Hva med å for eksempel sjekke ut Digital Norways nye kompetanseplattform – som er full av helt gratis KI-relaterte kurs, blant mye annet?

Kan svekke evnen til å tilegne seg ny informasjon

Sætra er også aktuell med (den helt ekte) boken «Hvordan redde demokratiet fra kunstig intelligens». 

Til nettstedet Bok365 sier forskeren at KI kan gå ut over evnen til å både lese og tilegne seg ny informasjon. 

– Ofte ligger verdien av en rapport eller en bok nettopp i nyansene som går tapt i korte sammendrag eller kulepunkter, sier Sætra. 

– Hvis alt må oppsummeres i kulepunkter eller TikTok-videoer kan mange nyanser gå tapt. Det å kunne oppsummere godt er også en ferdighet.

Han er tydelig på at KI også senker terskelen for å sette seg inn i og delta i politiske diskusjoner, men at dette ikke må gå på bekostning av vår evne til å strukturere argumenter og formidle budskap på en forståelig måte. 

– Hvis vi blir dårligere både til å stå i kompleksitet og uenighet, er vi temmelig ille ute – med mindre vi da ønsker å overlate styringen til maskinene.

Undertittel

Forvaltnings- og digitaliseringsminister Karianne Tung har også kommentert saken.

Hun anerkjenner at kommunen gjorde en feil, men gir samtidig ros for at kommunen tør å prøve ut teknologien, og at de er åpne og innrømmer feil.

– Bare slik kan vi lære – både av det som fungerer bra og det som ikke går bra, skriver ministeren på Linkedin.

Tung bruker også anledningen til å minne om en liste med gode råd for å sikre at kunstig intelligens blir brukt på en god og ansvarlig måte:

1. Sett deg inn i hva kunstig intelligens og maskinlæring er
2. Ha åpenhet om datagrunnlaget du bruker
3. Ha mennesker i førersetet
4. Sikre likebehandling
5. Håndter sensitive data på en sikker måte
6. ikke vær redd for å teste ut
7. Søk veiledning

Det har skjedd mye annet viktig og spennende i tech-verdenen den siste uken. Her har vi oppsummert de viktigste nyhetene for deg: 

Nyheter om kunstig intelligens 

Språkmodeller og generativ KI

Alt om Signal-saken

Politikk 

Sikkerhet 

Overskudd eller underskudd av IT-folk?

KI-skandale og KI-fusk

Diverse