KI-verktøy er blitt fastlegenes favoritt – men er det trygt?

Auto-transkribering av pasientmøter har inntatt legekontorer verden over. Nå viser det seg at den mest brukte KI-modellen finner på egen tekst. Mer om dette og ukens tech-nyheter i Bits & Bytes. 

Det er blitt populært å bruke kunstig intelligens til å transkribere lydopptak. Mange sparer tid på å automatisere møtereferater, for å ta et eksempel. 

Nå har også norske leger begynt å dra nytte av teknologien, primært for å redusere tiden de bruker på å føre journalnotater. 

En mikrofon tar opp samtalen mellom lege og pasient, og en KI-modell omgjør lydopptaket til tekst. Slik fungerer programmet Medbric, som blant annet er utviklet i samarbeid med NorwAI, NTNU og Universitetet i Oslo. 

– Dette er nok den største endringen i arbeidsflyten som jeg har hatt på mine 16 år som fastlege, sier Stian Ellingsen Lobben til NRK.

Han har testet ut programmet i fire måneder, og anslår at han fort kan spare opp mot 300 timer i året på å eliminere manuelle referater. Det er viktige timer for en fastlege, som for tiden er blant landets mest kapasitetspressede yrker. 

– 70 prosent av de (testlegene, red.anm) melder også om at de oppnår bedre kontakt med pasientene, sier Jorunn Thaulow fra UiO. 

Dette er heller ikke det første KI-verktøyet for leger her til lands. Norske Noteless brukes av over 200 fastleger i hele Norge, ifølge TV 2.   

Men er KI-assistert transkribering og journalføring helt trygt? 

Whipser finner på egen tekst

Det er estimert at det amerikanske programmet Nabla har transkribert over syv millioner pasientmøter. I bunn av programvaren ligger OpenAI sin tale-til-tekst-modell Whipser. 

Ifølge Associated Press News viser det seg at Whipser iblant finner på tekst som på ingen måte er sagt i lydopptakene modellen har i oppgave å transkribere. Såkalt hallusinering, som det heter på KI-språk. 

I en ny fagfellevurdert studie signert flere amerikanske universiteter, kom det fram at omtrent én prosent av undersøkte lydopptak inneholdt hallusinerte setninger eller formuleringer. 

Her er det altså ikke bare snakk om «misforståelser» eller at modellen «hører feil» – men tvert i mot at Whipser fabrikerer nytt innhold. 38 prosent av hallusineringene inkluderte dessuten skadelige eller til og med voldelige beskrivelser. 

I et lydopptak fra studien sa kilden: «Han, gutten, skulle, jeg er ikke helt sikker, ta med seg paraplyen» (oversatt til norsk). 

I transkripsjonen la Whipser til følgende utsagn: «Han tok med seg et stort stykke av et kors, et lite, lite stykke … Jeg er sikker på at han ikke hadde en terror-kniv, så han drepte flere mennesker». 

Nabla har publisert en bloggartikkel om hvordan de jobber med Whipser, som du kan lese her

Fortsatt et menneske som står bak

Whipser er en velbrukt modell også her i Norge. Den ligger blant annet i bunn av NTNU sitt verktøy for tale-til-tekst, Nasjonalbibliotekets modell for norske dialekter og Jojo, som er VG sitt verktøy for transkribering av lydopptak. 

Om akkurat Whipser er en del av Mebric er ikke kjent. Gründeren Thaulow advarer likevel om at det norske programmet også kan produsere feil. 

– Det er en kjent sak at språkmodellar kan drive med hallusinering, og finner på noe som ikke pasienten har sagt, sier hun til NRK. 

Programmet legger derfor opp til at legene må lese gjennom notatene før de går videre i systemet. Det er med andre ord fortsatt et menneske som står til ansvar for journalnotatene.

I samme NRK-artikkel opplyser dessuten Datatilsynet om at pasienten må informeres om at opptakene skjer på forhånd av legetimen, og hva opptaket skal brukes til.

– En lege sin hovedjobb er ikke å skrive, men å behandle

Til Digital Norway sier KI-professor Morten Goodwin at transkribering av pasientmøter er et godt eksempel på hvordan kunstig intelligens kan frigjøre tid slik at en kan fokusere på viktigere arbeidsoppgaver. 

– En lege sin hovedjobb er ikke å rapportere, skrive og transkribere, men å behandle. Ved å bruke kunstig intelligens får legen mer tid til pasienten, sier han. 

Samtidig påpeker han at hallusinering er et problem.

– Man må huske på at kunstig intelligens kommer med helt nye måter å jobbe på, med nye problemer man må håndtere. På den ene siden får vi fantastiske og kraftige verktøy. Men disse stiller også nye krav til oss som skal bruke og implementere dem, sier han. 

(Det fullstendige intervjuet med Goodwin kan du lese i Digital Norways nyhetsbrev tirsdag 5. november. Meld deg på nyhetsbrevet her).

Vil du lese mer om tech-uken som har gått? Her har vi samlet en rekke viktige nyheter om alt fra behandling av demens, KI-genererte reinsdyr og nyheter fra Google, OpenAI, Microsoft og Apple. 

Nyhter om kunstig intelligens

OpenAI, Apple, Google og andre generative KI-nyheter

Generert nyhetsanker og genererte reinsdyr

Microsoft-nytt

EU går etter Temu, Strava-leaks og debatten om jobbtelefonen er i gang

Russisk gigabot og digital fullmaktsløsning på vei