KI-verktøy er blitt fastlegenes favoritt – men er det trygt?
Auto-transkribering av pasientmøter har inntatt legekontorer verden over. Nå viser det seg at den mest brukte KI-modellen finner på egen tekst. Mer om dette og ukens tech-nyheter i Bits & Bytes.
Det er blitt populært å bruke kunstig intelligens til å transkribere lydopptak. Mange sparer tid på å automatisere møtereferater, for å ta et eksempel.
Nå har også norske leger begynt å dra nytte av teknologien, primært for å redusere tiden de bruker på å føre journalnotater.
En mikrofon tar opp samtalen mellom lege og pasient, og en KI-modell omgjør lydopptaket til tekst. Slik fungerer programmet Medbric, som blant annet er utviklet i samarbeid med NorwAI, NTNU og Universitetet i Oslo.
– Dette er nok den største endringen i arbeidsflyten som jeg har hatt på mine 16 år som fastlege, sier Stian Ellingsen Lobben til NRK.
Han har testet ut programmet i fire måneder, og anslår at han fort kan spare opp mot 300 timer i året på å eliminere manuelle referater. Det er viktige timer for en fastlege, som for tiden er blant landets mest kapasitetspressede yrker.
– 70 prosent av de (testlegene, red.anm) melder også om at de oppnår bedre kontakt med pasientene, sier Jorunn Thaulow fra UiO.
Dette er heller ikke det første KI-verktøyet for leger her til lands. Norske Noteless brukes av over 200 fastleger i hele Norge, ifølge TV 2.
Men er KI-assistert transkribering og journalføring helt trygt?
Whipser finner på egen tekst
Det er estimert at det amerikanske programmet Nabla har transkribert over syv millioner pasientmøter. I bunn av programvaren ligger OpenAI sin tale-til-tekst-modell Whipser.
Ifølge Associated Press News viser det seg at Whipser iblant finner på tekst som på ingen måte er sagt i lydopptakene modellen har i oppgave å transkribere. Såkalt hallusinering, som det heter på KI-språk.
I en ny fagfellevurdert studie signert flere amerikanske universiteter, kom det fram at omtrent én prosent av undersøkte lydopptak inneholdt hallusinerte setninger eller formuleringer.
Her er det altså ikke bare snakk om «misforståelser» eller at modellen «hører feil» – men tvert i mot at Whipser fabrikerer nytt innhold. 38 prosent av hallusineringene inkluderte dessuten skadelige eller til og med voldelige beskrivelser.
I et lydopptak fra studien sa kilden: «Han, gutten, skulle, jeg er ikke helt sikker, ta med seg paraplyen» (oversatt til norsk).
I transkripsjonen la Whipser til følgende utsagn: «Han tok med seg et stort stykke av et kors, et lite, lite stykke … Jeg er sikker på at han ikke hadde en terror-kniv, så han drepte flere mennesker».
Nabla har publisert en bloggartikkel om hvordan de jobber med Whipser, som du kan lese her.
Fortsatt et menneske som står bak
Whipser er en velbrukt modell også her i Norge. Den ligger blant annet i bunn av NTNU sitt verktøy for tale-til-tekst, Nasjonalbibliotekets modell for norske dialekter og Jojo, som er VG sitt verktøy for transkribering av lydopptak.
Om akkurat Whipser er en del av Mebric er ikke kjent. Gründeren Thaulow advarer likevel om at det norske programmet også kan produsere feil.
– Det er en kjent sak at språkmodellar kan drive med hallusinering, og finner på noe som ikke pasienten har sagt, sier hun til NRK.
Programmet legger derfor opp til at legene må lese gjennom notatene før de går videre i systemet. Det er med andre ord fortsatt et menneske som står til ansvar for journalnotatene.
I samme NRK-artikkel opplyser dessuten Datatilsynet om at pasienten må informeres om at opptakene skjer på forhånd av legetimen, og hva opptaket skal brukes til.
– En lege sin hovedjobb er ikke å skrive, men å behandle
Til Digital Norway sier KI-professor Morten Goodwin at transkribering av pasientmøter er et godt eksempel på hvordan kunstig intelligens kan frigjøre tid slik at en kan fokusere på viktigere arbeidsoppgaver.
– En lege sin hovedjobb er ikke å rapportere, skrive og transkribere, men å behandle. Ved å bruke kunstig intelligens får legen mer tid til pasienten, sier han.
Samtidig påpeker han at hallusinering er et problem.
– Man må huske på at kunstig intelligens kommer med helt nye måter å jobbe på, med nye problemer man må håndtere. På den ene siden får vi fantastiske og kraftige verktøy. Men disse stiller også nye krav til oss som skal bruke og implementere dem, sier han.
(Det fullstendige intervjuet med Goodwin kan du lese i Digital Norways nyhetsbrev tirsdag 5. november. Meld deg på nyhetsbrevet her).
Vil du lese mer om tech-uken som har gått? Her har vi samlet en rekke viktige nyheter om alt fra behandling av demens, KI-genererte reinsdyr og nyheter fra Google, OpenAI, Microsoft og Apple.
Nyhter om kunstig intelligens
- Google sier mer enn én fjerdedel av selskapets kode er laget med KI (Business Insider)
- Slik brukes KI for å gjøre livet med demens enklere(BBC)
- Kunstig intelligens skal forutse hvor det blir mørkt (Totens Blad)
- 90 prosent av all kunstig intelligens er egentlig markedsføring, sier KI-ekspert (Tech Spot)
- Googles KI skal kunne kontrollere PC-en din (Tek.no)
- Kina har bygget militær KI basert på Metas språkmodell (Reuters)
OpenAI, Apple, Google og andre generative KI-nyheter
- OpenAI lanserer ChatGPT med søk (Ars Technica)
- Samme selskap setter i gang med AMD-brikker – og kan ende opp med å lage egen hardware i 2026 (The Verge)
- Generativ KI inntar Google Maps (Ars Technica)
- Hvorfor er Amazon sin nye digitale assistent oppkalt etter en hund? (BBC)
- Nå kan du bruke Perplexity og Claude som PC-apper (Ars Technica)
- Mangel på regnekraft forsinker nye produkter fra OpenAI, sier Sam Altman (Tech Crunch)
- Brukere er skuffet over nye Apple Intelligence (Quartz)
- Slik gikk det da professoren spurte ChatGPT om litteraturtips (Khrono)
Generert nyhetsanker og genererte reinsdyr
- Har «klonet» TV 2-profilen: – Jeg er ikke bekymret (TV2)
- Brukte kunstig intelligens i sak om reindød: – Bevisstløst (iFinnmark)
Microsoft-nytt
- Kunstig intelligens setter fart på Microsofts skyvekst (The Guardian)
- Microsoft har ved en feil tilbudt KI som kan gjenkjenne kjønn (404 Medie)
- Microsoft utsetter Recall-funksjonen enda en gang (Digi.no)
EU går etter Temu, Strava-leaks og debatten om jobbtelefonen er i gang
- EU undersøker om Temu faktisk er lovlig (Bloomberg)
- Denne franske videoserien sporer opp Secret Service-agenter på Strava (Le Monde)
- Bruker du jobbtelefonen privat? Nå kan arbeidsgiver bli strengere med appene dine (Aftenposten)
- EU sliter med at workshop-deltakere for nye reguleringer ikke vil si om de representerer store tech-selskaper (The guardian)