
Språkmodeller kan «resonnere» og «huske» – men kan de lære?
Forskere har utviklet en metode som lar store språkmodeller forbedre seg selv og kontinuerlig lære. Mer om dette og resten av ukens tech-nyheter i Bits and Bytes.
Kan språkmodeller lære noe nytt? Det er et mer komplisert spørsmål enn man kanskje skulle tro.
Joda. Dagens LLM-er kan «resonnere» og har «minne». De kan fintunes mot spesifikke oppgaver og bearbeide informasjon fra nettet eller eksterne datakilder.
Derfor er det fort gjort å tenke at språkmodeller også lærer over tid, på samme måte som anbefalingssystemer i nettbutikker eller maskinlæringsmodeller i finans gradvis forbedrer seg gjennom erfaring.
Men når en språkmodell først er trent, så er den statisk. Det må omfattende, kostbare og trinnvise oppdateringer til for å endre på modellen.
Nå har imidlertid forskere ved Massachutes Institute of Technology (MIT) utviklet en metode som gjør det mulig for store språkmodeller å kontinuerlig forbedre seg selv.
Metoden kalles for SEAL (Self Adapting Language Models). Dette innebærer blant annet at modellen genererer syntetiske treningsdata og justerer egne parametere i møte med ny og nyttig informasjon.
Wired skriver at denne metoden kan gi oss kraftigere KI-verktøy, som i større grad kan håndtere individuelle interesser og preferanser.
Som å skrive notater for å huske bedre
Selv om moderne språkmodeller kan «resonnere« seg frem til gode svar, så lærer de ingenting av å behandle informasjon. Modellen blir ikke bedre neste gang den får et lignende spørsmål.
Her skiller SEAL seg fra tradisjonelle LLM-er: Modellen bruker informasjonen den får tilgang til – og fletter den direkte inn i sine egne vekter og parametere.
La oss si at modellen får tilgang til nyheten om at renten har gått ned. Da vil systemet selv skrive korte avsnitt som forsøker å utforske hva det betyr for boligmarkedet, forbrukere og økonomien generelt.
Forskerne som Wired har snakket med sammenligner dette med hvordan mennesker skriver notater for å huske og forstå bedre.
Deretter bruker modellen sine egne tekster som treningsdata, oppdaterer seg selv – og tester om den faktisk har forbedret seg – en prosess kjent som forsterkende læring.
Sovende språkmodeller?
Pulkit Agrawal, professor ved MIT, sier at SEAL-prosjektet berører noen av de mest grunnleggende spørsmålene innen kunstig intelligens – som hvordan KI-systemer selv kan finne ut hva de bør lære.
– LLM-er er kraftige verktøy, men vi vil jo ikke at kunnskapen deres skal stoppe opp, sier han.
Samtidig påpeker forskerne bak prosjektet at SEAL krever mye regnekraft, og at det fortsatt er uklart hvordan man best planlegger nye læringsøkter. Et av de mer kreative forslagene er at språkmodeller – i likhet med mennesker – kanskje kunne hatt «søvnfaser», der ny informasjon bearbeides og festes i hukommelsen.
Det har skjedd mye annet spennende på teknologifronten den siste uken. Vi har samlet høydepunktene – her er ukens viktigste nyheter:
Nyheter om kunstig intelligens
- Google tester ut stemmesamtaler i sanntid med kunstig intelligens (The Verge)
- Forskere roper varsko om «mørk KI» (Forskning.no)
- Ifølge MIT jobber hjernen mindre når vi bruker KI (The Register)
- 70 prosent av avspillingene av KI-musikk er falske, melder strømmetjeneste (The Guardian)
- Nå bygger KI-systemer ekstremt presise psykologiske profiler av oss (Digi.no)
- KI-boter flommer over nettet i jakten på treningsdata (The Register)
- Amerikanske professorer kjemper en umulig kamp mot kunstig intelligens (Aftenposten)
ChatGPT og OpenAI
- ChatGPT ba brukere varsle pressen om at den prøver å «bryte ned» mennesker (Gizmodo)
- OpenAI får militærkontrakt verdt 200 millioner dollar i USA (The Guardian)
- Som atombomben har ChatGPT forandret verden for alltid (The Register)
- KI-partnerskapet mellom OpenAI og Microsoft slår stadig større sprekker (Tech Crunch)
KI og fremtidens arbeidsliv
- Nvidia-sjefen går hardt ut mot Anthropic sin daglig leders påstand om at KI kan ta halvparten av fremtidens kontoryrker (Toms Hardware)
- Når KI-systemer forhandler, kan det koste deg dyrt å bruke en svakere språkmodell (MIT Technology Review)
- Snart kommer generasjon arbeidsløs (Dagens Næringsliv)
DNB misbrukt i storskala svindel
Sikkerhet
- Frykter ny type SMS-trusler kan spre frykt og påvirke valg (Aftenposten)
- 16 milliarder passord på avveie (Forbes)
- Nytt skadeprogram kaprer bankapper – uten at du merker det (Toms Guide)
- Equinor sitt overvåkingssystem delvis utviklet av russere i St. Petersburg i Russland (NRK)
- Minecraft-spillere lures av falske mods – får passordene stjålet (Bleeping Computer)
- WhatsApp-KI lekket en brukers mobilnummer (The Guardian)
- KI-verktøy fant barnebildet av meg som jeg aldri har sett før (NRK)
Hvordan står det til på skyfronten?
- Microsoft lar deg kjøre 365 i private skymiljøer – skal gi kundene full kontroll (Digi.no)
- Telenor-sjefen: Allerede på god vei til å levere på nasjonal sky (Digi.no)
Hils på Norges nye supercomputer
Varseltretthet og ny Trump-telefon
- Varseltretthet gjør at flere kutter ut nyhetsvarsler (The Guardian)
- Prøvde å bestille Trump-telefon – ble belastet feil og kastet ut av nettsiden (404 Media)
- Trump-telefonen skulle være helamerikansk – er produsert i Kina (Apple Insider)
Diverse
- Slutt for tekst-TV (NRK)
- Regjeringen vil forby kryptofabrikker (Digi.no)
- GitHubs repo nummer én milliard heter bare «sh*t» (Toms Hardware)
- Er dette fremtidens strømnett? (MIT Technology Review)