Var et farlig KI-gjennombrudd grunnen til at OpenAI-sjefen fikk sparken?
Frykten for at kunstig intelligens (KI) kan utgjøre en trussel for menneskeheten, kan ha vært avgjørende for sjefsdramaet i OpenAI. Her er ukens viktigste tech-nyheter.
Det går ikke akkurat tregt i svingene hos OpenAI. Det er bare et knapt år siden selskapet endevendte verden med ChatGPT – men for mange kan det nok føles mye lenger. Fra lansering tok det seks dager før KI-tjenesten hadde 100 millioner brukere, noe Facebook brukte fire og et halvt år på å oppnå.
Og nå nylig sparket OpenAI altså sjefen Sam Altman – for så å gjeninnsette han fem dager senere. Nyheten om Altmans gjenoppstandelse ble markert med lanseringen av en ny ChatGPT-funksjon, som gjør det mulig å faktisk snakke med chatboten med bruk av stemmen din når du bruker mobilappen. Tjenestene var tidligere kun tilgjengelig for betalende brukere, men kan nå brukes av alle.
Men tilbake til sjefsdramaet: hva var det egentlig som skjedde?
Vel – det er ikke umiddelbart åpenbart, og selskapet selv har ikke bekreftet ryktene som florerte i etterkant av sparkingen. Det er likevel flere medier som melder om at det var snakk om en intern maktkamp.
I det ene hjørnet sto Sam Altman og president og medgrunnlegger Greg Brockman, som begge kjempet for rask utvikling og økonomisk vekst. I det andre hjørnet var de som har vært opptatt av varsomhet, blant andre Ilya Sutskever, en av selskapets ledende KI-forskere.
(Du kan lære mer om Sutskever, en av forskerne som nå former verden, i samtale med den norske filmskaperen Tonje Hessen Schei hos The Guardian.)
Nå kan Reuters avsløre at særlig ett prosjekt – kalt Q* (uttales Q-Star) – kan ha vært avgjørende for at de varsomme tok handling. Ifølge nyhetsbyrået kan det ha vært et gjennombrudd i Altmans våtdrøm om å utvikle kunstig generell intelligens (KGI).
KGI: trussel eller løsning?
KGI er en hittil hypotetisk form for kunstig intelligens som kan forstå, lære og utføre handlinger på lik linje med et menneske. Eller som OpenAI definerer det: autonome systemer som overgår mennesker i de fleste økonomisk verdifulle oppgaver. De tech-lærde strides om hvorvidt det faktisk er mulig å oppnå KGI, men Altman tror ikke bare det er mulig – han mener det kan være helt nødvendig for at menneskeheten skal overleve.
Q*-prosjektet kan være et gjennombrudd for KGI, noe som bekymret flere OpenAI-forskere, ifølge Reuters. I et brev til OpenAI-styret skal disse forskerne ha advart om at oppdagelsen kan utgjøre en trussel for menneskeheten.
Du ser kanskje hvordan dette vil oppleves blant de som ønsker en mer varsom tilnærming til utvikling – de som opplever at Altman har vært mer opptatt av kommersialisering enn å forstå konsekvensene av teknologien?
En anonyme kilde sier til Reuters Q*-modellen har klart å løse enkelte matematiske problemer. Selv om matten kun er på grunnskolenivå, opplever mange matematikk som et viktig utviklingssteg for generativ KI. En ting er å forstå språk og setningsoppbygning for å gi overbevisende, men ofte feilaktige svar – altså slik mange av oss kjenner ChatGPT i dag. Men det er noe helt annet å utføre regnestykker hvor det bare er ett riktig svar.
Det innebærer at KI-en har resonneringsevne som ligner menneskelig intelligens.
– Optimaliserer sine mål, uansett konsekvenser
Men hvorfor er dette så farlig? Det sier ikke Reuters’ kilder noe spesifikt om – men det er ikke urimelig å anta at det kan knyttes til den velkjente diskusjonen om hva tenkende maskiner vil gjøre.
Som Tor W. Andreassen, professor i innovasjon ved Norges Handelshøyskole skriver i et innlegg på Digi.no:
– Muligheten for at KGI kan overgå menneskelig intellekt på kort tid, vekker bekymringer. Teknologiens iboende drivkraft til å optimalisere sine mål, uansett konsekvenser, utgjør en risiko for menneskeheten hvis disse målene er i konflikt med menneskelig sikkerhet og verdier. Dette fremhever problemet med justering («alignment»), som betyr å sikre at KGIs mål er i tråd med menneskelige interesser.
Vil de bestemme seg for å redde menneskeheten, slik Altman tror? Eller vil de resonnere seg frem til at menneskets utslettelse egentlig er det beste for alle parter?
Les hele Reuters-avsløringen her og lær med om OpenAI-dramaet:
- Fem dager med kaos: Slik kom Sam Altman tilbake til OpenAI (The New York Times)
- OpenAIs forvirrende uke. Hvem kom ut på topp? Og hvem tapte? (CNN)
- Ny «all-time-high» for Microsoft etter KI-kupp (Dagens Næringsliv)
- Sam Altmans gjenoppstandelse vekker ny frykt for KI-apokalypse (Wired)
En annen KI-sjef forlot selskapet sitt denne uken:
Avdelingssjef i Stability AI mener at KI-utviklere må ha samtykke for å bruke åndsverk:
Smart løsning gjør det enklere å kjøre nye LLM-applikasjoner:
KI-bilder kan ikke vinne fotokonkurranse likevel:
Regjeringen vil bruke 20 millioner på innovasjonsnav:
- Regjeringen satser på digital og grønn omstilling (Regjeringen)
X/Twitter er nok en gang i trøbbel for hatefulle ytringer:
- X saksøker vakthundgruppen Media Matters etter rapport om annonser knyttet til nazistiske innlegg (The Guardian)
- Høyreorienterte personligheter bruker X for å bringe antisemittiske teorier frem i lyset i USA (The Guardian)
Verdens største kryptobørs får milliardstraff for hvitvasking:
Datatilsynet krever 82 millioner fra Meta:
Facebook kan også saksøkes av Johan Golden:
Shipping og flaskepant – ingen er trygge fra dataangrep:
Har naboene våre i øst knekt batterikoden?:
Google med nytt verktøy for en passordfri hverdag:
123456 – fortsatt «kongen» av passord:
Denne nyheten er ganske lik hvert eneste år … og det er oppsiktsvekkende i seg selv.
Lær noe nytt med et gratis kurs:
Tjenester
Digitale kurs
Trenger du eller dine ansatte kompetanseheving på teknologi, innovasjon og digitale verktøy? Kursene er helt gratis og utviklet i samarbeid med noen av de tyngste fagmiljøene i norsk næringsliv og akademia.