Kunstig intelligens: Kan teknologien egentlig styres?
Derfor er god styring, inkludering og kritisk behandling av ny teknologi en forutsetning for å lykkes med kunstig intelligens, ifølge ekspert på fremtidens arbeidsliv.
Digitaliseringen og datafiseringen av arbeidslivet har skutt fart de siste ti årene, og vi er utstyrt med en rekke nye verktøy og teknologier som – i beste fall – kan gjøre jobbene våre bedre, enklere og mer effektive. Men den samme teknologien kan også brukes på inngripende måter det blir stadig vanskeligere for oss mennesker å ha kontroll over, og i verste fall gjøre alvorlig skade.
– Kunstig intelligens kan være nyttig. Men vi må ikke glemme at dette er krefter med kapasitet til å manipulere, villede og diskriminere, til tross for de beste intensjoner. Krefter som kan utfordre vår menneskelige autonomi.
Det sier Dr. Christina J. Colclough. Hun har spesialisert seg på fremtidens arbeidsliv, og er en internasjonalt anerkjent ekspert på digitalisering og etisk bruk av kunstig intelligent teknologi på arbeidsplassen.
Kan vi stole på at kunstig intelligens er til det beste for oss mennesker?
I dag kan kunstig intelligens og datadrevne systemer hjelpe oss med alt fra timeføring, fakturering og rekruttering – men og brukes til å løse komplekse oppgaver på en måte som er langt utenfor menneskelig fatteevne.
Stadig flere prosesser automatiseres uten menneskelig inngripen. Og stadig flere avgjørelser tas basert på algoritmer, modeller og systemer svært få egentlig forstår hvordan fungerer. Med slik teknologi, følger også en rekke utfordringer, problemer og etiske spørsmål:
Kan vi stole på at utfall generert av kunstig intelligente systemer alltid er til det beste for ansatte, kunder og brukere? Og hvilke konsekvenser kommer bruken av kunstig intelligens til å ha for fremtidens samfunn og arbeidsliv?
Klarer vi egentlig å styre kunstig intelligens, slik at autonome teknologier brukes til menneskets beste, er spørsmålet både filosofer og fagforeninger ønsker svar på. Hennes korte svar er ja, men:
– Det forutsetter en god del flere hensyn i møte med ny teknologi enn de vi tar i dag, forklarer Colclough.
Derfor etterlyser hun mer kritisk behandling – samt bedre lederskap og styring – for hvordan kunstig intelligens implementeres i arbeidslivet.
Nødvendig at alle interessenter kommer på banen
For å få til dette mener Colclough det er et behov for tre viktige tiltak. For det første trengs det bedre reguleringer og kontrollorganer i både politikken og arbeidslivet. For det andre en tydeligere bevissthet rundt konsekvenser av algoritmiske systemer:
– Hvem går det utover? Hva er egentlig konsekvensene av automatisering og datadrevne beslutninger? Det er vel så viktige spørsmål som hvorvidt disse systemene vil bidra til økonomisk vekst og verdi.
For det tredje må interessenter innen kunstig intelligent teknologi samles og bli enige om hva slags arbeidsliv de ønsker seg i fremtiden:
– Arbeidsgivere, virksomheter, bedrifter og organisasjoner av alle slags størrelser må komme på banen med meninger og synspunkter om hvordan vi bør håndtere ny teknologi. Det er helt nødvendig for få på plass avtaler, rutiner og for å bygge en solid grunnmur hvor kunstig intelligens kan brukes på en slik måte at det gagner alle.
– Utviklingen går fort og potensialet er stort, men akkurat nå er det våre menneskerettigheter som står på spill. Intet mindre.
🎧 Lytt til vår podkast
I podkasten «Kunstig intelligens på arbeidsplassen» snakker vi med fire ulike eksperter – deriblant Dr. Christina J. Colclough – om hvordan kunstig intelligens fungerer, hvordan det påvirker hvordan vi lever og jobber – og ikke minst hvordan man kan ta i bruk ny teknologi på en etisk og lovlig måte.
I første episode av tre stiller vi ekspertene spørsmålet: Hvorfor skal du bry deg om kunstig intelligens?
Du kan også lytte til episodene på Spotify, podkast-spilleren på din telefon, eller hvor hen du finner dine podkaster.
Krever tid, forpliktelser og ressurser
Summen av kontrollorganer, bedre lederskap, økt kompetanse og ansvarliggjøring er paraplybetegnelsen som på engelsk kaller for governance.
Governance er et ord vi mangler en god, direkte norsk oversettelse på. Det handler om styringssystemer og styringsstrukturer. God styring innebærer å jobbe effektivt mot virksomhetens forretningsmål, men samtidig forene disse med andre hensyn – som etikk, juss, sikkerhet og bærekraft.
God og kritisk styring krever tid, forpliktelser og ressurser. Men er også helt nødvendig for å bruke teknologien på en god måte. Colclough peker på dette som et paradoks:
– På den ene siden er disse systemene raske. De er effektive. De er produktive. Men å virkelig få dem til å fungere, tar tid. Hastigheten til systemene og tiden det tar for systemene å komme på plass er to motsatte krefter, som vi må lære å balansere.
Dette legger Dr. Christina J. Colclough i god styring av kunstig intelligens:
Alle relevante stemmer må høres for at ny teknologi skal vurderes etisk:
Beslutninger kan ikke tas av teknologi- eller markedssjefer ene og alene. Man er også nødt til å høre på de som påvirkes direkte av algoritmiske systemer. Dette gjelder ansatte, tillitsvalgte og forbund/organisasjoner som er bekymret for at arbeidstakere erstattes av roboter, grupper som diskrimineres av algoritmer – og organisasjoner som representerer disse gruppene – for ikke å snakke om enkeltmennesker med personopplysninger som behandles av kunstig intelligente systemer.
Ny teknologi må reguleres. Både politisk og lokalt i arbeidslivet:
Det finnes allerede en del lover som tar for seg bruk av ny teknologi, som arbeidsmiljøloven, diskrimineringsloven og personopplysningsloven (GDPR) – og flere juridiske retningslinjer som eksplisitt tar for seg kunstig intelligens er på vei. Men for å sikre tydelige regler, må bruk av algoritmiske systemer også reguleres lokalt i avtaler på arbeidsplasser og forankres hos fagforeninger.
Åpenhet er nøkkelen:
Åpenhet handler om tillit. Hvordan bruker vi systemene og hva skal de brukes til? Sørger vi for å involvere alle i prosessene? Åpenhet kan også handle om de algoritmiske systemene i seg selv. Hvordan kommer de frem til bestemte utfall? Hvilken data behandles? Hvem leverer teknologien – og hvem kontrollerer den? Jo mer åpenhet – jo bedre kan vi sikre at alle hensyn tas.
En annen forutsetning for bedre styring, er kunnskap. Her kan du ta Digital Norway, i samarbeid med Finansforbundet, NITO og Negotia sin veiviser om hvordan kunstig intelligens kan brukes til ansvarlig og etisk verdiskapning.
Diskriminerende algoritmer
Blant de mest presserende utfordringene når det kommer til kunstig intelligente systemer i dag, er diskriminering:
Det finnes mange eksempler på kunstig intelligente systemer som – grunnet skjevheter i datagrunnlaget – har produsert diskriminerende utfall på bakgrunn av kjønn, alder, etnisitet og/eller funksjonsevne.
Colclough trekker frem et eksempel fra Nederland, hvor en algoritme ble satt til å avsløre trygdesvindel i forbindelse med barnebidrag. Vurderte algoritmen deg som villig til å jukse, ville du få avslag.
– Algoritmen diskriminerte ikke-etniske nederlendere. Det ble en så stor skandale at regjeringen måtte gå av.
– Dette er ikke bare enkelttilfeller. Diskriminerende teknologi og alvorlige feil knyttet til bruk av kunstig intelligente systemer er også noe som har skjedd, skjer og kan skje på helt vanlige arbeidsplasser, og gå utover helt vanlige mennesker – også i Norge.
Dette er data bias:
Datadrevne systemer er bare så gode som de dataene de fôres med. Like viktig er sammenhengen dataene brukes i, og instruksjonene for hva du vil at systemene skal gjøre med dem.
Når algoritmer diskriminerer og kunstig intelligente systemer ikke fungerer som vi vil, er det i mange tilfeller bias som får skylden. Bias er kort sagt når et system systematisk avviker fra det som ville vært et mest mulig nøytralt eller forventet resultat.
Bias kan oversettes som skjevhet, partiskhet eller forutinntatthet – nokså negativt ladede begreper, alle sammen! Men teknologien og teknikkene vi bruker er aldri gode eller onde i seg selv. Det kan hende vi ønsker en skjevhet, for eksempel for å prioritere grønne og bærekraftige selskaper når vi ser etter en leverandør.
Når bias er utilsiktet, er det enten slik at algoritmene diskriminerer på bakgrunn av skjevheter i datagrunnlaget, eller at selve instruksjonene er farget av partiskhet eller forutinntatthet. Men datagrunnlaget er det jo vi mennesker som samlet, og instruksjonene er det mennesker som har skrevet. Derfor sier vi at data bias ofte speiler skjevheter og forutinntatthet i samfunnet.
– Kunstig intelligens må være gjenstand for debatt
Å motsette seg den teknologiske utviklingen er heller ikke hensiktsmessig, poengterer Colclough. Det blir det samme som å avvise funksjonen penger har som en samfunnskontrakt, eller demokratiet som styresett: Konsekvensen er at du havner på utsiden av samfunnet.
Men slik det er mulig å være med å påvirke hvilke partier som skal danne regjering – er det også mulig å påvirke hvordan algoritmer, ny teknologi og kunstig intelligente systemer skal brukes.
Fremgangsmåten er den samme: At flest mulig mennesker tilegner seg et visst nivå av kunnskap og at flere deltar i de store og de små diskusjonene på arbeidsplassen og i samfunnet generelt, og engasjerer og organiserer seg for å få innflytelse og gjennomslag.
– Hvis du ser på et hvilket som helst politisk emne, vil ulike synspunkter vektes, og man forhandler seg frem til løsninger. Akkurat som alle andre problemstillinger i samfunnet, bør ny teknologi være gjenstand for debatt, rett og slett for å kunne bli brukt best mulig, forklarer hun.
– Teknologien kan brukes til gode formål. Den kan brukes til å beskytte oss og planeten vår, eller enkelt og greit gi oss en mer beleilig og komfortabel hverdag. Kunstige intelligente systemer kan gjøre jobbene våre enklere og livene våre bedre. Er vi villig til å sette av tiden, tilegne oss kunnskapen og bruke de ressursene som trengs for å oppnå dette?
Ta vårt kurs om kunstig intelligens på arbeidsplassen:
Veiviser
Kunstig intelligens på arbeidsplassen
KI endrer hvordan vi lever og jobber. Lær om mulighetene med teknologien – samt hvordan og hvorfor vi alle må bidra til å styre utviklingen i etisk og ansvarlig retning.