Abonnement 790/år eller 190/kvartal

En etisk kunstig intelligens

TEKNOLOGI / Kan man med kunstig intelligens erstatte en ufullkommen menneskelig dømmekraft, og la sosiale tvister løses gjennom automatiserte beslutningssystemer?

Bruken av rutiner og algoritmer «ute i det åpne» for å måle, kvantifisere og optimalisere alle aspekter av livene våre har både ført til større offentlige bekymringer og økt oppmerksomhet fra regulative myndigheter. Blant listen over løsninger finner vi noen ideer som mangler troverdighet, ikke minst de som blir promotert med betegnelsen «etisk kunstig intelligens (etisk KI).»

Det er forståelig at offentlige myndigheter ønsker å bremse de uønskede konsekvensene av visse former for kunstig intelligens, spesielt de som har å gjøre med økt overvåking, diskriminering av minoriteter og urettmessige administrative beslutninger. Men regjeringer plaget av pengemangel er også ivrige etter å omfavne enhver teknologi som kan gi effektivitetsgevinster innen offentlige tjenester, rettsvesenets håndhevelse av loven og andre oppgaver. Den fastlåste situasjonen mellom disse to prioriteringene har flyttet debatten bort fra lov og politikk, over mot å fremme en frivillig forbedring av praksis og etiske standarder innen bransjen.

Automatiseringen akselerer

Så langt dreier dette presset, som har blitt forsvart av offentlige organer så forskjellige som EU-kommisjonen  og det amerikanske forsvars-departementet, om begrepet «algoritmisk rettferdighet». Tanken er at man kan motvirke en ufullkommen menneskelig dømmekraft, og at sosiale tvister kan løses gjennom automatiserte beslutningssystemer – der innspillene (datasett) og prosesser (algoritmer) er optimalisert slik at de skal kunne gjenspeile visse vagt definerte verdier, for eksempel «rettferdighet» eller «troverdighet». Med andre ord legges det ikke vekt på det politiske, men på finjustering av maskineriet, som ved å fjerne forfordeling i eksisterende datasett eller skape nye.

Det er ikke noe nytt å maskere dypere politiske konflikter bak et slør av teknologisk mediert objektivitet. Men når automatiseringen stadig akselerer, er det ikke en praksis vi kan tillate oss å lukke øynene for. Jo mer politikerne fokuserer på å fremme en frivillig KI-etikk, jo mer sannsynlig er det at de reagerer på måter som er ødeleggende og udemokratiske og som i tillegg distraherer oss fra hva som virkelig foregår.

Distraksjonen kommer for eksempel inn når etisk kunstig intelligens forutsetter at en geografisk upartisk praksis kan bli utarbeidet, som siden kan gjentas med et utall av forskjellige parametere. Kanskje er tanken å gjøre dette gjennom et multilateralt forum, der en tilsynelatende allsidig gruppe eksperter skal samles for å forberede globale retningslinjer, for å utvikle og styre KI på en etisk måte. Hva ville de så komme opp med?

«Etisk hvitvasking»

Berkman Klein Center for Internet and Society ved Harvard University publiserte nylig en gjennomgang av rundt 50 «KI-prinsipper» som har kommet ut av den bredere debatten så langt. Forfatterne påpeker at samtalen har en tendens til å kretse om åtte temaer – personvern, ansvarlighet, sikkerhet og sikkerhet, åpenhet og forklarlighet, rettferdighet og ikke-diskriminering, menneskelig kontroll av teknologi, faglig ansvar og fremme av menneskelige verdier. Spesielt savnet er to elefanter i rommet: strukturell asymmetrisk makt og klimakatastrofen som truer på horisonten. Disse utelatelsene viser at ekspertene som er hentet inn for å gi et rammeverk for etisk KI opererer i en relativt lukket krets, og har problemer med å gi råd som fanger tidsånden.

Regjeringer plaget av pengemangel er også ivrige etter å omfavne enhver teknologi som kan gi effektivitets-gevinster.

Jakten på etisk KI kan også få den offentlig sektorens administrative evne til å forvitre. For eksempel har EU-kommisjonen, etter å ha prøvd å delta i debatten med en ekspertgruppe i KI, blitt møtt med massiv kritikk, der det har blitt hevdet at de har undegravet sin egen troverdighet når det gjelder evnen til å ta ledelsen på dette feltet.  En av gruppens egne medlemmer, Thomas Metzinger ved Universitet i Mainz, har til og med avvist sluttversjonen av de foreslåtte retningslinjer som et eksempel på «etisk hvitvasking». På samme måte har rettighetsgruppen AlgorithmWatch  stilt spørsmål ved hvorvidt «pålitelig KI» engang skal være, gitt at det er uklart hvem – eller hva – som burde ha autoritet til å definere slike saker.

Her kan vi se hvordan det velmenende arbeidet med å dirigere utbyggingen av kunstig intelligens kan slå feil. Så lenge samtalen forblir vag, kan ingen protestere mot ideen om pålitelighet i prinsippet. Beslutningstakere kan begynne å overstyre tiår med prestasjoner innen vitenskap, teknologi og samfunn, ansvarlig forskning og innovasjon, og menneske-data interaksjon. Når alt kommer til alt finnes det ingen endelig liste over retningslinjer som vil være brukbare uavhengig av politisk nivå, av den enkle grunn at etisk kunstig intelligens allerede i utgangspunktet er et praktisk ugjennomførbart politisk mål.

Næringslivet

Til slutt. Hvis vi vier for mye oppmerksomhet til KI-etikk, risikerer vi å flytte diskusjonen bort fra mer demokratiske former for kontroll. En fortelling om en stadig utvidelse av kunstig intelligens har vunnet frem, siden næringslivet har lagt beslag på mange og høyere utdanningsinstitusjoner og deres samarbeidspartnere. Samtalen flytter åpne offentlige arenaer over til lukkede forskansninger av kompetanse, privilegier og globalt teknokrati.

Det private næringslivet slår to fluer i en smekk: samtidig som man beholder status quo og unngår endring i dagens slappe regulering, kan teknologiselskaper presentere seg selv som sosialt ansvarlige. For folk flest er derimot konekvensene ikke like tiltalende. Det falske inntrykket av at det allerede finnes en etisk enighet omkring kunstig intelligens utelukker på forhånd politisk debatt – selve demokratiets kjerne. I siste instans blir sosiale spenninger forsterket, mens tilliten til myndighetene forvitrer. Så snart man har fått på plass rammeverket for hvilke praksiser som er etisk foretrukne, vil automatiserte systemer bli gitt et skinn av objektiv kunnskap, til tross for at de har vært unndratt enhver meningsfull kritisk granskning. Deres avgjørelser vil være som utslag av strenge lover, uten rom for kontekst, nyanser, apell og revurdering.

Ansvarlighet

Med begynnelsen på vårt nye tiår er det klart at KI-politikken må komme lenger enn til plattheter om frivillige etiske rammer. Som Frank Pasquale ved University of Maryland forklarer, bør algoritmisk ansvarlighet komme i to bølger, der den første fokuserer på å forbedre eksisterende systemer, mens den andre stiller grunnleggende spørsmål om makt og styring.

For fremtiden bør politikere gi slipp på historien der kunstig intelligens blir gjort til noe eksepsjonelt. Vi må håpe at den lukkede kretsen av nyutnevnte KI-etikere blir brutt opp for å gjøre plass for de som blir mest direkte berørt av de disruptive prosessene innen KI og automatisering: sluttbrukerne og innbyggerne som regjeringene har en plikt til å beskytte og tjene.

 

        Oversatt av Anders Dunker

Maciej Kuziemski
Maciej Kuziemski
Fra NY TIDs partner Project Syndicate

Du vil kanskje også like