Kunstig intelligens eller menneskelige luner?

Matematikeren Hannah Fry har utforsket den kunstige intelligensens tilkortkommenheter og muligheter.
En fruktbar arbeidsdeling mellom maskin og menneske er mulig – og nødvendig, mener hun.

Bok Hello World
Anders Dunker
Filosof. Fast litteraturkritiker i Ny Tid. Oversetter per august 2018

Hello World! How to be Human in the Age of the Machine

Hannah Fry

Doubleday

USA

Teknisk Ukeblad melder om at det trondheimbaserte selskapet Sevendof har fått EU-støtte til å etablere et nettverk av dronestasjoner over hele Norge – med autonome droner som kan utføre oppgaver for ulike oppdragsgivere. Dette er et klart bilde på hvordan kunstig intelligens (KI) og automatiserte systemer inntar livsrommet vårt. Hva disse systemene egentlig gjør og brukes til, går åpenbart over hodet på oss på forskjellige måter. Er vi misfornøyd med dem, må vi stille oss spørsmålet om hvorvidt vi kan løse oppgavene bedre selv – begrenset som vi er av våre sanser, forstanden som er oss gitt og vår menneskelige intelligens.

Fra tjener til tyrann

Boken Hello World! How to be Human in the Age of the Machine ser ikke på drømmene – eller marerittene – om framtidens perfekte KI, men fokuserer på dagen i dag – på vårt frustrerende samliv med den imponerende, men høyst ufullkomne kunstige intelligensen.

Vi venner oss gradvis til programmer og hjelpemidler som nesten umerkelig har tatt over store deler av hverdagen vår – søkemotorer, apper og automatiske systemer som skal legge til rette for et enklere liv. Men når algoritmene også blir tatt i bruk innen medisin, juss, forsvar og overvåkningstjenester, oppleves det som om datateknologiens tjenere gradvis tar over makten og ender opp som tyranner.

Hva foretrekker vi? Maskinens objektive feilbarlighet eller menneskenes subjektive luner?

Hello World! er bygget opp som en underholdende remse av anekdoter som illustrerer automatiseringens viderverdigheter. Eksemplene spenner fra det bisarre og lattervekkende til det sjokkerende og skrekkinngytende.

Fry minner oss på den dramatiske hendelsen i 1983 der den sovjetiske offiseren Stanislav Petrov unnlot å innlede motangrep da det så ut til at fem amerikanske atomraketter var på vei mot Russland. Hadde avgjørelsen vært overlatt til en automatisert algoritme, ville det ikke vært rom for Petrovs veloverveide ordrenekt, påpeker forfatteren.

Et motsatt og komisk eksempel er historien om Robert Jones, som stolte så blindt på GPS-en at han tok inn på en krøttersti og bare så vidt unngikk å kjøre utfor et stup. Vi rister på hodet når GPS-systemet vil ha oss til å velge en upraktisk vei, og føler oss overbevist om at vår egen hjerne og vurderingsevne tross alt er uovertruffen. Den store styrken i Frys bok er at hun ikke stopper ved en slik «algoritme-antipati», men snarere nyanserer problemet: Det avgjørende spørsmålet er nemlig hva vi skal gjøre i tilfeller der vi ikke vet bedre selv.

Maskindommeren kommer

Illustrasjon til Hello WorldFry beskriver et datasystem som i USA ble tatt i bruk for å foreslå straffeutmålinger i retten, noe eksperter, blant andre rettshistoriker Jørn Øyrehagen Sunde, mener snart vil kunne bli gjeldende praksis også i Norge. Automatiserte analyser hjelper dommerne til å vurdere hvem som lettest vil falle tilbake til kriminalitet – og blir dermed redskaper til å idømme soningslengde og prøveløslatelser, om maskinens forutsigelser enn er aldri så uhyggelige.

Det er ikke til å unngå at noen av resultatene intuitivt oppleves som urettferdige og tilfeldige av både dommere, jurister og lekmenn. Likevel: Da amerikanske dommeres vurderingsevne ble testet og kryssjekket gjennom anonymiserte undersøkelser og blindtester, viste det seg at de ofte bedømte samme sak vidt forskjellig. Kriteriene er uklare, sakene er mange, og dagsformen spiller inn.

Så hva foretrekker vi? Maskinens objektive feilbarlighet eller menneskenes subjektive luner? Et viktig poeng hos Fry er at algoritmebruk i rettspraksis er populært både fordi det er arbeidsbesparende og fordi dommere og andre involverte slipper det direkte ansvaret for feil og straffutmåling. Elimineringen av direkte ansvar er åpenbart et problem for ofrene, et poeng som stadig kommer opp i debatten om førerløse biler.

Folk har naturlig nok en motvilje mot biler som er programmert til å nedprioritere fotgjengere og dermed potensielt vil meie dem ned. Men hvem vil kjøpe en altruistisk programmert bil som kjører av veien og ofrer livet ditt for at en fremmed fotgjenger skal reddes? Slike problemstillinger kan skape en uoverskridelig moralsk grense for automatiseringen – der ansvar og skyld har en slags egenverdi som ingen egentlig ønsker å overlate til en maskin.

Informasjon mot tilgang

De fleste har erfart hvordan vi benytter kalkulator oftere og oftere, nettopp fordi den økte bruken gjør oss stadig dårligere i hoderegning. Tilsvarende svekker bruken av dataprogrammer vår kritiske sans, som skulle gjøre oss i stand til å korrigere, nyansere og trosse de samme programmene.

Hvem vil kjøpe en altruistisk bil som heller kjører av veien og ofrer livet ditt for at en fremmed fotgjenger skal reddes?

Men feilen ligger ikke nødvendigvis hos oss selv. Fry ønsker seg flere gjennomsiktige algoritmer som kan gås etter i sømmene, og som gir oss valgalternativer fremfor entydige svar. Dette er forholdsvis enkelt å få til der algoritmene prioriterer og tar beslutninger, men vanskeligere i søkemotorer som klassifiserer, assosierer og filtrerer store datamengder. Algoritmer basert på maskinlæring og big data behandler en hyperkomplekst materie og er selv ofte ugjennomtrengelige i sin kompleksitet.

Fry framhever de mange problematiske tilfellene der KI blir et middel til subtil manipulering. Når man vet at amerikanere som kjører Ford, ofte stemmer republikansk, kan man skreddersy en kampanje rettet mot Ford-kjørende demokrater, der patriotisme skal vinne dem over til motsatt side. Langt mer uhyggelig er det når likes brukes til å klassifisere personlighetstyper. Blir du kategorisert som nervøs, og samtidig er enslig kvinne, kan du fort bli mål for et framstøt fra våpenlobbyen: Frykten for å bli angrepet i ditt eget hjem gjør deg tilbøyelig til å ønske deg en pistol.

Konflikt og samarbeid

Big data-analyser blir utnyttet i både reklame- og valgkampanjer. Med det sosiale kontrollsystemet Sesame Credit, som for tiden implementeres i Kina, fanges alt du gjør, opp og tilbakeføres til et poengsystem som avgjør om du er til å stole på – og dermed bokstavelig talt åpner og lukker dører i samfunnet. Også i Vesten er det umulig for den enkelte å overskue markedet for datameklere, som selger enorme samlinger informasjon som i prinsippet er anonym, men som er lett å hacke.

I sosiale medier som Facebook bytter vi informasjon om oss selv mot å få tilgang til tjenesten. Dette kunne vært en rimelig kjøpslåing, sier Fry – men hvis du lar et helsefirma skanne DNA-et ditt i bytte mot medisinske tjenester, vet du ofte ikke hva byttehandelen vil innebære, særlig siden reguleringer typisk ligger etter den teknologiske utviklingen.

Hvis algoritmene og vi skal leve godt sammen, må vi både lære av og om dem, påpeker Fry: Bare slik kan vi forstå når samarbeidet er fruktbart, og når man bør jobbe adskilt. Konflikt og frustrasjon med dataprogrammer bør utnyttes «samlivsterapeutisk»: De gir anledning til å forbedre forholdet – og å gjøre systemene åpnere og mer samarbeidsdyktige. Et fullt samlivsbrudd med den kunstige intelligensen blir et stadig mindre aktuelt alternativ – noe som i seg selv er høyst tankevekkende.

Les også: Kunstig idioti og naturlig intelligens

Kommentarer