Matteødeleggelsesvåpen

I sin urovekkende fortelling om kommende datamodellering viser dataforsker Cathy O’Neil hvordan tallene selv utvider gapet mellom dem som har og dem som ikke har.

Weapons of Math Destruction

Cathy O’Neil

Penguin Books Ltd

UK

De økonomiske forskjellene øker over hele verden. En av de betydeligste forskere på ulikhet, Thomas Piketty, ble verdensberømt for sin bok Kapitalen i det 21. århundre. Takket være ham vet vi nå helt sikkert at skjevfordelingen vokser. Ifølge Piketty skyldes dette en markedsøkonomi basert på privat eiendom, som er til fordel for folk som eier kapital. Piketty skriver at «formue akkumulert i fortiden vokser raskere enn produksjon og lønninger. […] Entreprenøren tenderer uvegerlig mot å bli rentenist, og overskygger mer og mer disse som ikke eier annet enn sin arbeidskraft.» Eller, som han fastslår: «Fortiden fortærer fremtiden». Du er sannsynligvis kjent med dette synet grunnet all oppmerksomheten Piketty har fått de siste par årene. Men du er antakeligvismindre kjent med den svært annerledes oppfatningen av tingenes tilstand, som blir forklart i Weapons of Math Destruction.

Learning by doing, eller ikke. Boken er skrevet av tidligere matematikkprofessor og dataforsker Cathy O’Neil, og vil åpne øynene våre for skavankene ved big data-analyse. Det er tross alt menneskeskapte algoritmer som leverer varslingsmodellene big data benytter. O’Neil peker umiddelbart på forskjellen mellom Google – som har millioner på millioner av brukere som kan teste og forbedre datagigantens algoritmer – og for eksempel en datamodell for en enkelt skole i Washington DC med noen få tusen elever. Ifølge forfatteren har dette alvorlige konsekvenser. «Ved å love effektivitet og rettferdighet deformerer de høyere utdanning, driver opp gjeld, stimulerer til massefengslinger, mørbanker de fattige så å si når som helst og undergraver demokratiet.» Matematiske modeller forutsier sannsynligheten for at noen underyter, misligholder et studielån eller begår en forbrytelse. Av og til skaper modellen en selvoppfyllende profeti når den er feilaktig i utgangspunktet, og har vansker med å lære av sine feil om den går i en feedbackloop. I enkelte tilfeller forårsaker feilaktige modeller reelle ødeleggelser. «Skadevirkningene er mange. De viser seg når en enslig mor ikke kan sørge for barnepass hurtig nok til at det passer med jobb-timeplanen hennes, eller når et ungt menneske som sliter blir svartelistet fra en timejobb på grunn av en personlighetstest knyttet til arbeidsplassen. Vi ser dem når en fattig minoritetsgutt blir stoppet, banket opp og får en advarsel av det lokale politiet, eller når en som jobber på en bensinstasjon og bor i et fattig område rammes av høyere forsikringspremie,» ifølge O’Neil.

Lyst til å lese videre?

Logg inn eller registrer deg her

---
DEL

LEAVE A REPLY

Please enter your comment!
Please enter your name here