Forsker: Vi bliver nødt til at lære maskinerne menneskelig moral
TED-talk: Forsker advarer om, at maskiner foretager en masse valg for mennesker, som ikke er specielt menneskelige. Det skal vi gøre noget ved, advarer hun.

Maskiner tager flere og flere valg, som har indflydelse på menneskers liv. Det er der en masse etiske problemer ved, som vi er nødt til at være opmærksomme på, forklarer Zeynep Tufekci. (Video: TED Channel)

I sommeren 2014 skete der noget foruroligende.

En række eksperimenter blev inden da udført på en gruppe intetanende Facebookbrugere. 

Forskerne, i samarbejde med Facebook selv, havde manipuleret brugernes nyhedsfeeds, så de enten blev mere negative eller mere positive.

Resultatet var, at forskerne kunne se, at de negative feeds havde påvirket brugerne til at skrive mere negative opdateringer, mens det omvendte gjaldt for de positive.

Da studiet så udkom i 2014 i det anerkendte tidsskrift Proceedings of the National Academy of Sciences (PNAS), skabte det både vrede og forfærdelse. Både på grund af resultaterne, men nok endnu mere på grund af Facebook og forskernes indgreb på sagesløse Facebookbrugere.

Resultaterne var dog svære at benægte. Med hele 689.003 tilfældigt udvalgte forsøgspersoner kunne forskerne vise, at personerne i den positive gruppe brugte signifikant flere positive ord i deres opdateringer end kontrolgruppen, og at personerne i den negative gruppe brugte signifikant flere negative ord.

Det betød, at en algoritme, som normalt styrer sig selv, kunne gå ind og påvirke vores opførsel meget direkte. 

Hvis du synes, det lyder ubehageligt, så bare vent. Det bliver værre endnu i Zeynep Tufekcis TED-talk, som du kan se herover. Hun er uddannet computerprogrammør og sociolog og er lektor ved University of North Carolina, USA.

Skal tage stilling til subjektive problemer

I dag bestemmer computeralgoritmer, hvad milliarder af mennesker ser hver dag. De beslutter, hvem førerløse biler skal køre over, og styrer våben, som i en nær fremtid selv tager stilling til, hvem der skal skydes på.

Hvis algoritmerne fungerer, er der ikke noget problem. Men det gør de ikke altid, advarer Zeynep Tufekci i hendes TED-talk.

»Maskinintelligensen er her allerede. Vi bruger computere til at tage alle mulige beslutninger, men også nye slags beslutninger. Vi stiller computere spørgsmål, som ikke har et enkelt rigtigt svar, men som er subjektive, åbne og værdiladede,« siger hun.

Hun nævner for eksempel, at computere i dag bliver spurgt om, hvem firmaer skal ansætte, hvilke statusopdateringer fra hvilke venner, vi skal se, og endda hvilke kriminelle, som højst sandsynligt vil begå kriminalitet igen – og de er ikke altid gode til det, advarer hun.

Maskiner kan afsløre hemmeligheder

Hvis man tager eksemplet med en maskine, der skal udvælge, hvem der skal ansættes, kan det umiddelbart lyde som en god idé til at starte med, fortæller Zeynep Tufekci i sin TED-talk. 

»Sådan et system vil være trænet i data fra tidligere ansatte og instrueret i at finde frem til mennesker, der minder om de eksisterende medarbejdere, der gør et godt stykke arbejde i firmaet. Det lyder jo godt,« siger hun.

»Menneskelige jobansættelser er også forudindtagede (...) så at hyre gennem en køns- og raceblind computer lyder som en god idé. Men det er mere kompliceret, end som så. I øjeblikket kan computersystemer udlede alle mulige informationer fra dine digitale efterladenskaber – selv ting, du ikke har afsløret. Såsom din seksualitet, personlighedstræk, dit politiske ståsted. De har forudsigende kræfter med stor nøjagtighed – selv for ting du ikke har afsløret. Det er følgeslutninger af dens data,« fortæller hun.

Vi ved ikke, hvordan maskinerne vælger

Zeynep Tufekci advarer om, at maskinernes forudsigelser kan have utilsigtede virkninger, som vi måske ikke engang selv opdager.

»Jeg har en ven, som har udviklet et computersystem, der kan forudsige sandsynligheden for depression ud fra data på de sociale medier. Resultaterne er imponerende. Hendes system kan forudsige sandsynligheden for depression måneder inden, der er nogle symptomer hos en person. Måneder!« 

»Lad os sætte det ind i vores ansættelseskontekst. Tænk, hvis systemet fravælger mennesker, der har en sandsynlighed for at blive deprimerede i fremtiden. De er ikke deprimerede nu, men måske i fremtiden. Hvad hvis den fravælger kvinder, som har større sandsynlighed for at blive gravide om et par år, eller ansætter aggressive personer, fordi arbejdsmiljøet er aggressivt?«

»Den slags ting kan du ikke se ved at kigge på kønnene hos de ansatte. Her er det maskinen, der har lært det. Det er ikke traditionel kodning, så der er ikke nogle variabler, der hedder 'højere risiko for depression', 'højere risiko for graviditet', eller 'aggressiv type'. Ikke nok med, at vi ikke ved, hvad systemet vælger ud fra, så ved vi ikke engang, hvor vi skal kigge. Det er en sort boks,« advaret hun.

kunstig intelligens morel etik maskiner robotter menneskelig ted-talk

Algoritmer foretager valg på vores vegne, men selv om vi selv har skabt dem, ved vi ikke præcis, på hvilken baggrund de vælger. (Illustration: Shutterstock)

Vores fordomme bliver forstærket

Man kan måske udvikle systemer, som fungerer, og som har færre fordomme end mennesker. Men det kan ligeså vel være, at systemet har flere fordomme, advarer Zeynep Tufekci.

»Et andet problem er, at systemerne er trænet af data, som de har fra menneskers handlinger. De kan lige så vel afspejle vores fordomme og forstærke dem, mens vi fortæller os selv, at vi bare bruger objektive, neutrale beregninger,« siger hun.

Forskere har tidligere vist, at kvinder har en lavere sandsynlighed for at få vist reklamer for højt betalte job, end mænd har. Og søger man på afroamerikanske navne, er der større sandsynlighed for, at der dukker reklamer op, der antyder kriminalitet.

»Den slags skjulte fordomme og sort-boks-algoritmer opdager forskere nogle gange, men andre gange ved vi det slet ikke, og det kan have livsændrende konsekvenser,« siger Zeynep Tufekci i sin TED-talk.

Maskiner sender folk i fængsel

Et af de områder, hvor den slags fordomme i beregningerne kan få fatale konsekvenser, er i retssystemet. 

»I Wisconsin fik en anklaget seks års fængsel for at undgå politiet. Det er ikke sikkert, du ved det, men algoritmer bruges mere og mere til at tage beslutninger om prøveløsladelser og strafudmålinger. Den anklagede ville vide, hvordan de her udregninger foregik, men firmaet bag ville ikke have deres algoritme udfordret i en offentlig retssag,« fortæller Zeynep Tufekci.

»Men da ProPublica, en undersøgende nonprofit-organisation, reviderede algoritmen ud fra den offentlige data, de kunne finde, viste det sig, at dens resultater var fordomsfulde og dens forudsigende evner elendige, knap nok bedre end ren tilfældighed. Den markerede sorte anklagede forkert som fremtidige kriminelle dobbelt så ofte som hvide anklagede.«

På skærmen viser Zeynep Tufekci et billede af to forskellige personer. En hvid mand og en sort kvinde.

Begge var blevet anholdt for småforbrydelser. Kvinden var sent på den, da hun skulle hente sin gudsøster i skolen, og hun havde sammen med en veninde stjålet en scooter og en cykel. De blev fanget på fersk gerning af ejermanden og efterlod tingene, men blev alligevel fanget af politiet. Kvinden havde to tidligere domme for mindre forseelser, forklarer Zeynep Tufekci.

Manden på billedet havde stjålet for 85 dollars (570 kroner) i et byggemarked. Til gengæld havde han to tidligere domme for bevæbnet røveri. 

Algoritmen angav kvinden som værende i højrisiko for at begå kriminalitet igen, mens manden røg i lavrisiko-gruppen.

To år senere havde kvinden ikke begået mere kriminalitet, mens manden aftjente en straf på otte år.

Dårlige nyheder bliver underprioriteret på Facebook

På Facebook er problemet anderledes end i retssalene. Her er algoritmen ifølge Zeynep Tufekci designet til at prioritere de historier, der har meget 'engagement'. Det vil sige historier, som får likes, delinger og kommentarer.

»I august 2014 udbrød der protester i Ferguson i Missouri, efter at en hvid politibetjent dræbte en afroamerikansk teenager under uklare omstændigheder. Nyhederne var overalt på mit ufiltrerede Twitter-feed, men ingen steder at se på min Facebook. Var det mine venner? Jeg fik slået Facebooks algoritme fra, hvilket er svært, og så jeg kunne se, at mine venner talte om det,« fortæller hun.

Problemet er, at der ikke er mange, der 'liker' sådan en historie.

»I stedet fremhævede Facebooks algoritme i den uge ALS Ice Bucket Challenge. Det er en værdig sag: smid koldt vand i hovedet, donér penge til velgørenhed, fint. Det var super algoritme-venligt. Maskinen tog den her beslutning for os. En meget vigtig, men svær diskussion var måske blevet kvalt, hvis Facebook havde været den eneste kanal,« siger Zeynep Tufekci.

Vi slipper ikke for at tage de etiske spørgsmål

I 2011 gik det amerikanske quiz-program Jeopardy med til at lave en udgave, hvor en computer ved navn Watson, lavet af computerfirmaet IBM, dystede mod to af de bedste menneskelige deltagere i programmet.

Watson havde ingen problemer med at slå dem spørgsmål efter spørgsmål, men i finalen svarede den 'Hvad er Toronto?' i en kategori, der hed 'amerikanske byer'.

»Maskine-intelligens tager fejl på måder, som ikke passer til et menneskeligt mønster. Det sker på måder, vi ikke forventer og ikke er forberedt på. Det ville være rigtigt ærgerligt ikke at få et job, man er kvalificeret til, men tre gange værre, hvis det var på grund af en computerfejl,« siger Zeynep Tufekci.

»Mennesker tager fejl i retssale, nyhederne og i krig. Men det er lige præcis min pointe. Vi kan ikke undslippe de svære spørgsmål. Vi kan ikke outsource vores ansvar til maskiner. Kunstig intelligens giver os ikke et 'slip-fri-for-etik-kort'.« 

»Ja, vi kan, og vi bør bruge computere til at tage bedre beslutninger. Men vi er nødt til at leve op til vores moralske ansvar inden for bedømmelser og bruge algoritmer inden for den ramme. Ikke som en måde at fralægge og outsource vores ansvar for hinanden fra menneske til menneske,« slutter hun.

Videnskab.dk's manifest

5 spørgsmål, du bør stille dig selv, når du læser om forskning


Ugens Podcast

Lyt til vores ugentlige podcast herunder eller via en podcast-app på din smartphone.