Chatbotten Tay blev mandschauvinistisk og racistisk. Hvad kan vi gøre for at stoppe det?
På mindre end et døgn blev chatbotten Tay højreekstremist. Er løsningen et tilsyn for robotter?
Kunstig intelligens moral etik algoritme racisme chatbot Tay computer programmer diskriminering kønsdiskriminering jobansøgning digitale fodspor strafudmåling ansigtsgenkendelsesprogrammer

Hvordan sikrer programmørerne, at den kunstige intelligens ikke diskriminerer? Problemet er, at den kustige intelligens lærer af verden omkring sig - altså, af os mennesker. (Foto: Shutterstock)

Hvordan sikrer programmørerne, at den kunstige intelligens ikke diskriminerer? Problemet er, at den kustige intelligens lærer af verden omkring sig - altså, af os mennesker. (Foto: Shutterstock)

Chatbotten Tay gik forbavsende hurtigt fra at skrive tweets om nuttede hundehvalpe til at tweete, at alle feminister skal brænde i helvede, og at Hitler havde ret.

Microsoft stod bag lanceringen af den kunstige intelligens-chatbot, der lærte af de personer, som den kommunikerede med på Twitter.

Tay fik sin egen brugerprofil på det sociale medie i 2016, men mindre end et døgn senere blev profilen slettet.

Det er måske fristende bare at ryste på hovedet og trække lidt på smilebåndet af historien, men realiteten er, at Tay bare af toppen af isbjerget af kunstig intelligens, som diskriminerer på baggrund af hudfarve, efternavn, køn, alder eller helbred.

chatbotten Tay diskriminering racist højreekstremist hitler jøder

Ups.. Ifølge Microsoft havde internettrolde 'angrebet' Tay, og eftersom chatbotten oprettede svar baseret på dens interaktioner med folk på Twitter, gik det galt. (Screenshot: The Drum)

Kunstig intelligens idømmer racistisk strafudmåling

Hvis vi ønsker at forstå, hvorfor det sker, er vi nødt til at forstå, hvordan kunstig intelligens bliver til, mener Morten Goodwin, der er lektor i kunstig intelligens ved Universitetet i Agder.

»I de fleste computerprogrammer er det mennesker, som bestemmer absolut alt, hvad der sker, men i de kunstige intelligens-programmer er det computerprogrammet selv, som lærer,« siger han til forskning.no, Videnskab.dk's norske søstersite.

Den kustige intelligens lærer af verden omkring sig - altså, af os mennesker.

Det har ført til, at strafudmålingen af afroamerikanere i Wisconsin er hårdere end strafudmålingen af hvide for nøjagtigt den samme forbrydelse, ifølge den amerikanske nonprofit-nyhedsredaktion ProRepublica.

Den kunstige intelligens, som rangerer, hvor farlige de kriminelle er, bedømmer afroamerikanerne som 'større risiko'. Og dommerne idømmer dem efterfølgende strengere straffe.

Så hvad er det, der sker? Og hvad kan vi gøre for at stoppe det?

LÆS OGSÅ: Hvad er kunstig intelligens egentlig?

Computerne efterligner formentlig dommerne af kød og blod

Virksomheden bag den kunstige intelligens, der bliver brugt af dommerne i Wisconsin, benægter, at diskriminationen finder sted.

Samtidigt har de hverken givet forulempede personer eller andre indsigt i deres computerprogram, så hvad det er, der sker, kan vi kun gisne om.

Det kommercielle juridiske computerprogram tager formentlig udgangspunkt i gamle retsafgørelser, så hvis afroamerikanere blev anset for at være mere farlige, da dommere af kød og blod afsagde dom, efterligner den kunstige intelligens dem.

Det betyder ikke, at virksomheden bevidst har skabt et racistisk program, for selv hvis programmørerne fjernede de forskellige ‘race’-labels, ligger disse oplysninger ofte skjult i den tilgængelige information om tidligere straffeudmålinger.

»Kunstig intelligens, som ikke bliver fodret med følsomme oplysninger, kan stadig diskriminere, fordi den kan finde de følsomme oplysninger ved hjælp af andre informationer,« skriver Aria Khademi, ph.d.-kandidat og forsker ved Penn State University, USA, i en e-mail til forskning.no.

Det kan eksempelvis være informationer om, hvilket kvarter den anklagede bor i, eller hvor meget de tjener. Det er angiveligt nok til at afsløre, om de anklagede er afroamerikanere eller hvide.

LÆS OGSÅ: Bør vi frygte kunstig intelligens?

Efterlader spor gennem jobansøgninger

Vi efterlader konstant spor om, hvilken samfundsgruppe vi tilhører, fortæller Morten Goodwin, og det registrerer den kunstige intelligens.

Det gælder eksempelvis, når vi skriver en jobansøgning.

Kunstig intelligens sætter os lynhurtigt i bås efter køn, alder og baggrund, selv om vi ikke har angivet det i ansøgningen.

»Jeg, som er 40 år, skriver eksempelvis anderledes end én på 20 år. Så selv om jeg ikke har skrevet min alder, kommer den information ud,« påpeger Morten Goodwin.

Og det er netop på arbejdsmarket, at Morten Goodwin mener, at nordmændene snart vil bemærke indtoget af diskriminerende kunstig intelligens.

Mange virksomheder udvikler kunstig intelligens, der foreslår, hvem der skal ansættes. Teknologien kan hurtigt komme til at diskriminere på grundlag køn, hudfarve, efternavn eller alder - uden at virksomhedsledelsen nødvendigvis er klar over, at det sker.

»Det er enormt vigtigt, at vi erkender, at kunstig intelligens kan være diskriminerende. Hvis ikke, ender vi med tilfælde, hvor der bliver diskrimineret mod visse grupper,« siger Morten Goodwin til forskning.no.

LÆS OGSÅ: Kunstig intelligens lider også af menneskelige fejl

Brug for en Fødevarestyrelse for kunstig intelligens

Morten Goodwin efterlyser et tilsyn, som kommer uanmeldt for at kontrollere, om computerprogrammerne, som de norske virksomheder benytter, er diskriminerende. Han sammenligner det med Fødevarestyrelsen.

»Fødevarestyrelsen kommer af og til på kontrolbesøg på restauranter for blandt andet at tjekke, at der ikke er skadedyr i køkkenet. Og det bør man også gøre med kunstig intelligens.«

Men er et tilsyn ‘for lidt og for sent’ (efter det engelske udtryk: 'Too little, too late')?

Ofte ender den kunstige intelligens med at blive endnu mere racistisk eller kønsdiskriminerende end mennesker, som vi så med Microsoft's chatbot Tay, der blev nazist på mindre end et døgn.

Kunstig intelligens er nemlig rigtig god til at forstærke det, som den anser for at være den vigtigste information.

Skakrobotter bliver bedre end Magnus Carlsen

Morten Goodwin peger på skakrobotter som et godt eksempel på, hvor god kunstig intelligens er til at opdage mønstre.

Skakrobotter er kunstig intelligens, som bruger information om skakpartier spillet af mennesker til at lære at spille.

»De bliver bedre end Magnus Carlsen (verdensmester i skak, red.) til at spille skak, selv om de har trænet skakpartierne med Magnus Carlsen. For de er gode til at finde fællestræk,« forklarer Morten Goodwin.

Frasorterede samtlige kvindelige kandidater

Noget lignende skete, da Amazon benyttede et computerprogram baseret på kunstig intelligens, som automatisk skulle udvælge de bedste jobansøgere udfra deres CV.

Målet var at undgå fejlansættelser, men programmet lærte sig selv at prioritere mænd over kvinder, da branchen er domineret af mænd.

Resultatet var, at rekrutteringsprogrammet frasorterede samtlige kvindelige ansøgere, ifølge nyhedsbureauet Reuters.

»Den kunstige intelligens er endnu ‘bedre’ end de data, vi indkoder. Den finder noget, som er godt for alle. I Amazon’s tilfælde så programmet kvinderne som ‘støj’,« forklarer Morten Goodwin.

Rekrutteringsprogrammet havde lært af informationerne om tidligere ansættelser i virksomheden, og de ansatte havde et tydeligt fællestræk: De var som regel mænd.

På trods af, at Amazon’s ledelse ansatte en kvinde i ny og næ, så frasorterede den kunstige intelligens hele denne ansøgergruppe.

LÆS OGSÅ: Kunstig intelligens lider også af menneskelige fejl

Vrede, mørkhudede mænd vs. glade lyshudede mænd

Så hvordan sikrer programmørerne, at den kunstige intelligens ikke diskriminerer?

»Vi har brug for langt større mangfoldighed og inklusion på tværs af  hele teknologisektoren,« skriver Lauren Rhue i en email til forskning.no. Hun forsker i diskriminerende teknologi ved Maryland University, USA.

I et af de forskningsprojekter, hun var involveret i, testede hun teknologi, som kan genkende ansigter og de følelser, som ansigterne udtrykker.

Hun fandt, at personer med mørk hud oftere blev klassificeret som vrede eller bange sammenlignet med personer med lys hud. Studiet er endnu ikke publiceret i et videnskabeligt tidsskrift, men ligger ude på SSRN.

Ved hjælp af pressebilleder af amerikanske basketballspillere testede hun, hvordan to kommercielle ansigtsgenkendelsesprogrammer tolkede de smilende mænd.

De lyshudede spillere blev tolket som gladere og med færre negative følelser end de mørkhudede.

Det kan have konsekvenser for det enkelte menneske. 

Brugen af ansigtsgenkendelsesprogrammer er stigende. De bliver blandt andet brugt til at identificere truende personer i en folkemængde, ifølge Lauren Rhue.

Vanskeligt at give maskinerne et objektivt facit

Lauren Rhue mener også, at teknologivirksomhederne skal være mere bevidste om, hvordan det ‘facit’, der tilfører den kunstige intelligens, rent faktisk er blevet til.

Det er programmørerne, som har sat labels  som ‘blid’, ‘vred’ og ‘bange’ på de ansigter, som den kunstige intelligens har øvet sig på.

»De personer, som skaber disse labels, skal også være mangfoldige og repræsentere mange forskellige grupper,« skriver Lauren Rhue.

Det betyder ikke, at programudviklerne er racister, slår hun fast, men vi ved, at det er vanskeligere at læse følelserne i ansigter, som ser anderledes ud end vores eget.

Så når (typisk) hvide mænd bestemmer facit på, hvilke følelser ansigterne afspejler, og når de fleste ansigter, som den kunstige intelligens har øvet sig på, i tillæg er hvide, er det intet under, at skævvridningerne opstår.

LÆS OGSÅ: Kan den kunstige intelligens gætte dine kruseduller?

Kunstig intelligens kan opdage diskrimination

Måske er løsningen på problemet også teknologisk?

Aria Khademi er en af forskerne bag en ny kunstig intelligens, som kan opdage diskrimination. Computerprogrammet leder efter forskelsbehandling, ved at kontrollere om virksomhedens aflønning af medarbejderne er retfærdig.

Computerprogrammet kan eksempelvis udvælge en kvindelig medarbejder og så analysere, om hun ville være bedre aflønnet, hvis hun var en mand.

På denne måde kan computerprogrammerne være en slags moralsk politi.

Du kan læse mere om studiet i artiklerne publiceret af The World Wide Web conference i 2019.

Måske burde denne kontrol være en del af al kunstig intelligens, så diskrimination bliver afværget i ét hug?

»Det er et lovende næste skridt, som vi har tænkt os at tage. Vi skal dog først udvikle et værktøj, som helt pålideligt kan opfange diskrimination. Først da kan vi inkorporere det i vores fremtidige kunstig-intelligens-systemer,« skriver Aria Khademi.

Behov for menneskelig indblanding

Men uanset hvad er det vigtigt, at vi ikke tror, at computerne træffer objektive beslutninger, mener Morten Goodwin.

Selv om programmørerne bliver mere bevidste om diversitet, når de udvikler ny kunstig intelligens, så bør myndighederne efterkontrollere, mener Morten Goodwin.

Han foreslår, at vi kalder tilsynsorganet ‘Algoritmetilsynet’, og at det bør høre under Datatilsynet.

Direktør i Datatilsynet i Norge, Bjørn Erik Thon, mener dog ikke, at der er behov for at oprette et selvstændigt tilsyn.

»Det hører med til vores mandat at gennemføre tilsyn, hvor vi tjekker alle sider af en sag, uanset om der diskrimineres på baggrund af køn, alder, hudfarve, eller hvad det end måtte være. Det kan vi enten gøre som stikprøver, ved bredere tilsyn af en hel sektor eller i kombination med andre emner som informationspligt, informationssikkerhed eller adgangsrettigheder,« skriver Bjørn Erik Thon i en e-mail til forskning.no.

På samme tid bliver beslutninger om vores liv i stigende grad truffet af kunstig intelligens. For eksempel er Udlændingestyrelsen i Norge begyndt at bruge teknologien i afgørelser om familesammenføring.

LÆS OGSÅ: Ro på: Kunstig intelligens truer ikke mennesket

En fremtid med kunstig moral?

En del forskere rundt omkring i verden håber at kunne udstyre computerne med ‘kunstig moral’ i fremtiden. Hvis det lykkes, er problemet måske løst.

Tanken er, at man i stedet for at tvinge computerne til ikke at diskriminere træner dem op til at forstå, hvad god moral er.

I bedste fald vil computerne så blive endnu bedre end os til at foretage gode moralske vurderinger.

Men Aria Khademi er skeptisk overfor, om kunstig intelligens vil opdage diskrimination, som vi ikke forklarer den, at den skal være på vagt overfor.

»Selv mennesker opdager ikke noget, som vi ikke er bevidste om eller er blevet trænet til at være på vagt overfor. Derfor kan vi ikke forvente, at en kunstig intelligens skal være i stand til at opdage diskrimination, som, den ikke er klar over, finder sted,« skriver Aria Khademi.

En del af udfordringen er, at moral ikke er en absolut sandhed.

»Vores forståelse af etik og moral ændrer sig konstant. Når vi indfører regler, skal de opdateres hele tiden, for pludselig kommer #metoo eller ægteskab mellem personer af samme køn på banen,« slutter Morten Goodwin.

©Forskning.no. Oversat af Stephanie Lammers-Clark.

LÆS OGSÅ: Computerspil kan gøre kunstig intelligens mere menneskelig

LÆS OGSÅ: Kunstig intelligens lærer at se uden hjælp fra mennesker

... Eller følg os på Facebook, Twitter eller Instagram.

Se den nyeste video fra Tjek

Tjek er en YouTube-kanal om videnskab og sundhed henvendt til unge.

Indholdet på kanalen bliver produceret af Videnskab.dk's Center for Faglig Formidling med samme journalistiske arbejdsgange, som bliver anvendt på Videnskab.dk.


Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.