Forskere om kunstig intelligens: Sådan løser vi problemet med den sorte boks
Fire forskere kommer med deres bud på, hvordan vi bedst muligt bruger kunstig intelligens forsvarligt.
kunstig intelligens ai netværk udregninger sorte boks løsning teknologi robotter fremtiden

'Den sorte boks' er en metafor for de utilgængelige udregninger, som kan opstå i kunstigt intelligente netværk. (Foto: Shutterstock.)

Kunstig intelligens er et rygende populært emne inden for forskning i øjeblikket. Både blandt computerforskere, men også læger, jurister og filosoffer. Og det er der god grund til.

Historien kort:
  • Kunstig intelligens kan behandle store mængder data og lave effektive beregninger indenfor bl.a. medicin.
  • Men teknikken er svær at afkode, og det kan give etiske problemer.
  • Forskere mener derfor, vi skal arbejde med at gøre teknikken mere gennemsigtig og være påpasselige med at bruge den.

Det er nemlig et værktøj med et fantastisk stort potentiale. Selvlærende algoritmer kan behandle enorme mængder data og derfor ofte tage bedre og hurtigere beslutninger end mennesker.

»Deres præstationsevne er en kæmpe fordel indenfor mange områder. De kan behandle rigtig meget data rigtig hurtigt,« fortalte Tarek R. Besold, der er lektor og computerforsker ved City, University of London i Storbritannien, ved en minikonference organiseret af Forskningsgruppen i Teoretisk Filosofi ved Afdeling for Filosofi på Københavns Universitet for nylig.

Potentialet fremhæves især inden for områder såsom diagnosticering af patienter, risikovurdering af investeringsmuligheder i banker eller domsafgørelser i retssale.

For eksempel er det lykkedes forskere at udvikle en kunstig intelligens, som kan diagnosticere hjertefejl med større succesrate end hjertelægerne.

På Harvard har forskere også lavet et såkaldt 'smart microscope', der kan opdage blodinfektioner med en succesrate på 95 procent.

Kan ikke se, hvorfor den gør, som den gør

Det lyder umiddelbart som et fantastisk, teknologisk eventyr. Men der er en anke. Vi mennesker kan nemlig ikke altid følge med i, hvordan computerne træffer deres beslutninger.

Selv de personer, der har udviklet programmerne, kan have svært ved at finde ud af, hvordan de er nået frem til et bestemt resultat.

For jo mere data systemet behandler, desto mere ændrer algoritmerne sig også for at blive mere præcise. Inden for machine learning taler man om problemet med 'den sorte boks'.

Hvordan det mere præcist fungerer, kan du læse i sideshistorien i bunden af artiklen.

At vi ikke kender til systemets mekanismer kan være meget problematisk, når det kommer til beslutninger på hospitaler, hvor fejl kan være fatale, eller i retssale, hvor diskriminerende detaljer som bopæl, indkomst eller etnicitet ikke må spille ind på dommen.

Gennemsigtige eller forståelige systemer

En gruppe forskere  var for nyligt samlet på Københavns Universitet for at komme med deres bud på en løsning på problemet med 'den sorte boks'.

Ifølge Tarek R. Besold, der er computerforsker ved City University of London, kan vi gå to veje, når vi skal gøre et system nemmere at gennemskue.

Vi kan enten sørge for at gøre systemerne:

  1. Gennemsigtige: Hvilket vil sige, at forvalterne af systemet vil kunne gå tilbage og se alle udregninger og vurderinger igennem. Fordelen her er, at alt kan findes, men ulempen er, at det kræver rigtig mange ressourcer.
  2. Forståelige: En anden løsning, der kan spare tid og måske gøre opgaven nemmere, er at sørge for, at systemet sammen med svaret afleverer en form for symbol, der giver et fingerpeg om, hvordan den er kommet frem til sit svar. Symbolet skal gøre, at eksperten bag systemet er i stand til at forstå, hvilken mekanisme der er tale om. Fordelen ved denne metode er, at det blot kræver én ekspert og mindre tid, mens ulempen er, at store og meget komplekse systemer vil være svære at afkode på denne måde.

Tarek R. Besold foreslår, at man inden for diagnosticering af patienter arbejder med løsning nummer to.

»Læger arbejder i forvejen lidt som forståelige systemer overfor deres patienter. Hvis du er blevet testet for noget, fortæller de, hvad deres vurdering er og lidt om hvorfor, men de fortæller ikke hele den faglige proces bag i detaljer,« siger han.

Er der tale om meget store og komplekse systemer, foreslår han desuden, at man laver et separat system, der er designet til at afkode, hvordan det første system finder frem til sine svar og give en forklaring.

kunstig intelligens ai netværk udregninger sorte boks løsning teknologi robotter fremtiden

En kunstig intelligens lærte i 2016 at kende forskel på ulve og hunde. Sådan da. Det viste sig, at den vurderede, at der var tale om en ulv, når der var sne i billedet. (Foto: Shutterstock.)

Filosof: De skal vurdere på noget virkeligt

Ifølge Emily Sullivan, der er post-doc i filosofi ved Delf University of Technology i Holland, er det dog ikke tilstrækkeligt, at en kunstig intelligens giver os et svar, som gør os i stand til at forstå algoritmen bag.

Faktisk mener hun, at problemet hovedsageligt består i de mekanismer, vi putter ind i systemet fra start af.

»Problemet er ikke nødvendigvis, at systemet ikke er gennemsigtigt, men måske nærmere at den forklaring, vi leder efter, slet ikke er der. Vi er nødt til at sikre os, at de ting, som maskinen regner på, er rigtige ting,« siger hun.

Eksempelvis designede en forskergruppe i 2017 en kunstig intelligens, der kunne vurdere, om en person var hetero- eller homoseksuel ud fra et billede.

»Her har maskinen fået et urealistisk bias (fordom red.) fra starten af. Seksualitet er ikke binær (to-delt red.), og derfor vurderer maskinen ikke noget, der er relevant for virkeligheden,« siger hun.

Samtidig kritiserer hun hele præmissen for en sådan kunstig intelligens, da man ikke ved, om ansigtstræk på nogen hænger sammen med seksualitet, og netværket derfor fra start af vil være svært at gennemskue.

Ulve-netværk fik en fornemmelse for sne

Eksemplet med ulve og hunde er faktisk et system fra den virkelige verden udviklet af tre studerende fra University of Washington i USA i 2016.

Programmet lykkedes med at blive dygtig til at svare rigtigt, hvilket kunne lede os til at tro, at den var blevet god til at lægge mærke til de kendetegn, som er specifikke for netop hunde og ulve. Og det var den da også – på en måde.

En nærmere undersøgelse viste nemlig, at computeren ganske enkelt vurderede, at de billeder, der havde sne i baggrunden, var billeder af ulve. Den havde altså ikke fintunet sig til at genkende selve ulven, men blot baggrunden.

Vi kan heller ikke forklare menneskets handlinger

Ifølge danske Thor Grünbaum, der er lektor i bevidsthedsfilosofi på Institut for Medier, Erkendelse og Formidling på Københavns Universitet, stiller vi for høje krav til maskinerne.

Vi kræver nemlig en forklaring på en proces, som vi heller ikke forstår ved mennesker, siger han.

»Vi kan for eksempel ikke forvente, at blot fordi én ting sker efter en anden, at de så er kausalt forbundne (at den ene ting forårsagede den anden red.),« siger han.

»Derfor kan vi heller ikke hos mennesker rationalisere os frem til den eksakte årsag til en handling.«

Inden for filosofien kalder man det logiske problem for 'post-hoc-retfærdiggørelse', hvilket dybest set betyder, at man leder efter årsagen til en handling, efter den er sket.

Dansk filosof: AI skal bruges med med omhu

Thor Grünbaum foreslår derfor, at der er en mulighed for, at vi ikke kommer til at løse problemet med 'den sorte boks' hos kunstigt intelligente systemer.

Men samtidig tror han heller ikke, at det bliver det store problem.

»Det handler i stedet om at bruge kunstig intelligens der, hvor de virker bedst, og det giver mening. Er der store problemer ved uigennemsigtighed på et bestemt område må vi lade være med at bruge teknologien der.«

'Den sorte boks' kan diskriminere

Ændringer af algoritmen i en kunstig intelligens kan være svære at opdage i store og komplekse systemer. Og det kan være meget problematisk.

Selvom sne f.eks. kan være en ganske god indikator for, om et billede indeholder en ulv, så kan det ikke siges at være direkte relevant. I andre sammenhænge kan det endda være ulovligt at følge den slags indikationer.

Forestil dig f.eks. en computer, der dømmer i et retssystem. Her kan det tænkes, at bopæl, indkomst og hudfarve kan tolkes som 'gode indikatorer', når den skal finde frem til den skyldige.

Men hvis den foretager valg på baggrund af disse detaljer, vil den udsætte den dømte for diskrimination.

Kunstig intelligens er som et mikroskop

Rune Nyrup, der er ph.d. i filosofi og postdoc ved Leverhulme Centre for the Future of Intelligence, University of Cambridge i Storbritannien, mener at vi skal gøre os flere tanker om, hvornår og hvorfor vi benytter kunstig intelligens, så vi ikke kommer til at bruge teknikken forkert.

Og så skal vi vide, hvad vi leder efter, når vi vil have et system til at forklare sine valg. Forklaringer kan nemlig udføres forskelligt.

»Hvis jeg bliver bedt om at forklare, hvorfor en gepard kan indhente en gazelle, så kan jeg eksempelvist gøre det på to måder. Rent fysiologisk kan jeg vise, hvordan dens krop fungerer, men jeg kan også forklare evolutionært, hvordan geparden har udviklet og tilpasset sig til netop den fødekilde i økosystemet,« siger han.

På samme måde kan et neuralt netværk være indstillet til at nå frem til et svar på en bestemt måde, eller måske endda have en fordom, men det ved den ikke selv.

»Det gør det svært at placere ansvar for dens beslutninger, og derfor er vi nødt til at vide fra start af, hvordan den kunstige intelligens virker, og kun bruge den i en kontekst, hvor den ikke kan komme til at tage valg ud fra ledetråde som eksempelvis er diskriminerende eller ulovlige,« siger han.

Derfor mener han også, at det er uheldigt, at den store hype omkring teknikken får folk til at ville bruge snævre systemer til at løse generelle problemer.

»Det svarer lidt til, da man opfandt mikroskopet. Det var godt, og det gav os en masse nye informationer. Men det er ikke ensbetydende med, at alle doktorer skal rende rundt med et mikroskop på sig hele tiden,« siger han.

»Kunstig intelligens skal bruges, når det har et formål, og det fungerer godt,« siger han.

Som eksempel på et succesfuldt system, nævner han en kunstig intelligens, der kan genkende modermærkekræft ud fra billeder.

»Det er et fantastisk pålideligt redskab, som fungerer inden for sin ramme,« siger han.

Sådan opstår 'Den sorte boks'

For at forstå, hvordan den sorte boks opstår, er vi nødt til at kigge lidt nærmere på, hvordan kunstigt intelligente systemer fungerer.

En populær teknik, som anvendes, kaldes dybe neurale netværk, eller DNN, og de fungerer ved, at programmet selv lærer at finde det rigtige svar til et spørgsmål.

I den ene ende af systemet indsender forskeren sit spørgsmål eller problem. Det kunne for eksempel være, at forskeren gerne vil lære sit system at kende forskel på hunde og ulve. Derfor sendes et billede af en ulv ind i systemet.

Billedet indgår i et netværk af stier, som fører mod to forskellige resultater – hund eller ulv.

Efterhånden som netværket ser flere og flere billeder, justeres stierne, mens systemet lærer, hvilke kendetegn der udgør forskellene på hunde og ulve. Hver gang netværket svarer rigtigt eller forkert får det feedback, der hjælper det til at blive mere præcis.

Hvis den for eksempel lærer at en bestemt form i billedet øger chancen for, at der er tale om en ulv, så tildeles stien, hvor denne form indgår, en tungere 'vægt' i retning af svaret ulv. Men det gør også, at netværkets algoritme ændres i processen.

I takt med at systemet bliver mere nøjagtigt, ændrer det på en række indikatorer, som skiller billeder af ulve fra hunde, og til sidst kan vi teoretisk set ikke vide, hvad det er for nogle indikatorer, den foretager sine valg på baggrund af.

Ugens Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.