Computerne skal lære at tage fejl
Nogle gange ved man som menneske ikke nok til at træffe en beslutning. Og faktisk bør vi udvikle samme usikkerhed hos computersystemer.
selvkørende bil ai kunstig intelligens

Forskere mener, at det er vigtigt, at computere lærer at erkende usikkerhed. Ved selvkørende biler kan dette betyde, at bilen stopper, når den er usikker, i stedet for at køre videre og måske ende i en ulykke. (Foto: Dllu)

Forskere mener, at det er vigtigt, at computere lærer at erkende usikkerhed. Ved selvkørende biler kan dette betyde, at bilen stopper, når den er usikker, i stedet for at køre videre og måske ende i en ulykke. (Foto: Dllu)

Udviklingen af kunstig intelligens (AI) har koncentreret sig om at lære computeren at få ret. De sidste 20-30 år har det handlet om at få neurale netværk til at blive bedre og bedre til at lave korrekte forudsigelser. 

Vi har som forskere fokuseret på at få AI til at udføre opgaver autonomt og med præcision.

Men vi har glemt at lære den kunstige intelligens, at den ikke kan være sikker på alt. 

Hvis den kunstige intelligens for eksempel har ret 95 procent af gangene, men tager fejl i 5 procent, vil den stadig mene, at den har ret i de sidste 5 procent af tilfældene. Den vil hårdnakket påstå, at den har ret, for den har ikke lært at tage fejl. 

Begrebsmæssigt arbejder den kunstige intelligens reelt set ikke med en usikkerhedsmargin.

Med sit berømte citat 'Jeg ved, jeg intet ved' lærte Sokrates os allerede for flere tusinde år siden, hvor vigtig erkendelsen af vores mangel på viden var for netop at opnå viden. 

Computere forstår ikke, at vejret ikke altid er perfekt

Måske kan vores kunstige neurale netværk tage ved lære af Sokrates’ indsigt; man kan ikke vide alt, og nogle gange har man ikke nok informationer til at træffe et valg. 

Den kunstige intelligens er ganske enkelt for skråsikker i sine konklusioner og anerkender ikke, at den på nogle områder ikke har viden nok til at handle. 

kunstig intelligens_AI_selvkørende biler_ulykker

At være opmærksom på alt det, man ikke ved, kan være altafgørende i for eksempel trafikken. (Grafik: Søren Jepsen)

Det svarer nærmest til, at en kunstig intelligens, som for eksempel skal køre en selvkørende bil, kun er blevet trænet til at køre på en lige landevej i solskin for derefter at forvente, at den kan køre på snørklede, små veje i slud og blæst.  

I stedet for, at computeren stopper op og siger: 'Jeg kan ikke køre her, jeg har ikke information eller erfaring nok', kører den bare, som om den var på en lige landevej i perfekt vejr. 

Men dette kan naturligvis gå gruelig galt. 

LÆS OGSÅ: Kunstig intelligens lider også af menneskelige fejl

AI-forskere skal have større fokus på usikkerhed

Som forskere har vi været forhippet på at søge de positive resultater og ikke de negative. Derfor har den kunstige intelligens ikke lært, at det også er godt at erkende, at man nogle gange ikke ved nok til at træffe et valg. 

Usikkerhed kan med andre ord være en dyd. Det modsatte af usikkerhed er nemlig ikke sikkerhed, det er skråsikkerhed, og det kan vise sig fatalt, når den kunstige intelligens begynder at agere og interagere i vores fysiske verden. 

Det var det, der skete, da Elaine Herzberg trådte ud på en firsporet vej med sin cykel klokken 10 om aftenen i Tempe, Arizona. Dermed endte hendes liv brat, samtidig med hun skrev sig ind i verdenshistorien. 

Hun blev nemlig den første person, som blev påkørt og dræbt af en selvkørende bil

Forskerzonen

Denne artikel er en del af Forskerzonen, som er stedet, hvor forskerne selv kommer direkte til orde.

Her skriver de om deres forskning og forskningsfelt, bringer relevant viden ind i den offentlige debat og formidler til et bredt publikum.

Forskerzonen er støttet af Lundbeckfonden.

Hvad var Elaine?

Ved at undersøge data op til det fatale uheld kunne man se, at den kunstige intelligens ikke var i stand til korrekt at bestemme, hvad Elaine Herberg var. Var hun en bil? Var hun en cykel? Eller var hun noget helt andet?

Systemet fik skråsikkert kategoriseret hende 'korrekt', og var derfor ikke i stand til at forudsige hendes bevægelsesmønster. Denne mangel på korrekt klassifikation burde have fået systemet til at stoppe op. 

Men i stedet kørte bilen bare videre. Den var nemlig ikke usikker nok på sine forudsigelser. 

Sikkerhed er kun én del af beslutningsprocessen. Vi har glemt, hvor vigtig usikkerhed eller uforudsigelighed også er. 

Var systemet derimod trænet til at inddrage usikkerhed som en bestemmende faktor i beslutningsprocessen, ville den kunstige intelligens have vidst, hvad den skulle stille op med denne mangel på viden. 

Det vidste den ikke, så i stedet fortsatte bilen med at køre de tilladte 60 kilometer i timen og dræbte Elaine Herzberg.

LÆS OGSÅ: Hvad er kunstig intelligens egentlig?

Utilstrækkelig viden er vigtig

Den hastigt accelererende udvikling af kunstig intelligens har været drevet af ønsket om at få ret flest mulige gange.

Hvis en kunstig intelligens har ret 85 procent af tilfældene, er det vurderet som værende bedre, end hvis den har ret 80 procent af gangene.

På kort sigt har denne tilgang været fortrinlig, men vi må efterhånden erkende, at læring handler om mere end blot at have ret: Det handler lige så meget om at erkende sin egen usikkerhed. 

Det er netop denne erkendelse, vi er lykkedes med at få en kunstig intelligens til at tage med i sin kalkyler på DTU Compute i et paper, vi præsenterer på en konference i Canada i næste uge.

Data er nøglen

Den ensidige fokus på at få ret har været et nødvendigt onde for at skubbe og accelerere udviklingen af kunstig intelligens, men vi kan se, at den kommer til kort, når vi sætter disse tænkende systemer til mere komplekse menneskelignende opgaver. 

Det er derfor også naturligt, at vi i højere og højere grad finder analogier i menneskelig tænkning, når den kunstige intelligens skal trænes til at agere og træffe beslutninger i vores samfund. 

Ved kun at fokusere på at lære systemerne at få ret har vi i princippet høstet de lavthængende frugter. For at komme længere op i træet skal vi have mere kompleksitet i det, vi lærer systemerne.

Den altafgørende nøgle til kunstig intelligens er data. Computersystemer er fænomenale til at analysere enorme mængder data på meget kort tid, men nu skal vi til at lære systemerne, at selv om der er data til stede, er det måske ikke nok data, og så er et manglende facit faktisk bedre end et forkert facit. 

Og hvordan lærer vi den så det?

LÆS OGSÅ: Forskere om kunstig intelligens: Sådan løser vi problemet med den sorte boks

Kunstig intelligens kan lære som børn

Når et barn først har lært at identificere en hund, vil det hurtigt insistere på, at alle firbenede dyr er hunde. Fortæller man barnet, at netop dette firbenede dyr faktisk er en kat, begynder alle firbenede dyr hurtigt at blive til katte i barnets optik. 

Samme opførsel ser vi også hos kunstige intelligenser. 

En stor hjælp for barnet er ikke blot at se mange hunde og katte, men at se dem tidsmæssigt tæt på hinanden, så de små forskelle står mere klart i hukommelsen.

Sjovt nok viser samme trick sig at være altafgørende, når en kunstig intelligens skal gøres fortrolig med sin egen usikkerhed. 

Hvis vi under træning viser den kunstige intelligens data, der minder om hinanden, kan computeren samtidig se den naturlige varians, der findes i data. Det klargør, at den skråsikre tilgang er utilstrækkelig. 

Vi gør fremskridt

Vi har netop vist, at dette simple trick gør underværker, når kunstige intelligenser skal trænes.

I vores eksperimenter ser vi blandt andet store forbedringer, når en kunstig intelligens trænes 'aktivt', det vil sige, når den selv indsamler data, mens den trænes.

Her er usikkerhed essentiel, da det giver computeren mulighed for at efterspørge mere data, der hvor usikkerheden er størst. 

Da eksisterende systemer har manglet en forståelse af deres egen usikkerhed, har de derved heller ikke haft en forståelse for, hvor mere data kunne gøre størst nytte. 

Grundlæggende set er det egentlig ikke så overraskende, at god læring kræver kritisk selverkendelse og derved også en forståelse af egen usikkerhed.

Forskere i og fremstillere af kunstig intelligens-systemer har nu fået bedre muligheder for at arbejde med usikkerhed.

De nye resultater præsenteres på konferencen ’Advances in Neural Information Processing Systems (NeurIPS)’ i Vancouver 11. december 2019. Den tilsvarende artikel er tilgængelig​ online.

LÆS OGSÅ: Etisk dilemma: Skal førerløse biler ofre passageren eller fodgængeren?

LÆS OGSÅ: Hvem skal selvkørende biler slå ihjel? Nu har hele verden svaret

Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.

Danske corona-tal

Videnskab.dk går i dybden med den seneste corona-forskning. Læs vores artikler i temaet her.

Hver dag opdaterer vi også de seneste tal.

Dyk ned i grafer om udviklingen i antal smittede, indlagte og døde i Danmark og alle andre lande.

Ny video fra Tjek

Tjek er en YouTube-kanal om videnskab, klima og sundhed henvendt til unge.

Indholdet på kanalen bliver produceret af Videnskab.dk's Center for Faglig Formidling med samme journalistiske arbejdsgange, som bliver anvendt på Videnskab.dk.


Ugens videnskabsbillede

Se flere forskningsfotos på Instagram, og læs om den 'sure' skildpadde her.