Black box-problemet: Når vi ikke forstår den kunstige intelligens
Kunstig intelligens kan lære af sig selv, men kan vi stole på den og for eksempel overlade styringen af biler til den, når vi ikke ved, hvordan den tænker?

Verden venter på de selvkørende biler, men det såkaldte 'black box'-problem er en konstant bremseklods. (Foto: Shutterstock)

Tidligere på måneden tog den kunstige intelligens et skridt nærmere vores hverdag:

En flåde af selvkørende biler rullede ud i trafikken i den amerikanske by Phoenix, der ligger i staten Arizona, USA.

Det er det Google-ejede firma Waymo, der efter seks måneders testperiode har sat bilerne til at køre i trafikken uden et menneske i førersædet, som man ellers hidtil har haft.

Begivenheden må betragtes som en milepæl i udviklingen af selvkørende biler, og det er et praj om, at man så småt er begyndt at speede up for teknologien bag de selvkørende biler.

Hvordan fungerer en selvkørende bil?

En selvkørende bil er udstyret med en masse sensorer og kameraer, der holder øje med, hvad der sker på vejen - med andre ord indsamler den data.

Den data bliver så sendt til et grafikkort, som man har plottet i bilen, og det grafikkort indeholder en 'black box'-algoritme

Grafikkortet analyserer dataen, og derigennem kan bilen navigere rundt i trafikken, ud fra hvad sensorerne opfanger.

Kilde: Ole Winther

Lidt vej endnu

»Spørgsmålet er nu, hvor hurtigt det bliver rullet ud,« vurderer Ole Winther, professor og forsker i kunstig intelligens ved DTU COMPUTE, til denne uges podcast på Videnskab.dk.  

For selvom man er nået langt, er der stadig et anseeligt stykke vej, til man kan få sig en 'selvkørende' i garagen.

I Phoenix er de førerløse biler således kun tilgængelige for en mindre udvalgt testgruppe, der kan bruge dem gennem en app.

En af de primære grunde til, at det kommercielle gennembrud lader vente på sig, skyldes ifølge Ole Winther, at det lige nu er for dyrt.

En anden hindring for selvkørende biler og anden teknologi, der bygger på kunstig intelligens, er det, man med en god håndfuld mystik, kalder 'black box'-problemet - og det vil vi forsøge at udfolde i artiklen her. 

Eksempel på et 'Black box'-problem.

I 1991 sidder den amerikanske tech-entreprenør Dean Pomerleau i en selvkørende bil, som han er ude at teste.

Bilens indbyggede computer havde via et kamera set med, når Dean kørte bilen, og ud fra hans kørsel havde den lært sig selv, hvordan den skulle køre.

Da Dean lod bilen køre af sig selv, går det fint, indtil den når til en bro, hvor den pludseligt drejer og kører mod afgrunden. Dean Pomerleau når dog at tage rettet.

Dean Pomerleau sætter sig herefter for at undersøge, hvad fejlen kunne skyldes.

Det var ikke så lige til at finde ud af, for Dean havde jo ikke lavet faste regler for, hvordan bilen skulle køre. Den havde skabt sine egne regler, og det er den kunstige intelligens ukendte tankegang, man kalder for 'black box'. 

Efter mange tests finder Dean ud af, at den kunstige intelligens har lært sig selv at bruge tilgræssede vejrsider som en måde at holde sig på vejen på.

Derfor blev algoritmen forvirret, da den for første gang skulle køre over en bro.

Kilde: Nature, 'Can we open the black box of AI?' fra 2016.

Sort boks og hvid boks

'Black box' er et kompliceret begreb, og hvis man vil begribe 'black box'-problemet, er det en god ide også at stifte bekendtskab med dets modsætning - 'white box'.

Black box og white box udgør de to traditioner, der findes inden for kunstig intelligens.

White box-delen er den del, man som udvikler har fuld kontrol over. Det er for eksempel rejseplanen.dk eller Google Maps, forklarer Ole Winther:

»Med et ruteplanlægningssystem ser man på alle de veje, man kan tage, og så skriver man nogle algoritmer, der på en deterministisk (afgrænset, red.) måde beskriver, hvordan du skal finde den korteste rute.« 

Det er et fysisk system, der kan forudsiges, og det betyder ikke, at det ikke er komplekst, forsikrer Ole Winther. Men som udvikler forstår man fuldstændigt alle delene - og det er heri, forskellen på hvid- og sort boks ligger.

Den kunstige intelligens' ukendte tankemønstre

Black box-delen er der, hvor den kunstige intelligens lærer sig selv, hvordan den skal løse en opgave - det man også kalder 'deep learning'.

»Deep learning er en normal statistisk model på syre,« fortæller Ole Winther.

Black box-delen bygger på statistik. Den lærer hele tiden sig selv noget nyt ud fra noget nyt indsamlet data.

Ole Winther forklarer det ved, at den hele tiden bygger nye lag, som den opdeler og kategoriserer.

Hvert lag finder en bestemt egenskab ved dataen. Når man har mange lag, kan man forestille sig, at ét lag finder en række egenskaber, og næste lag kan så arbejde videre på de egenskaber.

Lommevennen og iPhone-assistenten Siri er et eksempel på en kombination af black-box og white-box. Når den omsætter din tale til tekst, er det black-box-delen, der er i spil, men når den finder den næremste take-away, er det white-box-delen. (Foto: Shutterstock)

»Man kunne for eksempel forestille sig, at den (kunstige intelligens, red.) har lavet en bestemt 'knude' (model, red.), der er rigtig god til at kategorisere billeder af ansigter,« forklarer Ole Winther og uddyber:

»Vi har ikke designet denne her knude til at finde ansigter, men det er bare noget, der opstår, fordi vi har trænet modellen til at kende forskel på en masse kategorier, og her finder de selv ud af, at det er relevant at kunne finde ud af, om der er et ansigt i et billede eller ej.«

Det kan være svært for udvikleren at have kontrol og overblik over, hvad der sker i black box-delens mange lag, og der er heri problemet ligger, for hvis en selvkørende bil ender i grøften, kan det være svært at finde og lave om på fejlen, der har kørt bilen i grøften. 

99,99 procent er ikke godt nok

Man kan ikke komme udenom black box-problemet, når man udvikler selvkørende biler, fortæller Ole Winther.

»Men de elementer, der er i black box, skal være så pålidelige, at de er mindst lige så gode som mennesker,« forklarer han.

En selvkørendes bil grafikkort - som vores black box-algoritme køre på - kan altså være 99,99 procent pålidelig, men ifølge Ole Winther skal der mere til.

»Statistiske modeller handler om at forbedre performance mere og mere. Hvis en selvkørende bil fungerer godt i 99,99 procent af tilfældene, er det ikke godt nok. Vi skal have flere nitaller på,« forklarer Ole Winther.

Hvor mange nitaller, der skal til, er lidt mere uklart, men det lader til, at Google er tilfredse med deres procenttal, siden de har sluppet teknologien løs i Phoenix' gader.

»Google er så stort et firma med så meget renomme på spil, så de ville ikke gøre det, hvis ikke de stolede på, at det fungerede rigtig godt, og hvis ikke de havde testet det rigtig godt,« fortæller Ole Winther i ugens podcast. 


Ugens Podcast

Lyt til vores ugentlige podcast herunder eller via en podcast-app på din smartphone.