I lufthavnen sætter vi vores lid til, at skannere, kameraer og særligt ansatte ved security opsnapper våben, stoffer eller suspekte personer, før vi går ombord i flyet.
Og på turen gennem security har tanken muligvis strejfet dig: Kan moderne computerteknologi (AI, på dansk kaldet kunstig intelligens) ikke klare det her alene og langt bedre end mennesker?
Det er i hvert fald tilfældet for Maria, som har sendt sin undren videre til Spørg Videnskaben:
»Når et menneske skal sidde at kigge på tusindvis af tasker eller kameraoptagelser i løbet af en dag, kan jeg ikke lade være med at undre mig over, hvor mange potentielle farer der overses, fordi personen uvægerligt indimellem må miste koncentrationen, bare et kort øjeblik. Ville kunstig intelligens ikke kunne klare opgaven mere sikkert?« spørger hun.
\ Spørg Videnskaben
Her kan du stille et spørgsmål til forskerne om alt fra prutter og sure tæer til nanorobotter og livets oprindelse.
Du kan spørge om alt – men vi elsker især de lidt skøre spørgsmål, der er opstået på baggrund af en nysgerrig undren.
Vi vælger de bedste spørgsmål og kvitterer med en Videnskab.dk-T-shirt.
Send dit spørgsmål til: sv@videnskab.dk
Kunstig intelligens er ikke så intelligent igen
Spørg Videnskaben griber fluks knoglen og ringer til en forsker, der kan opklare Marias gode spørgsmål.
Det korte svar er nej, fortæller Dan Witzner, professor i maskinlæring og computervidenskab ved IT-Universitet (ITU) i København, men det kan aflaste personalet.
For kunstig intelligens eller AI er slet ikke så langt i den teknologiske udvikling, at en skanner, robot eller kamera kan klare opgaven alene.
Kunstig intelligens er for så vidt et rigtig godt værktøj til at give en idé om, at tasken på rullebåndet kunne indeholde noget farligt eller ulovligt.
Men vurderingen af indholdet i tasken er stadig så kompleks en størrelse for kunstig intelligens, at mennesket fortsat må træde til og fælde den sidste vurdering, forklarer Dan Witzner.
Her er, hvor langt vi ifølge ham indtil videre er med kunstig intelligens og sikkerhed.
To grunde til, at kunstig intelligens ikke kan stå alene
Helt overordnet set er der to punkter, vi skal igennem for at forstå, hvorfor kunstig intelligens ikke varetager security alene i lufthavnen:
- For det første er forskning i kunstig intelligens som nævnt ikke nået så langt, at en computer alene ville kunne varetage funktionen.
- Og for det andet: Derfor kan vi heller ikke have tillid til, at den tager de rigtige beslutninger, hvorfor der naturligt vil komme en lang række etiske udfordringer.
\ Læs mere
Forskellen på en pistol og en hårtørrer kan være stor
Så lad os begynde ved udviklingen af robotteknologi.
»Forskning i kunstig intelligens’ muligheder for på egen hånd at konkludere, om en ondsindet person går rundt i lufthavnen, er stadig ikke nået så langt endnu. Vi er langt fra dette scenarie,« forklarer Dan Witzner og uddyber:
»For det kræver, at vi skulle være i stand til at forklare computeren noget ekstremt komplekst med et utal af variabler, som i øvrigt forekommer ekstremt sjældent. Og eftersom computere er gode til at overskue situationer med mange velkendte variabler, mener jeg, vi er langt fra, at computere overtager sikkerheden alene.«
Men en ting er menneskers komplekse hjerne. Burde kunstig intelligens ikke i det mindste kunne kende forskel på en pistol og en hårtørrer?
»Jo, sikkert. Men det er kattens leg med musen, for du behøver jo ikke have samlet en pistol. Den kan være delt op i mindre bidder. Den kan være dækket til, der kan være puttet noget tape om, så den ikke ligner. Man ville jo gøre alt for at skjule en pistol ved for eksempel at finde og lave nye former af pistolens udseende,« forklarer Dan Witzner.

Pædagogisk forklaring: Derfor kan man snyde kunstig intelligens
Lad os prøve med et eksempel på, hvad Dan mener med kattens leg med musen med variablerne: form og udseende.
Forestil dig, at du har bygget et hobbyprojekt i form af en kunstig intelligens derhjemme. Hobbyprojektet ligner til forveksling et håndbagagebånd magen til dem i security i lufthavnen.
Lad os navngive hobbyprojektet AI.
Du vil gerne have, at AI skal kunne kende forskel på citroner og appelsiner. Appelsiner er runde, og citroner er mere aflange, og de har hver især nuancer af orange og gul.
Der er altså to variationer, som du fortæller AI, at den skal forholde sig til: form og farve.
Du tager en tur til grønthandleren og køber 501 appelsiner og 500 citroner og præsenterer 500 af hver for AI’s algoritmer. Nu kender AI altså 500 forskellige former og farvenuancer af både citroner og appelsiner.
Du fortæller AI, at den skal udløse sin indbyggede alarm, når den støder på en citron eller appelsin. Du købte jo 501 appelsiner, så den sidste appelsin vælger du at skære ud til en firkant, som du farver grøn.
Den grønne og firkantede appelsin kører du nu igennem AI’s håndbagagebånd, men til trods for at det jo var en appelsin, udløste AI ikke sin alarm.
Du kan så vælge at fortælle AI, at dette faktisk var en appelsin, så AI kan reagere, næste gang den ser en appelsin med den form og farve.
På samme måde kan man ændre en pistols form eller materiale i en uendelighed. Og det er det, Dan Witzner mener med ‘katten med musen’. For når en kunstig intelligens kender til pistolers variationer, vil de, som ønsker at tage en pistol med ombord på flyet, altid forsøge at camouflere den, så en kunstig intelligens ikke reagerer.
Derfor er det også svært at foretage eksempelvis skraldesortering, fordi skrald kommer i ufatteligt mange forskellige former, farver, materialer og så videre, forklarer Dan Witzner.
»Og så er det bare vigtigt, at disse systemer ikke laver for mange fejl. For så mister vi mennesker tilliden til dem.«
\ Læs mere
Kunstig intelligens er bygget til at ’diskriminere’
Eksemplet viser med en simpel model, hvordan algoritmer dikterer en computers begrænsede formåen. Men også hvordan algoritmen ender med at diskriminere ud fra dens variabler.
»For det er, hvad algoritmer gør. Diskriminerer. Derfor skal vi passe på. For det er i sidste ende demokratiske rettigheder, der står på spil, hvis ikke vi er opmærksomme på at lære at forstå kunstig intelligens, inden vi uhindret bruger det,« konstaterer Dan Witzner og uddyber:
»I USA har de talrige eksempler på algoritmer, der for eksempel stiller sorte mennesker dårligere end andre, fordi algoritmerne er trænet med en bestemt type data. Der er bare for mange komplekse variabler ved mennesker, der gør, at kunstig intelligens ikke formår at klare opgaven alene.«

»Computere er gode til for eksempel skak og andre ting, hvor det er godt at kunne overskue mange forudindtagede kombinationer og prøve mange muligheder af samtidig. Men når det gælder situationer, hvor mange faktorer spiller ind, og vi ønsker at forklare kausale sammenhænge, årsagssammenhænge, kommer computeren altså stadig til kort.«
Så mangel på teknologisk kompetence og de etiske problemstillinger, der ville opstå, udgør altså to hovedargumenter for ikke at lade kunstig intelligens styre lufthavnens security alene.
Vi skal heller ikke glemme en tredje ting her på falderebet. Lufthavnen er naturligvis heller ikke interesseret i, at vi alle ved for meget. For det ville i sagens natur give ondsindede personer mulighed for at omgå vores allesammens sikkerhed.
Spørg Videnskaben takker Dan Witzner for at gøre os klogere og sender en T-shirt og en hilsen pakket med taknemmelighed afsted til Maria Grau-Keller for det gode spørgsmål. Hvis du også sidder med et godt spørgsmål til forskerne, så send det til sv@videnskab.dk.