Forsker: Asimovs robotlove beskytter os ikke – her er en bedre løsning
Hvis Asimovs robotlove bliver en del af alle kunstigt intelligente systemer, er ideen, at vi ikke længere behøver at frygte, at robotterne overtager verden. Men lovene er mangelfulde, hævder forfatteren af denne artikel – og foreslår et alternativ.
Asimov robot grundregeler love kunstig intelligens fremtiden skade menneskeheden etik empowerment eksistens sikkerhed beskyttelse princip myndighed selvstændiggørelse adfærd

Asimovs love er en slags robotetik, der sikrer, at kunstigt intelligente systemer kan frembringes og fungere uden fare for mennesker og menneskeheden. Her leverer en forsker en bedre løsning. (Foto: Shutterstock)

Hvordan afværger vi, at robotter skader menneskeheden?

Mange eksisterende robotter, der eksempelvis arbejder i bilproduktionen på fabrikker, lukker omgående ned, hvis et menneske nærmer sig. 

Men det er selvfølgelig ikke en løsning, der kan bruges til selvkørende biler, som måske skal flytte over i en anden vejbane for at undgå en kollision eller en plejerobot, der skal nå at gribe et ældre menneske.

Robotterne har sat kurs mod at blive vores tjenestefolk, ledsagere og kollegaer, så vi skal lære at håndtere de stadig mere komplekse situationer, som vil forekomme samt de etiske og sikkerhedsmæssige spørgsmål, der vil opstå.

Flere løsninger er allerede foreslået

Historien kort
  • Asimovs robotlove skal sikre, at kunstigt intelligente systemer kan fungere uden fare for mennesker og menneskeheden.
  • Men en række argumenter har demonstreret at lovene ikke fungerer.
  • Her præsenterer en britisk forsker et bud på, hvordan lovene kan omskrives, så vi sikrer mennesker.

Science fiction forudså for længe siden dette problem, og en række forskellige mulige løsninger er allerede blevet foreslået. 

Den mest berømte er forfatteren Isaac Asimovs tre robotlove, der havde til formål at forhindre, at robotterne forårsager skade på mennesker. 

Men siden 2005 har jeg og mine kollegaer ved University of Hertfordshire arbejdet på et alternativ.

I stedet for love for at begrænse robotadfærden mener vi, at robotter bør have beføjelse til at maksimere de mulige måder, så de kan handle, og så de kan vælge den bedste løsning for et givet scenario. 

Som vi beskriver i en artikel publiceret i Frontiers, kan vores grundregler danne grundlag for et nyt sæt universelle retningslinjer for robotter for at sikre, at menneskeheden er i så gode hænder som muligt.

Asimovs tre robotlove

Asimovs robotlove

En nulte lov er senere blevet tilføjet:

  • Lov nummer 0: En robot må ikke skade menneskeheden eller ved uvirksomhed lade menneskeheden blive skadet.

Lovene fungerer hierarkisk. Det vil sige, at den nulte lov er den vigtigste, mens den første lov er vigtigere end den anden, ligesom den første og den anden lov er vigtigere end den tredje.

I praksis betyder det, at en robot for eksempel ikke kan beordres til at skade eller dræbe et menneske, medmindre det er for at redde menneskeheden (idet den første lov trumfer den anden, og den nulte lov trumfer den første), men godt kan beordres til at selvdestruere (da den anden lov trumfer den tredje).

Den amerikansk-russiske biokemiker og science fiction-forfatter Isaac Asimov skrev gerne historier om sympatiske robotter og mente, at skrækscenarier om fremtidens robotteknologi var trættende.

I 1942 introducerede Asimov for første gang det, der siden hen er blevet kendt som 'de tre robotlove'. Lovene angiver følgende regler, som enhver kunstigt intelligent robot må overholde:

  • Lov nummer 1: En robot må ikke skade et menneske eller ved uvirksomhed lade et menneske komme til skade.
  • Lov nummer 2: En robot skal adlyde ordrer, som gives til den af mennesker, for så vidt disse ordrer ikke er i konflikt med den første lov.
  • Lov nummer 3: En robot skal beskytte sin egen eksistens, for så vidt dette ikke er i konflikt med den første eller den anden lov.

Selvom lovene lyder acceptable og rimelige, har en række argumenter demonstreret, hvorfor de er utilstrækkelige.

'Oversættelse' er kæmpe udfordring

Asimovs egne historier er muligvis en dekonstruktion af lovene, der viser, hvordan de gentagne gange fejler i forskellige situationer. De fleste forsøg på at udarbejde nye retningslinjer følger et lignende princip for at skabe sikre, kompatible og robuste robotter.

Asimov robot grundregeler love kunstig intelligens fremtiden skade menneskeheden etik empowerment eksistens sikkerhed beskyttelse princip myndighed selvstændiggørelse adfærd

At bygge et intelligent, bevidst system kan ifølge instituttet ikke sammenlignes med at bygge et redskab. Redskaber kan bruges til et hvilket som helst formål, som brugeren ønsker. En bevidsthed kan derimod have selvstændige mål og kan udføre bevidste handlinger for at opnå disse mål. (Foto: Shutterstock)

Et problem med et hvilken som helst eksplicit formuleret sæt af robotretningslinjer, er behovet for at oversætte dem til et format, som robotter kan arbejde med. 

Det er uhyre svært for en robot at forstå hele det menneskelige sprogs rækkevidde og den oplevelse, som det repræsenterer.

Brede adfærdsmæssige mål, som eksempelvis forebyggelse af skade til et menneske eller beskyttelse af en robots eksistens, kan betyde forskellige ting i forskellige sammenhænge.

Fastholdelse af reglerne kan resultere i, at robotten ikke kan handle eller reagere, som dens skabere måske havde til hensigt.

Det modsatte af hjælpeløshed

Vores alternative koncept – 'empowerment' (evnen til at få kontrol over og tage ansvaret for sit eget liv og sin situation, for eksempel i relation til arbejde, familie og politisk indflydelse) repræsenterer det modsatte af hjælpeløshed.

Empowerment betyder, at du har evnen til at påvirke en situation, og at du ved, at du kan. Vi har udviklet flere måder, hvor vi kan 'oversætte' dette sociale koncept til et kvantificerbart og operationelt teknisk sprog. 

Det vil give robotterne mulighed for at holde deres muligheder åbne og handle på en måde, der øger deres indflydelse på verden.

Robotterne reagerede 'naturligt'

Da vi forsøgte at simulere, hvordan robotterne ville bruge empowerment-princippet i forskellige scenarier, fandt vi, at de ofte handlende på forbavsende 'naturlige' måder. 

Robotterne skal typisk efterligne den virkelige verden, og de behøver ikke specialiseret kunstig intelligens programmeret til at håndtere det pågældende scenarie.

Asimov robot grundregeler love kunstig intelligens fremtiden skade menneskeheden etik empowerment eksistens sikkerhed beskyttelse princip myndighed selvstændiggørelse adfærd

Asimovs tre love er omdrejningspunkt i filmen 'I, Robot', der handler om kunstig intelligens. (Foto: Wikimedia)

At åbne en lukket dør for et menneske øger deres empowerment – begrænsning eller tilbageholdelse resulterer i et kortvarigt tab af empowerment. Alvorlig skade fratager robotterne deres empowerment helt og holdent.

Samtidig skal robotten forsøge at bevare sin egen empowerment, for eksempelvis ved at sikre, at den har strøm nok til at fungere, og den ikke sidder fast et sted eller bliver beskadiget.

Robotter kan tilpasse sig nye situationer

Ved at bruge dette generelle princip snarere end foruddefinerede adfærdsregler er det muligt for robotten at tage højde for kontekst og evaluere forskellige scenarier, som ingen tidligere har forudset. 

I stedet for altid at følge reglen om 'aldrig at skubbe mennesker', undgår robotten som hovedregel at skubbe dem, men den er stadig i stand til at skubbe et menneske væk fra en faldende genstand. 

Så selvom mennesket måske kommer til skade, er det i mindre grad, end hvis robotten ikke havde skubbet dem.

Afværger et 'I, Robot'-scenarie

I filmen 'I, Robot', der bygger på flere Asimov-historier, skaber robotterne en undertrykkende tyrannisk stat, der skal minimere, at mennesker kommer til skade ved at begrænse og 'beskytte' dem. 

ForskerZonen

Denne artikel er en del af ForskerZonen, som er stedet, hvor forskerne selv kommer direkte til orde. Her skriver de om deres forskning og forskningsfelt, bringer relevant viden ind i den offentlige debat og formidler til et bredt publikum.

ForskerZonen er støttet af Lundbeckfonden.

Vores grundregler afværger et sådant scenarie, fordi det vil medføre et tab af menneskelig 'empowerment'.
 
Empowerment-princippet leverer en ny måde at anskue sikker robotadfærd,men der er stadig meget vej at gå med hensyn til effektiviteten, så det nemt kan implementeres i alle robotter og sikre god samt sikker adfærd i alle henseender. 
 

Det er en meget vanskelig udfordring. Men vi er overbeviste om, at empowerment kan føre til en praktisk løsning på det igangværende og meget debatterede emne; nemlig hvordan vi tøjler robotternes adfærd, og hvordan vi sikrer, at robotterne forbliver – i ordets mest naive forstand – 'etiske'.

Christoph Salge modtager støtte fra  EU Horizon 2020-programmet. Denne artikel er oprindeligt publiceret hos The Conversation og er oversat af Stephanie Lammers-Clark.

Lyt på Videnskab.dk!

Hver uge laver vi digital radio, der udkommer i form af en podcast, hvor vi går i dybden med aktuelle emner fra forskningens verden. Du kan lytte til den nyeste podcast i afspilleren herunder eller via en podcast-app på din smartphone.

Har du en iPhone eller iPad, kan du finde vores podcasts i iTunes og afspille dem i Apples podcast app. Bruger du Android, kan du med fordel bruge SoundClouds app.
Du kan se alle vores podcast-artikler her eller se hele playlisten på SoundCloud