Det er generelt slemt at blive slået ihjel, det er klart. Men er det et større onde at blive slået ihjel af en robot?
Er det for eksempel værre for en menneskelig soldat at blive slået ihjel af en såkaldt dødbringende autonom robot (DAR), også kaldet en ‘dræberrobot’, end af en anden menneskelig soldat?
Er det værre at blive kørt ihjel af en selvkørende bil end af en menneskelig spritbilist?
Ville aktiv dødshjælp være værre, hvis en robot gav indsprøjtningen, end hvis en menneskelig læge gjorde det?
Disse spørgsmål er vigtige, fordi de er en del af en international debat om etiske spørgsmål vedrørende robotter, som kan få afgørende indflydelse på den offentlige accept eller afvisning af denne type teknologi.
Hvis vi politisk bliver enige om, at det er værre at blive slået ihjel af en selvkørende bil, kan det være, at netop det bliver grunden til, at de ikke bliver indført.
Hvis alt handler om smerte og nydelse, er svaret nej
Et åbenlyst opklarende spørgsmål er, hvad vi mener med ‘værre’?
Hvis spørgsmålet kan reduceres til et såkaldt konsekventialistisk udgangspunkt, altså kun kigger på, om det gør mere ondt, for eksempel at blive kørt over eller skudt af en robot, så kommer det an på omstændighederne, men åbenlyst er svaret generelt, at det gør det ikke nødvendigvis.
Så hvis vi kun fokuserer på den døendes oplevede smerte i forbindelse med dødsøjeblikket og fremtidig mistet nydelse, må svaret være, nej, det er generelt ikke værre.
Hvis man filosofisk hælder til såkaldt hedonistisk konsekventialisme, som måler velfærd i form af fravær af smerte og oplevet nydelse og fokuserer på konsekvenser af handlinger, ikke bagvedliggende intentioner eller oprindelse i en ansvarlig person, så synes der ikke umiddelbart at være nogen etisk relevant forskel på at blive slået ihjel af et menneske og en robot.
…men er du deontolog, er andre svar mulige
Men filosoffer, der argumenterer for, at det rent faktisk er værre at blive slået ihjel af robotter, gør det sjældent fra et konsekventialistisk udgangspunkt.
Et andet udgangspunkt kaldes deontologisk, og fra et sådant udgangspunkt regnes andre faktorer for at være etisk relevante – for eksempel at man ikke udelukkende må bruge andre som middel til at opnå et mål, eller at man skal handle i grundlæggende respekt for menneskets værdighed.
Deontologer argumenterer for, at det er krænkende for menneskets værdighed at blive slået ihjel af en robot, enten fordi en sådan død er arbitrær og meningsløs, eller fordi der ikke er nogen, der har moralsk ansvar for en sådan død.
Det giver mig anledning til at vende tilbage til først de selvkørende biler og så dræberrobotterne.
Er det værre at blive kørt ihjel af en selvkørende bil?
Idet selvkørende biler vil komme i situationer, der handler om liv og død, og skal programmeres til at køre på en bestemt måde i sådanne situationer, men ikke kan have moralsk ansvar for deres kørsel, kan man hævde, at vi ikke bør indføre sådanne biler.
Spørgsmålet er her blandt andet, om det er værre at blive slået ihjel af en selvkørende bil, der er et rent teknisk system, end af et menneske, der for eksempel er uopmærksom på grund af indtagelse af alkohol?
Mennesket kan vi sætte for en dommer bagefter, mens det i visse tilfælde vil være uklart, hvem der skal drages til ansvar for den selvkørende bils kørsel. Programmøren, bilejeren, bilfirmaet eller andre?
\ Forskerzonen
Denne artikel er en del af Forskerzonen, som er stedet, hvor forskerne selv kommer direkte til orde.
Her skriver de om deres forskning og forskningsfelt, bringer relevant viden ind i den offentlige debat og formidler til et bredt publikum.
Forskerzonen er støttet af Lundbeckfonden.
Det er ikke umuligt at placere ansvar for robotdrab
For det første kan man her indvende, at ansvaret i mange tilfælde rent faktisk kan placeres. Dog vil ansvarsplaceringen ofte være kompleks og involvere for eksempel undersøgelser udført af tekniske eksperter.
Men er dette et problem?
Med den rette dokumentation og vidensdeling vil netop sådanne undersøgelser bidrage til øget fremtidig sikkerhed.
Generelt er det sjældent væsentligt at placere et individuelt moralsk ansvar, når der sker uheld med store tekniske systemer. Tværtimod er fokus på at finde de relevante årsagssammenhænge, og hvis der er sket menneskelige fejl forbedre interfacet mellem system og menneske.
Operatøren i Tampere havde hovedansvaret for bilens drab
For eksempel blev en lang undersøgelse af den eneste fodgængerdødsulykke, vi indtil videre har haft med en selvkørende bil i Tampere, USA, i marts 2018 først afsluttet i november 2019.
Myndigheden, The National Transportation Safety Board, lagde hovedansvaret på den menneskelige operatør af bilen, hvis opgave det er at opdage risici, som bilen ikke opdager selv.
Andre faktorer var en dårlig sikkerhedskultur hos Uber, og at fodgængeren opførte sig uansvarligt.
Selvfølgelig kan en sådan undersøgelse få en retslig betydning. Grundigheden er dog primært vigtig, fordi det kan føre til forbedringer af teknologien og sikkerhedskulturen, således at operatører fremover for eksempel ikke sidder og ser fjernsyn på deres mobil i stedet for at holde øje med vejen, som det åbenbart var tilfældet i Tampere.
Selvkørende trafik giver langt færre trafikdrab uanset
Hvis vi accepterer, at fremtidens trafik bliver et system, der minder mere om luftfart eller energisystemet, og hvor sikkerheden bliver mindre og mindre afhængig af menneskets evne til at handle i de enkelte situationer, så vil vi indse, at placeringen af individuelt moralsk ansvar er mindre væsentligt end at have en trafik med så få dødsfald som muligt.
Og hvis vi i modsat fald ikke indfører selvkørende biler med den begrundelse, så er det faktisk ikke et falsk dilemma:
Vi kan formentligt ikke få så få dødsfald som muligt i trafikken uden selvkørende biler.
Er det værre for en soldat at blive slået ihjel af en dødbringende autonom robot?
Og hvad så med DAR, ‘dræberrobotterne’?
En kritik, der er blevet rettet mod DAR, blandt andet meget kraftfuldt af filosoffen Noel Sharkey, at de ikke kan skelne civile fra ikke-civile og ikke kan bruge magt i passende proportionalitet med, hvad situationen kræver.
Dette kræver krigens regler, fortrinsvist Geneve-konventionerne, som blev indført efter 2. verdenskrigs grusomheder.
Det er dog blevet påpeget, for eksempel af Rosert og Sauer, at den teknologiske udvikling kan muliggøre, at robotter rent faktisk kan få disse evner. Teknologien kan i princippet gøre det muligt for robotter at blive bedre til udpege de rigtige mål og ikke at udpege de forkerte, for eksempel civile.
Blandt andet derfor fokuserer visse modstandere af DAR, for eksempel Peter Asaro og Amanda Sharkey (gift med Noel), direkte på, at det krænker menneskets værdighed at blive slået ihjel af en maskine.
For eksempel hævder Asaro, at det er meningsløst at blive slået ihjel af en robot, fordi den ikke er intentionel agent eller en bevidst person. En robot vil ikke kunne anerkende værdien af et menneske.

Lige et par ord om krig og død
Her kan man komme med to indvendinger. Men en opklarende bemærkning om krig er på sin plads først.
Krig er generelt en dårlig løsning på konflikter mellem mennesker, blandt andet fordi krig er baseret på vold og involverer, hvad der er civil sammenhæng kaldes overlagt mord. Derudover involverer krig altid, at mennesker bliver slået ihjel på en måde, der ikke giver mening grundet de kaotiske omstændigheder.
På trods af at krig er en onde, vil mange hævde, at det af og til er et nødvendigt onde, for eksempel når et igangværende folkemord skal standses.
Når jeg kommer med de følgende indvendinger gælder de kun det relative spørgsmål, om det kan siges at være mere meningsløst at blive slået ihjel af en robot end et menneske i krig under antagelsen at der findes etisk forsvarlige krige.
Og så indvendingerne:
Gør det fra eller til hvem, der trykker på aftrækkeren?
For det første virker det mærkeligt at hævde, at en menneskelig soldat, der slår en anden ihjel, befinder sig i en tilstand, hvor han anderkender værdien af den anden som menneske. Tværtimod virker det mere sandsynligt, at soldaten befinder sig i en fjendtlig eller ligefrem hadefuld tilstand, hvor han er parat til at udslette den anden.
For det andet kan man spørge, om den subjektive sindstilstand af den dræbende soldat gør fra eller til i forhold til, om den anden soldats død giver mening eller ej.
Tværtimod virker det om, at spørgsmålet om den enkelte soldats død giver mening eller ej har at gøre med, om dødsfaldet på en eller anden måde har bidraget til at opnå de militære mål og i sidste ende, om disse militære mål i sig selv er meningsfulde – for eksempel om soldatens død bidrager til at forhindre et igangværende folkemord.
Hvis det er tilfældet, er det så relevant om døden er forårsaget af et menneske eller en robot? Det virker ikke som, at det er mere eller mindre meningsløst at blive slået ihjel i krig af en robot.
Der kan være andre gode grunde til at skrotte dødsrobotter
Der kan være andre gode grunde til ikke at indføre DAR, end at det ikke er værre at blive slået ihjel af dem, for eksempel konsekventialistiske argumenter baseret på faren ved spredning og nye våbenkapløb i forbindelse med dødbringende autonome robotter.
Baseret på det deontologiske princip om, at det alt andet lige er værre aktivt at gøre noget ondt med vilje end at undlade at forhindre noget ondt, der ikke er intenderet, kan man argumentere, at der er en væsentlig etisk forskel på robotter, der er designet til aktivt at slå ihjel som DAR, og robotter som selvkørende biler, der er designet til at undgå at slå ihjel, men som nogle gange ikke kan undgå dødelige uheld.
Ansvarsspørgsmålet, som jeg forsøgte at køre ud på et sidespor i forhold til selvkørende biler, kan også vise sig at være anderledes problematisk i forhold til DAR.
Hvis maskiner aktivt slår ihjel, så bør der altid være et menneske at stille til ansvar, for eksempel den der aktiverer maskinen, hvis intentioner videreføres gennem maskinens opførsel.
Hvad er så værst?
Så er det værre at blive slået ihjel af en robot end af et menneske?
Det kommer an på, hvad vi mener med ‘værre’, og hvad vi regner som etisk relevant. Overraskende nok, kommer det også an på hvilken type robot, vi bliver slået ihjel af.
I sidste ende handler diskussionen om robot-teknologi – for eksempel hvilke robotter vi bør forbyde, og hvilke vi bør tillade – også om hvilket type samfund, vi ønsker at bevæge os hen imod.
Diskussionen vil, ligesom udviklingen i kunstig intelligens-teknologier, uden tvivl fortsætte i et godt stykke tid endnu. Der er ingen vej uden om.