I anledning af filmfestivalen CPH:DOX genpublicerer Videnskab.dk denne artikel fra 28. august 2014. CPH:DOX har i 2014 et særligt tema om forholdet mellem menneske og maskine, 'We are the robots'. Her bliver videnskaben bag robotterne sat til debat op til og under festivalen, der afholdes 6.-16. november. Læs mere om 'We are the robots' i bunden af denne artikel. |
Vi bør håbe på, at det amerikanske militær udvikler autonome dræber-robotter. Altså robotter, der kan sendes i krig og slå ihjel i stedet for soldater.
Sådan tænker professor i filosofi Vincent Müller fra Anatolia College/ACT i Grækenland. Ved den netop overståede konference Robo-Philosophy på Aarhus Universitet, gjorde han sig til fortaler for, at autonome dræber-robotter faktisk kan gøre krige mere humane.
»Der findes krige, hvor man kan standse massedrab ved at sætte soldater ind. I sådan nogle situationer er det lettere for politikerne at sende dræber-robotter end mennesker afsted. Samtidig er robotter ikke racistiske, og de voldtager ikke nogen,« sagde Vincent Müller.
»Jeg forsøger bare at være realistisk. Mennesker – voksne og børn – bliver dræbt i krig. Men kan vi gøre det en lille smule bedre? Måske ville færre uskyldige civile blive dræbt, hvis vi brugte autonome dræber-robotter. Ville det så ikke være dét værd?«
Dræber-robotter tager krigens sår
Lige nu er teknologien langt fra at kunne udklække robotter, der på egen hånd kan bevæge sig ind i fjendeland og beslutte, hvem der skal dø, og hvem der skal leve. Men scenariet er ikke længere væk, end at det bliver taget dybt seriøst.
Vincent Müller var en af de eneste på konferencen, der var for autonome dræber-robotter. Han er født og opvokset i Hamburg i Tyskland. En by, der blev sønderbombet af de allierede under 2. Verdenskrig. Mange mennesker døde, mange blev traumatiserede, og hele byen skulle genopbygges, da krigen var ovre.
Med det i baghovedet mener han, at autonome dræber-robotter både nu og på længere sigt kan gøre verden til et bedre sted.
-
I krig bliver soldater dræbt, såret og traumatiseret. Og det er uanset, om de befinder sig på vindersiden eller tabersiden. Brugte vi dræber-robotter i krig, ville de problemer ikke opstå. I modsætning til mennesker skal robotter nemlig ikke leve med krigens sår, efter der er kommet fred.
-
Mennesker begår krigsforbrydelser, når de er i krig. De torturerer deres fjender, de voldtager og plyndrer. Sådan har det altid været. Men den slags psykiske brister har dræber-robotter ikke, hvis de bliver programmeret til at følge Geneve-konventionens regler for korrekt krigsførelse.
- Fremtidige generationer skal også leve med krigens sår. En befolkning, hvor mange mænd har oplevet krigens gru, må leve med kollektive traumer flere generationer efter krigen. Mange historikere mener for eksempel, at Danmarks nederlag i krigen til Prøjsen i 1864 lagde grunden til over hundrede års dansk pacifisme.
Problem: Kan man stille en robot til ansvar for drab?
Argumenterne for at bruge autonome dræberrobotter er umiddelbart gode. Men der er også store problemer forbundet med det. Et af de helt store problemer er, at robotterne ikke kan stilles til ansvar for det, de gør.
At stille en robot til ansvar for et drab, svarer til at stille en brødrister til regnskab for at brænde toasten. Man kan smadre den og smide den ud, men den er ligeglad, for den er bare en maskine.

Førerløse droner bliver i øjeblikket brugt af amerikanerne til at dræbe mennesker i Pakistan. Man kan kalde droner for dræber-robotter, men de er ikke autonome. Der sidder et menneske og styrer dem. Det er altså et menneske, der trykker på aftrækkeren, og derfor er der også et menneske at stille til regnskab for eventuelle krigforbrydelser. (Foto: Colourbox)
Derfor skal vi holde op med at udvikle autonome dræberrobotter, mener Anne Gerdes, som er lektor ved Institut for Design og Kommunikation Syddansk Universitet. Hun deltog også på konferencen, hvor hun kastede sig ud i en diskussion med Vincent Müller.
»Man kan ikke bare sige til den efterladte mor, at det var en robot, der dræbte din søn, så nu trækker vi stikket og straffer den. For hvem skal så have ansvaret?« spørger Anne Gerdes retorisk.
Hun kender ikke selv svaret, og det er en af hovedårsagerne til, at hun er modstander af autonome dræber-robotter. Normalt siger man nemlig, at en krig kun bliver udkæmpet lovligt, når man kan stille nogen til regnskab for hvert et drab, der bliver begået. Om det så er den soldat, der løsnede skuddene mod landsbyen, eller generalen der beordrede det.
Men autonome dræber-robotter vurderer selv, om de møder en ven eller en fjende. De træffer selv beslutningerne om at slå ihjel, uden at mennesker er direkte involveret.
»De konventioner, vi har nu, er lagt an på, at mennesker går i krig med mennesker. Der skal altid være et menneske, man kan give ansvaret,« fortæller Anne Gerdes.
Professor: Vi må leve med dræber-robotternes fejl
Dræber-robotter kan ikke blive pålagt et ansvar. Men det mener Vincent Müller ikke nødvendigvis er et problem. Han er overbevist om, at militæret først vil tage dræber-robotter i brug, når de er så pålidelige, at de ikke dræber de forkerte. Og skulle det ske, at noget gik galt, måtte vi leve med det – ligesom vi lever med farer i hverdagen.
»I det civile liv kan en bro brase sammen, og folk dør. Men hvem skal man stille til regnskab for det? De ingeniører, der har lavet broen? Det offentlige organ, der skulle holde øje med, at broen holdt? Brugerne af broen, som igennem mange år har lastet deres biler for meget, så den til sidst kollapsede?«
»Hvis man havde forsømt at tjekke broen hvert femte år, kunne vi placere ansvaret dér. Men hvis alle har gjort, som de skulle, kan vi ikke placere ansvaret hos nogen. Det er vi parat til at leve med. Der er altså et toleranceniveau i det civile liv, som også kunne fungere i forbindelse med autonome krigsrobotter.«
»Fejl opstår. Så opgaven er at designe en teknologi, der kan give systemet legitimitet – men ikke 100 procent sikkerhed,« sagde Vincent Müller.
Efterladte vil kunne se drabsmanden i øjnene
'Make love not war' er helt indlysende et rigtigt budskab. Men det løser bare ikke de problemer, vi står med.
Man kan slet ikke sammenligne eksemplet med broen med at gå i krig, mener Anne Gerdes.
»Når jeg går over en bro, har jeg ikke en fornemmelse af, at det er en kontrakt på liv og død. Derfor vil min familie kunne forstå, hvis noget går galt, og jeg dør. Jeg var bare så uheldig at være det forkerte sted på det forkerte tidspunkt.«
»I krig er situationen en anden. Når man går i krig, ved man, at man kan blive slået ihjel. Derfor har vi taget os nogle forholdsregler, så soldaten og hans familie er sikret, at hans liv har en værdi. Den enkelte skal ikke bare blive en i mængden. Der bliver stillet klare krav om, at nogen skal have ansvaret for hvert drab.«
Det er vigtigt, fordi de efterladte skal kunne placere ansvaret for dødsfaldet på et andet menneske. Ellers bliver tabet endnu mere meningsløst.
»Som mennesker sender vi på 'samme frekvens'. Bliver jeg slået ihjel i krig, vil min fjende vide det og sandsynligvis angre det bagefter. Det gør en robot ikke.«
»Det med, at vi sender på samme frekvens som mennesker, betyder for eksempel, at politiet kan have konfliktråd, hvor offer og voldsmand møder hinanden. Det giver offeret noget, når voldsmanden angrer, fortæller sin side af sagen og måske endda græder. Men noget lignende er umuligt, når voldsmanden er en robot,« siger Anne Gerdes.
Hun mener, at vi kan gøre krig 'mere ren' ved at uddanne soldaterne bedre. Militæret burde bruge de penge, de bruger på robot-udvikling, til at udstyre soldaterne med et robust psykisk beredskab, så vi i videst mulige omfang undgår krigsforbrydelser.
Hvad mener du? Skal vi skubbe på for, at militæret udvikler kunstig intelligens og robotteknologi, som gør det muligt at skabe autonome dræber-robotter? Eller skal vi helt holde os fra at gå ned ad den vej?
Giv dit besyv med i kommentarfeltet under artiklen her.
Den amerikanske robot Atlas er ikke i stand til at slå ihjel på egen hånd. Men den er et godt eksempel på, hvor lagt det amerikanske militær er med at udvikle fremtidens robot-soldat. (Video: DARPA)