Militære robotter og avancerede autonome våbensystemer er i fremmarch, og snart kan de træffe beslutninger om liv og død med sparsom eller slet ingen menneskelig indblanding.
USA fremlægger åbent fremtidsplaner (roadmaps, the Future Combat System project), mens andre stater, som Israel og Kina, sysler i det skjulte. Det nye sort inden for krig er survival of the chippest.
Men skal vi give krigsrobotter lov til at dræbe?
Svaret er klart nej. Som nørdet robotentusiast ser jeg gerne, at robotter anvendes til fredelige formål, og min skepsis retter sig heller ikke mod den generelle militærteknologiske udvikling.
Men, hvis den endelige beslutning om at tage et menneskeliv træffes af et robotvåben, vil det føre til en dehumanisering af krig, som intet civiliseret samfund kan være tjent med.
Ulige kamp
Når en robot dør, behøver du ikke skrive et brev til dens mor. Det ligger således lige for at introducere autonome våbensystemer for at minimere tab af menneskeliv. Men forventningen om risikofri og blodløs krigsførelse hviler på et paradoks.
Krig bør ikke være noget, man tyr til for let, og krigens love tilsiger da også, at krig skal betragtes som sidste udvej. Under den amerikanske borgerkrig skrev general Robert E. Lee, at det var godt, at krig var så forfærdeligt, ellers ville vi blive alt for begejstrede for krig.
Hvis krig udvikler sig til at blive en relativ ufarlig affære, med lav tabsrisiko for den ene af parterne, vil det føre til en demokratisk svækkelse af krigsbeslutninger, eftersom de kan træffes af magthavere i ro og mag uden pres fra bekymrede borgere. Risikofri krigsførelse vil true sikkerheden og øge det globale konfliktniveau.
Robotter uden følelser
Indtil videre træffer ingen robotvåben afgørelser om liv og død på egen hånd, men vi er betænkelig tæt på, og fortalere mener ligefrem, at det vil være etisk uforsvarligt ikke at udvikle autonome robotvåben.
De plæderer for, at robotter, med den rette programmering, vil være bedre til at følge krigens love end mennesker, der lader sig rive med af følelser – en robot vil ikke begå krigsforbrydelser, såsom voldtægt og andre grusomme overgreb på civile. En robot bliver hverken træt, sulten eller uligevægtig.
Krigsførelse fra distance
De nuværende robotsystemer omfatter fjernstyrede enheder, såsom de velkendte droner, der kræver remote control aktivering af en distancekriger. Sidste skud på stammen er den engelske Taranis-drone. Den skal hjælpes under start og landing, derudover leder den på egen hånd efter fjendtlige mål.
Den fyrer først, når den får lov af en distancekriger, der ofte befinder sig tusindvis af kilometer væk fra krigszonen, men som ikke desto mindre udvikler post traumatisk stress syndrom i næsten samme omfang som jagerpiloter.
Distancekrigerens job er at overvåge fjenden. Nogle gange i ugevis. Han får indblik i ‘målets’ livsrytme – børn kommer fra skole, en bedstemor kigger forbi.
Målet holder lav profil, indtil han en dag identificeres, lokaliseres og elimineres med et tryk på remote controllen. En særegen computerspilsvirkelighed med filter og nærvær på samme tid. Jagerpilotens mission er anderledes hurtig: ind – affyr – ud.
Den automatiserede Phanlax
På flådesiden benytter den amerikanske flåde US Phanlax close in weapon forsvarssystem, der automatisk reagerer på fjendtlige missiler, som gennembryder krigsskibets forsvarsværker og dermed nærmer sig med en hastighed, der ikke levner tid til menneskelig indblanding.
Phanlax spotter missilet, evaluerer trusselsniveauet og træffer beslutning om at eliminere det fjendtlige missil uden ‘human eye on target’.
Kæledyret Packbot
På landjorden har vi Packbot, der bruges til at eliminere vejsidebomber, ligesom den kan sendes ind i bygninger på rekognoscereringsopgaver. Packbot fungerer også via remote control og virker i det hele taget mekanisk charmeforladt. Men det har vist sig, at soldater knytter bånd til Packbot, som var den et kæledyr.
Der er beretninger om soldater, der sørgede over tabet af deres Packbot, kaldet ‘Scoobydoo’, og bad om at få den fikset i stedet for at få en ny. Da det ikke var muligt, holdt de en begravelsesceremoni. Warrior er den våbenbærende udgave af Packbot, der kan fjernaffyres.
Bigdog og Techwins
Der arbejdes også på robotter, der kan bære sårede væk fra slagmarken, eller fungere som pakæsler, sidstnævnte prototype kaldes ‘Bigdog’ og har opnået berømmelse i en Youtubevideo, der demonstrerer, hvor sikkert den bevæger sig i ujævnt terræn.
Samsung Techwins intelligente overvågningsrobotter anvendes i den demilitariserede zone mellem Nord og Sydkorea. Infrarøde sensorer gør dem i stand til at opdage mål. De styres af mennesker, men har mulighed for at gå på automode og selvaffyre.
Robotter skelner ikke mellem venner og fjender

Internationale humanitære love og konventioner, der regulerer krigsførelse, omhandler mennesker og taler til mennesker. I den sammenhæng er et af de helt store problemer, at robotter ikke kan skelne mellem civile, venner og fjender.
Man kan selvfølgelig sørge for, at robotten først skyder, når den selv er blevet beskudt, men en sådan defensiv strategi er ikke brugbar. Den inviterer til et modtræk, hvor robotten angribes sidst i rækken og derfor passivt ser til, mens en deling eller civile skydes ned.
Mangel på sund fornuft
Vi er stadig langt fra robotter, der kan begå sig i den virkelige verdens foranderlige omgivelser endsige forholde sig til, hvad andre mon tænker, føler eller gør. Robotten kan udstyres med avancerede kameraer og sensorer, der sætter den i stand til at afgøre, at den står overfor et menneske.
På testplan findes robotter, der kan genkende ansigter eller ansigtsudtryk, men de fungerer ikke, når mennesker bevæger sig i realtid og i naturlige omgivelser.
Moderne krigsførelse retter sig ofte mod oprørsbevægelser, hvor fjenden optræder u-uniformeret. Her er avanceret sensorteknologi ikke til meget hjælp, når man skal skelne ven fra fjende eller en fjende, der overgiver sig, eller afgøre om en mistænkelig civil i gadebilledet er på spring til angreb eller bare går i egne tanker.
At afkode sådanne tegn kræver erfaringsbaseret viden og common sense. Noget, som robotter ikke har og måske aldrig får.
Hvem står til ansvar?
Hagh-konventionen stadfæster, at en soldat skal være under kommando af en overordnet person. Man fristes altså til at drage parallel til denne militære ansvarskæde: Når den overordnede kan holdes ansvarlig for den underordnedes handlinger, bør det vel gælde, uanset om der er tale om en robot eller et menneske?
Svaret er klart nej. I en given krisesituation har den overordnede ikke forudsætninger for at gennemskue robottens adfærd. Den overordnede kan klandres, hvis han f.eks. burde have indset, at en underordnet soldat havde onde hensigter eller var mental ustabil.
Vores medmenneskelighed sætter os i stand til at forstå og gennemskue hinandens intentioner, og derfor kan vi også holdes ansvarlige, hvis vi ikke agerer proaktivt på andres fatale handlinger.
Det er usandsynligt, at en militær overordnet er i stand til at greje et avanceret autonomt robotvåben og gribe ind, før det kommer på afveje. Og i en efterfølgende udredning kan man tvivle på, om nogen overhovedet er i stand til at forstå den avancerede software (der typisk er hemmelig) endsige gennemskue komplekse fejlmuligheder i samspillet mellem software, hardware og omgivelserne.
Den moralske robot
Der arbejdes da også på at udvikle moralske robotter programmeret med etiske regler, som kan forklares i dagligdagssprog. Tanken er, at vi ad den vej har kontrol over robotten. Vi sætter standarden for robottens handlemuligheder og kan samtidig udbede os en forklaring på, hvad den har gang i, ligesom vi kan evaluere missioner ved at aflæse det digitale spor, den efterlader sig – lidt ligesom flyets sorte boks.
Der er lang vej endnu, og udviklerne deler sig i to lejre, hvoraf den ene siger, at robotter er bedre end os til beregningsopgaver, men aldrig bliver i stand til at overgå os, når det handler om at tage moralsk bestik af situationen i dynamiske omgivelser, og derfor skal der stadig være mennesker i beslutningskæden. Den anden lejr hævder, at robotter vil blive bedre end os til at træffe korrekte moralske beslutninger.
Robotter bør ikke være herrer over liv og død
En robot kan muligvis programmeres med krigens love, men dens virkelighed er nuller og ettaller, og den har ingen intentioner med sine handlinger. Den kan ligeså lidt træde i karakter, som den kan træde i spinaten. En robot er ikke dødelig og den har ikke moral eller forudsætninger for at forstå menneskelige værdier.
Derfor skal autonome våbensystemer under ingen omstændigheder tildeles magt over menneskeliv. Lad mig i den sammenhæng minde om, at landminer blev forbudt bl.a. med henvisning til, at maskiner ikke skal afgøre liv og død.
Meningsløs ansvarsplacering
Det kræver menneskelig dømmekraft og situationsfornemmelse at træffe beslutninger om at åbne ild. Det er en af de vanskeligste opgaver i krig, og der begås menneskelige fejl og deciderede kriminelle handlinger. Men bagefter kan vi forklare og placere et ansvar, netop fordi fejlen eller udåden blev begået af et menneske. Vi kan sanktionere og straffe krigsforbrydelser. Vi kan sætte ansigt på de skyldige og tildeler på den måde værdighed til krigens ofre.
Man kan altid diskutere, hvorvidt krig i det hele taget er meningsløs. Men med robotkrig får vi en grænseløs accelerering af meningsløshed og ansvarsforflygtigelse. Hvem har ansvaret, hvis et robotvåben dræber en gruppe skolebørn? Producenten? Den militære overordnede? Robotten selv? Teknik-leverandøren? Batterilevetid? Luftfugtighedens indvirke på sensorteknikken?
En maskine er ikke et menneske værdigt
I 2012 kom et amerikansk forsvarsdirektiv, hvormed USA regulerer autonome våbensystemer og kræver, at de designes, så de implicerer menneskelig supervision. Ligeledes anbefaler en FN rapport fra 2013, at stater tager initiativ til at regulere området, indtil det internationale samfund opnår enighed om en ramme for fremtidens robotvåben. I foråret 2014 afviklede FN et såkaldt uformelt ekspertmøde om autonome våbensystemer.
I denne måned kom Canadas førende militære robotproducent, Clearpath, med en officiel udtalelse, hvori virksomheden tager skarpt afstand fra udvikling af ‘killer robots’, fordi det både er uetisk og uklogt. De opfordrer til et forbud på internationalt niveau. Der er fremdrift på området, men der er også et akut behov for handlekraft.
Lad os håbe, at det internationale samfund enes om en internationalt bindende traktat, der forbyder udvikling og brug af autonome robotvåben. Maskiner er uden begreb om værdighed og forståelse for menneskelige værdier. Derfor bør beslutninger om at tage menneskeliv aldrig uddelegeres til robotter.