En klynge af droner hænger faretruende i luften over et nordafrikansk ørkenlandskab. Pludselig dykker den summende sværm mod en deling menneskelige soldater.
De flygter i vild forvirring, men dronerne jager dem og beskyder dem med indbyggede maskingeværer.
Intet menneske er involveret i dronernes beslutningsproces, de vælger autonomt deres mål, beskyder dem og glemmer dem igen.
Teknologien er baseret på kunstig intelligens, blandt andet ansigtsgenkendelse.
Lyder det som science fiction?
Ikke længere.
En FN-rapport fra marts 2021 konkluderer, at droner af typen Kargu 2 blev brugt i 2020 i Libyen, hvor de forfulgte og angreb flygtende oprørstropper.
Dette er en historisk hændelse, og vi kan måske også lære af historien, hvor galt det kan ende.
Radikal ny krigsteknologi i Libyen for 110 år siden
Det er ikke første gang i nyere historie, at kontroversiel ny krigsteknologi bliver afprøvet i Libyen.
I november 1911 kastede den italienske sekondløjtnant Giulio Gavotti fire håndgranater fra sin endækker (se billede herunder, se en tegnet illustration af nedkastningen her) mod tyrkiske soldater i, hvad der dengang var, en osmannisk provins.

Endækkeren – også kaldet et monoplan fly – var verdens første improviserede bombefly i Libyen 1911. (Foto: Bundesarchiv)
Nedkastningen var et led i den italiensk-tyrkiske krig, der endte med, at Italien koloniserede det nordafrikanske område, der senere blev Libyen.
Hændelsen bliver betragtet som det første bombardement fra fly i historien, og beskrivelser af den gik kloden rundt.
Verdenspressen fordømte generelt manøvren som usportslig, da de osmanniske styrker ikke havde mulighed for at forsvare sig.
Ugen efter skød de et italiensk fly ned med rifler – så det viste sig ikke at være helt rigtigt.
Det er dog korrekt, at bomber fra fly i det kommende år førte til en ekstrem forøgelse af asymmetrien i krigsførelse.
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra vores partnere: Lundbeckfonden, Aalborg Universitet, Roskilde Universitet og Syddansk Universitet.
Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af partnerne. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
En dødbringende glidebane
Det internationale samfund havde i årtier været bekymret for muligheden af bomber kastet fra luften – fra luftballoner og senere fly.
Det førte til et forslag om et internationalt forbud, der blev forsøgt etableret ved fredskonferencerne i Haag i 1899 og i 1907.
Sådan skulle det som bekendt ikke gå. To år efter Giovattis spektakulære stunt havde Italien og England udviklet de første deciderede bombefly.
Et tilsyneladende ustoppeligt forløb var sat i gang, som nåede et klimaks i de systematiske massebombninger af civile under 2. Verdenskrig.
Mest grundige var de allieredes bombardementer af de tyske og japanske befolkninger med det erklærede formål at demoralisere civilbefolkningerne, så de opgav støtten til krigen.
Det viste sig kun at være en effektiv strategi i den mest grufulde ekstrem – nemlig USA’s atombombninger af Hiroshima og Nagasaki.
Japanerne kapitulerede, og menneskeheden lever med den foruroligende indsigt, at vi kan forårsage vores egen totale selvdestruktion.
Lever dræberdroner op til krigens regler?
Efter krigen indførtes krav om distinktion og proportionalitet som modsvar til disse uhyrligheder.
Distinktionsprincippet siger, at krigens parter altid skal skelne mellem civile og kombattanter, og at krigsaktiviteter kun må være rettet mod militære mål.
Proportionalitetsprincippet siger, at de forventede menneskelige og materielle tab ved en krigshandling ikke må være overdrevet i forhold til den forventede nytte ved opnåelsen af det militære mål.
Det er disse krav, som vi nu diskuterer, hvorvidt dræberdroner, der selv udvælger deres mål, lever op til.
Droner i Libyen
Da droner blev indsat i Libyen, var det som et led i den anden libyske borgerkrig, der varede fra 2014 til 2020.
Tyrkiet spillede en ny rolle denne gang. I 1911 var det tyrkiske (dengang osmanniske) militær offer for den nye teknologi.
I 2020 leverede de militær opbakning til regeringshæren (Government of National Accord) – blandt andet ved at tilvejebringe den nye krigsteknologi, dronen Kargu 2, der ifølge producenten bruger ansigtsgenkendelse og andre teknikker fra kunstig intelligens baseret på maskinlæring.
Disse droner kan fjernstyres, men de er også i stand til selvstændigt at udvælge og engagere mål uden input fra en menneskelig operatør.
Det betyder, at de klassificeres som dødbringende, autonome våbensystemer, og det er – så vidt vi ved – første gang nogensinde, de er blevet indsat i kamp.
FN’s rapport konkluderer, at de autonome våbensystemer spillede en afgørende rolle i regeringshærens nedkæmpelse af oprørsstyrkerne.
Hvad er det gode argument mod droner?
Dette har dog endnu ikke ført til en udbredt fordømmelse hverken i verdenspressen eller i Danmark. Det skyldes formentlig til dels, at andre emner dominerer, særligt COVID-19 pandemien.
Og sådan gik det indtil slutningen af maj 2021, hvor New Scientist gravede den korte beskrivelse af dronerne ud af den 548 sider lange FN-rapport. En uge senere blev historien samlet op af blandt andet New York Times, Ingeniøren og Politiken.
Men der er måske også en anden grund til at der har været relativt stille omkring emnet: Vi ved ikke helt, hvad det gode argument for fordømmelse er.
Proportionalitet og distinktion er ikke de største problemer
Vores principper om proportionalitet og distinktion blev vedtaget som en refleksion af problemerne med massebombninger af civile under 2. verdenskrig.
Selvom det er rimeligt at hævde, at en drone som Kargu 2 ikke overholder disse principper tilstrækkeligt, vil det ikke være tilfældet fremover.
Dødbringende autonome våben vil formentlig kunne udvikles til at følge disse principper. Det er faktisk et aspekt, der gør dem attraktive fra en militær betragtning.
En sværm af droner kan være så præcis, at den kun dræber mennesker på en specifik liste, for eksempel genereret ved hjælp af data fra de sociale medier.
Dronerne kan hænge tålmodigt i luften og dominere et område, så længe man ønsker, og dermed sikre, at alle civile får en chance for at forføje sig, og fjender kan vælge at overgive sig, før der bliver brugt dødelig kraft.
Batteritid er stadig et problem, men så er der altid gradvis udskiftning af sværmens medlemmer.
Måske lyder uendelig dominans af en præcist afgrænset gruppe ikke særlig menneskevenligt, men det virker ikke overbevisende at hævde, at problemet er mangel på distinktion eller proportionalitet, som disse begreber fortolkes nu.
Hvad er problemet egentligt?
Hvad er problemet så? Menneskeretsgrupper har slået sig sammen for at få et forbud gennemført. Filosoffer gør sig store anstrengelser i jagten på de rigtige begreber.
Desværre er deres argumenter ikke helt klare. Et argument for et forbud er baseret på, at det er uværdigt for mennesker at blive slået ihjel af en robot.
Det er dog ikke klart, hvorfor det skulle være mere uværdigt at blive slået ihjel af en robot end for eksempel et missil.
Et andet argument går ud på, at det ikke er tydeligt, hvem der har ansvaret, når en robot slår ihjel.
Selvom det er en reel udfordring, er dog ikke klart, hvorfor det skulle være umuligt at imødekomme den.
I mange tilfælde vil det være den person – og i sidste ende den politiske eller militære instans – der har aktiveret dronen, som har ansvaret. På samme måde som den, der affyrer et ballistisk missil, har ansvaret for det.
I andre tilfælde, som når teknologien slår fejl, er det klart, at man måtte indføre en juridisk ramme, der sikrer placering af ansvar. Heller ikke dette forekommer umuligt.
Risiko for 3. verdenskrig – udkæmpet af robotter
Man kan forsøge at begrunde et forbud i et forsigtighedsprincip, givet den store risiko for spredning og ondsindet brug af teknologien.
Dræberdroner som terrorvåben er ikke just et ønskescenarie.
Og hvis man kan udvikle robotter til at følge principper, kan man også udvikle dem til at ignorere dem. Det hjælper dog ikke at appellere til et forsigtighedsprincip i en kapløbssituation, medmindre alle parter kan tilslutte sig.
Med den givne spændte situation mellem USA og Kina og med andre innovative aktører såsom Tyrkiet, er det ikke sikkert, at parterne kan overbevises om, at de andre vil holde sig fra at udvikle teknologien, trods eventuelle erklæringer.
Den mistroiske rationalitet risikerer at ende med et udfald, der ikke er gavnligt for menneskeheden.
Manglen på gode argumenter giver i øjeblikket producenterne af krigsteknologi en stor fordel. Kan de udvikle teknologien, før der er fundet overbevisende grunde til at forbyde dem, risikerer vi at ende i en 3. verdenskrig udkæmpet med AI og robotter.
Et våbenkapløb er sat i gang
Den tyrkisk producerede drone er ikke endepunktet for autonome våbensystemer.
Det forekommer rimeligt at antage, at et våbenkapløb om udvikling af langt mere sofistikerede dræberrobotter allerede er i gang, og at de vigtigste beslutninger vil blive taget i Washington og Beijing.
Den slags kan gå stærkt. Vi kom fra nedkastning af håndgranater til nedkastning af atombomber på 34 år. Og hastigheden af den teknologiske udvikling er ikke just aftaget siden.
Den militære udvikling drives også frem af det globale kapløb om at være førende inden for kunstig intelligens, som Kina og USA leder.
Jo mindre disse aktører bekymrer sig om at overholde krigens love, jo lettere er det at udvikle teknologien.
Hvis man blot ønsker et instrument, der kan udpege mennesker og slå dem ihjel uafhængigt af principperne for krigens love, har hændelsen i Libyen vist, at det kan gøres effektivt i forhold til at nå militære mål.
Desuden er krigens love, som vi kender dem, formentlig uvirksomme i forhold til at forhindre de negative konsekvenser af denne nye teknologi, da disse konsekvenser er forbundet med en høj grad af usikkerhed.
Vores juridiske og etiske begreber er simpelthen ikke udviklet til at håndtere denne nye situation.
Hvor ender det?
Det er med et citat af Einstein skrækindjagende tydeligt, at teknologien har overgået vores menneskelighed.
Denne gang endnu mere bogstaveligt end med atombomben, idet dronerne simpelthen overtager menneskelige soldaters rolle og tager beslutninger om liv og død på slagmarken.
Fra den tidligste udvikling af nye våbentyper, for eksempel spyd, har mennesker vist sig villige - i mange tilfælde ivrige - efter at afprøve deres kraft i vores tilsyneladende evige bestræbelser på gensidig dominans.
Historisk har internationale aftaler begrænset virkning i forhold til at bremse brugen af ny krigsteknologi.
I sidste ende bestemmer vi selv udviklingen
Der er ingen tvivl om, at mennesket har en utrolig evne til at gennemføre tilsyneladende umulige projekter inden for en kort periode.
Menneskets håbefulde drømme og uhyrlige ambitioner har en imponerende kraft.
Det første fly lettede i 1903. 10 år senere var de første bombefly udviklede.
Men teknologien ledte også til positive bedrifter. 66 år senere i 1969 landede de første mennesker på Månen. Det krævede en kæmpe indsats, der både involverede stater, virksomheder og individer.
I tusindvis af år har teknogien været primus motor i samfundsmæssige udviklingsprocesser. Men hverken historien eller teknologiens udvikling er deterministisk; frie menneskelige valg spiller en vigtig rolle.
Intet er givet, og selvom vi kan lære af at sammenligne tidligere våbenkapløb med det nuværende, er sammenligningen ufuldstændig og har ikke karakter af et bevis.
Givet menneskehedens historie og den nuværende højspændte politiske kontekst er det vanskeligt at forudse, om de afgørende aktører kan blive enige om at tage valg, der fører til en sikker og fredelig udvikling.