En rapport publiceret i tidsskriftet '+972 magazine' af undersøgende journalister med base i Jerusalem viser, at AI-systemer har spillet en afgørende rolle i at identificere – og potentielt fejlidentificere – titusindvis af angrebsmål i Gaza.
Det peger på, at autonom krigsførelse ikke længere er et fremtidsscenarie. Det sker allerede og med grufulde konsekvenser.
Der er tale om to teknologier. Den første, 'Lavender', er et AI-system designet til at identificere Hamas-agenter ved hjælp af algoritmer.
Den anden teknologi med det groteske navn 'Where’s Daddy?' sporer angrebsmålene geografisk, så de bliver fulgt hele vejen hjem til familien, før de bliver angrebet.
Automatisering af 'kill chain'
Tilsammen udgør de to systemer en automatisering af den såkaldte 'kill-chain', der er en kæde af procedurer, som lyder: 'find-fix-track-target' (lokalisér, udvælg og angrib, red).
Systemer baseret på kunstig intelligens som 'Lavender' er ikke autonome våben, men de accelererer 'kill-chain' og gør processen gradvist mere autonom.
AI-systemer trækker på data fra computersensorer og andre kilder for statistisk at vurdere, hvad der udgør et potentielt angrebsmål. Store datamængder bliver indsamlet af den israelske efterretningstjeneste gennem overvågning af de 2,3 millioner indbyggere i Gaza.
Systemerne er trænet med data til at producere en profil på en Hamas-agent. Det kan være data om køn, alder, udseende, bevægelsesmønstre, sociale netværk og andre 'relevante kendetegn'.
Matcher virkelige palæstinensere med AI-profil
Derefter arbejder systemerne på at matche virkelige palæstinensere til denne profil, alt efter hvor meget de ligner den.
Hvad der udgør et relevant træk ved et angrebsmål, kan indstilles så eksakt eller så løst som ønsket. I Lavenders tilfælde ser det ud til, at 'mand er lig med militant'.
Det trækker tråde til det berygtede 'alle mænd i den våbenføre alder er kombattanter'-mandat fra de amerikanske droneangreb i 2010, hvor Obama-administrationen identificerede og likviderede hundredvis af personer udpeget som fjender 'baseret på metadata'.
Forskellen, nu hvor AI er på banen, ligger i hastigheden, hvormed angrebsmål kan bestemmes ved hjælp af algoritmer, samt det handlingsmandat der er forbundet med det.
Følelsesløs og hastig udslettelse
+972-rapporten indikerer, at brugen af denne teknologi har ført til en følelsesløs og hastig udslettelse af tusindvis af legitime, og ikke-legitime, angrebsmål, stort set uden menneskeligt tilsyn.
Det israelske militær var hurtig til at benægte brugen af denne slags AI-systemer. Det er vanskeligt at verificere, om, og i givet fald i hvilket omfang, de er blevet brugt, samt præcis hvordan de fungerer.
Men de funktioner, som rapporten beskriver, er helt plausible, især i betragtning af at de israelske væbnede styrker selv praler med, at de er 'én af de mest teknologiske organisationer', som meget tidligt tog kunstig intelligens til sig.
Skal 'øge dødeligheden'
I dag hvor militære AI-programmer rundtom i verden stræber efter at forkorte den såkaldte 'sensor-to-shooter timeline' (sensor-til-skytte-tidslinje) for at 'øge dødeligheden', ligger det nærmest ligefor, at en organisation som de israelske væbnede styrker benytter sig af de nyeste teknologier.
Faktum er, at systemer som 'Lavender' og 'Where’s Daddy?' er udtryk for en bredere tendens, som har været undervejs i godt et årti, og det israelske militær og dets eliteenheder er langtfra de eneste, der gerne vil implementere flere AI-systemer i deres processer.

Når maskiner overgår mennesker
Tidligere på året rapporterede Bloomberg om den seneste version af det amerikanske forsvarsministeriums AI-program Project Maven, som har udviklet sig fra i 2017 at være et sensordataanalyseprogram til et komplet AI-aktiveret angrebsmålsystem bygget med hastighed for øje.
Som journalist ved Bloomberg Katrina Manson rapporterer, kan operatøren: »... nu klare helt op til 80 angrebsmål på en time, i forhold til 30 uden systemet«.
Katrina Manson citerer en amerikansk officer, der har til opgave at lære systemet. Officeren beskriver processen med at tilslutte sig algoritmens konklusioner, leveret i hurtig staccato: »Accept. Accept, Accept«.
Menneskelig operatør er dybt indlejret i digital logik
Her er det tydeligt, at den menneskelige operatør er dybt indlejret i digital logik, der er svær at bestride.
Det giver anledning til en logik af en hastighed og øget output, der overgår alt andet.
Antallet af dødsfald afspejles også i +972-artiklen, som peger på et enormt pres for at accelerere og øge produktionen af angrebsmål og likvideringen af disse mål.
Som én af kilderne siger: »Vi blev presset konstant: Kom med flere mål til os. De råbte virkelig ad os. Vi blev færdige med at dræbe vores mål meget hurtigt«.
Indbygget forudindtagethed
Systemer som Lavender rejser mange etiske spørgsmål vedrørende træningsdata, forudindtagethed, nøjagtighed, fejlfrekvenser og nok så vigtigt, spørgsmål om automatiseringsforudindtagethed.
Når forudindtagethed automatiseres, afgiver det al autoritet, inklusive moralsk autoritet, til den statistiske bearbejdnings følelsesløse grænseflade.
Hastighed og dødelighed er kodeordene for militærteknologien, men når man prioriterer kunstig intelligens, bliver mulighederne for menneskelig handlekraft gjort overflødig og sat uden for indflydelse.
Det kræver systemets logik, på grund af menneskets forholdsvis langsomme kognitive systemer. Det fjerner også den menneskelige følelse af ansvar for computer-producerede resultater.
Menneskelig kontrol begrænses
Jeg har tidligere skrevet om, hvordan det komplicerer begreber om kontrol (på alle niveauer) på måder, som vi skal tage højde for.
Når kunstig intelligens, maskinlæring og menneskelig ræsonnement danner et tæt økosystem, er kapaciteten for menneskelig kontrol begrænset.
Mennesker har en tendens til at stole på, hvad computerne siger, især når de bevæger sig for hurtigt til, at vi kan følge med.
Problemet med hastighed og acceleration skaber også en generel følelse af uopsættelighed, som prioriterer handling frem for ikke-handling.
Det forvandler ting som 'følgeskader' eller 'militær nødvendighed', som egentlig bør begrænse volden, til måder at producere mere vold.
Det får mig til at tænke på militærforskeren Christopher Cokers ord: »Vi skal vælge vores værktøjer med omhu, ikke fordi de er umenneskelige (det er alle våben), men fordi jo mere vi kommer til at stole på dem, desto mere former de vores syn på verden«.
Det er klart, at militær AI former vores syn på verden. Tragisk nok får Lavender os til at indse, at dette syn er fuld af vold.
Denne artikel er oprindeligt publiceret hos The Conversation og er oversat af Stephanie Lammers-Clark.































