Kan vi lære robotter at handle etisk i krig?
Kan man programmere en robot, så man er sikker på, at den ikke rammer civile eller udøver tortur i krig? Med andre ord: Hvordan forener man robotteknologi med etik og filosofi?
krigsrobotter kunstig intelligens ven fjende filosofi

Kan vi lære krigsrobotter at skelne ven fra fjende? Læs med, når en forsker fra ugens podcast fortæller om, hvordan man forener teknologi og filosofi. (Foto: Shutterstock)

Kunstig intelligens og robotteknologi er i voldsom udvikling i disse år, hvor vi ikke kun ser en fremkomst af selvkørende biler, men også krigsdroner, der kan kontrolleres fra et trygt skrivebord langt væk fra slagmarken.

Det giver selvsagt nogle etiske dilemmaer – især når teknologien bliver brugt til at kæmpe mod mennesker.

Eksempelvis har mere end 50 forskere fra 30 forskellige lande for nylig indsendt et åbent brev, hvor de klager over et sydkoreansk universitet, der har samarbejdet med våbenindustrien om at lave autonome våben – det vil sige våben styret af kunstig intelligens.

robotteknologi kunstig intelligens krigsførelse

Idag kan missiler affyres med et tryk på en knap. Teknologien har ændret vores krigsførelse, og det medfører nogle helt nye etiske dillemmaer, der bør tages alvorligt, mener forskerne. (Foto: Shutterstock)

I ugens podcast diskuterer en række forskere på området, hvordan man kan forene etiske principper og filosofi med computerteknologien bag robotter.

Et af spørgsmålene i debatten handler netop om, hvorvidt det er muligt at lære robotter at handle efter de internationale konventioner for krigsførelse, så de eksempelvis ikke dræber civile.

»I princippet kunne man godt programmere en robot – givet, at den kan skelne mellem en civil og en fjende – til kun at angribe fjenden,« forklarer Martin Mose Bentzen, der er lektor i teknologietik ved Management Engineering på DTU i podcasten.

Det lyder måske simpelt og ligetil, men teknologien har en bagside.

»Problemet kan være, at så kan man også programmere robotten til ikke at følge krigens love, eksempelvis til kun at angribe civile. For robotter har jo ingen sund fornuft,« siger Martin Mose Bentzen.

Lyt til podcasten her, eller læs videre i artiklen.

Robotterne skal lære Kant og utilitarisme

Derfor er en form for sund fornuft netop det, han i et nyt projekt stræber efter at inkorporere i robotter. Ideen er, at robotterne skal "lære" at agere efter en række etiske principper – blandt andet inspirireret af den tyske filosof Immanuel Kant.  

Robotterne skal eksempelvis sikres gennem Immanuel Kant’s begreb, det kategoriske imperativ, der betyder, at mennesker aldrig må bruges som middel til at opnå et mål, hvis de ikke også behandles som et mål i sig selv.

The HERA Project

The HERA Project (Hybrid Ethical Reasoning Agents) går ud på at integrere etiske principper i sociale robotter – eksempelvis selvkørende biler. 

Projektet blev startet i 2017 af Martin Mose Bentzen og Felix Linder fra Albert-Ludwigs-University of Freiburg.

Kilde: The HERA Project

Derudover indgår utilitarismen som et andet af principperne i det nye projekt. Det går ud på, at robotterne skal handle således, at de maksimerer velfærden i en situation – dvs. vælger den handling, hvor færrest eksempelvis kommer til skade.

Yderligere nævner Martin Mose Bentzen dobbelt-effekt princippet, der er udviklet af den italienske filosof og teolog Thomas Aquinas. Det handler om;

»at man ikke må bruge en negativ effekt til at opnå noget godt. Det er okay, at det gør ondt til tandlægen, da det er en ikke -intenderet bieffekt af operationen, men det er ikke okay at lyve for at blive rig,« siger han og forstætter:

»Så det, jeg mener, man skal gøre, er at tage udgangspunkt i den 2.500 år gamle tradition, vi har inden for filosofi og etik, hvor der er en dialog, og der er udviklet et begrebsapparat, der kan bruges på de her dilemmasituationer (som eksempelvis en krigssituation, red.).«

Et »prisværdigt initiativ«

Selvom der er lang vej til at integrere etiske principper i computerteknologien bag robotter, er ideen og initiativet oplagt ifølge flere forskere.

»Det er et prisværdigt initiativ, fordi det anerkender behovet for at tænke etik ind i et robotteknologisk perspektiv. Hvorvidt Kant er dækkende, det er et andet spørgsmål,« siger Thomas Ploug, der er professor på Institut for Kommunikation og Psykologi på Aalborg Universitet.

Og det er da også utroligt svært at vælge, hvilke etiske principper, der er de væsentligste for at sikre en optimal adfærd hos eksempelvis krigsrobotter, mener Martin Mose Bentzen.

»Thomas har ret i, at Kant og utilitarisme ikke er nok. Det er jo et nyt forskningsfelt det her, så jeg tænker også, at der kommer andre på banen end lige os. Vi har i øjeblikket eksempelvis fokus på dobbelt-effekt princippet, Kant og utilitarisme, men det kan sagtens ændre sig henad vejen,« slutter han i podcasten.

 

Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.