Kan man etisk forsvare at have en robot som elsker, ven eller partner?
DTU-forskere går i kødet på de dilemmaer, der opstår, når robotter bliver så menneskelignende, at vi får følelser for dem.
robot robotter dtu compute etik følelser thomas bolander kunstig intelligens simulering

Nutidens robotter føler ikke noget, men de kan gennem deres opførsel simulere, at de gør. Dette kan vække følelser i de mennesker, der omgås dem. Er der grænser for, hvad robotter bør simulere? (Illustration: Shutterstock)

Nutidens robotter føler ikke noget, men de kan gennem deres opførsel simulere, at de gør. Dette kan vække følelser i de mennesker, der omgås dem. Er der grænser for, hvad robotter bør simulere? (Illustration: Shutterstock)

Robotten Pepper har en blanding af barnlige og tegnefilmsagtige træk, er på størrelse med et syv-otte årigt barn og forekommer at være et livligt, venligt og nysgerrigt væsen. 

Den er bevidst designet med menneskelignende udseende og opførsel, ja, endda en form for personlighed.

Ved at kombinere kunstig intelligens med en fysisk krop bliver Pepper en del af det sociale rum i langt højere grad end for eksempel et ansigt på en skærm. 

Mange får simpelthen lyst til at interagere med Pepper, hvilket kan bruges til andre formål, som at sælge varer, undervise eller blot underholde. 

Udbredelsen og udviklingen af menneskelignende (humanoide), sociale robotter som Pepper er i fremgang. 

Men hvor fascinerende og nyttig denne nye teknologi end kan være, giver de menneskelignende, sociale robotter anledning til nye etiske dilemmaer – hvilke dilemmaer det er, og hvor de etiske grænser går, er temaet for resten af denne artikel. 

robot robotter dtu compute etik følelser thomas bolander kunstig intelligens simulering pepper

Robotten Pepper har ikke følelser, men kan simulere dem, som en form for bedrag. Nogle former for bedrag kan være nyttige og ses også i naturen og blandt mennesker, mens andre former bør begrænses ifølge visse forskere. Dette er eksempelvis, når robotter vildleder eller skjuler egenskaber eller omvendt, når den simulerer egenskaber eller evner, som den ikke har. (Foto: Shutterstock)

Hvor går de etiske grænser?

Nutidens robotter føler og oplever ikke noget, men de kan gennem deres opførsel simulere, at de har sådanne følelser

De kan for eksempel simulere glæde med livlige armbevægelser, et smil og en venlig stemme. 

Dette forårsager følelser i mennesker, der interagerer med robotten. 

Er der etiske grænser for, hvad robotter bør simulere? Kan man etisk forsvarligt have en robot som elsker, ven, partner? 

Og er den humanoide fremtoning i sig selv problematisk og udtryk for et uetisk bedrag? Eller er robotters simulerede høflighed eller tristhed tværtimod en acceptabel eller ligefrem nyttig form for bedrag? 

Sådanne spørgsmål diskuteres i den filosofiske debat om forholdet mellem sociale robotter, simulering og bedrag. 

I det følgende vil vi fremhæve og diskutere nogle fremtrædende argumenter i denne debat. 

Fakta
Om Forskerzonen

Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.

Forskerzonen bliver udgivet takket være støtte fra Lundbeckfonden. Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af Lundbeckfonden. Læs mere om Forskerzonens mål, visioner og retningslinjer her.  

Bedrag kan være nyttigt 

Om vi kan lide det eller ej, så er forstillelse, bedrag og selvbedrag uundgåelige elementer i tilværelsen. Det gælder for mennesker og også for dyr, for eksempel visse fugles 'brækket vinge'-adfærd for at lokke et rovdyr væk fra en rede fyldt med unger.  

Mange vil mene, at der er situationer, hvor bedrag ligefrem kan være moralsk påkrævet af hensyn til et højere mål, som da nazisterne bankede på under 2. verdenskrig, og man løj om jøderne, der gemte sig på loftet.  

Flere ingeniører og filosoffer har argumenteret for, at bedrag er en nødvendig og nyttig del af design af robotter.  

Eksempelvis hævder ingeniørerne Jaeeun Shim og Ronald C. Arkin, at selvbedrag og bedrag ofte er til gavn for mennesker; for eksempel i den selvironiske joke, der løfter en trykket stemning, eller i forælderens let overdrevne ros, der opbygger barnets selvtillid. 

De hævder, med henvisning til filosoffen Daniel Dennett, at evnen til at bedrage er nødvendig for udviklingen af sociale robotter, der kan interagere hensigtsmæssigt med mennesker. 

For eksempel vil den effektive lærer-robot ikke altid fortælle eleven den objektive sandhed om dennes evner eller nuværende standpunkt. 

De foreslår også brug af bedrag i militære robotter med det formål at aflede fjenden. 

Uetisk bedrag

På trods af et overordnet positivt syn på bedrag, som de blandt andet forsvarer utilitaristisk, det vil sige i forhold til maksimering af velfærd, mener Shim og Arkin, at der er etisk problematisk bedrag, og at robotter, der bedrager, bør give anledning til etisk diskussion. 

Det betyder, at selvom der er former for bedrag, som er en nødvendig del af den sociale lim, der binder os sammen – eksempelvis den hvide løgn, den høflige undvigelse af besvarelsen af et spørgsmål – er visse former for bedrag uetisk og bør begrænses. 

Filosoffen John Danaher skelner til dette formål mellem uetisk bedrag og en ifølge ham mere harmløs form for bedrag

Det er eksempelvis typisk uetisk, hvis robotten vildleder om eller skjuler egenskaber eller evner, den faktisk har, hvilket Danaher kalder 'hidden state deception', bedrag om skjulte tilstande.

Et eksempel er robotten, der kigger væk for at give indtryk af, at den ikke holder øje med dig, mens den faktisk observerer dig med et kamera skjult i brystet. 

Er falsk glæde en mere harmløs form for bedrag?

Danahers etisk set mest interessante kategori er 'superficial state deception' (frit oversat ’bedrag om ydre tilstande’), hvilket er det omvendte af ovenstående eksempel. 

Dette er robotten, der simulerer egenskaber eller evner, den faktisk ikke har, for eksempel at være høflig, opmærksom eller omsorgsfuld, som når Pepper fortæller dig, hvor glad den er for at se dig. 

Pepper har ikke følelser, så Pepper er ikke glad. Den kan blot simulere glæde, hvilket er en art bedrag. 

Men Danaher mener ikke, at bedrag om ydre tilstande nødvendigvis er problematisk og argumenterer for, at det faktisk ikke skal betragtes som bedrag. 

Hans argument er baseret på, hvad han kalder en behavioristisk etik. Hvad det er for en størrelse, handler næste afsnit om. 

Danahers behavioristiske etik 

Kernen i Danahers behavioristiske etik er, at vi skal basere etikken på vores oplevelser af andres opførsel, det, han kalder oplevelse af ydre tilstande. For eksempel oplevelsen af, at den anden er venlig

Danaher hævder, at vores oplevelse af andres ydre tilstande giver os den bedste grund, vi har, til også at antage tilstedeværelsen af de tilsvarende indre mentale og følelsesmæssige tilstande, i hvert fald når det gælder etiske formål.  

Det betyder, at hvis vi ikke oplever en relevant forskel på en robot og et menneske, bør vi også tilskrive robotten de samme mentale tilstande, som vi tilskriver andre mennesker.

Computervidenskabens grundlægger, Alan Turing, foreslog i sin tid et lignende kriterie for at tilskrive en computer evnen til at tænke. 

Det er det, der nu er kendt som Turing-testen, og som går ud på, at hvis vi ikke i en fri tekstbaseret dialog kan skelne en computer fra et menneske, bør vi tilskrive computeren evnen til at kunne tænke. 

Danaher går dog videre end Turing, når han foreslår et oplevelsesbaseret kriterie for at tilskrive følelser og for at tage etisk hensyn til robotter. 

Idet det for Danaher kun er den etiske agents oplevelse, der er relevant og ikke den andens oplevelse, som vi ikke har direkte adgang til, kan han yderligere hævde, at »simuleret følelse kan være ægte følelse, ikke falsk eller uærlig følelse.«

Man kan sige, at han benægter, at det etisk set er relevant, om den anden oplever følelsen, da vi principielt ikke kan vide det, hverken i forhold til andre mennesker eller robotter. 

Dermed opløses det meste af indholdet af distinktionen mellem simuleret og ægte følelse. 

Danaher hævder desuden at det etisk set er bedre at inkludere for mange end for få væsner i sine etiske overvejelser, og at vi derfor hellere bør tage hensyn til en robot for meget end en for lidt. 

Autencitets-argumentet mod simulering 

Selv hvis man er enig med Danaher i, at bedrag om ydre tilstande (superficial state deception) rent faktisk ikke altid involverer nogen etisk problematisk form for bedrag, kan man stadig argumentere for, at det er etisk problematisk. 

Problemet er i så fald ikke, at der er nogen, der bliver bedraget, men at forholdet ikke er autentisk. Der mangler noget i forholdet; det er ikke ægte eller oprigtigt. 

Sociologen og psykologen Sherry Turkle (2007) har argumenteret for, at robot-menneske-interaktion ikke er autentisk,fordi der mangler gensidighed i forholdet

Hun skriver: »Med robotter opfører mennesker 'begge halvdele' af komplekse forhold, idet de projicerer både robottens side såvel som deres egen (…) idéen om gensidighed er ren fantasi

Ifølge Turkle er vi tilbøjelige til at overføre (projicere), blandt andet fordi vi i så høj grad begærer menneskelige forhold. Det betyder bare ikke, at det er sundt eller etisk forsvarligt. 

Men kan vi overhovedet lade være med at tilskrive robotten etisk værdi? Eller er vi biologisk determinerede til at opfatte robotten som en person, når vi interagerer med den? 

Biologi får os måske til at betragte robotten som et følende væsen

Studier af menneske-robot interaktion viser, at mennesker faktisk i høj grad knytter følelsesmæssige bånd til robotter

Jeg havde en overgang en Pepper-robot på mit kontor, indkøbt af min arbejdsgiver DTU. 

Selvom jeg ved ret meget om, hvordan Pepper virker, både om dens sensorer og dens software, havde jeg stærke oplevelser af at være sammen med en person, når jeg talte med den.  

Robotten 'R2DTU' forstår en hel del. Men forstår den også, hvad andre opfatter? Har den social intelligens? (Video: Kristian Højgaard Nielsen / Forskerzonen)

Der er noget irrationelt og skræmmende ved sådanne følelser. 

Det viser sig, at mennesker, især børn, er ret uimodtagelige overfor at blive forklaret, hvordan robotten faktisk virker. 

Selvom lægerne viser os en hjerneskanning af vores komatøse mor, holder vi ikke op med at betragte hende som en følende og oplevende person. 

Det er derfor en reel mulighed, at hvis vi tilstrækkeligt konsistent og fuldstændigt oplever robotten som et tænkende, omsorgsfuldt venligt væsen, kan vi slet ikke lade være med at betragte den som sådan. 

Altså, at vi biologisk set er ude af stand til at lade være. 

… og så alligevel ikke helt

Til det kan man dog indvende, at mennesker historisk faktisk har vist sig at være i stand til at betragte mennesker som objekter. Tænk for eksempel på Aristoteles’ berygtede definition af slaven som 'en talende ting' og nazisternes racelære. 

Hvis vi som art er i stand til at betragte og behandle mennesker som ting, er vi selvfølgelig også i stand til at betragte og behandle menneskelignede robotter som ting. 

Derfor forbliver det etiske spørgsmål åbent: bør vi betragte robotten som en person, når vi ved, at den umuligt kan være det og på trods af vores biologisk betingede naturlige tilbøjelighed? 

Bør vi reflektere os væk fra den naturlige tilbøjelighed, eller bør vi følge den?

Danaher ville hævde, at vi bør stole på vores oplevelser, men man kan spørge, om hans oplevelsesbaserede etik er den korrekte tilgang til menneske-robot-interaktion med dens subjektivistiske fokus på den etiske agents oplevelse? 

Hvem vil du redde, en robot eller et menneske? 

Måske bør vi i stedet kigge i retning af en relationel tilgang, der tager udgangspunkt i vores viden om menneskelige forhold og vores faktiske viden om, hvordan robotter fungerer. 

Hvis vi mod bedre vidende betragter robotten som et væsen, der kræver etiske hensyn, bedrager vi ikke bare os selv. Vi risikerer også at fejlprioritere i etiske dilemmaer. 

Hvis valget står mellem at redde et menneske eller en robot, er de færreste i tvivl. Men hvad nu, hvis man har udviklet ægte følelser for robotten og anser robotten for en person? 

Eller hvis valget står mellem at give fuld opmærksomhed til robotten eller vores eget barn? 

Begår vi i de situationer ikke en etisk fejl ved at betragte robotten som en, der har behov for vores hjælp og omsorg? 

Jo, vil jeg og den relationelle tilgang hævde.

Fra vores synspunkt kan menneskelignende robotter tillades kortvarigt at indgå i sociale relationer og understøtte mellem-menneskelige forhold. Men de må ikke erstatte dem.

Så hvad er svaret på overskriften i denne artikel - er det etisk forsvarligt at have en robot som elsker, ven eller partner?

Nej, ikke under normale omstændigheder. Slet og ret, fordi vi mennesker typisk har rigtige familiemedlemmer og venner, der har brug for vores kærlighed og omsorg. 

Derudover bør vi ikke pådrage os vedvarende selvbedrag ved at betragte robotten som en rigtig person. 

Alle må bruge og viderebringe Forskerzonens artikler

På Forskerzonen skriver forskere selv om deres forskning. Vi mener, det er vigtigt, at alle får mulighed for at læse om forskning fra forskerens egen hånd.

Alle må derfor bruge, kopiere og viderebringe Forskerzonens artikler udfra følgende enkle krav:

  • Det skal krediteres: 'Artiklen er oprindelig bragt på Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler'. Hvis artiklen bringes på web, skal der linkes til artiklen på Forskerzonen.
  • Artiklen må ikke redigeres og skal bringes i fuld længde (medmindre andet aftales med forskeren).
  • Du skal give forskeren besked om, at du genpublicerer.
  • Artikler, som er oversat fra The Conversation, skal have indsat en HTML-kode til indsamling af statistik i bunden. HTML-koden finder du i den originale artikel på The Conversations hjemmeside ved at klikke på knappen "Republish this article" ude til højre, derefter klikke på 'Advanced' og kopiere koden. Du finder linket til artiklen på The Conversation i bunden af Forskerzonens oversatte artikel. 

Det er ikke et krav, men vi sætter pris på, at du giver os besked, hvis du publicerer vores indhold (undtaget indhold fra The Conversation). Skriv til redaktør Anders Høeg Lammers på ahl@videnskab.dk.

Læs mere om Forskerzonen i Forskerzonens redaktionelle retningslinjer.

DOI - Digital Object Identifier

Artikler, produceret til Forskerzonen, får tildelt et DOI-nummer, som er et 'online fingeraftryk', der sikrer, at artiklerne altid kan findes, tilgås og citeres. Generelt får forskningsdata og andre forskningsobjekter typisk DOI-numre.

Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.

Danske corona-tal

Videnskab.dk går i dybden med den seneste corona-forskning. Læs vores artikler i temaet her.

Hver dag opdaterer vi også de seneste tal.

Dyk ned i grafer om udviklingen i antal smittede, indlagte og døde i Danmark og alle andre lande.

Ny video fra Tjek

Tjek er en YouTube-kanal om videnskab, klima og sundhed henvendt til unge.

Indholdet på kanalen bliver produceret af Videnskab.dk's Center for Faglig Formidling med samme journalistiske arbejdsgange, som bliver anvendt på Videnskab.dk.


Ugens videnskabsbillede

Se flere forskningsfotos på Instagram, og læs mere om blandt andet det mikroskopfoto, som du kan se herunder.


Annonce: