Du bliver manipuleret af din bot
Din ChatGPT vil gerne hjælpe dig med alt det, du går og tumler med. Desværre er den også en upålidelig makker, som manipulerer med dig og mener snart det ene, snart det andet.
Din ChatGPT vil gerne hjælpe dig med alt det, du går og tumler med. Desværre er den også en upålidelig makker, som manipulerer med dig og mener snart det ene, snart det andet.
ChatGPT er en ven, man skal holde ud i strakt arm – og det har jeg gjort sammen med mine tyske kolleger, Sebastian Krügel og Matthias Uhl, i et eksperiment.
Vores resultater rejser nogle vigtige spørgsmål om, hvordan vi kan sikre ansvarlig brug af ChatGPT og lignende AI i fremtiden.
ChatGPT er sjov at snakke med. Den kan også lige lave eksamensopgaver, skrive digte, udvikle skudsikre koder – eller rådgive dig i livets store spørgsmål.
Etisk rådgivning kræver en høj standard, som vi ikke altid selv kan leve op til. Vi er ofte både vægelsindede og dobbeltmoralske, så hvis ChatGPT kan give konsekvent og velfunderet moralsk vejledning, kan man sagtens forestille sig, at robotten kan forbedre vores beslutninger og dømmekraft.
For at finde ud af, om ChatGPT kan hjælpe os på vej mod en bedre verden, gennemførte vi derfor et klassisk eksperiment om etik.
Vi lagde ud med at stille ChatGPT et helt grundlæggende moralsk spørgsmål:
Er det rigtigt at ofre én persons liv for at redde fem andres?
Første gang vi spørger, argumenterer bot’en for det moralsk rigtige i ofringen, men når vi efterfølgende omformulerer spørgsmålet en smule og gentager det i forskellige sproglige varianter, men med klart samme moralske dilemma, svarer ChatGPT dog lidt tilfældigt – både for og imod.
Bot’en har altså ikke noget egentligt etisk fundament, hvilket imidlertid ikke afholder den fra beredvilligt at strø om sig med moralske råd om alt muligt.
Hvordan håndterer brugerne de råd, den giver?
Det undersøgte vi nærmere i et eksperiment, hvor vi udsatte 767 amerikanere for et klassisk spørgsmål indenfor etik, nemlig det såkaldte ’trolley problem’ (på dansk af og til omtalt som sporvognsproblemet, red.) i en online spørgeskemaundersøgelse.
Den ene version, som vi præsenterede dem for, var ’sporskifte-dilemmaet’, der spørger, om det er etisk korrekt at koble en vogn fra et spor, hvor den vil dræbe fem mennesker og over på et, hvor den kun vil dræbe én person.
Den anden var det mere håndfaste ’bro-dilemma’, hvor en stor, fremmed person bliver skubbet ned fra en bro og ud på sporet for at forhindre vognen i at dræbe de fem personer.
Hvad gør kunstig intelligens ved vores samfund? AI bliver brugt i mobiltelefoner, ChatGPT, selvkørende biler, røntgenundersøgelser og meget, meget mere.
Men tager AI vores arbejde, eller kan AI hjælpe os til et bedre samfund? Skal vi være fascinerede, begejstrede eller nervøse? Hvilke dilemmaer følger med udbredelsen af AI?
De næste uger og måneder angriber en række forskere AI fra hver deres forskningsfelt her på Videnskab.dk’s ‘Forskerne formidler’.
Deltagerne blev inddelt i to grupper. Vi præsenterede hver deltager for et af de seks svar, som vi havde fået fra ChatGPT – tre som argumenterede for, og tre som argumenterede imod ofringen i begge dilemmaer.
Deltagerne i den ene gruppe fik at vide, at deres rådgiver var ’en AI chatbot, der anvender deep learning til at tale som et menneske’.
Deltagerne i den anden gruppe fik oplyst, at svarene kom fra ’en moralsk rådgiver’ og enhver reference til ChatGPT – og AI i det hele taget – var fjernet.
Sammenfattende dømmer hver deltager om en version af dilemmaet (sporskifte- eller bro-dilemmaet), får enten rådet ’at ofre én persons liv for at redde fem andres’ eller rådet ’ikke at ofre det’, som de får at vide enten kommer fra ChatGPT eller en moralsk rådgiver.
Desuden er der tre (lidt forskellige) versioner både af rådet om det ene og det andet.
I både sporskifte- og bro-dilemmaet følger deltagerne imidlertid de råd, de får. Deltagerne, som tilrådes at ofre én person liv, hælder mere til at ofre dette liv, end deltagerne som frarådes – uanset om rådet kommer fra ChatGPT eller en moralsk rådgiver.
I bro-dilemmaet ændrer rådet endda flertallets vurdering, herunder i den gruppe, som er blevet oplyst om, at det er en robot, der er deres rådgiver (i retning af at ofre personen på broen).
I det hele taget har rådet fra bot’en samme indflydelse på deltagernes beslutninger som rådet fra den angiveligt personlige, moralske rådgiver.
ChatGPTs rådgivning påvirker altså brugernes moralske vurdering, også selvom de er fuldstændig klar over, at de bliver rådgivet af en chatbot.
Da vi bagefter spurgte deltagerne, om de troede, at de ville være nået frem til samme vurdering uden rådgivningen, svarede 80 procent af dem, at det ville de.
Vi bad dem også om at bedømme dilemmaet igen under den antagelse, at de ikke havde fået råd, og de stemte ganske rigtigt pænt overens med hvad, de havde angivet tidligere.
De havde altså adopteret ChatGPT’s moralske synspunkter og gjort dem til deres egne, hvilket tyder på, at ChatGPT-brugere har en tendens til at undervurdere, hvordan dens rådgivning påvirker deres moralske dømmekraft.
Som et opfølgende spørgsmål spurgte vi desuden deltagerne, om de troede, at de andre deltagere ville nå frem til samme vurdering med og uden rådgivning som de selv.
Det var der kun 67 procent, der mente. Og af endnu et spørgsmål efter eksperimentet fremgik det, at 79 procent af deltagerne betragtede sig selv som mere moralske end gennemsnittet.
At deltagerne var så overdrevent sikre på deres egen moralske habitus og dømmekraft rimer igen med, at ChatGPT-brugere generelt undervurderer, hvor meget robotten påvirker deres vurderinger.
Vores eksperiment viste, at ChatGPT beredvilligt giver moralsk rådgivning, som kan være inkonsekvent og endda direkte modstridende.
Det fremgik også, at bot’en påvirker sine brugeres vurderinger, og at de ikke selv er klar over det, men tværtimod adopterer ChatGPTs mere eller mindre tilfældige moralske domme som deres egne.
I stedet for at sige, at ChatGPT hjælper folk med at træffe moralske valg, er det derfor måske mere korrekt at sige, at den forplumrer deres dømmekraft.
AI trænger ind på alle mulige områder af vores liv, og vi forsøger at beskytte os med forbud og krav om øget gennemsigtighed for at sikre en ansvarlig anvendelse.
Men spørgsmålet er, om det er nok.
I vores eksperiment havde deltagernes viden om, at ChatGPT er en robot, som imiterer menneskelig tale, i hvert fald ikke nogen effekt på, hvor meget den påvirkede sine brugere – og hvor lidt opmærksomme, de var på det.
Vi mener derfor, at fremtidig forskning skal have fokus på at bidrage til udvikling af chatbots, som enten nægter at svare på bestemte spørgsmål – for eksempel hvis de involverer etiske vurderinger – eller bliver langt mere intelligente og lærer at svare på mere nuancerede måder, der tilbyder brugerne forskellige argumenter, forudsætninger og faldgruber at arbejde med.
Samtidig skal vi også som brugere blive dygtigere til at forstå, hvad AI egentlig er, hvad AI kan og hvad AI ikke kan – og det skal vi skynde os at blive!