Westworld: Vi har fået sympati med robotterne, mener forsker
Tv-serien Westworld er et udtryk for, at vores holdning til robotter er skiftet, siger amerikansk forsker.

I den nye udgave af Westworld er det menneskene, der er de onde. Det er omvendt i den gamle Westworld fra 1973. (Foto: HBO Nordic)

I øjeblikket ruller anden sæson af HBO’s anmelderroste serie 'Westworld' over skærmen. Hvis du ikke kender den, kan vi lige hurtigt opsummere, hvad den handler om: robotter, cowboys, vold og sex.

Det lyder som ren tjubang, men serien rejser faktisk også dybere spørgsmål om bevidsthed, etik og kunstig intelligens.

I forlystelsesparken Westworld kan gæsterne nemlig tage på ferie i det vilde vesten, og parkens beboere er robotter, der er programmeret til at spille med på, hvad end gæsterne ønsker sig.

Og det, mange ønsker sig, er tilsyneladende at begå grusomme overfald og overgreb på de stakkels robotter.

I en ny artikel udgivet i det videnskabelige tidsskrift Science Robotics, argumenterer Robin R. Murphy, der er computerforsker og professor ved Texas A&M University, for, at serien er et udtryk for, at vi har ændret vores holdning til robotter

For i den originale film Westworld fra 1973 er historien helt anderledes. Her er det robotten ‘Gunslinger,’ der bliver ramt af en virus, som får den til at angribe parkens stakkels gæster. Med andre ord frygtede vi robotterne i 1973 – mens vi i 2018 har sympati med dem, skriver forskeren.

I filmen Westworld fra 1973 er skurken en robot ved navn 'Gunslinger'. Efter et udbrud af en virus, begynder han at jagte parkens gæster. (Foto: Banalities / Flickr)

Vi får sympati med dem, der ligner os

Der er ingen tvivl om, at robotterne i det nye Westworld er blevet mere menneskelige. De ligner mennesker, de bevæger sig som mennesker – og de begynder så småt også at tænke som mennesker.

Og det, mener Robin R. Murphy, er en af de helt store grunde til, at de vækker sympati hos os.

Robotter og dukker der ligner os kan virke skræmmende. Ifølge robotforskeren Masahiro Mori sker det især, når dukken kun har få detaljer, som ikke er lig os selv. (Graf: Masahiro Mori)

Det baserer han blandt andet på teorien om ‘den uhyggelige dal’, udtænkt af den japanske robotforsker Masahiro Mori i 1970.

Ifølge teorien er der et punkt, før robotterne kommer til at ligne os helt, hvor de vil være meget skræmmende, men når de kommer over på den anden side af punktet og ligner os rigtig meget, får vi empati med dem.

Svag AI og stærk AI

Ifølge Robin R. Murphy knytter ‘den uhyggelige dal’ sig ikke blot til udseende og bevægelse, men også til intelligens. Og her vurderer han, at robotterne i Westworld fra 1973 kun er besiddelse af det, han kalder ‘Weak AI’, mens de i den nye Westworld har ‘Strong AI.’

  • Weak AI kaldes også snæver AI og dækker over en form for kunstig intelligens, der kun kan løse specifikke opgaver. Siri på iPhone er et godt eksempel på snæver AI, da den arbejder inden for allerede definerede kommandoer.
  • Strong AI er derimod en generel kunstig intelligens med en bevidsthed og vilje. I modsætning til ‘Weak AI’ kan den ikke bare reagere på kommandoer, men også forstå selve indholdet af dem.

De to begreber blev første gang brugt om kunstig intelligens af den amerikanske filosof, John Searle, der i 1980’erne ironisk nok brugte dem til at argumentere for, at maskiner aldrig ville blive intelligente på samme måde som mennesker.

Kendt filosof: Robotterne i Westworld kan ikke føle noget

John Searle vil dog næppe selv mene, at robotterne i Westworld er i besiddelse af ‘Strong AI.’

For selvom de ser ud til at blive glade eller kede af det, smiler og græder, så vil de ifølge John Searles argumentation aldrig selv opleve smerte eller glæde – det ser bare sådan ud.

»Ifølge John Searle er den her form for intelligens ikke mulig i andet end biologisk materiale,« siger Thor Grünbaum, der er lektor og viceinstitutleder på Institut for Medier, Erkendelse og Formidling på Københavns Universitet, hvor han blandt andet forsker i bevidsthedsfilosofi.

Og for John Searle er det sådan set også ligegyldigt, hvor avancerede robotterne er, og om de for eksempel er i stand til at tale med os.

»Om de indeholder de mest avancerede algoritmer og neurale netværk er ligegyldigt for Searles argumentation, der postulerer, at maskiner fungerer ud fra et logisk regelsæt defineret af deres skaber, og derfor vil de aldrig kunne forstå selve indholdet af det, de siger eller gør,« siger Thor Grünbaum.

Ifølge John Searle kan robotterne i Westworld kun have en bevidsthed og følelser, hvis de er lavet af biologisk materiale. (Foto: HBO Nordic)

Det kinesiske rum

John Searle argumenterer for sin opfattelse med et eksempel, som han kalder ‘det kinesiske rum.’

Rummet kan svare på alle mulige spørgsmål på kinesisk, og det fungerer ved, at man putter en strimmel papir med sit spørgsmål ind gennem en sprække, og kort tid efter kommer et svar tilbage.

Udefra virker rummet intelligent, og det synes i stand til at forstå kinesisk – men forestil dig så, at der inde i rummet rent faktisk bare sidder en dansker, der ikke kan ét ord kinesisk.

Til gengæld har han en stor bog, hvor der står alle mulige sekvenser af kinesiske tegn, og hvad han skal besvare dem med.

»Tanken er, at hvert svar kan eksekveres helt uden at du kan kinesisk, eller uden at du forstår, hvad du gør. Sådan en maskine her er rent syntaktisk (drevet af regler red.), mens menneskelig forståelse er semantisk – hvilket vil sige, at den involverer en vis forståelse af verden,« siger Thor Grünbaum.

Udefra virker det altså som om, at rummet har en bevidsthed, men da manden indeni hverken forstår de kinesiske tegn, der kommer ind ad sprækken, eller de svar han selv sender tilbage, bliver han blot en passager uden adgang til indholdet.

På samme måde vil en computer eller en robot udadtil kunne virke bevidst, selvom den blot følger et forudbestemt regelsæt.

Funktionalisme

Inden for bevidsthedsfilosofien er funktionalismen den påstand, at det, der gør noget til en tanke eller følelse, er dens funktion, frem for eksempelvis det fysiske materiale, den består af.

For eksempel kan smerte karakteriseres som en tilstand, der generelt skyldes skade på kroppen, samt en overbevisning om, at noget er galt, og et ønske om at fjerne sig fra det.

Ud fra denne opfattelse er det altså kun væsner, hvis tilstande lever op til disse krav, der er i stand til at opleve smerte.

Bevidstheden adskiller computere og mennesker

John Searle er altså overbevist om, at en intelligens tilsvarende den menneskelige aldrig vil optræde i et materiale som en computerchip.

Men der er ikke bred enighed inden for filosofien. Hvis man for eksempel mener, at vores mentale egenskaber kan defineres ud fra deres funktion, så burde det også være muligt at genskabe mentale egenskaber i en genstand, der kan udføre samme funktion.

»Hvis funktionalismen er sand, så burde vi kunne lave en computer, der kører på samme principper, som vores hjerne, hvis vi altså kan finde ud af, hvad de er. Og så vil det altså være det samme program i computeren og i hjernen,« siger Thor Grünbaum.

Men der er et problem.

»Der er en række kognitive operationer (handlinger knyttet til erkendelse/viden red.), som vi fint kan definere funktionelt – for eksempel at kende forskel på to forskellige sanseindtryk eller udregne et budget. Men bevidstheden er det ikke lykkedes at finde en funktion af, og vi kan ikke beskrive den funktionelt,« siger Thor Grünbaum.

Skal robotter have rettigheder?

Uanset om det er realistisk, at robotterne i Westworld kan mærke noget, eller om de lader som om, så er seriens tema et udtryk for en øget interesse for, hvordan vi bruger teknologi, og hvorvidt robotter skal have rettigheder, mener Anne Gerdes, der er lektor ved Institut for Design og Kommunikation på Syddansk Universitet, hvor hun bl.a. forsker i etiske spørgsmål i forbindelse med kunstig intelligens og robotteknologi.

»Nogle vil mene, at det at give robotter rettigheder er lidt ligesom at give en brødrister rettigheder. På samme måde var det et mediestunt, da robotten Sophia fik Saudi Arabisk statsborgerskab. I virkeligheden er vi jo ikke nået dertil, hvor robotterne udvikler følelser, som vi ser i Westworld,« siger hun.

Men selvom robotter i dag er dumme, set i det perspektiv, så er der faktisk forskere, såsom den amerikanske forsker David Gunkel, der taler for, at vi bør give robotter rettigheder – også for vores egen skyld. Argumentet lyder, at hvis vi behandler menneskelignende robotter onsindet, så kan det skade vores egen moral.

»Ifølge fortalere for robotrettigheder handler det ikke så meget om, hvad robotten er. I stedet skal man se på, hvad der sker i relationen mellem menneske og robot. Hvis vi etablerer følelsesmæssige relationer med robotter, vil nogle forskere argumentere for, at vi bør behandle robotter etisk forsvarligt og tildele dem rettigheder,« siger Anne Gerdes.

Robotten Sophia fik i oktober 2017 statsborgerskab i Saudi Arabien. Anne Gerdes kalder det dog et mediestunt, da robotten i virkeligheden blot er en avanceret chatbot (Foto: David Levy / Flickr)

EU arbejder på lovgivning

Det er ikke kun forskerne, der diskuterer etik i forhold til robotter og kunstig intelligens.

Europa-parlamentet debatterer også behovet for lovgivning om robotter – blandt andet i forbindelse med erstatning efter ulykker forårsaget af selvkørende biler.

»Her er det dog ikke rettighedsspørgsmålet, der er oppe og vende. Men det handler om robotten som agent, der handler autonomt i verden, og hvem der skal have ansvaret for det,« siger Anne Gerdes.

Vi kan ikke se, hvad kunstig intelligens ‘tænker’

Det er bare en af problemstillingerne, som er opstået i kølvandet på kunstig intelligens, fortæller Anne Gerdes. Hun trorer overbevist om, at der vil komme endnu flere dilemmaer i fremtiden.

En anden stor problemstilling, som allerede er opstået, er, at kombinationen af store datamængder og kunstig intelligens bevirker, at systemer kan træffe beslutninger, uden at vi præcist kan forklare, hvordan systemerne rent faktisk er nået frem til den beslutning.

»Det er det, vi kalder ‘The Black Box’-problemet. En kunstig intelligens kan effektivt fordele børnehavepladser eller afgøre nogle typer af juridisk sager bedre end et menneske, men i komplekse sammenhænge kan vi ikke nødvendigvis udrede, hvordan den er kommet frem til svaret,« siger Anne Gerdes.

For eksempel har den tyrkiske computerforsker Zeynep Tufekci i en TED-talk advaret om ikke at overlade ansættelsen af nye medarbejdere til kunstig intelligens, blandt andet fordi den kynisk kan fravælge personer, som den vurderer, har en risiko for at udvikle depression i fremtiden – eller frasortere på helt andre kriterier, som vi ikke kan se.

Anne Gerdes mener dog alligevel ikke, at det udelukkende er en negativ udvikling.

»Kunstig intelligens rummer mange positive muligheder. Men det er vigtigt, at vi holder øje med, hvad der sker, og at vi tager etikken op, så vi kan være proaktive – for den teknologiske udvikling går stærkt,« siger hun.

Blade Runner har fat i den lange ende

Hvis vi antager, at John Searle har ret i, at bevidsthed ikke kan lade sig gøre i et materiale, der ikke er biologisk, så kan robotterne i Westworld altså heller ikke være bevidste - medmindre det altså viser sig, at de er lavet af biologisk væv.

Det er netop temaet i en anden science fiction-film, der for nyligt er blevet genoplivet – nemlig Blade Runner.

Replikanterne, som ’robotterne’ kaldes i Blade Runner, er intelligente androider (menneskelignende robotter red.), som er  designede, men skabt af det samme biologiske materiale som almindelige mennesker - og denne form for skabt intelligens kan sagtens forenes med John Searles argument, fortæller Thor Grünbaum.

»Blade Runner ser ud til at ramme en gråzone, hvor det godt kan lade sig gøre, selv hvis bevidsthed ikke kan beskrives funktionelt,« siger han.

Det hele er dog heldigvis bare teoretisk, så indtil videre behøver du ikke frygte, at en flok replikanter kommer efter dig.

Videnskab.dk's manifest

5 spørgsmål, du bør stille dig selv, når du læser om forskning


Ugens Podcast

Lyt til vores ugentlige podcast herunder eller via en podcast-app på din smartphone.