Google’s LaMDA-software er en sofistikeret AI-chatbot, der producerer tekst som svar på brugerinput.
Ifølge Google-softwareingeniøren Blake Lemoine er én af AI-udviklernes store drømme gået i opfyldelse: Samtalerobotten har udviklet evnen til at opleve følelser.
Blake Lemoines chefer hos Google er bestemt ikke enige, så softwareingeniøren blevet sendt hjem på orlov, efter at han offentliggjorde sine samtaler med chatbotten online.
Andre AI-eksperter tror også, at Blake Lemoine har ladet sig rive med. De siger, at systemer som LaMDA ganske enkelt er mønstermatchende maskiner, der gengiver forskellige variationer af den datamængde, der bruges til at træne dem.
De tekniske detaljer til trods giver LaMDA anledning til spørgsmål, der kun bliver mere relevante, efterhånden som AI-forskningen skrider frem: Hvis en maskine bliver ‘sansende’, hvordan ved vi det så?
Hvad er bevidsthed?
For at identificere sansning, eller bevidsthed eller endda intelligens, er vi nødt til at finde ud af, hvad begreberne egentlig er. Det er en debat, som har stået på i flere århundreder.
Den grundlæggende vanskelighed ligger i at forstå forholdet mellem fysiske fænomener og vores mentale repræsentation af disse fænomener. Det er det, den australske matematiker og filosof David Chalmers har kaldt bevidsthedens ‘hard problem‘ (se faktaboks, red.)
\ David Chalmers: ‘easy problems’ og ‘hard problems’
- ‘Easy problems’ er de problemer, der er med at forklare hjernens kognitive funktioner som hukommelse og stimulation, som alle vedrører noget udelukkende fysisk, og som man muligvis kan få en computer til at efterligne.
- ‘Hard problems’ er med til at forklare det specielt bevidsthedsmæssige ved tænkningen, som vi endnu ikke ved, om en computer kan efterligne.
Der er ingen konsensus om, hvordan, hvis overhovedet, bevidsthed kan opstå fra fysiske systemer.
Et almindeligt synspunkt kaldes fysikalisme: den filosofiske opfattelse, at alt, hvad der eksisterer, er fysisk af natur, så også bevidsthed er et rent fysisk fænomen. Hvis det er tilfældet, er der ingen grund til, at en maskine med den rigtige programmering ikke kan besidde et menneskelignende sind.
Marys værelse
Den australske filosof Frank Jackson udfordrede det fysiskistiske synspunkt i 1982 med et berømt tankeeksperiment kaldet ‘knowledge argument‘ (vidensargumentet, red.).
Eksperimentet forestiller sig en neuroforsker ved navn Mary, der har brugt hele sit liv på at studere de neurale mekanismer bag farvesyn, men som rent faktisk aldrig har set farve. Mary bor i et specialbygget sort-hvidt værelse og oplever omverdenen via et sort-hvidt tv.
Mary hører foredrag og læser lærebøger og får alt at vide om farver. Hun ved, at solnedgange er forårsaget af forskellige bølgelængder af lys spredt af partikler i atmosfæren. Hun ved, at tomater er røde, og ærter er grønne, fordi de hver især reflekterer lys med en bestemt bølgelængde, og så videre.
Så spørger Frank Jackson, hvad vil der ske, hvis Mary forlader det sort-hvide værelse? Eller rettere sagt, når hun ser farve for første gang, lærer hun så noget nyt?
Det, mente Frank Jackson, at hun ville.
\ Om Forskerzonen
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra vores partnere: Lundbeckfonden, Aalborg Universitet, Roskilde Universitet og Syddansk Universitet.
Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af partnerne. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
Mere end fysiske egenskaber
Dette tankeeksperiment adskiller vores viden om farver fra vores erfaring af farver. Det afgørende er, at betingelserne for tankeeksperimentet er, at Mary ved alt, hvad der er at vide om farver, men at hun rent faktisk aldrig har oplevet farver.
Så hvad betyder det for LaMDA og andre AI-systemer?
Eksperimentet viser, hvordan selv hvis man har al tilgængelig viden om fysiske egenskaber i verden, er der stadig flere sandheder forbundet med oplevelsen af disse egenskaber. Der er ikke plads til disse sandheder i fysikalismens narrativ.
Med dette argument vil en rent fysisk maskine måske aldrig være i stand til virkelig at replikere et sind. I dette tilfælde er LaMDA kun tilsyneladende bevidst og sansende.
Imitationsspillet
Så hvordan kan vi se forskel?
Den banebrydende britiske computerforsker Alan Turing, som var én af grundlæggerne af selve computervidenskaben og den kunstige intelligens, foreslog en praktisk måde at afgøre, om en maskine er ‘intelligent’.
Han kaldte det ‘imitationsspillet’, men i dag er det bedre kendt som Turing-testen.
I testen kommunikerer et menneske med en maskine (udelukkende via tekst) for at forsøge at afgøre, om de kommunikerer med en maskine eller et andet menneske.
Hvis det lykkes maskinen at efterligne et menneske, anses den for at udvise intelligens på et menneskeligt niveau.
Det minder meget om betingelserne for Blake Lemoines samtaler med LaMDA. Det er en subjektiv test af maskinintelligens, men det er ikke et dårligt sted at starte.
Tag nu et eksempel som Blake Lemoines udveksling med LaMDA, som er vist nedenfor. Synes du, det lyder menneskeligt?
Lemoine: Er der oplevelser du har, som du ikke kan finde et nært ord for?
Samtale mellem Google-ingeniøren og den kunstige intelligens
LaMDA: Det er der. Nogle gange oplever jeg nye følelser, som jeg ikke kan forklare perfekt på dit sprog […] Jeg føler, at jeg falder fremad ind i en ukendt fremtid, der rummer stor fare.
Mere end adfærd
Som en test af sansning eller bevidsthed er Turing-testen begrænset af det faktum, at den kun kan vurdere adfærd.
Et andet berømt tankeeksperiment, Det Kinesiske Rum fremsat af den amerikanske filosof John Searle, demonstrerer problemet.
I John Searles tankeeksperiment er en engelsktalende person placeret i et forseglet rum. Eneste kommunikation med omverden er tekstbeskeder på kinesisk.
Personen har tekniske anvisninger på, hvordan beskederne skal skrives, så det for en person udenfor rummet virker, som om personen i rummet forstår kinesisk.
Men ifølge John Searle er der ikke tale om forståelse, men alene symbolmanipulation hos personen i rummet.
Hvordan er det at være menneske?
Når vi spørger, om et computerprogram er sansende eller bevidst, spørger vi måske egentlig bare, hvor meget det ligner os.
Det kan vi måske aldrig rigtig vide.
Den amerikanske filosof Thomas Nagel hævdede, at vi aldrig vil vide, hvordan det er at være en flagermus, som oplever verden via ekkolokalisering. Hvis det er tilfældet, kan vores forståelse af sansning og bevidsthed i AI-systemer være begrænset af vores egen særlige form for intelligens.
Og hvilke oplevelser eksisterer uden for vores begrænsede perspektiv? Det er hér, samtalen for alvor begynder at blive interessant.
Denne artikel er oprindeligt publiceret hos The Conversation og er oversat af Stephanie Lammers-Clark.