Det amerikanske firma OpenAI valgte sidst i 2022 at gøre sprogmodellen ChatGPT frit tilgængelig, og da brød det ellers løs. Nu taler alle om kunstig intelligens (AI): forskere, professionelle debattører, diverse interessenter og såkaldt almindelige mennesker.
Forretningsmæssigt genialt. OpenAI får en masse erfaringer med mulige satsningsområder for teknologien og en hær af gratis testere. Og hvem havde hørt om OpenAI før det?
Samtidig har ChatGPT sat gang i debatten om, hvad vi som samfund skal stille op med AI.
Det er både vigtigt og tiltrængt, men ofte forplumret af fiktive og myteinficerede forestillinger om AI, som overskygger den teknologi, vi er nødt til at forstå og tage stilling til nu og her.
Kunstig intelligens er ikke intelligent
Den første myte, jeg går løs på, er, at kunstig intelligens skulle være en form for intelligens:
Computeren tænker ligesom os mennesker, bare hurtigere og måske mere intelligent end os. Sludder!
Kunstig intelligens er på nuværende tidspunkt et smart navn til en gruppe programmeringsteknologier, som er velegnet til visse opgaver, vi er vant til løses af os mennesker med vores naturlige intelligens.
På samme måde som Blaise Pascal's mekaniske regnemaskine, Pascalinen, var sin tids AI i 1642. Der er nul intelligens her, det handler om rent mekanistiske algoritmer, uanset om det er AI eller Pascalinen.
Selve betegnelsen kunstig intelligens bidrager i sig selv til en myte, om at det skulle have noget med intelligens at gøre.
Fiktionen – litteratur, film, computerspil og den slags – dyrker også sin version af intelligent AI i form uhyggelige dræberrobotter eller (endnu værre) en allestedsnærværende, overmenneskelig intelligens, som egentlig ikke ved, hvad den skal stille op med de der dumme og besværlige biologiske hjerner.
Helt fin og skøn underholdning, men det har ikke noget med den aktuelle teknologi at gøre. Og når tingene blandes sammen, skaber det en forkert begrundet frygt og fjerner opmærksomheden fra, hvad teknologien faktisk er velegnet til, og hvad vi faktisk skal passe på.
\ Om forfatteren
Jeg er professor i Datalogi på Roskilde Universitet fra 2004. Min forskning har dækker et bredt spektrum, både tværvidenskabelig og mere snæver datalogisk grundforskning. Lige nu med fokus på AI til diagnostik af medicinske billeder med en drejning mod 'explainable AI' designet på lægernes præmisser.
Jeg har undervist i datalogiske emner på niveauer alt fra instruktion af brugere til ph.d.-kurser og -vejledning.
Jeg har desuden afholdt et kursus om AI til RUCs Humanistisk-Teknologiske Bacheloruddannelse siden 2012. Her har jeg kunnet se, at grundbegreberne og basale teknologier har været stort set de samme hele vejen. Det er kun valg af de aktuelle systemer, vi eksperimenterer med, som er ændret.
Min dagsorden med kurset er at afmystificere AI, så vi uddanner studerende, der deltager kvalificeret i debatten og kan indgå kvalificeret i udvikling og brug af AI. Behovet for afmystificering af AI i den offentlige debat er lige nu større end nogensinde.
En datastruktur med millioner af underlige tal
Det hotteste indenfor AI lige nu er maskinlæring baseret på dybe neurale netværk. Et dybt neuralt netværk bruger en stor mængde data om et eller andet, eksempelvis billeder af dyr, tekster af generel eller specifik art eller personoplysninger.
Herefter sætter vi så en passende træningsalgoritme til at gnaske sig gennem datamængden, og den identificerer mønstre, som går igen. Mønstrene opsamles i en datastruktur, som kaldes en ’model’.
Helt som ved veletablerede statistiske metoder: En model er en slags opsummering af data.
En neural netværks model er en datastruktur med millioner af underlige tal, som i sig selv ikke siger nogen noget. Men den kan behandles af andre algoritmer til at analysere nye data: »Forestiller dette en hund?« og: »Hvor er hunden?« Eller til generativt at skabe nye kunstige data: »Giv mig et helt nyt billede af noget, som ligner en hund.«
\ Læs også
Plaprende papegøjer
Sprogmodeller, som ChatGPT, Bard, Azure og 文心一言 (Ernie Bot), bygger på denne teknologi. De indfanger mønstre i tekst og kan klistre dem sammen på nye måder, så de kan plapre løs som papegøjer med noget, der plausibelt ligner de tekster, de er trænet med.
ChatGPT er trænet med afsindigt mange tekster, hvilket er med til at skabe det umiddelbare indtryk af høj sproglig kompetence. Problemerne ligger på indholdssiden.
Der er nemlig ikke forskel på, om mønstrene, sprogmodellen identificerer, er de sproglige formuleringer, der klistrer det hele samme, eller om de forestiller faktuel information.
Netop håndteringen af faktuel information er i sig selv et stort problem. Der er ingen forskel på, om en oplysning er nævnt eksplicit i træningsdata, eller den er digtet kompetent sammen af stumper, af ’noget der ligner’.
I en nøddeskal: 28. august 2023 spurgte jeg ChatGPT efter gode restauranter i Roskilde. Jeg fik en liste med 10 mulige restauranter, hvoraf tre – når jeg tilgiver en enkelt fejlstavning – er gode nok, mens resten simpelthen ikke findes.

Ingen revolution, blot et lille skridt i en evolution
En anden aktuel myte er: Kunstig intelligens er en teknologisk revolution, som – fra den ene dag til den anden – har skabt fantastiske og skræmmende perspektiver for menneskeheden, der ofte bliver sammenlignet med betydningen af elektricitetens opdagelse.
Følgeligt er de affødte, etiske problemstillinger totalt uventede, og noget som verden slet ikke er forberedt på. Jeg er dybt uenig!
Den kunstige intelligens, vi ser lige nu, er et lille skridt i en teknologisk evolution, og problemstillingerne er grundlæggende de samme, som de altid har været.
Neurale netværk stødte jeg selv på i 1970'erne på mit datalogistudium, og i 80'erne blev ’små’ netværk hypet, da man fandt ud af, at de kunne bruges til noget. I starten af 00'erne og frem til i dag har de så fået en renæssance i form at såkaldt dybe netværk, som kan håndtere langt større datamængder.
Neurale netværk er en videreudvikling af maskinlæringsteknikker, som tog fart i 60’erne og 70'erne, eller i et større perspektiv god gammeldags statistik, som er flere hundrede år gammel og lever fint videre i computeralderen.
Der er intet kvalitativt nyt i ChatGPT, den bygger på teknikker, som har været lærebogsstof de sidste 5-10 år. Forskellen er kvantitet.
ChatGPT er trænet på afsindigt store datamængder med afsindigt store computerressourcer, som i øvrigt forbruger afsindigt meget energi. Det er som at sætte en raketmotor på en bil og så sige, at man har opfundet verdens hurtigste bil.
\ Serie: Er AI vores ven, fjende eller både-og?
Hvad gør kunstig intelligens ved vores samfund? AI bliver brugt i mobiltelefoner, ChatGPT, selvkørende biler, røntgenundersøgelser og meget, meget mere.
Men tager AI vores arbejde, eller kan AI hjælpe os til et bedre samfund? Skal vi være fascinerede, begejstrede eller nervøse? Hvilke dilemmaer følger med udbredelsen af AI?
I denne artikelserie angriber en række forskere AI fra hver deres forskningsfelt. Se alle artikler i serien her.
Velkendte problemer i nye klæder
Heller ikke alle problemerne ved AI er helt nye. Et eksempel på det er sprogmodellernes evne til at producere tekster, som på overfladen kan virke overbevisende.
Det har genereret hede diskussioner i forhold til eksamenssnyd, og om ungerne nu også lærer nok i skolen, hvis de får lov til at bruge den. Men det er der ikke noget specielt nyt i. Det svarer til dengang i 1970'erne, da lommeregneren kom frem.
Etiske problemer i forhold til ophavsret, automatisk beslutningstagning, massiv overvågning og så videre er heller ikke specielt knyttet til AI, men de kan blive forstærket med AI.
Der er stadig nogen, der har ansvaret
Et problem er dog, at opfattelsen af AI-teknologi som virkeligt intelligent kan mudre forståelsen af ansvar.
Hvis en AI bliver brugt til noget, vi ikke synes om, må det være »AI’ens skyld«, og en uafvendelig konsekvens af, at sådan er AI jo bare – præcis som at vand normalt løber nedad.
En sprogmodel, kan man med den opfattelse påstå, afspejler det omgivende samfund, og det kan vi ikke gøre noget ved. Og derfor må vi diskutere stolpe op og stolpe ned, hvordan vi nu kan få kodet etik ind i modellen.
Fint nok, det er også et interessant forskningsspørgsmål. Men det fjerner opmærksomheden fra det egentlige problem, at når nogen udvikler og anvender en teknologi, er det stadigvæk disse ’nogen’, som har det ansvaret for den og dens konsekvenser.
De har en bestemt hensigt, og er dem, der kan vælge at bruge teknologien på en måde, vi ikke synes om. Og det er dem, vi kan kræve i fængsel – eller demonstrere imod, hvis nu ’de’ repræsenterer lovgiverne. Eller applaudere, når AI’en gør, som vi vil.
Mennesker er racister, ikke software
Tilsvarende bliver AI ofte beskyldt for at være racistisk, hvad enten vi taler om en udvalgt AI eller helt generelt.
Mennesker kan være nogen rigtigt lede racister, ja. Men et stykke software? Nej, nej og atter nej, siger jeg!
Det er de tekniske udviklere og deres opdragsstillere, som er skurkene. Uanset om det skyldes bevidste hensigter, småtbegavet vanetænkning, eller at udviklerne bare ikke har gjort deres arbejde ordentligt, for eksempel når de validerer træningsdata.
Kunstig intelligens tror, vi alle er ens
Et reelt og stort problem ved udbredelsen af ChatGPT er, at den bygger på den naive (eller bevidst kulturimperialistiske?) forestilling, om at hele verden tænker i de samme værdier og normer, det vil sige som i USA.
Jeg kan nævne mindst en videnskabelig artikel, som påviser, at ChatGPT udbreder amerikanske værdier og tænkemåder. Det er ikke nogen overraskelse, når vi ser på erfaringer fra små 20 år med Facebook og andre sociale medier.
Tag som eksempel Facebooks ’moralske’ normer. Nøgenhed – uanset hvordan – er noget af det slemmeste, og selv skyggen af en brystvorte, hvis den altså er kvindelig, er virkelig fæl.
Hvis du vælger at bruge de kanaler til at udbrede dit budskab, må du underkaste dig disse normer – og du bliver gjort til en nyttig idiot for udbredelsen af dem som værende ’normale’.
Et endnu værre eksempel, som fik mig til at fryse til is: Google har udviklet en sprogmodel til det medicinske område, Med-PaLM, og den er – efter deres eget udsagn – på vej mod at kunne svare ’korrekt’ på alle spørgsmål.
Men det betyder, at hvis du spørger til en eller anden sygdom, kan du risikere at få anbefalet en behandling, som er godkendt i USA, men ikke i Danmark.
Kort sagt, brugen af AI kan ikke bare være et problem for vores kulturværdier, men også for vores lovgivning på sundhedsområdet og de strenge danske krav til afprøvning.
Vi har brug for en debat med mindre hype og færre myter
Når jeg i overskriften så kækt kalder AI for en fis i en hornlygte, afskriver jeg på ingen måde betydningen af disse teknologier, tværtimod.
Jeg sigter mod hypen omkring en fiktiv og myteinficeret forestilling om AI, som forplumrer den absolut nødvendige teknologidebat.
Vi, som det danske samfund, må sigte mod at få maksimal kontrol over den teknologi, så vi kan bruge den på den måde, vi ønsker.
Vi har et stort potentiale i dansk forskning og danske virksomheder til at være på forkant i udvikling og brug af AI, og der arbejdes allerede på højtryk.
Jeg arbejder selv med AI til analyse og diagnostik fra medicinske billeder, og det er bare et af de felter indenfor sundhedsområdet, hvor AI kan lede til bedre livskvalitet og bedre udnyttelse af vores fælles ressourcer.
Eller det modsatte, hvis AI bruges på politisk plan som påskud for at spare højt kvalificeret arbejdskraft væk.
Der investeres allerede store summer i AI, det prioriteres politisk, og regionerne melder højlydt ud, hvor mange millioner de vil poste i AI.
Vi kan og skal styre AI-udviklingen, så vi bestemmer over den og ikke venter på, hvad de store leverandører vælger at give os adgang til.
\ Anbefalet læsning
'Miljøbotten', Jumbobog 528, s. 49–80 (2023)
To grimme kapitalister, von And og Anderbilt, slås om, hvem der kan score mest profit på det politisk korrekte formål, kildesortering. Der indgår en app, som skal hjælpe med at sortere rigtigt, og den ender med at blive ret så aggressiv. Det opstår der morsomme, men også tankevækkende scener af. App'en er udstyret med en kunstig intelligens, som har personlighed og et intelligent glimt i øjet. Historien er godt fortalt – og den ironiserer tykt over stereotypien om den kynisk intelligente, kunstige intelligens, som ønsker at tage magten fra menneskene.
'Human Compatible. AI and the Problem of Control', Penguin Books (2019)
Tvangslæsning for alle, som vil gøre sig kloge på AI.
'Machine learning', McGraw-Hill (1997)
Opsummerer status quo på området på udgivelsestidspunktet. Den omtaler også neurale netværk, som på det tidspunkt endnu ikke var blevet dybe. Velskrevet, nem at læse og stadig i brug som lærebog.
'Maskinerne kommer, men problemet er os', BabelfiskenJW (2023)
Oversætter Signe Lyngs betragtninger over ChatGPT og dens sproglige kompetencer, som måske ikke er så gode, som de lige ser ud til.
'National strategi for kunstig intelligens', Finansministeriet og Erhvervsministeriet (2019)
Regeringsudspil med flotte visioner og paroler. Den nu er mere end fire år gammel, men det svært at finde referencer til den, for slet ikke at tale om en evaluering.































