I en tid med misinformation kan det virke sværere og sværere at hoppe ud af det konspiratoriske kaninhul, hvor der eksisterer teorier om alt fra aliens til Illuminati.
Men der er måske en vej op.
I et nyt studie, udgivet i tidsskriftet Science, har man formået at få konspirationsteoretikere til at bløde op omkring deres teorier og ændre deres tidlige overbevisninger ved hjælp af en AI-chatbot.
»Vi viser, at en relativt kort samtale med en generativ AI-model (teknologien bag chatbotten, red.) kan give et stort og varigt fald i troen på konspirationsteorier, selv blandt mennesker hvis overbevisninger er dybt forankrede,« skriver forskerne i en pressemeddelelse.
Ved at få forsøgspersonerne til at skrive med en chatbot om en konspirationsteori fik man i gennemsnit reduceret deres misinformerede overbevisninger med 20 procent, viser studiet.
»Det er positive resultater i den forstand, at vi kan bruge AI til et godt formål,« siger adjunkt Daniel Hershcovich. Han forsker i AI ved Datalogisk Institut på Københavns Universitet, men har ikke været involveret i studiet.
Mindre tiltro til konspirationsteorierne
I det nye studie fik man 2.190 amerikanere til at føre en dialog med en chatbot om en konspirationsteori, som de selv troede på. Derefter skulle de komme med evidens, der bakkede teorien op, og vurdere, i hvor høj grad de troede på teorien.
Ud fra deltagernes svar skræddersyede chatbotten faktuelle argumenter, som skulle modbevise forsøgspersonernes falske konspirationsteorier.
I løbet af tre runder skulle forsøgsdeltageren og chatbotten skiftevis diskutere, hvorefter konspirationsteoretikeren skulle vurdere, hvor sand teorien var på en skala fra 0 til 100.
Studiet er »imponerende grundigt«, og det har skabt nogle ret overraskende resultater, mener Daniel Hershcovich.
»Den generelle opfattelse i forskningen er, at det er svært at ændre folks holdninger til de konspirationsteorier, som de tror på,« siger han.
Men studiet viser, at AI-chatbotten formåede at ændre nogle af forsøgspersonernes syn på deres egen teori. Desuden påviste forskerne en ‘spillover-effekt’:
De, som endte med at tro mindre på deres egen teori, troede også mindre på andre konspirationsteorier, inden for emner som corona og USA’s præsidentvalg i 2020.

To måneder efter eksperimentet viste det sig desuden, at forsøgsdeltagerne stadig havde en reduceret tiltro til konspirationsteorien.
For at være sikre på at chatbotten ikke også spredte misinformation til deltagerne, fik forskerne en professionel faktatjekker til at evaluere 128 af chatbottens påstande: 99,2 procent viste sig at være sande, mens 0,8 procent var misledende.
AI som værktøj i kampen for sandhed
Resultaterne kan potentielt blive et springbræt til at undersøge, hvordan modeller som GPT-4 Turbo – den studiets chatbot kaldet DebunkBot er bygget på – kan trænes til opgaver i den virkelige verden, mener Daniel Hershcovich.
»Det er kun i de seneste to år, at vi har set modellerne gøre en forskel hos mennesker. Det er også derfor, at studiet er overraskende,« fortæller han.
Derfor demonstrerer studiet også, hvordan generativ AI’s evne til at overbevise andre potentielt kan anvendes i en positiv sammenhæng. Det skriver to forskere i psykologi i tidsskriftet Perspectives.
Selv mener forskerne på baggrund af studiet, at man kunne overveje at lade AI besvare opslag om konspirationsteorier på sociale medier.
Er det for tidligt at sige, at AI kan blive et værktøj mod misinformation?
»Teknologien er ikke perfekt, men det er altid et spørgsmål om, hvad alternativet er. Og hvis chatbotten ikke har nogen bivirkninger, så er det jo en god ting. For eksempel viser studiet, at chatbotten aldrig øgede folks tiltro til den teori, de troede på,« svarer Daniel Hershcovich.
Men fordi studiets chatbot er baseret på modellen GPT-4, bør man alligevel være opmærksom, mener forskeren.
For GPT-4, som er udviklet af den amerikanske virksomhed OpenAI, er notorisk kendt for at være ‘lukket’. Det vil sige, at man ikke ved, hvilke data der bruges til at træne modellen.
Derudover ved man ikke, om OpenAI kan have tilføjet visse forudindtagelser eller en anden hemmelig mekanisme til GPT-4, som kan have indflydelse på, hvordan forsøgsdeltagerne påvirkes.
Og det er faktisk »alarmerende«, siger Daniel Hershcovich:
»På en måde har de fuld kontrol over modellen, og hvis OpenAI af en eller anden grund beslutter sig for at overbevise folk om at være for eller imod visse holdninger, så kan de gøre det.«
Faldgruberne ved AI
Selvom den kunstige intelligens i dette studie har vist sig at kunne bekæmpe misinformation, har forskere også advaret om, at generativ AI som chatbots netop kan bruges til at sprede falske informationer.
OpenAI har selv rapporteret om russiske og israelske grupper, som har brugt OpenAI’s værktøjer til at sprede desinformation – altså bevidst falsk information.
Der er en risiko for, at andre folk vil kunne misbruge en chatbot som denne til andre formål, anfører Daniel Hershcovich.
»Jeg ved ikke, om vi kan forhindre det. Men vi kan lave mere forskning, hvor vi informerer beslutningstagere om risikoen for, at det vil ske,« siger han og advokerer også for, at virksomheder som OpenAI skal være mere transparente omkring deres modeller.
Hvis AI potentielt skal bruges som et værktøj mod misinformation, er det nødvendigt at bygge videre på studiets resultater.
For eksempel medtager studiet mere velkendte konspirationsteorier om corona og aliens, men man bør også teste på mindre udbredte konspirationsteorier, hvor der findes knap så meget evidens på nettet, mener datalogen fra Københavns Universitet:
»Det er virkelig afgørende, for at vi kan være sikre på den her teknologi, og før vi fortsætter med at bruge den.«
Hvis du selv vil teste chatbotten, kan du prøve en version her. Du kan også se et uddrag af en dialog mellem en forsøgsdeltager og studiets chatbot om konspirationsteorien, der hævder, at terrorangrebet 11. september 2001 var iscenesat, i grafikken nedenfor:

































