Sidst vi gik til folketingsvalg, i november 2022, blev ChatGPT ’født’ og gjort tilgængelig for os alle. Den 24. marts skal vi stemme igen, men i en politisk virkelighed, der ser markant anderledes ud end i 2022.
Kunstig intelligens er blevet en del af hverdagen for mange danskere, også på Christiansborg. Danske politikere har allerede brugt teknologien til billeder, videoer og debatindlæg, og under valgkampen i 2026 ser vi igen politikere bruge det.
Men hvad betyder det for vælgernes opfattelse? De første studier peger på, at brugen af kunstig intelligens kan påvirke, hvordan vælgerne oplever politikere.
Vores og andres forskning viser, at når politikere bruger kunstig intelligens, føler vælgerne større afstand til dem. Dét mindsker tilliden og skaber skepsis over for budskabet.
I den danske valgkamp har eksempelvis Venstre brugt AI til at skabe en video, hvor formanden Troels Lund Poulsen optræder som Rambo:
Mere negativ opfattelse af politikere, der bruger AI
I et endnu ikke udgivet studie undersøger Tobias Kaas, Jakob Zaar og jeg, hvordan danskerne reagerer, når de får at vide, at en politiker har brugt kunstig intelligens.
I et eksperiment præsenterede vi 507 deltagerne for et Facebook-opslag fra en anonym politiker.
Nogle fik at vide, at politikeren selv havde skrevet teksten, mens andre fik at vide, at den var skrevet af ChatGPT (som er en generativ kunstig intelligens).
Selvom alle læste præcis den samme tekst, vurderede ’ChatGPT-gruppen’ politikeren mere negativt. De havde mindre tillid til politikeren, og fandt opslaget mindre overbevisende.
En tredje gruppe i vores eksperiment fik at vide, at opslaget var skrevet af en politisk medarbejder. Dette tilføjede vi for at teste, om fald i tillid skyldtes, at politikeren havde fået hjælp, fremfor at det var kunstig intelligens, der havde skrevet opslaget.
\ Book et gratis forskerforedrag
Arjen van Dalen, forfatteren til denne tekst, er med i 'Bestil en Forsker'-ordningen – en del af Forskningens Døgn – hvor forskere kan bookes gratis til at holde et foredrag i uge 17.
Arjen er allerede fuldt booket med foredraget: ’Generativ AI og folketingsvalg 2026. To sandheder og en løgn’.
Men der er hele 292 gratis foredrag at vælge imellem om alt fra hvalstrandringer, udendørs leg, AI, Trump, fedme, universet, havvind, moralfilosofi og meget, meget mere.
Se de mange tilbud for de øvrige forskere i ordningen her. Vigtige datoer: Forskerne kan bookes til og med 13. marts. Foredragene finder sted 20.-26. april.
Vi fandt dog ikke den samme negative effekt, når deltagerne fik at vide, at opslaget var skrevet af en politisk medarbejder. Politikeren måtte altså gerne få hjælp – bare ikke fra kunstig intelligens.
Vi har præsenteret vores resultater på årsmødet i Dansk Selskab for Statskundskab i slutningen af 2025, og i skrivende stund er studiet under fagfællebedømmelse.
Vores resultater er i tråd med nye, publicerede studier fra Tyskland og USA.
Begge peger netop også på en udbredt bekymring om politikernes brug af AI og en frygt blandt befolkningen for, at AI kan underminere politikernes troværdighed.
\ Om ikke-publicerede studier
Det studie, som dele af teksten bygger på, er lige nu under fagfællebedømmelse og dermed ikke udgivet endnu.
Det er derfor endnu ikke blåstemplet af andre, uafhængige forskere, der har set studiet igennem med kritiske briller og godkendt det.
Videnskab.dk vurderer, at studiet har særlig interesse her ved valget. Dertil når studiet samme konklusioner som forskning, der allerede er udgivet.
Bryder ’autencitetskontrakten’
Det naturlige, næste spørgsmål er: Hvorfor reagerer vælgerne negativt på politikernes brug af AI?
Vi finder, at fald i troværdighed ved brug af kunstig intelligens kan forklares med, at politikere ikke opfattes som autentiske.
Når en politiker bruger kunstig intelligens, kan vælgerne blive i tvivl om, hvem der egentlig står bag budskabet: Er det politikeren selv eller en maskine?
Usikkerhed om hvem der står bag, kan få vælgerne til at tvivle på, om ordene afspejler politikerens egne holdninger og prioriteringer.
I politik forventer vi ikke fuld spontanitet. De fleste ved, at taler ofte skrives med hjælp fra rådgivere, og at opslag på sociale medier er nøje gennemtænkte.
Politisk kommunikation bygger derfor på en stiltiende aftale mellem politikere og vælgere:
Vi accepterer, at noget er strategisk, men det skal stadig opleves, som om det kommer fra et menneske med egne holdninger.
Den norske medieforsker Gunn Enli kalder det en autenticitetskontrakt.
Når det bliver tydeligt, at et social medie-opslag er skrevet af kunstig intelligens, opleves det som et brud på denne kontrakt. Og dermed svækkes politikernes troværdighed.
Amerikansk præsidentkandidat forregnede sig
At vi vil have politikere der fremstår ægte frem for kunstig intelligens, blev også bekræftet i et amerikansk studie af den såkaldte PalmerAI.
Under demokraternes primærvalg i 2024 lancerede præsidentkandidaten Jason Palmer en kampagne-chatbot, hvor vælgere kunne stille spørgsmål om hans politik, idéer og kandidatur.
Forskerne Yu-Hao Lee og Chien Wen Yuan sammenlignede vælgernes opfattelse af Palmer hos en gruppe vælgere, der interagerede med chatbotten, med opfattelsen hos en anden gruppe vælgere, der så en video med ham.
Chatbotten blev oplevet som mere engagerende, vakte større nysgerrighed og gav mere lyst til interaktion. Men det øgede engagement førte ikke til større villighed til at stemme på Palmer.
Årsagen var, ligesom vi fandt, at Palmer blev opfattet som mindre ægte og mindre troværdig, når vælgerne mødte ham gennem en kunstig chatbot frem for i en video.
Risikerer at skabe skepsis, især hos tvivlerne
Politikerne mister altså både ægthed og troværdighed, når de bruger AI. Kan vi på den baggrund fraråde politikerne at bruge AI i valgkampen?
Nej. Det er for tidligt. I vores eksperiment valgte vi bevidst ikke at oplyse, hvilket parti politikeren, der havde publiceret Facebook-opslaget, tilhørte.
Det gjorde vi for at kunne isolere effekten af AI, uden at deltagerens partipræference påvirkede vurderingen.
Forskning fra USA viser dog, at vælgere med en stærk tilknytning til deres parti ikke blev mindre positive over for partiet, når partiet brugte kunstig intelligens – selv ikke, når de brugte kunstig intelligens til at skabe misinformation eller deepfakes.
Med andre ord kan loyalitet til partiet veje tungere end negative indtryk på baggrund af AI-brug.
Det gælder dog i en amerikansk kontekst, som er langt mere polariseret, og hvor normerne for politisk kommunikation er anderledes end i Danmark.
Sammenlagt viser forskning, at brugen af AI kan engagere vælgere og skabe interaktion. Men samtidig øger det afstanden til politikeren og mindsker oplevelsen af personlig kontakt.
For danske partier kan teknologien under folketingsvalget 2026 måske bruges til at mobilisere egne kernevælgere, men den risikerer også at skabe skepsis hos tvivlende vælgere.
Samtidig rejser det spørgsmål om, hvilke normer politikernes brug af AI etablerer.
Er de tydelige omkring, når de bruger AI? Skaber deres brug grobund for, at andre også bruger AI politisk, måske med krænkende eller manipulerende formål?
Og hvordan vil disse normer udvikle sig, efterhånden som AI bliver endnu mere almindeligt?































