Fra Ronald Reagan i 1984 til Bob Dole i 1996 - ja, selv Hillary Clinton i 2016:
Præsidentkandidaternes helbred er et ganske almindeligt forekommende emne op til de amerikanske præsidentvalg.
Emnet har især stor betydning i denne ombæring, for uanset, hvem der vinder valget i november 2020, bliver det langt den ældste præsident nogensinde, som sætter sig i stolen i The Oval Office.
Trump og hans tilhængere har stillet skarpt på den demokratiske præsidentkandidat Joe Biden; især i forbindelse med hans angivelige mentale tilstand.
Kunstig intelligens fører ordet
Videoer, der viser Joe Biden falde i søvn i løbet af et interview, fare vild i løbet af en kampeagneevent eller 'tale over sig' om faren ved 'Joe Bidens USA', har fyret op under særligt Trump-tihængernes overbevisning om, at Joe Biden udviser tegn på kognitivt forfald.
Der er bare den hage ved det, at en del af hændelserne slet ikke har fundet sted.
Den teknologiske udvikling har gjort det muligt at producere tilsyneladende reelle videoer, men hvor det i virkeligheden er kunstig intelligens, som fører ordet.
De vildledende videoer er blevet et vigtigt element i misinformationskampagnerne, der fortæller løgne i et forsøg på at påvirke og overbevise vælgerne.
\ Om Forskerzonen
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra Lundbeckfonden. Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af Lundbeckfonden. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
Deepfakes og cheapfakes
Videoerne bliver manipuleret på forskellige måder: Nogle gange bliver et par billedesekvenser ændret. Nogle gange bliver hele videoen ændret ved hjælp af Hollywood-style specialeffekter.
Udviklingen af kunstig intelligens og 'deep learning'-teknologien har muliggjort sidstnævnte.
Deep learning har gjort os i stand til at skabe hyperrealistiske, men helt og holdent fiktive videoer, som bliver kaldt 'deepfakes'.
Kan programmeres til at sige og gøre hvad som helst
Deepfakes bliver skabt ved at akkumulere et 'bibliotek' af eksisterende fotografier, videoer og audioklips som et slags råinput til at 'lære' en persons talemåde, ansigtsudtryk og adfærd.
Ved hjælp af den akkumulerede data skaber programmerne en repræsentation af personen, som kan programmeres til at sige og gøre hvad som helst.
Et eksempel er en deepfake-video, hvor USA's tidligere præsident Richard Nixon meddeler, at et forsøg på en månelanding er gået galt, og at astronauterne Neil Armstrong og Buzz Aldrin er omkommet - se videoen herunder.
Cheapfakes manipulerer med eksisterende videoer
Deepfake-teknologien truer vores evne til at skelne sandt fra falsk.
Og selvom den allermest sofistikerede teknologi ikke er almindeligt tilgængelig på nuværende tidspunkt, så introducerer fremskridt indenfor videoredigerings-software en måske mere direkte trussel – nemlig såkaldte 'cheapfakes'.
Cheapfakes manipulerer eksisterende videoer ved hjælp af almindelig tilgængelig redigeringsteknikker. Resultatet ligner oftest slet ikke de oprindelige optagelser, men selv manipulerede videoer af dårlig kvalitet kan føre os bag lyset.
Redigeringsteknikken gør os i stand til at fjerne indhold fra virkelige hændelser. De kan få de involverede personer til at forekomme forvirrede og konfuse. De kan sammensplejse to forskellige optagelser og skabe et øjeblik, som aldrig fandt sted.
Det var netop, hvad der blev brugt til at få det til at se ud, som om Joe Biden faldt i søvn i løbet af et interview.
Misinformation og præsidentvalget
Adskillige højprofilerede videoer cirkulerer for tiden på nettet, så det må være rimeligt at spørge: Kan disse videoer – som eksempelvis sår tvivl om Joe Bidens kognitive evner – påvirke valgresultatet?
De sofistikerede videoredigeringsteknikker er forholdsvis nye, så vi har ikke meget direkte evidens, der afdækker, om manipulerede videoer har effekt på den politiske dagsorden, eller om de kan påvirke valgets udfald.
Vi kan dog lære en hel del af den makante stigning i forskning om effekterne af misinformation og vildledende information i kølvandet på præsidentvalget i 2016.
Valget blev afgjort af færre end 80.000 stemmer
Forskerne var voldsomt interesserede i, om misinformation bidrog til Donald Trumps valgsejr over Hillary Clinton; et plausibelt scenarie, når vi tager højde for, at valget blev afgjort af færre end 80.000 stemmer.
Visse studier indikerer, at misinformationen angiveligt kun havde lille effekt, mens andre studier hævder, at den lille stemmedifference ved valget i 2016 betød, at misinformation muligvis gjorde en forskel.
Præsidentvalget her fire år senere kan potentielt også gå hen og blive en neglebidende affære.
Selvom man har forsøgt at booste den kritiske medie-literacy samt begrænse spredningen af misinformation, er deepfakes og cheapfakes alligevel så nye, at de risikerer at tage vælgerne på sengen.
Misinformation rammer ikke i lige grad
Hvis det er tilfældet, kan videoer, som sår tvivl om Bidens kognitive helbred, føre til, at vælgerne sætter spørgsmålstegn ved hans kandidatur.
Og selvom vores arbejde viser, at faktatjek kan være effektivt til at afsløre misinformationer, kan det måske ikke udbedre skaderne helt.
Misinformation rammer dog ikke alle i lige grad. Forskning fra 2016 fandt, at det der er størst sandsynlighed for, at vi står inde for misinformation, når det støtter den kandidat, vi foretrækker; en observation, der især gælder for Trumps tilhængere.
Hvis det også gælder for 2020, vil disse videoer formentlig i højere grad befæste Trump-vælgernes antagelser om Joe Bidens kognitive forfald snarere end sprede tvivl i hele vælgerflokken.
Kan påvirke mediernes dagsorden
Misinformation kan også have effekt på kampagnerne, udover vælgerpåvirkning. Den kan også påvirke mediernes dagsorden.
Hvis det lykkes de manipulerede videoer at så tvivl om Joe BIdens kognitive evner, kan det få negative konsekvenser for Biden-kampagnens nøglebudskab ved at tvinge kampagne til at fokusere på at berolige vælgerne i forhold til Bidens mentale helbredstilstand.
Biden-kampagnen har allerede været nødtvunget til at reagere på spørgsmål før den nylige cirkulation af manipulerede videoer.
Konsekvenser for, hvordan vi ser og forstår verden
Deepfakes og cheapfakes kan potentielt have konsekvenser for, hvordan vi ser og forstår verden.
Det er en virkelig trussel; en trussel mod valgets integritet og den internationale sikkerhed, som har fanget både den amerikanske kongres' og Pentagons (USA's forsvarsministerium) interesse.
Flere teknologiske tiltag arbejder på at spotte og blokere manipulerede videoer.
Der er sket fremskridt, men der er et stort problem: Teknologien har nærmest udviklet sig til et våbenkapløb mellem producenterne af videoerne og detektorerne.
Da forskerne eksempelvis udviklede en metode til at identificere deepfakes ved at se på mønstre i måden, personerne blinkede med øjnene, tilpassede teknologien sig.
Vi kan ikke nødvendigvis kan tro vores egne øjne
Medierne forsøger også at komme deepfakes i forkøbet gennem faktatjek-processer.
Washington Post har udviklet en kontrolguide kaldet Seeing Isn’t Believing, og Duke University's Reporters’ Lab har udviklet MediaReview, som er et system, hvor faktatjekkere kan tagge manipulerede videoer for at advare søgemaskiner og sociale medieplatforme.
Hvis producenterne af deepfakes og cheapfakes fører an i kapløbet, risikerer valget i november 2020 at blive startskuddet på en tidsalder, hvor vi ikke længere nødvendigvis kan tro vores egne øjne.
Dustin Carnahan modtager støtte fra National Science Foundation. Denne artikel er oprindeligt publiceret hos The Conversation.
Oversat af Stephanie Lammers-Clark.
\ Læs mere
































