Deepfake-videoer fyrer op under forkerte antagelser om Joe Bidens mentale helbred
Deepfakes og cheapfakes kan potentielt have konsekvenser for, hvordan vi ser og forstår verden.
Joe Biden valg præsident Donald Trump deeepfakes cheapfakes deep learning teknologi demokrati USA Borgerrettighedsorganisationen American Civil Liberties Union faktatjek diktator diskurs

Præsidentvalget i november 2020 risikerer at blive startskuddet på en tidsalder, hvor vi ikke længere nødvendigvis kan tro vores egne øjne. (Foto: Cage Skidmore/CC BY-SA 2.0)

Præsidentvalget i november 2020 risikerer at blive startskuddet på en tidsalder, hvor vi ikke længere nødvendigvis kan tro vores egne øjne. (Foto: Cage Skidmore/CC BY-SA 2.0)

Partner The Conversation

Videnskab.dk oversætter artikler fra The Conversation, hvor forskere fra hele verden selv skriver nyheder og bringer holdninger til torvs

Fra Ronald Reagan i 1984 til Bob Dole i 1996 - ja, selv Hillary Clinton i 2016:

Præsidentkandidaternes helbred er et ganske almindeligt forekommende emne op til de amerikanske præsidentvalg.

Emnet har især stor betydning i denne ombæring, for uanset, hvem der vinder valget i november 2020, bliver det langt den ældste præsident nogensinde, som sætter sig i stolen i The Oval Office.

Trump og hans tilhængere har stillet skarpt på den demokratiske præsidentkandidat Joe Biden; især i forbindelse med hans angivelige mentale tilstand.

Kunstig intelligens fører ordet

Videoer, der viser Joe Biden falde i søvn i løbet af et interview, fare vild i løbet af en kampeagneevent eller 'tale over sig' om faren ved 'Joe Bidens USA', har fyret op under særligt Trump-tihængernes overbevisning om, at Joe Biden udviser tegn på kognitivt forfald.

Der er bare den hage ved det, at en del af hændelserne slet ikke har fundet sted.

Den teknologiske udvikling har gjort det muligt at producere tilsyneladende reelle videoer, men hvor det i virkeligheden er kunstig intelligens, som fører ordet.

De vildledende videoer er blevet et vigtigt element i misinformationskampagnerne, der fortæller løgne i et forsøg på at påvirke og overbevise vælgerne.

Fakta
Om Forskerzonen

Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.

Forskerzonen bliver udgivet takket være støtte fra Lundbeckfonden. Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af Lundbeckfonden. Læs mere om Forskerzonens mål, visioner og retningslinjer her.  

Deepfakes og cheapfakes

Videoerne bliver manipuleret på forskellige måder: Nogle gange bliver et par billedesekvenser ændret. Nogle gange bliver hele videoen ændret ved hjælp af Hollywood-style specialeffekter.

Udviklingen af kunstig intelligens og 'deep learning'-teknologien har muliggjort sidstnævnte. 

Deep learning har gjort os i stand til at skabe hyperrealistiske, men helt og holdent fiktive videoer, som bliver kaldt 'deepfakes'.

Kan programmeres til at sige og gøre hvad som helst

Deepfakes bliver skabt ved at akkumulere et 'bibliotek' af eksisterende fotografier, videoer og audioklips som et slags råinput til at 'lære' en persons talemåde, ansigtsudtryk og adfærd.

Ved hjælp af den akkumulerede data skaber programmerne en repræsentation af personen, som kan programmeres til at sige og gøre hvad som helst. 

Et eksempel er en deepfake-video, hvor USA's tidligere præsident Richard Nixon meddeler, at et forsøg på en månelanding er gået galt, og at astronauterne Neil Armstrong og Buzz Aldrin er omkommet - se videoen herunder.

Deepfake-videoer kan snyde de fleste. (Video: Halsey Burgund)

Cheapfakes manipulerer med eksisterende videoer

Deepfake-teknologien truer vores evne til at skelne sandt fra falsk.

Og selvom den allermest sofistikerede teknologi ikke er almindeligt tilgængelig på nuværende tidspunkt, så introducerer fremskridt indenfor videoredigerings-software en måske mere direkte trussel – nemlig såkaldte 'cheapfakes'.

Cheapfakes manipulerer eksisterende videoer ved hjælp af almindelig tilgængelig redigeringsteknikker. Resultatet ligner oftest slet ikke de oprindelige optagelser, men selv manipulerede videoer af dårlig kvalitet kan føre os bag lyset.

Redigeringsteknikken gør os i stand til at fjerne indhold fra virkelige hændelser. De kan få de involverede personer til at forekomme forvirrede og konfuse. De kan sammensplejse to forskellige optagelser og skabe et øjeblik, som aldrig fandt sted.

Det var netop, hvad der blev brugt til at få det til at se ud, som om  Joe Biden faldt i søvn i løbet af et interview.

Nej, Joe Biden faldt ikke i søvn under et interview. (Video: HuffPost)

Misinformation og præsidentvalget

Adskillige højprofilerede videoer cirkulerer for tiden på nettet, så det må være rimeligt at spørge: Kan disse videoer – som eksempelvis sår tvivl om Joe Bidens kognitive evner – påvirke valgresultatet?

De sofistikerede videoredigeringsteknikker er forholdsvis nye, så vi har ikke meget direkte evidens, der afdækker, om manipulerede videoer har effekt på den politiske dagsorden, eller om de kan påvirke valgets udfald.  

Vi kan dog lære en hel del af den makante stigning i forskning om effekterne af misinformation og vildledende information i kølvandet på præsidentvalget i 2016.

Valget blev afgjort af færre end 80.000 stemmer

Forskerne var voldsomt interesserede i, om misinformation bidrog til Donald Trumps valgsejr over Hillary Clinton; et plausibelt scenarie, når vi tager højde for, at valget blev afgjort af færre end 80.000 stemmer.

Visse studier indikerer, at misinformationen angiveligt kun havde lille effekt, mens andre studier hævder, at den lille stemmedifference ved valget i 2016 betød, at misinformation muligvis gjorde en forskel.

Præsidentvalget her fire år senere kan potentielt også gå hen og blive en neglebidende affære.

Selvom man har forsøgt at booste den kritiske medie-literacy samt begrænse spredningen af misinformation, er deepfakes og cheapfakes alligevel så nye, at de risikerer at tage vælgerne på sengen.

Misinformation rammer ikke i lige grad

Hvis det er tilfældet, kan videoer, som sår tvivl om Bidens kognitive helbred, føre til, at vælgerne sætter spørgsmålstegn ved hans kandidatur.

Og selvom vores arbejde viser, at faktatjek kan være effektivt til at afsløre misinformationer, kan det måske ikke udbedre skaderne helt.

Misinformation rammer dog ikke alle i lige grad. Forskning fra 2016 fandt, at det der er størst sandsynlighed for, at vi står inde for misinformation, når det støtter den kandidat, vi foretrækker; en observation, der især gælder for Trumps tilhængere.

Hvis det også gælder for 2020, vil disse videoer formentlig i højere grad befæste Trump-vælgernes antagelser om Joe Bidens kognitive forfald snarere end sprede tvivl i hele vælgerflokken.

Kan påvirke mediernes dagsorden

Misinformation kan også have effekt på kampagnerne, udover vælgerpåvirkning. Den kan også påvirke mediernes dagsorden.

Hvis det lykkes de manipulerede videoer at så tvivl om Joe BIdens kognitive evner, kan det få negative konsekvenser for Biden-kampagnens nøglebudskab ved at tvinge kampagne til at fokusere på at berolige vælgerne i forhold til Bidens mentale helbredstilstand.

Biden-kampagnen har allerede været nødtvunget til at reagere på spørgsmål før den nylige cirkulation af manipulerede videoer.

Konsekvenser for, hvordan vi ser og forstår verden

Deepfakes og cheapfakes kan potentielt have konsekvenser for, hvordan vi ser og forstår verden.

Det er en virkelig trussel; en trussel mod valgets integritet og den internationale sikkerhed, som har fanget både den amerikanske kongres' og Pentagons (USA's forsvarsministerium) interesse. 

Flere teknologiske tiltag arbejder på at spotte og blokere manipulerede videoer.

Der er sket fremskridt, men der er et stort problem: Teknologien har nærmest udviklet sig til et våbenkapløb mellem producenterne af videoerne og detektorerne.

Da forskerne eksempelvis udviklede en metode til at identificere deepfakes ved at se på mønstre i måden, personerne blinkede med øjnene, tilpassede teknologien sig.

Ny teknik afslører deepfakes. (Video: UC Berkeley/YouTube)

Vi kan ikke nødvendigvis kan tro vores egne øjne

Medierne forsøger også at komme deepfakes i forkøbet gennem faktatjek-processer.

Washington Post har udviklet en kontrolguide kaldet Seeing Isn’t Believing, og Duke University's Reporters’ Lab har udviklet MediaReview, som er et system, hvor faktatjekkere kan tagge manipulerede  videoer for at advare søgemaskiner og sociale medieplatforme.

Hvis producenterne af deepfakes og cheapfakes fører an i kapløbet, risikerer valget i november 2020 at blive startskuddet på en tidsalder, hvor vi ikke længere nødvendigvis kan tro vores egne øjne.

Dustin Carnahan modtager støtte fra National Science Foundation. Denne artikel er oprindeligt publiceret hos The Conversation.

Oversat af Stephanie Lammers-Clark.

 

Alle må bruge og viderebringe Forskerzonens artikler

På Forskerzonen skriver forskere selv om deres forskning. Vi mener, det er vigtigt, at alle får mulighed for at læse om forskning fra forskerens egen hånd.

Alle må derfor bruge, kopiere og viderebringe Forskerzonens artikler udfra følgende enkle krav:

  • Det skal krediteres: 'Artiklen er oprindelig bragt på Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler'. Hvis artiklen bringes på web, skal der linkes til artiklen på Forskerzonen.
  • Artiklen må ikke redigeres og skal bringes i fuld længde (medmindre andet aftales med forskeren).
  • Du skal give forskeren besked om, at du genpublicerer.
  • Artikler, som er oversat fra The Conversation, skal have indsat en HTML-kode til indsamling af statistik i bunden. HTML-koden finder du i den originale artikel på The Conversations hjemmeside ved at klikke på knappen "Republish this article" ude til højre, derefter klikke på 'Advanced' og kopiere koden. Du finder linket til artiklen på The Conversation i bunden af Forskerzonens oversatte artikel. 

Det er ikke et krav, men vi sætter pris på, at du giver os besked, hvis du publicerer vores indhold (undtaget indhold fra The Conversation). Skriv til redaktør Anders Høeg Lammers på ahl@videnskab.dk.

Læs mere om Forskerzonen i Forskerzonens redaktionelle retningslinjer.

Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.


Se den nyeste video fra Tjek

Tjek er en YouTube-kanal om videnskab, klima og sundhed henvendt til unge.

Indholdet på kanalen bliver produceret af Videnskab.dk's Center for Faglig Formidling med samme journalistiske arbejdsgange, som bliver anvendt på Videnskab.dk.