Kunstig intelligens kan både afsløre og skabe fake news
Kan teknologien hjælpe os i kampen mod misinformationer? Her forklarer forfatteren de udfordringer, som medievirksomheder og mediebrugerne står over for, når de skal skelne mellem fakta og fake.
Fake news click bait AI kunstig intelligens facebook youtube dele indlæg følelsesladet gennemskue afsløre troværdighed velrenommeret kilde nyheder konspirationsteori WikiLeaks propaganda online fake deepfakes sande rigtig

Kunstig intelligens kan godt spotte online-propaganda, men den er på samme tid forbløffende god til at skabe misvisende materiale. (Foto: Shutterstock)

Mark Zuckerberg var ikke særlig klar i spyttet, da han fortalte den amerikanske kongres, at Facebook vil bruge kunstig intelligens til at afsløre fake news på det sociale medie.

Jeg arbejder med image- og video-analytik, og jeg vil råde Facebook til at træde meget varsomt.

På trods af visse basale potentielle skavanker kan kunstig intelligens godt spotte online-propaganda – men den er samtidig forbløffende god til at skabe misvisende materiale.

Spreder sig mere end sande nyheder

Forskerne ved, at online fake news spreder sig langt hurtigere og langt mere end sande nyheder.

Min forskning har fundet, at onlineindlæg med misinformerende eller falske medicinske informationer bliver set flere gange samt får flere kommentarer og likes end indlæg med sande informationer.

I en onlineverden med begrænset opmærksomhed og en overflod af valgmuligheder ser det ofte ud, som om falske informationer appellerer til og engagerer mediebrugerne mere.

Problematikken vokser: Når vi når frem til 2022, er der risiko for, at vi støder på flere fake news end rigtige informationer i de avancerede økonomier (betegnelse for verdens økonomisk set mest udviklede lande).

Det kan medføre et fænomen, som forskerne har navngivet 'reality vertigo' (virkelighedssvimmelhed, red.), hvor computere kan generere indhold, der er så overbevisende, at almindelige mediebrugere har svært ved at gennemskue, hvad der er sandt, og hvad der ikke er.

Historien kort
  • Kunstig intelligens kan bruges til at analysere tekst og indhold for at afsløre fake news.
  • Samtidigt bruges teknologien også til at skabe deep fakes samt misvisende informationer.
  • Men der skal trædes varsomt, så teknologien ikke ender i et våbenkapløb med sig selv.

Afslører fake news

Med brug af kunstig intelligens og maskinlæring har man i flere årtier skabt algoritmer, der får bugt med spam emails.

Det sker ved, at den analyserer indholdet og så vurderer sandsynligheden for, at det er kommunikation fra en virkelig person, eller om der er tale om massedistribuerede uønskede reklame-e-mails, der reklamerer for alt fra væksthormoner til den uventede formue fra en rig afdød slægtning.

På grundlag af denne type tekstanalyse kan kunstig intelligens sammenstille indlæggets tekst eller overskrift med indholdet af den artikel, som bliver delt online.

En anden metode gransker lignede artikler for at se, om fakta varierer.

Tilsvarende systemer kan identificere specifikke konti og spore websites, der spreder fake news.

En endeløs cyklus

Alle disse metoder går ud fra, at dem, som spreder fake news, ikke ændrer deres tilgang og metoder. Men de ændrer ofte taktik og manipulerer indholdet i falske indlæg for at få dem til at forekomme mere autentiske.

Kunstig intelligens kan også bruges til at vurdere information for at afsløre – og forstærke – fordomme og skævheder i samfundet. Det kan relatere til køn, etnisk baggrund eller stereotyper.

Det kan få politiske konsekvenser og potentielt begrænse tilkendegivelsen af visse holdninger. For eksempel nægter YouTube reklamer fra visse typer videokanaler, hvilket koster deres skabere penge.

Kontekst er også afgørende. Et ords mening forandrer sig med tiden. Det samme ord kan have forskellig betydning, alt efter om det bliver brugt på et højre- eller et venstreorienteret site.

Eksempelvis er der større sandsynlighed for, at et indlæg på et mere venstreorienteret site med termen 'WikiLeaks' og 'DNC' er en nyhed, end hvis de forekommer på et mere højreorienteret site, hvor det er mere sandsynligt, at der er tale om en konspirationsteori.

Kunstig intelligens kan skabe fake news

Den største udfordring ved at benytte kunstig intelligens til at afsløre fake news er, at det placerer teknologien midt i et våbenkapløb med sig selv.

Maskinlæringssystemer er allerede (skræmmende nok) i stand til at skabe såkaldte 'deepfakes'; videoklip, hvor de medvirkendes ansigter er byttet ud med andre ansigter.

Videoerne er meget virkelighedstro og forestiller eksempelvis kendte personer, der har foretaget sig noget af et karriereskift; en kendt skuespiller eller sanger, der folder sig ud som pornostjerne eller en politiker, der siger meget ukarakteristiske ting.

Et eksempel på en deep fake. Her udtaler Barack Obama sig meget ukarakteristisk. (Video: Buzzfeed/YouTube)

Man kan endda fremstille deepfakes med en smartphone-app, så teknologien er tilgængelig for praktisk talt alle, og helt uden at man nødvendigvis kan videoredigere på Hollywood-niveau.

Forskerne er allerede i gang med at forberede kunstig intelligens til at kunne identificere disse fakes skabt af kunstig intelligens. For eksempel kan video-forstørrelsesteknikker afsløre forandringer i menneskets puls, der fortæller, om en person i en video er virkelig eller computergenereret.

Men både skaberne af deep fakes og skaberne af teknikken, der forsøget at afsløre dem, vil uden tvivl forbedre deres metoder. Nogle fakes kan blive så sofistiskerede, at det vil blive meget svært at afsløre dem i modsætning til tidligere generationer af fakes, der benyttede et mere enkelt sprog.

Menneskelig intelligens er altafgørende

Den bedste måde at bekæmpe, at fake news bliver spredt, kan vise sig at være andre mennesker.

De samfundsmæssige konskvenser ved fake news – større politisk polarisering, større partiskhed og svækket tillid til mainstream-medierne – er markante.

Hvis flere mennesker var klar over, helt hvor meget der er på spil, ville de måske være mere på vagt over for diverse informationer; især hvis de er følelsesladede, da det er en let måde at fange andres opmærksomhed.

Hvis vi støder på et indlæg, der får blodet til at koge, gør vi klogt i først at granske informationerne i stedet for at dele det med det samme.

Del ikke med det samme!

Bare dét, at indlægget bliver delt, øger dets troværdighed: Når andre ser indlægget, registrerer de, at det er blevet delt af en person, de kender og formentligt også stoler på (i det mindste en smule).

Derfor er de også mindre tilbøjelige til at være opmærksomme på, om den oprindelige kilde overhovedet er troværdig.

Sociale medier som YouTube og Facebook kan vælge frivilligt at markere indhold for tydeligt at vise, om et indlæg, der giver sig ud for at være nyheder, er verificeret af en velrenommeret kilde.

Mark Zuckerberg fortalte den amerikanske kongres, at han ønsker at mobilisere Face-samfundets brugere, så de vejleder virksomhedens algoritmer.

ForskerZonen

Denne artikel er en del af ForskerZonen, som er stedet, hvor forskerne selv kommer direkte til orde. Her skriver de om deres forskning og forskningsfelt, bringer relevant viden ind i den offentlige debat og formidler til et bredt publikum.

ForskerZonen er støttet af Lundbeckfonden.

Facebook kan crowdsource indsatsen

Facebook kan vælge at crowdsource verifikations-indsatsen. Wikipedia bruger også en model med dedikerede frivillige, der fører tilsyn.

Facebook kan bruge kompagniskabet med nyhedsorganisationer og frivillige til at oplære kunstig intelligens til konstant at finjustere systemet, så det reagerer på forandringer i propagandisternes taktik og emnevalg.

Det vil måske ikke fange hvert eneste online nyhedsindlæg, men det vil i det mindste gøre det lettere for et stort antal mediebrugere at skelne mellem fakta og fake. Det vil mindske risikoen for, at fiktive og misvisende indlæg går viralt på nettet.

Det er betryggende, at personer, som bliver eksponeret for sande nyheder, er bedre til at skelne mellem sandhed og fake news. Derfor er det afgørende, at vi sikrer, at mindst nogle af de nyheder, som vi støder på online, er sande.

Anjana Susaria hverken arbejder for, rådfører sig med, ejer aktier i eller modtager fondsmidler fra nogen virksomheder, der vil kunne drage nytte af denne artikel, og har ingen relevante tilknytninger. Denne artikel er oprindeligt publiceret hos The Conversation og er oversat af Stephanie Lammers-Clark.

Ugens Podcast

Lyt til vores ugentlige podcast herunder eller via en podcast-app på din smartphone.