Hunde, der leger i sneen. En tænksom ældre mand. Eller et smukt kystlandskab, hvor bølgerne slår ind mod klipper, som ikke eksisterer i virkeligheden.
Medier verden over viderebringer i disse dage en række virkelighedstro videoer skabt med kunstig intelligens (AI) af teknologivirksomheden OpenAI.
Virksomheden står i forvejen bag chat-robotten Chat-GPT og billedværktøjet DALL-E, og nu kommer næste AI-værktøj snart på banen: Teknologien ’Sora’ vil gøre det muligt at lave tekst om til videoer i et snuptag.
Hvis du skriver – eller prompter, som man kalder det – at du vil have en video af to golden retrievere, som producerer en podcast på et bjerg, som i eksemplet nedenfor, bliver det skabt af kunstig intelligens, uden at du behøver at slæbe hunde, podcastudstyr eller videokamera op på toppen af et bjerg.
Teknologien vækker både beundring og bekymring. Forskerne er ikke i tvivl om, at denne form for videoværktøjer vil ændre vores verden. Men hvordan?
Videnskab.dk har bedt tre forskellige forskere gøre os klogere på perspektiverne i den nye teknologi.
Johan Farkas, postdoc ved Institut for Kommunikation på Københavns Universitet, hvor han forsker i mødet mellem digitale medier, journalistik, desinformation og demokrati
I de senere år har der ifølge Johan Farkas været stor bekymring for, hvordan nye typer af video-værktøjer kan medføre desinformation. Det vil sige bevidst vildledende information, som har til formål at tiltrække og overbevise mange modtagere.
»Bekymringen har mest handlet om ’deepfakes’, hvor man bruger kunstig intelligens til at fremstille falske videoer, hvor Mette Frederiksen for eksempel siger noget, hun aldrig har sagt, eller hvor en præsident erklærer krig mod et andet land,« siger Johan Farkas.
Spørgsmålet er, om Sora bliver et nøgleredskab til at skabe falske nyheder?
»OpenAI, som udvikler Sora, siger, de vil sørge for, at værktøjet ikke bruges til at lave falske videoer med specifikke, virkelige personer. Så jeg tror ikke, at vi står over for en situation, hvor internettet vil blive oversvømmet af ’deepfake’-videoer lige med det samme,« siger Johan Farkas.
I stedet forudser han, at den nye teknologi helt generelt vil betyde, at vi bliver langt mere skeptiske over for billeder og videoer, som vi møder. Hvor vi indtil nu har haft en »lidt naiv« tro på, at billeder og videoer viser os sandheden - repræsenteret af mundheldet om at 'et kamera aldrig lyver' - vil vi fremadrettet blive langt mere skeptiske over for billedmateriale.
»Hvis du eller jeg filmer noget, som sker på gaden, og deler det på sociale medier, forventer jeg, at vi fremover vil se, at brugere i kommentarsporet vil sætte spørgsmålstegn ved, om det overhovedet er sket. Vi vil komme til at lægge større vægt på afsenderen af billeder og videoer.«
»Hvis vi stoler på Politiken, Videnskab.dk eller Berlingske, som har lavet en video, så stoler vi også på indholdet, men vi vil ikke længere automatisk stole på videoer fra afsendere, vi ikke kender.«
Til gengæld vurderer Farkas, at vi i Danmark står stærkt i forhold til mødet med de nye teknologier.
»Vi har i forvejen klaret os godt i forhold til desinformation, fordi vi har en høj grad af tillid til myndigheder og medier i forhold til andre demokratiske lande. Der, hvor de nye teknologier kan blive en virkelig farlig cocktail, er i lande med meget lav grad af tillid til medier og myndigheder og en høj grad af polarisering,« siger Johan Farkas og tilføjer:
»Men udviklingen nødvendiggør også i Danmark, at vi har en større debat om, hvordan vi kan regulere tech-giganterne, så de ikke har får meget magt over den demokratiske samtale.«
Ole Winther, professor i maskinlæring ved Københavns Universitet (KU) og Danmarks Tekniske Universitet (DTU), hvor han forsker i kunstig intelligens
Regulering eller kaos.
Det er de to scenarier, Ole Winther ser for sig, efter at han har set, hvad Sora er i stand til at producere. Han kalder de nye videoer for »sindssygt imponerende«.
»Spørgsmålet er, om vi kommer til at se en regulering af teknologien, eller om kaos kommer til at råde,« siger han.
»Med Sora ser vi det første glimt af fremtiden, hvor der nærmest ikke er begrænsninger for, hvad man kan producere og dele. Vi er der ikke helt endnu. Men vi har fået vist en vej hen imod en virkelighed uden grænser, og der er vist ikke nogen tvivl om, at det er der, vi ender, hvis vi ikke gør noget.«
Ole Winther kalder det »et tabt løb« at kunne gennemskue, om en video er falsk eller ej udelukkende ved at se på den eller bruge en maskinlæringsalgoritme til at vurdere den. Derfor er vi nødt til at gentænke hele den måde, som vi deler indhold på, siger han.
Diskussionen om tillid er allerede i gang, og ét forslag er, at videoer og billeder fremover skal forsynes med digitale vandmærker. En form for stempel, som kan afsløre, om de er ‘ægte’.
Men Ole Winther forudser, at det vil blive for nemt at forfalske et vandmærke, og han mener i stedet, at man bør gå en anden vej.
»Reguleringen bør i stedet være møntet på de platforme, som deler video- og billedmateriale, og de krav, som de stiller til deres brugere,« siger han.
»Der må opstå et krav om, at man skal kunne redegøre for, hvor billeder og videoer kommer fra, hvis man skal have lov til at uploade dem til for eksempel Facebook. Det vil ikke være særlig svært teknologisk at indføre.«
Som eksempel peger Ole Winther på den blockchain-teknologi, der ligger bag en kryptovaluta som Bitcoin. Teknologien sikrer, at man hele tiden kan spore indhold tilbage til sin oprindelige afsender. Noget, som vil blive vigtigt i takt med, at AI-video vinder udbredelse.
»2023 var AI-billedernes år. Nu tyder meget på, at 2024 kommer til at stå i AI-videoernes tegn,« siger han.
\ Læs også
Lotte Philipsen, leder af Centre for Aesthetics of AI Images (AAIM), Aarhus Universitet, hvor hun blandt andet forsker i den kunstige intelligens' påvirkning af vores æstetiske sans
Sora kommer også til at sætte aftryk på den visuelle kultur som et redskab, der er med til at popularisere »en pænhedsæstetik«.
Det mener Lotte Philipsen, kunsthistoriker ved Aarhus Universitet.
»Jeg frygter en ensretning i vores måde at forstå verden på, fordi der sker en ensretning i vores billedæstetik med redskaber som Sora.«
Philipsen kalder de nye AI-videoer eksempler på det, hun kalder »Hallmark- eller Disney-æstetik«, hvor alle billeder er »knivskarpe«, og »alle smiler og har hvide tænder og store øjne«.
»Jeg savner noget mere Grimms eventyr, at man antyder nogle hakker i karaktererne.«
Særligt fordi Sora foregiver at repræsentere virkeligheden. Lotte Philipsen har for eksempel læst sig til, at målet med Sora er at skabe simulationer af »den virkelige verden«. Netop den formulering er faldet hende for brystet.
»Det er simpelthen ikke rigtigt,« siger hun om formuleringen, der kan læses på OpenAI’s hjemmeside, firmaet bag det nye videoredskab.
»Det er et eksempel på, at man undlader at skelne mellem den virkelige verden og billeder. Man har altså glemt at forholde sig til det fotografiske billedsprog som et sprog – det er ikke den virkelige verden.«
»Og det er særlig problematisk, når man simulerer en bestemt billedtype, der er meget pæn og poleret.«
Lotte Philipsen har dog også positive ting at sige om Sora. Hun forudser, at flere kunstnere vil anvende det som et redskab, at andre igen vil skabe kunst, der kommenterer det, og at de nye AI-videoer i det hele taget vil begynde en debat inden for kunsthistoriefaget.
En debat, som vil komme til at handle om, hvad billeder er, og hvad de indeholder.
»Vi er i gang med at kreere en visuel verden, hvor man kan beskrive alt ved hjælp af tekst. Det, synes jeg, er at reducere det visuelle,« siger hun:
»Derfor er Sora også en kærkommen lejlighed til at råbe op om, at billeder er andet end tekst. At der er alt muligt andet på færde, som en computermodel ikke kan opfange: æstetik, smag og billeders historiske og sociale kontekster,« slutter Lotte Philipsen.
































