ChatGPT har taget verden med storm. På mindre end to måneder har den AI-drevne chatbot fået 100 millioner aktive brugere, hvilket gør den til den hurtigst voksende forbrugerapplikation, der nogensinde er lanceret.
Brugerne er tiltrukket af chatbottens avancerede muligheder – og bekymrede over dens potentiale til at forårsage forstyrrelser i forskellige sektorer.
En langt mindre diskuteret implikation er de privatlivsrisici, ChatGPT udgør for hver eneste af os.
For nylig løftede Google sløret for sin egen ‘eksperimentelle samtale-AI-tjeneste’ kaldet Bard, og endnu flere vil helt sikkert følge. Teknologivirksomheder, der arbejder med kunstig intelligens, er virkelig trådt ind i et våbenkapløb.
Problemet er bare, at det er drevet af vores personlige data.
300 milliarder ord. Hvor mange er dine?
ChatGPT er understøttet af en stor sprogmodel, der kræver enorme mængder data for at fungere og blive bedre.
Jo mere data modellen er trænet på, desto bedre bliver den til at opdage mønstre, forudse, hvad der kommer næste gang, og generere plausibel tekst.
OpenAI, virksomheden bag ChatGPT, fodrede værktøjet med omkring 300 milliarder ord, der systematisk er hamstret fra internettet: Bøger, artikler, websteder og indlæg – heriblandt personlige oplysninger, der er indsamlet uden samtykke.
Hvis du nogensinde har skrevet et blogindlæg eller en produktanmeldelse eller kommenteret en artikel online, er der en god chance for, at denne information er blevet brugt af ChatGPT.
Så hvorfor er det et problem?
Dataindsamlingen, der er brugt til ChatGPT, er problematisk af flere årsager.
For det første blev ingen af os spurgt, om OpenAI kunne bruge vores data.
Det er en klar krænkelse af privatlivets fred, især i forbindelse med følsomme data, data som kan bruges til at identificere os, vores familiemedlemmer eller vores lokation.
Selv når data er offentligt tilgængelig, kan brug af data krænke det, vi kalder kontekstuel integritet.
Det er et grundlæggende princip i juridiske diskussioner om privatlivets fred, som kræver, at enkeltpersoners oplysninger ikke afsløres uden for den kontekst, hvori de oprindeligt blev produceret.
Følger ikke GDPR-reglerne
OpenAI tilbyder heller ingen procedurer for enkeltpersoner, så de kan kontrollere, om virksomheden gemmer deres personlige oplysninger, eller så de kan anmode om at få dem slettet.
Det er en garanteret rettighed i overensstemmelse med den europæiske generelle databeskyttelsesforordning (GDPR) – selvom det stadig bliver debatteret, om ChatGPT er i overensstemmelse med GDPR-reglerne.
Denne ‘ret til at blive glemt’ er især vigtig i tilfælde, hvor oplysningerne er unøjagtige eller vildledende, hvilket lader til at at være tilfældet med jævne mellemrum i forbindelse med ChatGPT.
Desuden kan de indsamlede data, ChatGPT blev fodret med, være proprietære eller ophavsretligt beskyttede.
Et eksempel: Da jeg benyttede chatbotten, producerede den de første par passager fra Joseph Hellers bog ‘Catch-22’ – som jo er en ophavsretligt beskyttet tekst.

Har ikke betalt for data
Desuden har OpenAI ikke betalt for de data, chatbotten hamstrede fra internettet.
De personer, webstedsejere og virksomheder, der producerede dem, er ikke blevet kompenseret.
Det er især bemærkelsesværdigt i betragtning af, at OpenAI for nylig blev værdisat til 29 milliarder dollars, mere end dobbelt så meget som virksomheden var værd i 2021.
OpenAI har også netop annonceret ChatGPT Plus, et betalingsabonnement, der vil give kunderne løbende adgang til værktøjet, hurtigere svartider og prioriteret adgang til nye funktioner.
Denne plan vil bidrage til en forventet omsætning på 1 milliard dollars i 2024.
Intet af det ville have været muligt uden data – vores data – indsamlet og brugt uden vores tilladelse.
Spinkel privatlivspolitik
En anden trussel mod privatlivet involverer data, der leveres til ChatGPT i form af brugerbeskeder.
Når vi beder værktøjet om at besvare spørgsmål eller udføre opgaver, kan vi uforvarende udlevere følsomme oplysninger og lægge dem i det offentlige domæne.
For eksempel kan en advokat bede værktøjet om at gennemgå et udkast til en skilsmisseaftale, eller en programmør kan bede det om at tjekke et stykke kode.
Aftalen og koden, udover de udsendte essays, er nu en del af ChatGPTs database. Det betyder, at de kan bruges til at videreuddanne værktøjet og indgå i svar på andres henvendelser.
Deler brugernes personoplysninger
Derudover indsamler OpenAI en bred vifte af andre brugeroplysninger.
I henhold til virksomhedens privatlivspolitik indsamler den brugernes IP-adresse, browsertype og indstillinger samt data om brugernes interaktion med webstedet – herunder typen af indhold, brugerne engagerer sig i, funktioner, de bruger, og handlinger, de foretager.
OpenAI indsamler også oplysninger om brugernes browsingaktiviteter over tid og på tværs af websteder.
Alarmerende nok oplyser OpenAI, at virksomheden kan dele brugeres personlige oplysninger med uspecificerede tredjeparter uden at informere dem, for at opfylde deres forretningsmål.
Tid til at tøjle AI?
En del eksperter mener, at ChatGPT er et vendepunkt for kunstig intelligens – en erkendelse af teknologisk udvikling, der kan revolutionere den måde, vi arbejder, lærer, skriver og endda tænker.
På trods af de potentielle fordele skal vi huske, at OpenAI er en privat, for-profit virksomhed, hvis kommercielle interesser ikke nødvendigvis stemmer overens med bredere samfundsmæssige behov.
De privatlivsrisici, der er knyttet til ChatGPT, bør få alarmklokkerne til at ringe.
Som forbrugere af et voksende antal AI-teknologier bør vi være ekstremt forsigtige med, hvilke informationer vi deler med disse værktøjer.
Denne artikel er oprindeligt publiceret hos The Conversation og er oversat af Stephanie Lammers-Clark.