Af alle de reaktioner, som chatbotten ChatGPT har fremkaldt, kan kun få måle sig med undervisere og forskeres reaktion.
ChatGPT er en form for kunstig intelligens (AI), der producerer grammatisk korrekte svar på forespørgsler, udviklet af den amerikanske for-profit-virksomhed OpenAI.
Videnskabelige forlæggere, som har taget skridt mod at forbyde ChatGPT fra at blive anført som medforfatter, vil udstede strenge retningslinjer, der beskriver de betingelser, hvorunder chatbotten må bruges.
Førende universiteter og skoler rundt om i verden, fra Frankrigs berømte ‘Sciences Po‘ til mange australske universiteter, har helt forbudt brugen af ChatGPT.
Forbuddet er ikke blot indført, fordi forskerne er bekymrede for, at de ikke vil være i stand til at opdage snyd – det handler om mere end at fange studerende, der har kopieret en kilde uden kildeangivelse.
Tiltagene afspejler snarere et spørgsmål, som ikke får nok opmærksomhed i den endeløse dækning af OpenAI’s ChatGPT-chatbot:
Kan vi overhovedet stole på det, chatbotten producerer?
Hvorfor skal vi stole på det, chatbotten producerer?
Dette er et meget vigtigt spørgsmål, fordi ChatGPT og lignende programmer er nemme at gå til – både med og uden kreditering – i de informationskilder, der udgør grundlaget for vores samfund, især den akademiske verden og nyhedsmedierne.
Ud fra på mit arbejde med vidensstyringens politiske økonomi er akademiske forbud mod brug af ChatGPT en proportional reaktion på den trussel, ChatGPT udgør for hele vores informationsøkosystem-
Journalister og forskere bør være varsomme med at bruge ChatGPT, for baseret på outputtet kan ChatGPT forekomme som endnu informationskilde eller endnu et redskab.
Men i virkeligheden er ChatGPT – eller rettere den måde, hvormed ChatGPT producerer sit output – et sværd rettet direkte mod selve deres troværdighed som autoritative kilder til viden. Det må vi ikke tage for let på.

Tillid og information
Vi ser visse informationskilder eller typer viden som mere pålidelige til end andre. Siden oplysningstiden i Europa har vi haft en tendens til at sætte lighedstegn mellem videnskabelig viden og viden generelt.
Videnskab er imidlertid mere end laboratorieforskning: Det er en måde at tænke på, der prioriterer empirisk baseret evidens og stræben efter gennemsigtige metoder til indsamling og evaluering af evidens.
Det plejer at være guldstandarden, som al viden bedømmes efter.
For eksempel har journalister troværdighed, fordi de efterforsker oplysninger, citerer kilder og fremlægger evidens. Selvom rapporteringen til tider indeholder fejl eller udeladelser, ændrer det ikke professionens autoritet.
Det samme gælder for forfatterne af ledende artikler, især akademikere og andre eksperter, fordi de – vi – henter vores autoritet fra vores status som eksperter i et emne.
Ekspertise indebærer mestring af de kilder, der er anset for at indeholde legitim viden på vores områder.
De fleste ledende artikler er ikke citat-tunge, men ansvarlige akademikere vil være i stand til at henvise dig til filosofferne og forfatterne bag og det arbejde, de trækker på – og disse kilder er i sig selv bygget på verificerbare kilder, som en læser selv burde kunne verificere.
Sandhed og output
Fordi menneskelige forfattere og ChatGPT lader til at producere det samme output – sætninger og afsnit – er det forståeligt, at en del mennesker fejlagtigt tildeler ChatGPT’s output tilsvarende videnskabelig autoritet.
Både ChatGPT og journalister producerer sætninger, men her ender ligheden også.
Det vigtigste – kilden til autoritet – er ikke, hvad de producerer, men hvordan de producerer det.
ChatGPT producerer nemlig ikke sætninger på samme måde, som en journalist gør.
ChatGPT og andre store maskinlærings-sprogmodeller kan virke sofistikerede, men de er dybest set bare komplekse udgaver af auto-complete-funktionen på en SmartPhone:
I stedet for at foreslå det næste ord i en e-mail eller besked, producerer den de mest statistisk sandsynlige ord i meget længere tekster.
Programmerne omdanner andres arbejde, som om det var noget nyt: Chatbotten ‘forstår’ ikke, hvad den producerer.
Belægget for disse output kan aldrig være sandhed. Dens sandhed er sandheden om korrelationen, at ordet ‘sætninger’ altid skal fuldende sætningen: »Vi afslutter hinandens …«, fordi det er den mest almindelige, ikke fordi det udtrykker noget, der er blevet observeret.
Uansvarlig praksis
Fordi ChatGPT’s sandhed kun er en statistisk sandhed, kan vi aldrig stole på output produceret af dette program på samme måde, som vi kan stole på en journalists eller en forskers output.
Det kan ikke verificeres, fordi det er blevet konstrueret for at skabe output på en anden måde end dét, vi normalt betragter som værende ‘videnskabeligt’.
Vi kan ikke tjekke ChatGPT’s kilder, fordi kilden er det statistiske faktum, at visse ord har en tendens til at optræde sammen eller følge efter hinanden.
Uanset hvor sammenhængende ChatGPT’s output kan forekomme, svarer publikationen af chatbottens arbejde til at lade auto-complete løbe løbsk.
Det er uansvarlig praksis, fordi det foregiver, at disse statistiske tricks svarer til verificeret viden, der er indsamlet på behørig vis.
På samme måde løber akademikere og andre, der inkorporerer ChatGPT i deres arbejdsgang, en eksistentielle risiko ved at trække hele opbygningen af videnskabelig viden ud fra under deres fødder:
Hvordan ved forfatterne, at ChatGPT’s output er korrekt, når det er korrelationsbaseret?
Verificerede de det mod faktiske kilder, eller stemmer outputtet simpelthen overens med deres personlige forudindtagede holdninger?
Og hvis de er eksperter inden for deres felt, hvorfor bruger de så overhovedet ChatGPT?
Videnproduktion og verifikation
Pointen er, at ChatGPT’s processer ikke giver os mulighed for at bekræfte den AI-drevne chatbots sandfærdighed.
Journalister og akademikere har derimod en videnskabelig, evidensbaseret metode til at indhente viden for at validere deres arbejde, selvom resultaterne måske går imod vores eksisterende holdninger.
Problemet er især akut for forskere i betragtning af vores centrale rolle i at skabe viden.
Når de sætter deres lid til, at ChatGPT kan skrive blot en del af en ledende artikel, betyder det, at de ikke længere er afhængige af den videnskabelige autoritet, der er indlejret i verificerede kilder.
I stedet fremsætter de effektivt et argument med afsæt i autoritet ved at ty til statistisk genereret tekst. Det vildleder også læseren, fordi læseren ikke kan skelne mellem tekst af en forfatter og en AI-drevet chatbot.
ChatGPT kan som ved et trylleslag producere tilsyneladende læselig viden, men det er ikke tilrådeligt at forveksle chatbottens output med reel, videnskabelig viden.
Vi bør aldrig forveksle logisk sammenhæng med forståelse. ChatGPT lover nem adgang til ny og eksisterende viden, men det er at klamre sig til halmstrå.
Læsere, forskere og journalister bør tage sig i agt.
Denne artikel er oprindeligt publiceret hos The Conversation og er oversat af Stephanie Lammers-Clark.