AI vil sluge lige så meget strøm som hele Sverige. Nu har københavnske forskere en løsning
Fremtidens kunstige intelligens (AI) vil kræve store mængder energi. Det kalder på et mere klimavenligt alternativ, påpeger forskere i nyt studie.
Fremtidens kunstige intelligens (AI) vil kræve store mængder energi. Det kalder på et mere klimavenligt alternativ, påpeger forskere i nyt studie.

Når du søger efter en kageopskrift eller forslag til sommerferiedestinationer på ChatGPT, står et netværk af computere et sted på Jorden og tygger på enorme mængder data for at give dig svar.
Det kræver derfor store mængder elektricitet og udleder også CO2, når man laver en forespørgsel - også kaldet én prompt – på ChatGPT.
Faktisk anslås det i en videnskabelig kommentar, at det globale AI-elektricitetsforbrug i 2027 vil svare til det årlige strømforbrug i Argentina, Holland eller Sverige.
Altså er det en stor klimasynder. Men det har danske forskere en mulig løsning på.
I et nyt studie fra Københavns Universitet har tre forskere fundet en mulig nøgle til at lave effektive AI-modeller, som heller ikke sviner så meget på energifronten.
Men hvorfor er prompts – eller forespørgsler – på ChatGPT overhovedet så klimabelastende?
I en konstruktiv serie ser Videnskab.dk nærmere på, hvordan mennesket kan redde verden.
Vi tager fat på en lang række emner – fra atomkraft og indsatser for at redde dyrene til, om det giver bedst mening bare at spise mindre kød.
Hvad siger videnskaben? Hvad kan man selv gøre hjemme fra sofaen for at gøre en forskel?
Du kan få mange gode tips og råd i vores Red Verden-nyhedsbrev og i vores Facebook-gruppe, hvor du også kan være med i overvejelser om artikler eller debattere måder at redde verden på.
Når vi bruger ChatGPT, kræver det energi. Men det er især ved træningen af AI-modeller, at det kommer til udtryk.
Der er to årsager til, at AI-modeller vejer tungt på klimavægten, lyder det fra Raghavendra Selvan, der har beregnet et estimat for ChatGPT’s energiforbrug. Han er adjunkt ved Datalogisk Institut på Københavns Universitet og medforfatter til det nye studie.
Årsagerne er som følger:
I løbet af de seneste ti år er AI-modellerne blevet større og mere kraftfulde, og de har dermed fået flere parametre, det vil sige de variabler, modellen bliver trænet i, når de skal lave forudsigelser eller tage beslutninger, forklarer Raghavendra Selvan.
Det vides imidlertid ikke, præcis hvilke parametre de bruger, hvorfor AI-modeller også kaldes for 'black box'-modeller.
I stedet for at arbejde med et par hundrede parametre bliver modellerne nu trænede med over hundrede milliarder parametre.
»Det er ikke muligt at få plads til alle de parametre på én GPU-computer (en computer med en specialiseret computerchip, der ofte bruges til AI, red.). Derfor bryder man opgaven op og fordeler den over flere computere, der for eksempel står på et datacenter,« forklarer forskeren.
For eksempel er Metas seneste store sprogmodel trænet på to såkaldt klyngecomputere med 24.000 GPU-computere hver.
Når man træner modellerne på en hær af flere hundrede forbundne computere frem for en enkelt computer, vil der være et højere energiforbrug og større CO2-aftryk.
Det kræver nemlig meget strøm at holde computerne i gang og — ikke mindst — at køle dem ned.
Den anden årsag er den data, som modellerne bliver fodret med:
I dag trænes store sprogmodeller såsom ChatGPT på meget store datasæt, som modellen skal arbejde med over længere perioder.
»De bliver stort set trænet i tekster fra hele internettet. Så det bliver ret krævende i forhold til antallet af computere, brugen og omfanget af hardware og den mængde tid, som der skal bruges til at træne modeller,« siger Raghavendra Selvan.
Virksomheden OpenAI, der ejer ChatGPT, offentliggør ikke information om sprogmodellen bag, GPT3, og dermed er der ikke officielle tal på dens energiforbrug.
Derfor findes der kun skøn for, hvor meget strøm der forbruges, når en tjeneste som ChatGPT besvarer en forespørgsel fra en bruger.
Raghavendra Selvan har selv udregnet, at én prompt i gennemsnittet forbruger 0,19 kWh, hvilket svarer til, at man oplader sin telefon op til 40 gange.
Det har han gjort ved at bruge en sprogmodel, der minder om ChatGPT’s, men er 30 gange mindre. Den har han trænet på en enkelt GPU-maskine.
Derefter har han målt energiforbruget og CO2-udledningen ved hjælp af værktøjet carbontracker, som han har været med til at udvikle.
Det gør, at han har kunnet beregne energiforbruget for den lille model og skalere det op til ChatGPT — derfor er det også et groft skøn.
Et andet studie viser, at hvis man bruger AI til at generere ét billede, kræver det lige så meget energi som én fuld telefonopladning.
Der er flere eksempler på brugen af AI-modeller i vores hverdag, for eksempel når vi med vores smartphone bruger kameraet til at skanne QR-koder, eller når kameraet kan genkende objekter.
Men det er den generative AI, for eksempel ChatGPT, som er »ekstremt energi-intensiv«, forklarer Raghavendra Selvan.
Sammenlignet med en Google-søgning bruger en prompt på ChatGPT 15 gange så meget energi.
Generative AI-modeller er en type model indenfor kunstig intelligens, der kan generere nyt indhold baseret på hvad den bliver fodret.
Det kan både være tekst, som eksempelvis ChatGPT, eller billeder, som eksempelvis DALL-E.
Kilde: Medium
Når der dagligt sendes hundrede af millioner af forespørgsler afsted til chatbotten, svarer det — ifølge én lektor i datalogi ved University of Washington — til det daglige energiforbrug for cirka 33.000 husstande i USA.
Samtidig kræver det vand at køle datacentrene ned. I et såkaldt preprint-studie estimeres det, at ChatGPT bruger en halv liter vand, hver gang man sender en serie af 10-50 prompts af sted.
Et preprint er et manuskript, som ikke er blevet peer reviewed (fagfællebedømt), der uploades på en åben webplatform.
På den måde bliver resultaterne hurtigt tilgængelige for offentligheden, forskerne får et større ejerskab over teorien, og de kan få feedback fra kolleger.
Det betyder også, at studiet ikke er blevet læst kritisk af andre forskere, og studiet skal derfor læses med forbehold – læs mere om peer review i denne artikel.
Preprints er til for, at gøre resultater hurtige tilgængelige for offentligheden og fagfæller. Og for at forskere kan give hinanden feedback på studier, inden de sender dem ind til videnskabelige tidsskrifter i håb om at få dem publiceret.
Ulempen er, at de upublicerede studier ligger frit tilgængeligt og kan blive misbrugt eller misforstået af folk, som ikke ved, at forskningsresultater helst skal igennem en peer review-proces, før man kan tage dem for gode varer.
Brugen af generativ AI har altså unægteligt et stort klimaaftryk.
Derfor bliver man nødt til at lave et »trade-off«, mener Raghavendra Selvan. Selvom generativ AI kan være brugbart i flere sammenhænge, bør man beregne, hvor meget energi der bør gå til generativ AI.
»Vi er stadig i en klimakrise, og vi bliver nødt til at se på, hvor vi kan lede vores ressourcer hen,« siger Raghavendra Selvan:
»Konsekvensen er, at vi bruger energi, som kan bruges til andre vigtige ting.«
Her er dens svar:
»Hvis vi antager, at serveren kører døgnet rundt (24 timer om dagen) og genererer prompter kontinuerligt, kan vi beregne det omtrentlige energiforbrug per prompt:
Dette giver os et omtrentligt energiforbrug per prompt på omkring 0,171 kWh.
Det er vigtigt at bemærke, at dette er et meget groft skøn, og det faktiske energiforbrug kan variere betydeligt afhængigt af mange faktorer, herunder hardwarekonfiguration, optimering af software og kørselsmønstre.«
ChatGPT's egen beregning svarer altså til 15 gange mere energi end en Google-søgning.
Men i kontrast til det opsigtsvækkende energiforbrug giver det nye studie håb.
For i det fagfællebedømte studie, der er blevet præsenteret på en videnskabelig konference, har Raghavendra Selvan og to andre forskere undersøgt mulighederne for mere klimabevidst AI ved at se på såkaldte ‘Convolutional Neural Networks’ (CNN).
Det er den slags AI-modeller, som bruges til at genkende objekter, når vi tager billeder på vores telefoner. De bruges for eksempel også af radiologer til at analysere medicinske billeder.
Convolutional Neural Networks (CNN):
Large Language Models (LLM):
I studiet har forskerne ved hjælp af en anden AI-model estimeret energiforbruget ved træningen af 423.000 AI-modeller og fundet mere energieffektive modeller.
Og resultaterne er interessante, mener Luís Cruz-Filipe, der ikke har været involveret i forskningen, men har set studiet igennem for Videnskab.dk.
Han er lektor ved Institut for Matematik og Datalogi på Syddansk Universitet, hvor han forsker i kunstig intelligens.
»De advokerer for, at der skal være en balance mellem, hvor godt modellerne klarer sig, og hvor meget energi de får brug for. Det, synes jeg, er meget rimeligt,« siger Luís Cruz-Filipe.
Forskerne viser en måde, hvorpå man kan spare meget energi, uden at der er et betydningsfuldt fald i kvaliteten af resultaterne. Det er både positivt og »lovende«, mener Luís Cruz-Filipe.
Ud fra deres beregninger viser det sig, at der er en række modeller, som klarer sig stort set lige så godt på ydeevnen som andre energitunge modeller, men som bruger mindre energi.
Derfor kan beregningerne bruges til at sammensætte en model, som vil være mere energieffektiv fra starten af, så man mindsker energiforbruget og CO2-aftrykket, når AI-modellen skal designes og trænes.

I både industrien og forskningen har der generelt været et større fokus på at optimere modellerne uden at have øje for energiforbruget, forklarer Raghavendra Selvan.
Dertil træner man mange modeller, før man finder den rigtige til at løse en given opgave, hvilket kræver meget energi og tager lang tid.
Raghavendra Selvan håber på, at folk, der arbejder med AI, kan bruge studiets data som en slags guide, hvor de kan slå de forskellige modeller og deres energieffektivitet op.
Ergo kan AI-fagfolk begynde at designe energieffektive AI-modeller, hvor de ikke behøver at gå på kompromis med modellens ydeevne.
»Der er en masse ressourcer, vi spilder. Hvis vi begynder at være opmærksomme på ressourceforbruget, så kan vi få både velfungerende og gode modeller, som allerede fra begyndelsen giver en energireduktion,« siger forskeren.
Selvom intentionen er god, kan det være farligt at drage for mange konklusioner ud fra studiet, pointerer Luís Cruz-Filipe:
»De lovende resultater betyder, at vi i hvert fald skal undersøge det her som en mulighed. Men min fornemmelse er, at det er et lidt begrænset studie. De fokuserer på ét specifikt område inden for kunstig intelligens.«
Til gengæld har studiet potentialet til at blive et vendepunkt, hvis andre formår at bygge videre på forskernes resultater, mener Luís Cruz-Filipe. Det kunne for eksempel være at undersøge muligheden for at mindske ChatGPT’s energiforbrug.
Raghavendra Selvan peger også selv på nogle svagheder ved deres forskning.
Det nye studie har kun testet en række såkaldte CNN-modeller (se faktaboksen tidligere i artiklen) og altså ikke de store sprogmodeller (LLM), som er den, der er bag ChatGPT. For det vil kræve et »overdrevent« energiforbrug, siger han.
Samtidig er det ikke altid, at man kan gå på kompromis med ydeevnen. Hvis man kører i en selvkørende bil med kamera, er det eksempelvis vigtigt, at ydeevnen er så god som mulig, for at der ikke sker uheld.
»Men i nogle tilfælde har vi også set energieffektive modeller, som ikke har en værre ydeevne,« lyder det fra Raghavendra Selvan.
Så kan industrien allerede nu begynde at implementere mere energieffektive modeller?
Der er nok lidt vej endnu, lyder det fra Raghavendra Selvan:
»Når man begynder at sætte tal og data på problemet, vil resten af samfundet forhåbentlig også begynde at overveje modellernes energiforbrug og ikke bare ydeevnen,« anfører KU-forskeren.
Luís Cruz-Filipe fra Syddansk Universitet mener, at der er begyndt at være mere bevågenhed omkring AI’s energiforbrug.
»Jeg tror, der vil være flere, der begynder at komme med mere effektive løsninger,« siger han.
Det er da også en problematik, som ikke går helt ubemærket hen hos AI-selskaberne selv:
I januar udtalte Sam Altman, der er direktør for virksomheden bag ChatGPT, OpenAI, at der er behov for nye energikilder, der kan forsyne fremtidens kunstig intelligens.