Polerne smelter, og havene stiger, hvilket fører til oversvømmelse af store kystområder. Og inde i landet skal vi slås med flere storme, ulidelige hedebølger og tørkeperioder.
Konsekvenserne af den globale opvarmning er uoverskuelige – i hvert fald hvis man skal tro avancerede computersimuleringer af, hvordan det globale klima vil udvikle sig i fremtiden.
Klimasimuleringer baseret på computermodeller er det bankende hjerte i den moderne klimaforskning, og nyere sociologiske studier viser, at forskerne generelt stoler på, at modellernes udsagn er rigtige.
Men spørgsmålet er, i hvor høj grad computermodellerne rent faktisk beskriver virkeligheden, som den er. For når det kommer til stykket, er det faktisk rigtigt svært at vurdere modellernes troværdighed, siger historiker og matematiker Matthias Heymann fra Institut for Videnskabsstudier på Aarhus Universitet.
De seneste år har han fordybet sig i klimatologiens historie, og han har især brugt krudtet på at undersøge, hvordan de computerbaserede klimamodeller helt konkret bliver opbygget og brugt.
»Computersimulation er et nyere værktøj inden for klimaforskningen, som giver en enestående mulighed for at udforske forskellige processers indflydelse på klimaet på lang sigt,« siger han og påpeger, at modellerne selvfølgelig også er kommet til at spille en stor rolle inden for mange andre videnskabelige grene.
»Men der er også mange problemer forbundet med at bruge disse værktøjer. Det er bl.a. svært at finde ud af, hvad simuleringernes resultater betyder, og hvor sikre de er,« siger han.
Computermodeller ser ud i fremtiden
Udviklingen af de computerbaserede klimamodeller begyndte for alvor efter Anden Verdenskrig, hvor især meteorologerne fik øjnene op for simuleringernes styrker.
\ Fakta
I slutningen af 1950’erne lykkedes det at lave virkelighedstro simuleringer af karakteristiske vejrfænomener, som f.eks. cykloner.
Allerede få år efter kunne de computerbaserede vejrudsigter præsentere mere sikre vejrudsigter end de traditionelle beregningsmetoder, og det fik andre slags klimaforskere til også at tage værktøjet til sig og bruge det til at simulere klimaet lokalt såvel som globalt.
Med tiden er det blevet klart, at simuleringerne giver klimaforskere en helt ny mulighed for at gennemføre eksperimenter med atmosfæren, som ikke kan lade sig gøre i virkeligheden.
Forskerne kan blandt andet undersøge, hvordan klimaet reagerer, hvis man fordobler eller halverer kuldioxidkoncentrationen i atmosfæren, hvis man helt fjerner den tropiske regnskov, eller hvis man fylder atmosfæren med ‘kunstige’ skyer, der køler atmosfæren ned.
De mange anvendelser har gjort, at klimaforskningen i dag er dybt afhængig af computersimuleringerne. De gør det muligt at kaste lys over, hvilke processer der reelt påvirker klimaet, fortæller han.
En forsimpling af virkeligheden
Med tiden er det imidlertid blevet klart, at brugen af computerbaserede klimamodeller også har en bagside, nemlig at de aldrig vil kunne simulere klimaet præcist. Uanset hvad man gør, vil computermodellerne altid være en tilnærmelse til virkeligheden, og det skyldes ifølge Matthias Heymann tre ting: begrænset viden, begrænset computerkapacitet og utilstrækkelige matematiske teknikker.
Klimaet påvirkes af så mange fysiske, biologiske, astronomiske og kemiske mekanismer, at selv ikke de største supercomputere er i stand til at forholde sig til det hele på én gang.
Computeren har simpelthen ikke nok regnekraft til at kunne jonglere med de enorme mængder af ligninger og data. Dertil kommer, at man endnu ikke til bunds har forstået en del af klimamekanismerne, og at der til med løbende opdages nye processer, der ser ud til at have en direkte eller en inddirekte indflydelse.

Rent matematisk kan det heller ikke lade sig gøre at beskrive de klimatiske processer ned til mindste detalje. Man er nødt til at tilnærme det med såkaldte numeriske løsninger, som ud over ikke at kunne beskrive fænomenerne præcist også har en tendens til at give ustabile simuleringsforløb.
Omfattende modeltests er nødvendige
Behovet for at forenkle computermodellerne tvinger klimaforskere til at lave nogle benhårde prioriteringer. De bliver nødt til at vælge, hvilke mekanismer modellen helt sikkert skal tage med, og hvilke den kan tillade sig at skøjte let hen over eller helt ignorere. Men præcis, hvordan der skal prioriteres, er noget, som forskerne ikke er enige om, og det smitter af på klimamodellerne.
»Der findes ingen klare svar på, hvilke processer der skal inddrages i modellen. I den forstand er modellerne plastiske og fleksible. Det er op til hver enkelt modelbygger at forme og designe modellen, som de mener, er rigtigst,« fortæller Matthias Heymann.
Den store frihed i designerprocessen betyder, at der ikke findes én men mange forskellige klimamodeller, som beskriver et bestemt fænomen på hver deres måde. Det store spørgsmål er så, hvilken model der beskriver tingene bedst og for at afgøre det, gennemfører man typisk forskellige tests.
Den mest optimale testmetode består i at lade computermodellerne beregne, hvordan fx hav- og lufttemperaturer har udviklet sig igennem tiderne. Disse værdier kan man så sammenligne med direkte målinger. Er der en god overensstemmelse mellem de beregnede og de målte værdier, øger det forskernes tillid til computermodellen. Er der dårlig overensstemmelse, må man enten droppe eller tilpasse modellen, så man får et bedre match.
Men den fremgangsmåde har nogle faldgruber, advarer Matthias Heymann.
»Hvis de observerede data ligger tæt op ad modellens resultater, kan man fristes til at tro, at modellen virkelig repræsenterer verden. Men i princippet kan der være andre modeller, som har en lige så god overensstemmelse, og så er det svært at vide, hvilken af dem der simulerer virkeligheden bedst,« siger han.
Modellerne er ikke uafhængige
Det største problem ved denne måde at teste på er, at man typisk har få data at arbejde med. Det gælder eksempelvis i de tilfælde, hvor man vil bruge computermodeller til at forudsige, hvordan klimaet udvikler sig i fremtiden. Her kan det ikke lade sig gøre at teste forudsigelserne med direkte målinger, da man ikke bare kan hoppe fra nutiden og ind i fremtiden.
\ Fakta
Matthias Heymann har skrevet flere kapitler i undervisningsbogen Jorden brænder, der netop handler om klimaforskningen og den politiske debat inden for området.
I stedet gennemfører man såkaldte ensemble-simuleringer, hvor man lader flere meget forskellige modeller simulere fremtidens klima samtidigt. Opnår de ellers dybt forskellige computermodeller den samme konklusion, får forskerne mere tillid til resultatet.
Men heller ikke ensemble-simuleringerne er uproblematiske, påpeger Matthias Heymann. Ensemble-simuleringer giver nemlig kun mening, hvis de testede modeller virkelig er grundlæggende forskellige, og det er langt fra altid tilfældet.
Årsagen er, at man i dag ikke konstruerer computerbaserede klimamodeller helt fra bunden, men typisk opbygger dem af mindre afgrænsede moduler.
Da de små moduler beskriver hver sin egen lille del af klimaet, er de betydeligt lettere at overskue og teste for fejl og mangler.
I mange tilfalde kommer de samme moduler til at gå igen i forskellige computermodeller. Så selv om computermodellerne måske umiddelbart ser ud til at beskrive klimaet på hver deres måde, så ligner de hinanden mere end som så.
»Problemet er, at det er uhyre svært at bedømme, hvorvidt ensemble-simuleringer virkelig kan formindske usikkerhederne,« forklarer Matthias Heymann.
Usikkerheden er både usynlig og ukendt
I et forsøg på at gøre modellerne gradvist bedre vælger mange modelbyggerne hele tiden at øge deres detaljeringsgrad ved at tage flere og flere aspekter af klimaet med. Målet er at gøre modellerne så virkelighedstro som muligt, så man kan stole mere på deres simuleringer.
Men faktisk kan man godt risikere at opnå den stik modsatte effekt, fordi taktikken kunne øge resultaternes usikkerhed.
Klimaforskere taler raskt væk om skyer, stråling og cykloner, selv om det, de egentlig har studeret, er computermodelskyer, computermodelstråling og computermodelcykloner.
Matthias Heymann
Normalt gør naturvidenskabsfolk en dyd ud af at angive, hvor stor usikkerhed der er på deres målinger, altså hvor langt væk fra målingen den rigtige værdi kan ligge. Størrelsen af usikkerhedsintervallet afhænger i høj grad af forskerens målemetode og udstyr.
Computermodellerne er imidlertid så avancerede, at man ikke har en jordisk chance for at vurdere, hvor stor usikkerhed der er på hvert modul. Det hele kompliceres af, at man ikke kan vide, om de forskellige moduler forstærker hinanden – og i givet fald hvor store usikkerhederne så er.
Øger man antallet af moduler, så kan det være at den samlede usikkerhed på det endelige resultat bliver større og større. Men den forstærkning kan ikke ses på det endelige resultat, da computersimuleringerne altid producerer eksakte tal. Usikkerheden er altså kort sagt usynlig.
»Man kan simpelthen ikke sige, hvor stor computermodellernes usikkerheder er, altså om der er en sandsynlighed på fx 30 procent eller 90 procent for, at resultaterne rent faktisk er gode,« fortæller Matthias Heymann.
I et forsøg på at begrænse usikkerheden så meget som muligt, laver man såkaldte sensitivitetsanalyser, der løfter sløret for, hvor følsom en klimamodel er i forhold til en bestemt parameter.
Ved at skrue op og ned for kun én klimaparameter som fx atmosfærens CO2-koncentration, kan man se, hvor meget det påvirker simuleringsresultatet. Er der en stor effekt, er det et tegn på, at parameteren skal tages med i modellen. Er simuleringen derimod upåvirket, gør det ikke det store, at man udelader parameteren fra sin model. På den måde kan modelbyggeren holde modellernes kompleksitet og usikkerhed nede.
En ny slags videnskab
Selv om der altså er mange farer ved at bruge computerbaserede klimamodeller, har man efterhånden fået forskellige værktøjer til at teste, om klimamodellerne er gode eller ej. Og da forskerne generelt er meget bevidste om usikkerhederne, får testningen af modellerne lov til at fylde rigtigt meget.
Den omfattende testning foregår på store forskningscentre, der har specialiseret sig i at afprøve og forbedre modellerne.
Selv om der er stor enighed om, at vi har en menneskeskabt global opvarmning, så er det, som videnskaben siger, aldrig 100 procent sikkert.
Matthias Heymann
Det er formentlig årsagen til, at klimaforskere ifølge flere sociologiske studier generelt føler sig trygge ved at bruge klimamodeller i deres forskning, fortæller Matthias Heymann.
Forskerne mener, at simuleringerne har forbedret den forskningsbaserede viden om klimaet markant, og det har ført til, at computersimulering i dag er accepteret som en forskningsmetode på linje med teoretisk og eksperimentel forskning.
»Computersimuleringerne er en anden slags videnskab end f.eks. eksperimentel fysik. Men det er ikke dårlig videnskab. Det vigtige er, at man er forsigtig, når man bruger klimamodellerne, og det er også noget, som forskere inden for klimaområdet generelt tager alvorligt og er opmærksomme på,« siger han.
Alle modeller peger på global opvarmning
Gennem det seneste årti er der gennemført i tusindvis af computersimuleringer, der skal kaste lys over, hvordan fremtidens klima bliver, og langt de fleste klimamodeller konkluderer, at atmosfæren og verdenshavene bliver varmere, og at denne globale opvarmning hovedsageligt er menneskeskabt.
Hvor meget temperaturerne helt konkret vil komme til at stige det kommende århundrede, er noget, som forskerne stadig diskuterer. Men det er kun fåtallet af forskere, der efterhånden sætter spørgsmålstegn ved, at der vil ske en temperaturstigning i fremtiden.
Alligevel advarer Matthias Heymann imod at opfatte den som et endegyldigt facit med to fede streger under:
»Selv om der er stor enighed om, at vi har en menneskeskabt global opvarmning, så er det, som videnskaben siger, aldrig 100 procent sikkert. Det er baseret på forventninger, en slags ‘state of knowledge’. Om 20 år kan det være, at man har fundet ud af, at der er andre faktorer, der spiller en lige så stor eller endnu større rolle for klimaet end CO2. Sådanne skift i den gængse opfattelse er altid mulige,« slutter han.
\ Klimamodeller kan ikke takle skyer
Et af de steder, hvor computerbaserede klimamodeller bliver nødt til at gå på kompromis med detaljerne, er i deres beskrivelse af skyer. Skydækket har ellers stor betydning for klimaet, fordi det virker afkølende på atmosfæren.
Forklaringen på, at modellerne har svært ved at håndtere skyerne er, at de for at simplificere og reducere beregningstiden beskriver atmosfæren som et gitter bestående af små felter. Uanset hvor fintmasket gitteret er, vil det altid have en begrænset rummelig opløsning, dvs. at der vil være klimatiske fænomener, som falder igennem maskerne.
Et af disse fænomener er netop skyerne, som normalt er meget mindre end et typisk gitterelement. Dette prøver forskerne at takle det ved at lave såkaldte parametriseringer, hvor man forsøger at beskrive fænomenerne generelt i stedet for specifikt. Men den fremgangsmåde føjer en del usikkerhed til modellerne hvilket er en konstant kilde til debat.