Grundforskningen er i store problemer. Der er for meget fokus på at udgive mange videnskabelige artikler og for lidt skelen til kvalitet og indhold. Det mener flere forskere, Videnskab.dk har talt med.
\ Er grundforskningen syg?
Hver dag forsøger grundforskerne at skabe robust og grundlagsskabende viden, som al anden forskning – eksempelvis den anvendte forskning – skal bygge videre på.
Men flere forskere mener, at grundforskningen er i krise. Ræset om at udgive videnskabelige publikationer har taget overhånd, og kvaliteten daler derefter, mener de.
Videnskab.dk sætter i en artikelrække fokus på problemstillingens symptomer, konsekvenser og, ikke mindst, løsninger.
Læs for eksempel artiklen ‘Grundforskningskrise: Resultater kan ikke genskabes‘.
»Der er en meget stor krise i grundforskningen i øjeblikket. Det bliver uden tvivl et af de allerstørste emner, vi kommer til at diskutere de næste 10 år i det internationale forskningssamfund,« lyder det fra lektor David Budtz Pedersen, som arbejder på Institut for Kommunikation, Aalborg Universitet.
\ Læs mere
Forskere bliver målt og vejet
Videnskab.dk har snakket med en række forskere, som alle er enige i, at presset for at udgive videnskabelige artikler er blevet for voldsomt. Ifølge de danske forskere skyldes publikationspresset især, at videnskabelige artikler er omdrejningspunktet for et succesfuldt forskerliv.
Som forsker bliver du hele tiden målt og vejet på:
- Hvor mange videnskabelige artikler du skriver og får publiceret
- Hvor du får publiceret dine artikler
- Hvor mange andre forskere, der citerer din forskning i deres artikler
- Hvor mange penge, du kan få tildelt af fonde uden for universitet (hvilket igen hviler på, hvor mange publikationer, du kan skrive i din fondsansøgning)Den bibliometriske forskningsindikator (BFI)Formålet med BFI (Den bibliometriske forskningsindikator) er at opgøre universiteternes forskningsaktivitet ud fra antallet af publikationer og på den baggrund omfordele basismidler til universiteterne. (Du kan læse mere om fordelingen i boksen under artiklen.)BFI belønner de forskningsenheder, der publicerer i de mest anerkendte kanaler – altså tidsskrifter – inden for deres fag. Fordi universiteterne bliver målt på antallet af publikationer, bliver den enkelte forsker det også.BFI stammer fra et norsk system, der sidenhen er indført i Danmark og Holland. De fleste lande har et tilsvarende system, hvor publicering indgår som måleenhed.Desuden kan hver forsker måles på et såkaldt H-indeks, der kombinerer, hvor meget man har produceret, og hvor ofte man er citeret.Læs mere om BFI her.
\ Læs mere
For stort fokus på historiefortælling
Det går ud over forskningskvaliteten, mener blandt andre lektor Torben Lund fra Institut for Klinisk Medicin – Center for Funktionelt Integrativ Neurovidenskab, Aarhus Universitet.
»Der er en risiko for, at en del af grundforskningen i dag består af tomme kalorier. Der er for stort et fokus på at fortælle overraskende historier om spektakulære fund i stedet for at fokusere på at beskrive forsøg og dataanalyser i et sådant omfang, så de kan efterprøves af andre,« siger han.
Forskningsverdenens gangbare mønt er således gået hen og blevet videnskabelige artikler og citationer – målt ved BFI-indikatoren – og det har ganske uheldige konsekvenser, mener Torben Lund.
»Hele citationsøkonomien minder om finansboblen – forskningen pumpes op med fantastiske resultater, der ikke kan genskabes. Hvis denne inflation fortsætter, kan det føre til, at samfundet i sidste ende ikke kan bruge forskningen til noget,« siger Torben Lund. Grundforskningen, og forskningsverdenen generelt, kan derfor ende med at blive voldsomt devalueret, mener han.
\ Læs mere

Institutleder: »BFI er ikke perfekt«
Selvom der bestemt er problemer med BFI-metoden, er det lige nu den eneste effektive måde at evaluere forskningen på, mener Marianne Rostgaard. Hun er institutleder for Institut for Kultur og Globale Studier på Aalborg Universitet og beskæftiger sig blandt andet med at optimere instituttets BFI-point.
»BFI er på ingen måde perfekt, men ingen har endnu kunnet finde på noget bedre. Det er derfor op til os på institutterne at håndtere det så fornuftigt som muligt, så forskerne kan leve med det, og vi samtidig får en rimelig afspejling af, hvad der foregår på universiteterne,« siger hun.
Forvaltningen af den opgave er dog løbende oppe til diskussion på instituttet, fortæller hun. Det er nemlig en kontinuerlig afvejning af fordele og ulemper:
\ Hvad skal vi med grundforskning?
Videnskab.dk sætter fokus på grundforskning.
Vi tager dig med helt ind i maskinrummet af grundforskningen og finder ud af:
- hvad skattekronerne går til,
- hvilke projekter der bliver lavet,
- hvem der står bag og
- hvad vi historisk set har fået ud af grundforskning.
»På den ene side er det klart, at der påhviler forskerne en pligt til at publicere, for ellers gør deres forskning jo ingen nytte. Men man må samtidig være varsom med bare at tænke publiceringer som BFI-point. Man skal jo have noget at sige og ikke bare publicere for at skrabe point sammen.«
\ Læs mere
»Svært at modstå fristelsen«
Kampen om at komme på tidsskrifternes forside – i nogle kredse refereret til som ‘det akademiske rotteræs’ – kan blandt andet føre til, at forskerne bliver fristet til at fifle med deres forskning, fortæller filosof Claus Strue Frederiksen. Han er ekstern lektor ved Institut for Medier, Erkendelse og Formidling på Københavns Universitet.
I en omfattende undersøgelse om forskningsintegritet i økonomiforskning, publiceret i tidsskriftet ’Research Policy’ i 2014, svarede 94 procent af respondenterne, at de mindst én gang havde udøvet ‘Questionable research practice’ (QRP).
»Andre studier indikerer, at QRP ikke er et særskilt problem for økonomiforskning. Det handler måske ikke så meget om decideret fusk – men om, at lysten til at snyde bliver større,« siger Claus Strue.
\ QRP dækker bl.a. over
- Strategisk citering, hvor forskeren citerer det tidsskrift, han søger at publicere i.
- Selektiv brug af data og/eller analyser, hvor forskeren for eksempel udfører en række statistiske analyser, men kun bruger dem, der passer til den oprindelige hypotese.
- Afholder sig fra at citere forskningsresultater, der strider mod ens konklusion.
Den tendens er enormt uheldig, omend ikke særligt overraskende, mener Torben Lund:
»Når din karriere afhænger af antallet af publicerede artikler og citationer, er det ikke svært at forestille sig, at man som forsker kan blive fristet ud på en statistisk fisketur, hvis man ikke i første forsøg fandt den effekt, man var på jagt efter,« siger han.
Sådan en fisketur kan bestå i, at man afprøver forskellige metoder til analyse af sine data og først stopper, når man har fundet den effekt, man er interesseret i, og undlader at beskrive de ‘fejlslagne’ analyser, der gik forud, forklarer Torben Lund.
»Herved vil forsøgets resultat fremstå langt mere overbevisende, end det rent faktisk er,« siger han.
\ Læs mere
Grundforsker: Vi er ved at drukne i publikationspres
En af landets førende grundforskere, lektor Anja C. Andersen, mener, at tilliden til forskerne er på spil, når forskerne presses til at udgive et stort antal artikler.
Anja C. Andersen oplever selv, at hun og hendes kolleger har svært ved at følge med – særligt, når det kommer til validering af forskningen i form af de såkaldte peer reviews, eller fagfællebedømmelse, af andres videnskabelige arbejde.
\ Peer review
En forudsætning for, at en artikel bliver publiceret i et videnskabeligt tidsskrift, er, at den er blevet godkendt af to eller tre uvildige eksperter, som er udpeget til opgaven af tidsskriftets redaktører.
Det er denne proces, der kaldes for peer review eller, på dansk, fagfællebedømmelse, og som skal sikre, at forskning der publiceres, er videnskabeligt i orden i forhold til konklusioner, metoder, beregninger og formuleringer.
»Publikationspresset er helt ad helvede til, for vi er alle ved at drukne i at lave peer review på hinandens artikler,« siger lektoren, som forsker i støv i universet ved Dark Cosmology Centre på Niels Bohr Institutet.
Selv hvis hun brugte 24 timer i døgnet på at lave peer review og aldrig nåede at lave noget forskning selv, ville hun stadig være bagefter, fortæller Anja C. Andersen. Peer review-systemet er ude på et overdrev, mener hun:
»Forskerne er en af de grupper, folk stadig har tiltro til – men det har de på grund af peer review, og det er ved at brænde sammen,« fortsætter hun.
Anja C. Andersen møder opbakning fra videnskabsteoretiker Mikkel W. Johansen, som arbejder ved Institut for Naturfagenes Didaktik på Københavns Universitet
»Du får absolut ingen merit for at være reviewer, og så kan man jo være bekymret over, om incitamenterne til at tage sig tid til at gøre det ordentligt er på plads. Jeg er i hvert fald bekymret over kvaliteten af forskningsproduktionen, fordi der er så meget fokus på at lave artikler hurtigt og ikke på at styrke kvaliteten.«
\ Læs mere

Undervisning bliver nedprioriteret
Presset for at lave mange publikationer påvirker forskernes adfærd negativt, mener Mikkel W. Johansen.
\ Danske forskere er produktive
Mellem 2008-2012 publicerede danske forskere tilsammen 62.177 videnskabelige artikler, hvilket udløser en tredjeplads i forhold til de i alt 38 OECD- og BRIK-lande, når man tager højde for indbyggertal.
Nummer 2 indtages af Island, og førstepladsen går til Schweiz. Det viser Thomson Reuters National Science Indicators fra 2012.
Gennemsnitligt får én dansk forskningsartikel 8,42 citeringer af andre forskere, hvilket ligeledes indkasserer danske forskere en tredjeplads for mest citerede forskning, igen kun overgået af Schweiz og Island.
Kilde: Danske Universiteter
»Folk vil gerne have lange publikationslister og kommer til at tænke alting i, hvad der lige passer til en artikel – og måske også nogle gange tænke, at noget måske ikke er super interessant, men det kan lynhurtigt blive til en artikel, og så laver man det alligevel. Det ændrer, hvad man beskæftiger sig med, og hvordan man beskæftiger sig med det,« siger lektoren.
Desuden betyder presset for at udgive nye artikler, at andre, vigtige ting end selve forskningen bliver nedvurderet, fortæller Claus Strue Frederiksen. Undervisning blandt andet.
»Du kan ikke skrive i en fondsansøgning, at du bruger meget tid på at undervise – det lyder næsten fjollet at sige, men det er faktisk dybt problematisk. For det gør, at en af de dyder, som er væsentlige og en vigtig del af universiteternes opgaver, ikke prioriteres. Jeg har en klar fornemmelse af, at mange forskere alligevel gør meget ud af undervisningen, men man får i hvert fald ikke noget kredit for det,« siger Claus Strue Frederiksen.
\ Læs mere
»Indikatorer kan altid hackes«
Det er i bund og grund problematisk at have så meget fokus på én indikator på kvalitet, simpelthen fordi systemet er for let at hacke, mener Mikkel W. Johansen. Rent hypotetisk kunne man eksempelvis forestille sig, at gode kollegaer aftalte at citere hinanden ofte.
»Indikatorer kan altid hackes; om de bliver det, kan jeg ikke udtale mig om, for det findes der ikke forskning i, men du kan meget nemt gøre det i hvert fald,« siger Mikkel W. Johansen og slutter:
»Så snart du begynder at læne dig så meget op ad én indikator, fanger folk det og ændrer adfærd – og derfor er det meget svært at måle kvalitet på den måde … For ikke at sige umuligt.«
\ Læs mere
Forskningsresultater kan ikke gentages
Forskerne er enige om, at grundforskningen er syg; men de er ikke nødvendigvis helt enige om, hvad patienten fejler. I næste delartikel tager vi fat i et af de udråbte hovedproblemer i grundforskningens krise, nemlig vanskeligheder med at reproducere forskningen.
Især inden for naturvidenskab siger man, at et resultat ikke er validt, før andre har kunnet gentage det og genfinde resultaterne. Men der er ingen penge i at reproducere andres forskning, og når det endelig bliver gjort – ja, så er det alt for ofte umuligt at opnå de samme resultater.
Men er det nu også så slemt? Eller skal vi i virkeligheden tage manglende reproduktion som et sundhedstegn?
Det dykker vi ned i i næste del af artikelrækken, som også kommer til at beskæftige sig med mangel på de såkaldte ‘nulresultater’ – forskning, der ikke viste det, man troede – og med, sidst, men ikke mindst, løsningsforslag.
\ Kilder
- David Budtz Pedersens profil (AAU)
- Torben Lunds profil (AU)
- Marianne Rostgaards profil (AAU)
- Claus Strue Frederiksens profil (KU)
- Anja C. Andersens profil (NBI, KU)
- MIkkel Willum Johansens profil (KU)
- “Scientific Misbehavior in Economics: Unacceptable research practice linked to perceived pressure to publish”, London School of Economics (2014)
- “Influence of a performance indicator on Danish research production and citation impact 2000–12”, Springer (2014), DOI: 10.1007
- “The academic rat race: Dilemmas and problems in the structure of academic competition”, Berghan Journals (2012), DOI: 10.3167
- “Fewer numbers, better science”, Nature (2016)
- “Blame bad incentives for bad science”, ScienceNews (2016)
- “We need to talk about the bad science being funded”, The Conversation
\ Syg forskning får lov at overleve for længe
»Magtspillet om ressourcer og prestige« i forskningsverdenen kommer hurtigt til at overstige hensynet til lødig forskning, mener David Budtz Pedersen.
Det kan give anledning til, at forskning med indgroede sygdomme får lov til at bestå og overleve i alt for lang tid. Fordi »forskere, forskningsråd, fonde og medier – har en kollektiv interesse i at bevare illusionen,« lyder det fra David Budtz Pedersen. Han uddyber:
»Tænk for eksempel på de utallige diskussioner, der har været ført om neurovidenskab i alverdens populærvidenskabelige magasiner. Det er endda blevet hævdet på forsiden af New York Times at ‘vi lever i hjernens årti’. Nu viser det sig i et omfattende metastudium, at ingen neuroforskere har taget sig tid til at efterprøve den algoritme, der har været med til at drive de mange spektakulære fMRI-scanninger. Algoritmen indeholder desværre en fejl, som gør, at op imod 3.500 artikler inden for kognitiv neurovidenskab må revideres, trækkes tilbage eller på anden måde omvurderes.«
Læs også: Flere årtiers hjerneforskning belastes af fejl i computersystem
»Det ville være oplagt, at en mere åben og kollaborativ forskning havde taget sig tid til at efterprøve og kvalitetssikre grundlæggende statistiske redskaber i stedet for at skabe en kæmpe neuroboble baseret på hyperkonkurrence.«