Annonceinfo

De nationale test er ikke objektive

Resultater fra de nationale test i folkeskolen fortæller ikke sandheden om eleverne, påpeger ny dansk forskning.

Nogle lærere gør meget ud af at få eleverne i folkeskolen til at tage de nationale test meget alvorligt. Andre lærere tager mere løst på vigtigheden af testene. Det er bare en af grundene til, at man ikke kan sammenligne testresulterne fra forskellige skoler og klasser med hinanden. (Foto: Colourbox)

Hvilke skoler er gode til at lære eleverne noget? Hvilke er dårlige? Vil vi finde ud af det, er det fristende at teste alle landets skoleelever – for eksempel via de såkaldte nationale test.

Men noget tyder på, at man slet ikke kan sammenligne skoler eller elever på baggrund af de nationale test. De bliver nemlig taget under så forskellige forhold, at resultaterne sandsynligvis bliver påvirket af det.

»Man skal ikke tolke testresultatet som ’sandheden om eleven’. Det er lærerne i klasserne meget opmærksomme på. De er fuldt ud bevidste om, at eleverne er mange-facetterede.«

»Men jo længere man kommer væk fra den konkrete praksis på skolerne, jo større risiko er der for, at testresultaterne bliver betragtet som objektiv viden – hvad de ikke er,« siger Kristine Kousholt, der er i gang med at skrive postdoc-projekt om nationale test ved Institut for Uddannelse og Pædagogik, Aarhus Universitet. 

Test skaber abstrakte resultater

Den tidligere VK-regering ville offentliggøre alle resultater fra de nationale test. På den måde kunne forældre uden problemer sammenligne resultaterne fra landets skoler og se, hvilke der er bedst til at gøre eleverne dygtige.

Den nye regering har besluttet, at testresultaterne alligevel ikke skal offentliggøres. Og det er måske også bedst – for det vrider de nationale test ud af deres rette element, hvis man bruger dem til at sammenligne skoler.

»Det kan være problematisk, hvis testresultaterne bliver brugt med det formål at sammenligne skoler og til politisk at skabe incitamenter. Så bliver resultaterne gjort abstrakte, og forbindelsen til den konkrete praksis forsvinder,« siger Kristine Kousholt.

Nationale test giver hullet billede af elever

Kristine Kousholt har - i forbindelse med sit projekt om sammenhængen mellem børns læreprocesser og fællesskaber og deres deltagelse ved de nationale test - nærstuderet eksempler på test, der er tilgængelige på Undervisningsministeriets website.

Kombineret med interview med lærere og elever kan hun konstatere, at de nationale test ikke giver et klart, objektivt billede af de elever og skoler, de tester, fordi:

  • Test er - som evalueringsmetode - bedst egnet til at måle elevernes evne til at huske fakta. De er ikke så gode til at teste deres evne til at tænke i sammenhænge og deres evne til at huske og lære sammen med andre. Det betyder, at en meget vigtig del af det, skolerne lærer vores børn, slet ikke bliver testet.
     
  • Elevernes opmærksomhed kan nemt være påvirket af andre ting end netop den test, de er i færd med at tage. Nogle af de børn, som Kristine Kousholt har interviewet, var mest optaget af at blive hurtigt færdige med deres test, så de eksempelvis kunne komme ud og spille fodbold. Det har muligvis også betydning for test-resultatet.
     
  • Testen måler kun en del af al den faglige viden, elever får i skolen. Børnene bliver undervist i meget mere og andet end det, der bliver testet i. Det er naturligt nok, fordi test netop skal fokusere på særlige områder af barnets viden. Men det skal man som lærere og forældre huske at være opmærksomme på, så man ikke generaliserer fra den enkelte test til alt, hvad barnet er og kan barnet.
     
  • I nogle klasser – og blandt nogle børn – bliver det betragtet som et tegn på dygtighed, hvis man bliver først færdig med sin test. Til gengæld bliver det betragtet som et tegn på ikke-dygtighed at sidde tilbage til sidst. Det kan også spille ind på, hvordan børnene tager de nationale test – og muligvis også for testresultatet. Når det betyder meget at ’virke klog’ over for klassekammeraterne, bliver eleverne hurtigt færdige, i stedet for at være grundige og rent faktisk vise, hvad de kan.
     
  • Det er meget forskelligt, hvad vi kan i forskellige sammenhænge. Nogle elever er gode til at præstere, når de sidder i en testsituation. Andre oplever, at de ikke kan tænke klart.
     
  • Nogle elever er bedst til at huske deres viden og bruge den, når de samarbejder med andre om at løse en opgave. De elever kan risikere at få et ringere resultat i en individuel test, end de egentlig burde have.
Lærerens præsentation påvirker elevernes engagement

Kristine Kousholt fortæller, at lærerens præsentation af testen også har stor betydning for hvordan eleverne befinder sig i situationen og for elevernes oplevelse af testens vigtighed.

citatJeg har været nysgerrig efter, om test-resultatet svarede til de billeder, lærerne havde af deres elever. En lærer blev ret overrasket nogle af sine elevers resultat.
- Kristine Kousholt

»Jeg har snakket med børnene om, hvad der betyder noget, når de sidder i test-situationen. Det betyder noget, hvordan læreren introducerer testen og forklarer den.«

»Lærerne har forskellige holdninger til de nationale test, og de kan skinne igennem, når testene bliver præsenteret for eleverne. En lærer betonede for eksempel, at en test ikke var særlig vigtig.«

»Det betød, at de fleste af de interviewede elever gav udtryk for, at de ikke fandt denne test særlig vigtig og enkelte gav udtryk for, at de ikke gjorde det store nummer ud af at løse den. På den anden side følte flere af eleverne sig mere trygge ved den test end ved andre test« fortæller Kristine Kousholt.

’Objektive’ test er et levn fra fortiden

Vi tror – nærmest pr instinkt – at test giver et sandfærdigt og sammenligneligt billede af eleverne. Det skyldes ifølge Kristine Kousholt et meget gammelt syn på test, som har overlevet siden 1930erne.

»Intelligenstest var meget hot i 1930erne. Nogle af datidens pædagoger – de såkaldte reformpædagoger – mente, at intelligenstest kunne lave en objektiv vurdering af arbejder-børns intelligens,« siger Kristine Kousholt med henvisning til nogle kollegaers arbejde.

Pædagogerne var klar over, at mange så på arbejderbørn som lidt dumme, alene fordi de kom fra arbejderklassen. Men med en test kunne man give den fordomsfulde, subjektive vurdering et skud for boven og skabe et objektivt billede af arbejderbarnets intelligens. Troede reformpædagogerne.

Den opfattelse er blevet hængende i mange af os, når vi taler om test. Helt frem til i dag. Men det gamle syn på test bliver i disse år nuanceret af ny forskning – blandt andet Kristine Kousholts.

Hendes forskningsprojekt om de nationale test løber frem til begyndelsen af 2014. Det er finansieret af Det Frie Forskningsråd, Kultur og Kommunikation. 

RETTELSE: d. 2/5 2012 blev der efter aftale med forskeren rettet i enkelte af artiklens formuleringer.

Kristine Kousholt har undersøgt omstændighederne, når danske elever bliver testet

Det har hun indtil videre gjort ved at foretage kvalitative undersøgelser på to skoler: Én med mange etniske minoritetsbørn og én med mange etnisk danske børn. Særligt koncentrerede hun sig om elever på to klassetrin:

  • 6. klasse, fordi de skulle gøre sig deres første erfaringer med de nationale test.
     
  • 8. klasse, fordi elever i den alder begynder at tænke over, hvad de skal i fremtiden – og testresultater kan påvirke dem til at vælge, hvilken uddannelse, de vil tage, eller hvilket job, de vil have. Klarer en elev sig godt i en fysik-test, kan det betyde, at han får lyst til at blive ingeniør.

Interview med elever og klasselærere blev foretaget før testene og umiddelbart efter.

Desuden observerede Kristine Kousholt eleverne i undervisningen og i frikvartererne. På den måde kunne hun vurdere, hvordan test-situationen påvirkede eleverne til at opføre sig anderledes end normalt.

Kontraktbrud eller fejlinformation?

Ved henvendelse til ministeriet er det muligt at få udleveret kontrakten om de nationale test. I denne kontrakt er det beskrevet, hvordan afprøvningen af opgaverne skal foregå. Efter at have kigget i kontrakten, har jeg svært ved at forstå, hvordan ministeriets svar om at "Opgaverne præsenteres tilfældigt overfor respondenten." kan stemme overens med denne kontrakt:

Her er beskrivelsen af kravene til afprøvningsfasen i kontrakten:
"Alle elever i klassen skal have det samme opgavesæt, og testen skal forløbe ikke-adaptivt. Opgavesættene sammensættes så den middelhurtige elev kan gennemføre på ca. 30 minutter. Alle elever skal besvare alle opgaver.
• Afprøvningstesten skal være sammensat med opgaver fra alle profilområder og være ordnet med en vis grad af skønnet stigende sværhed i opgaver/ items. Rækkefølgen kan eventuelt varieres opgavesættene imellem."

Tilsyneladende har ministeriet set stort på, om kontrakten omkring de nationale test har været overholdt - eller også ser ministeriet stort på, om de informationer, de uddeler, er i overensstemmelse med virkeligheden.

Det kan blive en stor opgave at komme til bunds i de nationale test...

Præsenteres opgaverne tilfældgt?

En vågen læser har kontaktet mig for at pointere, at undervisningsministeriet faktisk skrev; "Opgaverne præsenteres tilfældigt overfor respondenten." Mon ikke mininsteriets svar betyder, at alle 700 børn, der har deltaget i afprøvningen af et opgavesæt, har fået opgaverne præsenteret i forskellig rækkefølger?

Jeg kan berette, at jeg i forbindelse med ministeriets svar, bad om en uddybning og præcisering af begrebet tilfældigt. Efter omkring en måneds betænkningstid oplyste ministeriet, at de ikke var i stand til at komme med en mere præcis beskrivelse. De kunne heller ikke oplyse, om de 20-36 opgaver dækkede et eller tre profilområder.

Opgavernes sværhed – en mulig fejlkilde i de nationale test?

Der har været store tekniske problemer med de nationale test, men dette er ikke genstanden for mit indlæg. Jeg skriver om problemer med resultaternes troværdighed: Kan man stole på, at de nationale test giver en vurdering af eleven, der ikke er præget af tilfældigheder?

Som bekendt er det nationale test adaptive, det vil sige at testen tilpasses den enkelte elevs svarmønster undervejs i testforløbet. Dermed er elevens testforløb individuel designet, og efter testen må resultatet udregnes på basis af de tilbudte opgavers sværhedsgrad og elevens svar på disse opgaver.

Men hvordan har disse opgaver fået tildelt deres sværhedsgrad? Undervisningsministeriet oplyser, at omkring 500-700 børn har afprøvet opgaverne for at give opgaverne deres sværhedsgrad. Det er ikke muligt at få oplyst nærmere hvordan denne afprøvning er sket. Jeg har fået oplyst "Der indgår 20-36 opgaver i et opgavesæt til afprøvning afhængigt af deres tidskrav. En afprøvning er planlagt til at tage ca 30 min. Opgaverne præsenteres tilfældigt overfor respondenten. En opgave består af et eller flere items - normalt ikke flere end 5-7."

Det er ikke muligt at få at vide, hvordan ubesvarede opgaver er blevet vurderet, når der er udregnet opgavesværhed på basis af svarmønsteret i afprøvningsfasen. Det er derfor tænkeligt, at nogle elever ikke nåede alle opgaver, og at nogle opgaver derfor blev vurderet som meget svære – alene fordi de stod sidst i opgavesættet.

Georg Rasch har fortalt, at opgavernes rækkefølge kan have betydning for deres oplevede sværhedsgrad. Noget af den berømte forskers banebrydende arbejde et tilknyttet udviklingen af forsvarets intelligenstest BPP, og her skriver Børge Prien om Georg Rasch’ statistiske analyser:

”Det viste sig, at en opgaves løsningsfrekvens var afhængig af opgavens plads i forhold til andre opgaver. Det var, som om hver opgave befandt sig i et opgavemiljø, og blev den flyttet ud af det, skiftede den karakter. Vi prøvede i et af opgavesættene at sætte samme opgave ind 2 forskellige steder; den fik vidt forskellig løsningsfrekvens. Løsningsfrekvensen var langt mindre, når opgaven blev placeret langt henne i sættet; man havde da åbenbart indstillet sig på, at nu var det svært. Det var ikke fordi, man ikke nåede så langt; vi gav nemlig ubegrænset tid.”

I de nationale test er opgavernes rækkefølge individuelt bestemt. Derfor er det vigtigt at vide, om der er taget hensyn til den mulige effekt i opgavernes rækkefølge ved fastlæggelse af sværhedsgrad. Desværre er det ikke muligt at få oplyst, hvordan opgaverne har været grupperet og i hvilken rækkefølge, de er blevet præsenteret for eleverne i afprøvningsfasen. Det ville være et spændende emne at tage op i et kommende forskerreview af testene

Om myter og deres punktering

"Moderne testteori og IRT-modeller involverer kompliceret sandsynlighedsteori og statistik."

Når det nu handler om de nationale test - altså Rasch test - så ser det dog ud til at matematikken og teorien virker lidt gymnasieagtig.

Følgende link fører til en hjemmeside på www.rasch.org, hvor man får serveret alle formlerne, når opgavernes sværheder er kendt.

http://www.rasch.org/rmt/rmt102t.htm

De næste to link giver en meget pædagogisk indføring i teorierne.

http://info.worldbank.org/etools/docs/library/117765/Item%20Response%20T...

http://www.metheval.uni-jena.de/irt/VisualIRT.pdf

Bare til orientering.

Godt nytår

Behov for offentlige drøftelser mellem forskere

Jeg ser intet naturligt i, at ledere og forvaltning har adgang til testresultater i de nationale test, med mindre testene er tænkt som et kontrol- og disciplineringsinstrument. Slet ikke, når testenes indhold er hemmeligholdt, og hverken ledere, skolebestyrelser og kommunalforvaltninger har adgang til at se, hvilke færdigheder børnene bliver testet i. Ved en offentliggørelse af den enkelte klasses resultater internt i forvaltningen er der stor risiko for, at testene bliver ”high stake” for de involverede, og lærere vælger at deltage i den frivillige test med henblik på et godt resultat i den obligatoriske test. Det er sådan, jeg læser den store tilslutning til de frivillige tests. Min egen skole er ingen undtagelse.

Den store åbenhed om testresultaterne bliver modsvaret af en fuldkommen lukkethed om testenes hos børne- og undervisningsministeriet. I begyndelsen var det muligt at diskutere testene på ministeriets test-hjemmeside, men denne mulighed er fjernet. Har man kritik at fremføre, må man henvende sig direkte til ministeriet, og derfor kan ministeriet helt selv vælge, om de vil fremlægge læreres kritik for offentligheden, eller vil fortie den.

Med hensyn til testenes konkrete beskaffenhed er ministeriets tavshed grotesk. For nylig spurgte jeg ministeriet, om de ville oplyse mig, hvordan elevens resultat blev beregnet på basis af elevens svarmønster og opgavernes sværhed udtrykt i logittal. Svaret lød:

” Tak for din mail af 29. november 2011, hvor du har jf. lov om offentlighed i forvaltningen § 4, stk. 1. anmodet om aktindsigt i: ”de matematiske formler, der bestemmer opgavetildelingen i de adaptive prøveforløb i de nationale test.” Endvidere har du søgt aktindsigt i ”de matematiske formler, der udregner elevens resultat i de nationale test på basis af opgavesværhed i logittal.” Kvalitets- og Tilsynsstyrelsen har behandlet din aktindsigtsanmodning, og jeg må beklageligvis meddele dig, at din aktindsigtsanmodning ikke kan efterkommes. Kvalitets- og Tilsynsstyrelsen har ikke de matematiske formler, du søger aktindsigt i. Styrelsens afgørelse kan ikke påklages til anden administrativ myndighed.”

Jakob Wandall fremkommer med en udlægning af begrebet sværhed udtrykt på 100-skalaen i en kommentar i denne tråd. Jeg kan oplyse, at der ikke foreligger nogen statistisk dokumentation i ministeriet, der underbygger Wandalls beskrivelse. De oplysninger, der foreligger i ministeriet, antyder, at nogle opgaver til læsetesten i anden klasse er afprøvet på børn i første klasse mht sværhed og andre opgaver er afprøvet på børn i fjerde klasse. Derfor giver det ingen mening at tale om, at en vis procentdel af en børnegruppe har 50 % sandsynlighed for at svare rigtigt på et spørgsmål, for der findes ingen børnegruppe der har afprøvet samtlige opgaver i en opgavebank. (Noget andet er, at Jakob citerer mig for at bruge udtrykket sværhedsgrad, når jeg alene omtalte svarprocenter.)

Jakob Wandall er ikke uddannet i psykometri, og dette kommer måske tydeligst til udtryk i betragtningerne omkring Rasch, der indeholder flere væsentlige fejl og mangler. Disse udtalelser må ikke stå alene. Der er behov for at få kortlagt det psykometriske grundlag for de nationale test ved kvalificerede drøftelser mellem anerkendte forskere. OECD anbefaler, at der foretages yderlig forskning og validering af de nationale test, og dette vil jeg bestemt tilslutte mig – sammen med mit ønske om at få kortlagt det nuværende grundlag for testene og en mulighed for offentlig debat om testenes indhold.

Ad. Nogle kommentarer til - Lidt fakta til meningsudvekslingen

Jeg er et langt stykke vej enig.

Vær dog opmærksom på, at det ikke er fælles mål testene afprøver. Fælles mål er mål for undervisningen - ikke operationelle testmål eller en minimumstandard.

At man følger den årlige udvikling (gennemsnit) på landsplan er ikke et kontrolinstrument i min bog.

Det med dokumentationen forstår jeg ikke hvad du vil med - hvis du vil diskutere disse ting er du velkommen til at skrive til mig direkte - det er lidt for nørdet at belaste resten af verden med.

Punktering af myter

I tillæg til min tidligere kommentar. Jeg vil gerne punktere nogle myter om nationale test:
---- o0o ---
Moderne testteori og IRT-modeller involverer kompliceret sandsynlighedsteori og statistik. Udviklingen heraf blev skudt i gang af den danske matematiker og statistiker Georg Rasch i slutningen af 50’erne. Men først for nylig (siden årtusindeskiftet) har computerne fået regnekraft til at operationalisere dette, så det kan anvendes i virkeligheden, herunder på skoler. Det er begrænsede dele af faget der kan testes, men resultaterne af testene må ud fra almindelige videnskabelige principper betegnes som objektive og er direkte sammenlignelige. Det er derfor et besynderligt udsagn når de nationale test affærdiges som ”et meget gammelt syn på test, som har overlevet siden 1930erne”.
Men, som det er med de fleste meget komplicerede emner, som probabilitetsmodeller (raschmodellen er en sådan) er, er det simpelthen er for svært stof for de fleste personer uden en egentlig psykometrisk uddannelse/baggrund. For dem, der ikke forstår og som ikke vil acceptere at de ikke forstår, kan det se ud som om, at noget holdes skjult eller at der er nogen der lyver om noget. For dem kan testene sikkert godt opleves både ”usikkert og frygtindgydende” – sådan virker det uforståelige ofte på mennesker. Man skal vænne sig til tanken om, at man godt kan benytte testene som værktøj, selvom man ikke forstår konstruktionen af dem - ligesom man godt kan bruge en bil uden at vide præcist hvordan en motor fungerer. Nogle lærere har gjort en stor indsats for at sætte sig ind i hvordan de Nationale test fungerer – et fagområde, som kun meget få mestrer til bunds. Nogle har faktisk forstået ganske meget, men mange misforståelser er stadig ganske udbredt. Fx om hvad en opgaves sværhed er. Et eksempel fra Marina Norlings indlæg: Når sværheden af en opgave estimeres til 35 betyder det ikke (hvilket hun tilsyneladende tror) at 65% svarer rigtigt. Det betyder at 65% af eleverne har mindst 50% sandsynlighed for at svare rigtigt. Det er der mange, der tror er det samme – men det er det ikke. Lad os forestille os en opgave med 4 svarmuligheder, som er så svær, at alle elever - selv de dygtigste - har mindre end 50% sandsynlighed for at vælge den rigtige svarmulighed. Den vil få en sværhed på 100 (hvilket betyder at færre end 1% har 50% sandsynlighed for at svare rigtigt). Alligevel vil godt hver fjerde svare rigtigt, for ved helt tilfældigt valg ville 25% få et rigtigt svar blandt 4 muligheder. Tager man udgangspunkt i de to opgaver som Marina Norling beskriver i sit indlæg, vil en del af de elever, der svarer galt på opgaven med sværheden 20 (pulk) være dygtige elever, der blot ikke har været i Norge på vinterferie, men som med sikkerhed ved hvad en fennikel (opgave med sværhed 35) er. Det kan intuitivt være meget svært at forstå, at en elev kan svare rigtig på den svære opgave og forkert på den lette uden at der er noget galt med hverken opgaverne, test eller eleven. Sådan er det med sandsynlighedsmodeller og arbejde hermed kan ikke klares ved intuition og fornemmelser. Det er derfor er brug en del opgavebesvarelser (gerne 20 eller flere) for at opnå valide og reliable målinger. Og for en computer til at foretage beregningen.
---- o0o ---
Den indsats, der blev iværksat for ”styrkelse af evalueringskulturen”, som blandt andet omfattede de nationale test, blev udbudt i EU-udbud 2 gange. Første udbudsrunde blev aflyst – selvom der forelå et tilbud som blev vurderet som egnet - fordi ministeriet ønskede at hæve standarden og give skolerne bedre mulighed for at forberede sig. Den kontrakt der blev indgået medio 2006 var på et ambitiøst system, men ikke mere end at systemer baseret på tilsvarende adaptive principper havde været i drift flere steder i verden (fx CITO i Holland, NWEA i Oregon)i de sidste år. Så at sige at adaptive test ikke er muligt er helt hen i vejret.
---- o0o ---
Den samlede flerårige finanslovsbevilling til den indsats der blev iværksat for ”styrkelse af evalueringskulturen” – herunder nationale test - lød på 110 mio. kr, se aktstykket http://www.ft.dk/samling/20051/aktstykke/aktstk.191/297161.pdf. Heraf var basiskontrakten med COWI på 60 mio. kr., se Udgiften til testene udgjorde ca. halvdelen heraf – dette inkluderede både udvikling og drift i den treårige kontraktperiode. Så at påstå at testene har kostet over 100 mio. kr. at udvikle og/eller 30 mio. kr. årligt at drive er helt hen i vejret.
---- o0o ---
Kommune har det overordnede ansvar for driften af skolevæsnet. Skolelederen har det pædagogiske ansvar for alle aktiviteter der foregår på skolen. Derfor forekommer det også helt naturligt, at kommunen hhv. ledelsen på skolen får adgang til overordnede resultater, der kommer ud af de nationale test. Hvis testresultaterne giver anledning til forundring hos skolelederen (som har ansvaret for alle skolens resultater) er det vel i lærerens interesse at de får talt sammen om det. For der vil sikkert være en fornuftig forklaring, som læreren vil være glad for at tale med lederen om. Og hvis kommunen undrer sig er det vel også ganske praktisk, at lederen ved hvad der ligger bag. Begreberne ”skoleret” og ”gabestok” signalerer en defensiv holdning som der næppe er belæg for. At betegne resultaterne offentlige fordi den ansvarlige ledelse er orienteret herom giver ikke megen mening.
---- o0o ---
Jeg har mødtes med og har diskuteret nationale test med flere tusinde lærere fra danske skoler. Det er mit klare indtryk, at danske lærere måske er irriterede over centrale pålæg, men hverken er forskrækkede over eller har til hensigt at lade deres undervisning farve af de nationale test. Det ville også være underligt hvis de gjorde det, for testene er jo netop ikke noget summativt redskab. På den måde er der en helt grundlæggende forskel på det danske (og de øvrige nordiske landes) skolevæsen og fx det engelske, hvor de såkaldte Key-stage-test er high-stake og summative. Bare for at illustrere forskellen: I Danmark har lærerne på en stor del af skolerne ikke fundet det nødvendigt på nogen måde at forberede eleverne på hvordan opgaverne ser ud. Som kontrast 68% af de engelske skoler ansætter lærerpersonale specifikt rettet mod testforberedelse, 80% indkøber forlagsfremstillede træningsudgaver af testene og 70% af skolerne afsættet i semesteret op til testen mere end 3 ugentlige timer til testforberedelsede.

Nogle kommentarer til - Lidt fakta til meningsudvekslingen

I almindelighed mener jeg, at man faktisk godt kan få de nationale test til at fungere som et pædagogisk redskab, men det kræver at man fjerner kontrolfunktionen og gør en indsats for at oplyse lærerne om hvad testen konkret måler, hvordan målingen foregår og hvordan resultatet fremkommer.
Derfor har jeg følgende kommentarer til - Lidt fakta til meningsudvekslingen.

Omkring sammenlignelighed.
“Når testene skal give læreren information om hvad undervisningen skal fokusere på (formativt) sker det på bekostning af sammenligneligheden. ...”

Kommentar.
Når eleverne svarer forkert på bestemte spørgsmål, så kan jeg regne ud, at jeg har tolket Fælles Mål anderledes end testkonstruktøren. Og da man stadig ikke kan tjekke, hvad man kan forvente, at eleverne kan i fagene (rejseholdet 2010 - OECD 2004/2011), kan man alligevel ikke sammenligne klasser og skoler, selvom testsituationerne var ens.

Omkring objektivitet.
“Testen er stadig en objektiv måling af præstationen: Der indgår ikke nogen subjektiv vurdering fra den, der skal fortolke testresultatet. Og hvis en anden elev leverer præcist de samme besvarelser skal de to elever have præcist det samme resultat.”

Kommentar.
Umiddelbart ville jeg mene, at testen kunne anses for objektiv, hvis resultaterne kunne bekræftes af andre test eller hvis en gentestning af eleverne gav nogenlunde de samme resultater. Men jeg kan forstå at testen er objektiv i en ny betydning af begrebet: Det er ikke læreren der retter opgaverne og og giver eleverne karakter. Så testen repræsenterer stadig kun testkonstruktørens opfattelse af hvad eleverne bør kunne, så derfor repræsenter bedømmelsen kun testkonstruktørens subjektive vurdering - via IT-systemet - af hvad eleverne kan.

Omkring kontrol
“De nationale test er skabt som et pædagogisk redskab, snarer end et kontrolinstrument.”

Kommentar
Det ser ikke ud til politikere og beslutningstagere helt har forstået, at de nationale test ikke er et kontrolinstrument. OECD`s reviewteam (2011) har tilsyneladende fået et helt andet indtryk af testen.:
Indførelsen af de nationale test giver også mulighed for at få løbende statusopdateringer om folkeskolen på forskellige trin. Det er den første reelle mulighed for sikkert at følge udviklingen i elevernes udbytte af undervisning over tid og sammenholde det med Fælles Mål. Testenes værdi til national monitorering begrænses imidlertid af, at der ikke indgår data fra de private grundskoler.
Desuden fremgår det ikke tydeligt, hvordan resultaterne vil blive brugt til at holde skolerne ansvarlige.
(Dansk oversættelse af sammenfatning - Side 7.)

For mig ser det ud til, at testen godt nok kan være tænkt som et pædagogisk værktøj, men den bliver brugt som et spanskrør, og det er faktisk et større problem end at testen ikke er dokumenteret.

Usikkert og frygtindgydende måleværktøj

Ved en fødselsdagsfest i Holte traf jeg en af Børne- og undervisningsministeriets ledende medarbejdere. Vi fik en hyggelig sludder om de nationale test, og her fik jeg et indblik i, hvordan vilkårene for testudviklingen har været set inde fra ministeriet.

Jeg kan se, at der har været, og stadig er, store problemer med opgavernes sværhedsgrad. De seneste meldinger, hvor 28.000 tests har været ramt af fejl, tilskrives problemer med opgavernes sværhedsgrad. Dette var også årsagen til de store forsinkelser i udviklingsfasen, hvor det i første omgang ikke lykkedes at finde opgaver på læseområdet, der kunne leve op til de statistiske krav i en adaptiv test.

For at opgaver skal kunne fungere i en adaptiv test, er det afgørende, at sværhederne er entydigt fastlagt. Det er her Rasch-modellen kommer ind i billedet. Men det er vanskeligt at finde entydige sværhedsgrader i opgaver undervejs i skoleforløbet. Fx hvilket ord er sværest - fennikel eller pulk? Hvis man finder ud af, at 65 % af eleverne kender fennikel, og 80 % kender pulk, betyder det så at det er usædvanligt, at finde elever der kender fennikel men ikke pulk? Sådan skal det helts være, hvis opgaverne skal fungere i en adaptiv test.

Spørgsmålet er, om det overhovedet var muligt at forklare politikerne, at det ikke kunne lade sig gøre at lave en adaptiv test? At de nationale test ville ende med at blive en skandale på linje med IC4 togene, og det derfor var nødvendigt at sadle testene om til mere simple niveaudelte tests? Ved festen i Holte fandt jeg ud af, at dette var ganske utænkeligt. Testene var indskrevet i regeringens program og skulle virkeliggøres – uanset om det var muligt eller ej.

I praksis betyder det, at testene er et usikkert og frygtindgydende måleværktøj. Inden for et døgn efter testenes afholdelse ligger resultatet hos den kommunale forvaltning og på skolelederens kontor. Som Jakob Wandall nævner, er det helt frit for den enkelte lærer, hvor meget hun vil hjælpe eleverne, og om hun vil deltage i de frivillige tests op til to gange før den obligatoriske test. Men det er ikke rigtigt at hævde, at testene er et formativt (eller uformelt) testværktøj. Resultaterne er i den grad offentlige, og kan resultere i at den enkelte lærer må stå skoleret for sin leder, og at lederen kan risikere at komme i gabestok hos den kommunale forvaltning.

Testene har kostet mindst 100 millioner kroner at udvikle, og koster 30 millioner årligt at videreføre. På de enkelte skoler koster testene cirka 200 arbejdstimer fra it-vejlederen, samt et ukendt antal timer fra de deltagende lærere og elever. Udbyttet? Tja – ingen pædagogiske forskere har haft mulighed for at diskutere indholdet af de nationale test. Lærerne er pålagt tavshedspligt om samme opgaver.

Udbyttet af de nationale test kan meget vel være, at vi får et skjult pensum i folkeskolen, der består af bl.a. ordkæder og klichéprægede talemåder fra en svunden tid. De nationale test kan vise sig at være en effektiv måde at forringe skolens undervisning – alene fordi opgaverne ikke må kritiseres i en fri demokratisk debat.

Tak for et godt bidrag til debatten.

Vi bruger ikke tommelfingre mere, og jeg synes, det var det mest frugtbare indlæg, jeg har set i lang tid.

Mvh Dorte

Lidt fakta til meningsudvekslingen

Jeg har fulgt debatten lidt på afstand og synes der behov for at få tilført lidt fakta til den meningsudveksling der finder sted, dels i artiklen og dels i kommentarerne hertil. Debatten om test er i Danmark stærkt følelsesladet og sære postulater som ”at test er bedst til at måle elevernes evne til at huske fakta” står ofte uimodsagt, fordi de ganske få danske testfaglige eksperter (psykometrikere, dvs. statistikere, der hovedsageligt arbejder med måling af mentale egenskaber og tilstande hos det enkelte individ) har meldt sig ud af diskussionen.

Om hvad testene kan anvendes til

I artiklen kritiseres testene for ikke at være egnede til at sammenligne og skoler med. Det er de slet ikke udviklet til at skulle. Når testene skal give læreren information om hvad undervisningen skal fokusere på (formativt) sker det på bekostning af sammenligneligheden. En lærer, der ønsker at afprøve elevernes umiddelbare viden, kan vælge at klassen ikke skal have nogen form for hjælpemidler, mens en anden lærer kan ønske at se hvordan hans klasse klarer sig med adgang til alle hjælpemidler.
De to klassers resultater er ikke sammenlignelige, blandt andet fordi deres testsituationer er forskellige. Dette er netop meningen - det skal være sådan. At vilkårene var forskellige ved lærerne og det skal de kunne korrigere for, når de vurderer elevernes niveau på grundlag af resultater og anden evaluering. De nationale test er skabt som et pædagogisk redskab, snarer end et kontrolinstrument.
Der foreligger fra centralt hold et forslag til rammer for testens anvendelse (hvilke hjælpemidler der anbefales brugt, hvilken instruktion eleverne bør have, hvor meget tid der skal sættes af osv), hvilket er beregnet på de lærere, der ikke har specielle ønsker til testens gennemførelse. Men det er altså læreren, der bestemmer rammerne for testen.
Testene er udviklet til at være pædagogiske måleredskaber, der skal bidrage til lærernes vurdering af elevernes niveau og udbytte. De er designet til at måle begrænsede dele af fagene og de hverken kan eller skal stå alene.

Om objektivitet

De nationale test er et måleredskab der består af en række opgaver. Testen kan bruges til at sammenligne præstationer, der hver især udgøres af besvarelse af en række opgaver, hvor det på forhånd er afgrænset hvad der accepteres som rigtig svar. Typisk for en test – i forhold til andre evalueringsredskaber - er, at resultatet (scoren, antal rigtige) er uafhængigt af lærerens egen teoretiske opfattelse og vurdering af eleven. Testen er altså i én forstand en objektiv måling, nemlig af en præstation. Men man skal skelne mellem måling af en elevs præstation og af en elevs dygtighed.
Ved test, der har et summativt, kontrollerende formål (fx i de dele af folkeskolens afsluttende prøver der har testformat, fx læseprøven, retskrivning, biologi engelsk læsning mv.) – er standardiserede vilkår betingelsen for en fair bedømmelse. Ideen bag sådan en test er, at skabe en entydig statistisk sammenhæng mellem elevens præstation og elevens dygtighed. Men sammenhængen kan kun blive statistisk, for der er meget andet end elevens dygtighed, der kan påvirke besvarelsen: Instruktion til prøven, vilkår for gennemførelse, elevens aktuelle dagsform, elevens evne til at håndtere pres, eventuelt snyd, held/uheld med enkeltopgaver og emner, for blot at nævne de vigtigste.
Lader man – som ovenfor beskrevet ved de nationale test - læreren sætter rammerne for testen, kan man meget vel påvirke præstationen i en retning, så testresultatet ikke bliver et entydigt mål for elevens faglige dygtighed. Testen er stadig en objektiv måling af præstationen: Der indgår ikke nogen subjektiv vurdering fra den, der skal fortolke testresultatet. Og hvis en anden elev leverer præcist de samme besvarelser af skal de to elever have præcist det samme resultat. Men de forskellige vilkår som testen tages under – og hvor dette netop er betingelsen for en formativ anvendelse – gør, at resultatet måske ikke i så høj grad afspejler elevernes dygtighed. Dette er så at sige prisen som folketinget med åbne øjne valgte at betale for den formative anvendelse ved lovens vedtagelse.

Anvendelse af testene til måling af udvikling i det faglige niveau på landsplan

Nogle vil sige, at det så ikke hænger sammen med at vurdere udviklingen i landsniveauet ved opgørelse af den nationale præstationsprofil. Her har overvejelsen været, at måden som testene anvendes på fra skole til skole kan variere, men når man sammenligner gennemsnitsresultater for alle landets elever fra år til år, så vil forskellene i praksis udligne hinanden. Og så skal resultaterne fortolkes med det forbehold, som man i øvrigt også ser at Undervisningsministeren gør.

Kommentar til citat.

Citat fra "Kristine Kousholt":
>>Der er meget andet på spil for børnene. Det, som er på spil, kan muligvis få betydning for testresultaterne (min empiri kan altså kun sandsynliggøre dette). På den baggrund mener jeg, at man skal være varsom med at betragte testresultater løsrevet fra den konkrete praksis.<<

Med hensyn til de nationale test tror jeg, at man kan give "Kristine Kousholt" helt ret.

Testen er ikke dokumenteret, det vil sige, at ministeriet ikke har fremlagt dokumentation for:

-at testen måler rigtig - hvis en elev tager testen et par gange med et par dages mellemrun, så skal elevens resultater være rimeligt ens.

-hvad testen måler - fx en beskrivelse af hvad eleven kan, hvis eleven har fået karakteren 2

-at testen måler "noget" der kan relateres til den undervisning eleven har modtaget

De nationale test er i den grad løsrevet fra den konkrete praksis på skolerne, at de i realiteten nok ikke kan sige ret meget meningsfuldt om den enkelte elev, bortset fra at placere eleven i forhold til et nationalt gennemsnit, som så heller ikke er dokumenteret i ovenstående betydning.

Kommentar til uddybning.

Citat fra "Kristine Kousholt":
>>Der er meget andet på spil for børnene. Det, som er på spil, kan muligvis få betydning for testresultaterne (min empiri kan altså kun sandsynliggøre dette). På den baggrund mener jeg, at man skal være varsom med at betragte testresultater løsrevet fra den konkrete praksis.<<

Svar:
Skal jeg forstå det således at din såkaldte videnskabelige undersøgelse, bygger på dine personlige følelser ?
Og at du nu melder dig på den ideologiske front med en forkastning at de nationale test, ud fra nogle personlige følelser ? undskyld mig det lyder ikke som forskning i mine ører, nærmere som et partsindlæg i en ideologisk debat.

Det ville passe bedre hvis du tonede rent flag og meldte dig ind i et politisk parti, og øvede politisk indflydelse på en mere ærlig måde.

Kommentar til uddybning.

Jeg mener, at forskningen er relevant og vigtig i forhold til de nationale test.
Testen er en såkaldt Rasch-test, der forudsætter at opgaver og elever opfører sig som om de kommer fra Rasch-model:

P(sandsynlighed for rigtigt svar) = exp(D-S)/(1+exp(D-S))

hvor D er et tal for hvor dygtig eleven er og S er et tal for, hvor svær opgaven er.

I den ideelle testsituation er det det kun elevens dygtighed samt opgavens sværhed, der afgør om eleven svarer rigtigt eller forkert på opgaven. Hvis det ikke kan dokumenteres, at de nationale test opfører sig som om de kommer fra en Rasch-model, så er testen ubrugelig.

Jeg vil benytte lejligheden til at uddybe

Jeg vil benytte lejligheden til at uddybe lidt om den forskning, som jeg er i gang med at udføre. For det første vil jeg understrege, at jeg i min forskning indtager det, man kan kalde et deltagerperspektiv på betydninger af testning. Dette betyder, at min forskning ikke spørger til - eller undersøger testenes psykometriske egenskaber såsom testenes pålidelighed. I stedet handler min forskning om, hvordan børns fællesskaber og det, som børn er optaget af spiller ind i forhold til, hvordan de deltager i testsituationer – og i øvrigt også den anden vej rundt; hvordan deres deltagelse i testsituationer kan få betydning for deres positioner i fællesskaberne og for deres læreprocesser. I min forskning er jeg optaget af, at testning ikke blot er en sag mellem det enkelte barns faglighed og testen. Der er meget andet på spil for børnene. Det, som er på spil, kan muligvis få betydning for testresultaterne (min empiri kan altså kun sandsynliggøre dette). På den baggrund mener jeg, at man skal være varsom med at betragte testresultater løsrevet fra den konkrete praksis. Dette er altså ikke det samme som at sige, at testene er ubrugelige, men blot at man bør overveje, hvad de skal bruges til, og hvor stor en magt de bør få i vores samfund. Hovedformålet med min forskning er at skabe forståelse for forskellige børns deltagelse i testsammenhænge og i den forbindelse at skabe et grundlag for, at vi i endnu højere grad kan støtte børns læreprocesser og testdeltagelse. Jeg mener, at hvis man skal vide noget om dette, er det afgørende at forstå, hvad testning betyder set fra børnenes perspektiver og i forbindelse med deres konkrete deltagelse. På den måde hænger mit valg af kvalitative forskningsmetoder sammen med formålet med min forskning.

Ingen ved, hvad opgaverne består i

Klarer de sig bedre i Italien? I følge PISA ser det ikke sådan ud:
http://www.pisa.oecd.org/dataoecd/31/28/46660259.pdf

Som læsevejleder har jeg intet imod tests, men det er vigtigt at de tests, vi udsætter eleverne for, er relevante i forhold til de færdigheder vi ønsker at måle. Det er også vigtigt at have målet for øje i testsituationen; meningen med en test er, at eleverne skal blive dygtigere, og derfor skal testen afspejle god undervisning.

Mit indtryk er, at kun en håndfuld mennesker har set samtlige opgaver i de nationale test. På et tidspunkt ville jeg forsøge at råbe politikerne op ved at vise dem, hvor urimeligt og tilfældigt opgavesværheder var tildelt de enkelte opgaver. Derfor samlede jeg 300 testitems i afkodning og sendte dem ind til medlemmerne af folketingets uddannelsesudvalg. Jeg fik en personlig påtale af ministeren, og min chef blev kontaktet af ministeriet for at han kunne forklare mig alvoren i tavshedspligten om opgavebanken. Faktisk havde jeg overtrådt en paragraf med en straframme på et halvt års fængsel.

Ingen uafhængige pædagogiske forskere har haft mulighed for at kritisere disse opgaver, for tavshedspligten er absolut. Det betyder, at vi har en national test, der måler et eller andet, som ingen ved hvad er, og som lærere ikke må kritisere. Hvis man ønsker, at testene skal fremme elevernes dygtighed, er dette, for mig at se, det værst tænkelige udgangspunkt.

Spændende spørgsmål

Kan kun sige at det er nogle spændende spørgsmål du stiller og dit eksempel med Italien lyder spændende. Derfor vil jeg gerne vide hvilke litteratur du henviser til, som viser det italiensk system resulterer i stor faglig viden og færdigheder. Man skal nemlig ikke være bleg for at andre lande har andre værdier, der kan påvirke deres definition af succes.

Problem: Fejlkilder eller test?

Nicolaj Egebjerg Hansen
Nu er Danmark og dansk pædagogik ikke alene i verden.
Mange steder i udlandet (Europa) bliver børn testet (årsprøve) fra 3 klasse, og for dårlige resultater kan resultere i, at børnene skal gå en klasse om.
Det gør man f.eks. i Italien, og systemet resulterer i stor faglig viden og færdigheder.
Hvorfor er Danmark nået til et punkt, hvor man er bange for at drage konsekvenser af de tests som man udfører, hvis man overhovedet tester ? Skal alle være lige dumme ?

Forskel på intelligenstest og eksamen

En normal eksamen/afgangsprøve bygger på et pensum, og det er helt almindeligt at træne til afgangsprøverne - også i folkeskolen, hvor tidligere opgavesæt i afgangsprøven i dansk og matematik bliver brugt som en værdifuld del af undervisningen.

Opgaverne i de nationale test bygger IKKE på et pensum. De er alene designet til at kunne leve op til en Rasch-model, hvor elevens dygtighed er det niveau, hvor han netop kan besvare halvdelen af opgaverne. I praksis betyder dette, at en stor del af opgaverne er i et opgaveformat, som eleverne aldrig har set før. En væsentlig del af besvarelsen af de nationale test går derfor ud på, at kunne orientere sig i et ukendt opgavelandskab - ligesom i en intelligenstest.

Hele det adaptive setup - med store opgavebanker, der bliver genbrugt hvert år, betyder, at man ikke kan træne til de nationale test ved at bruge gamle opgaver. Men eleverne må gerne øve sig ved to frivillige testninger, før den obligatoriske nationale test - her vil de ofte møde nøjagtig samme opgaver, som de gør ved den "rigtige" test. Særligt hvis de er dygtige og får tildelt svære opgaver. Svære opgaver er en mangelvare i mange opgavebanker.

En væsentlig grund til at pålægge lærere tavshedspligt om opgaverne i de nationale test har været, at man ikke ønsker, at fx hele danskundervisningen skal handle om at kunne klare sig godt i opgaverne. I praksis betyder det, at små børn bliver sendt uforberedt ind til en test, hvor de efterfølgende får et resultat, der alene giver dem en vurdering i forhold til middel, men ikke fortæller, hvad de havde svært ved.

Hverken børn eller deres forældre har lov til at se prøveforløbet eller resultatberegningen. Disse ting er undtaget de sædvanlige bestemmelser om aktindsigt i persondataloven.

Det er da den største gang pseudovidenskab jeg længe har hørt

Ole Iversen
Jeg er helt enig, og vil tilføje, hvis artiklens konklusion var rigtig, kunne man med sindsro afskaffe alle kompetencegivende eksamener.

Mon ministeriet afviser begrundet kritik?

Hvorfor jeg ikke kommer til orde? Jeg forstår det heller ikke. Jeg er blevet kontaktet af journalister fra Ingeniøren og Politiken, men efter få dage trækker de sig igen. Jeg tror, at ministeriet er dygtige til at forklare, at der er ikke noget galt med de nationale test ved at henvise til Rasch-modellen, som de fastholder, er implementeret i de nationale test - selvom de ikke kan gøre nærmere rede for, hvordan opgavernes sværhed er fastslået.

Noget andet er, at jeg faktisk arbejder som folkeskolelærer og desværre ikke kan smykke mig med en ph.d. grad. Jeg er dog ved at færdiggøre en masteruddannelse. Måske er det med forskning som med kunst - kun ægte forskere kan kalde deres arbejde for forskning.

Men uanset, om jeg får lov at ytre mig eller ej, så er disse tests en realitet for omkring 500 000 børn årligt. Der er god grund til at tro, at små tilfældigheder kan flytte et elevresultat fra over middel til under middel, og derfor er disse tests med til at skabe utryghed hos elever og lærere.

Velunderbygget kritik af de nationale tests - i stedet for...

Tak for dit indlæg Marina - meget spændende og et emne jeg ikke havde hørt om før nu. Din korte introduktion til mulige matematiske problemer ved testen illustrerer en tankevækkende forskel på forskning og forskning.

Dit indlæg peger i korte og konkrete formuleringer på et oplagt faktuelt problem ved de nationale tests. Et problem (eller problemer) som det kan sandsynliggøres bør undersøges og afklares nærmere. Fagligt, fakta-funderet, præcist og ikke til at argumentere sig ud af med tolkninger, meninger eller overbevisning.

Artiklen som startede denne tråd er fuld af løse formuleringer og mulige følgeslutninger. Den ligner mere et stykke arbejde hvor det ønskede resultat er givet på forhånd.

Artiklens angrebsvinkel (og det post-doc-arbejde der ligger bag) vil blot mudre debatten om de nationale tests fordi den er så subjektiv - hvorfor er det ikke din vinkel der får fokus?

Tankevækkende...

Store statistiske problemer med de nationale test

Der er langt større problemer med de nationale test, end denne forskningsartikel giver udtryk for. Det adaptive princip betyder, at elevens resultat beregnes på en måde, der ikke ligner noget, vi tidligere har set i en test.

Jeg har beskrevet en del af problemerne i en kronik i ingeniøren:

http://ing.dk/artikel/120803-fjern-tavshedspligten-omkring-de-nationale-...

Et uhyggeligt kendetegn ved de nationale test er, at der ikke foreligger nogen som helst dokumentation for testenes egenskaber. Hverken for opgavernes sværhedsgrad eller for, om der er en nogenlunde rimelig test-gentest korrelation. Flere henvendelser om aktindsigt har ikke båret frugt, og læreres egenrapporteringer af problemer med testene bliver effektivt bremset ved, at testopgaver er pålagt tavshedspligt i følge folkeskolelovens §55 b.

Der er tydeligvis problemer med sværhedsgraderne i testenes opgaver. Disse kommer til udtryk, når der sker uventede forskydninger i testresultater, ved tilførsel af nye opgaver til opgavebankerne i de nationale test.

http://www.folkeskolen.dk/504337/28000-test-har-vaeret-ramt-af-fejl

Det er da den største gang pseudovidenskab jeg længe har hørt.

Den største gang pseudovidenskab jeg længe har hørt.

nr 1:
De eksempler på test, på undervisningsministeriets hjemmeside, som der bliver henvist til, har meget lidt at gøre med de tests som eleverne blive udsat for. I de rigtige tests bliver eleven skiftevis bliver udsat for spørgsmål lige over og under deres faglige niveau.

nr 2:
En test udført ved en computer må da være noget af det mest neutrale man kan forestille sig. Normalt har man en lærer med en forud bestemt opfatte af eleves evner til at bedømme eleven.

nr 3.
Hvor er laboratorieforsøgene henne som skal underbygge disse absurde påstande ?

Denne artikel minder mest om den sædvanlige omgang politisk korrekt forskning, hvor der ønskede resultat er givet på forhånd, og så er det bare med at regne baglæns, for at få alt til at stemme.

Ja, jeg ved det; men...

...hvis artiklen nogenlunde renfærdigt refererer pointerne fra post-doc'en, er der altså et problem med begge dele.

For hård dom

Er delvis enige i nogle af dine pointer, men hvis du ikke har læst post-doc'en, synes jeg du burde holde dig fra at kommentere på den.

Overskriften og indholdet hænger ikke sammen

Jeg mener ikke artiklen på nogen måde underbygger overskriften. Flertallet af de argumenter der fremføres for, at man ikke kan sammenligne fra skole til skole er enten generelle faktorer der gælder på alle skoler for alle børn - eller også er det faktorer der netop påvirkes af skolen.

"Opmærksomheden påvirket af andre ting". At det enkelte barn kan have sin opmærksomhed fanget af alt muligt, gælder for alle børn til alle tider. Derfor er denne problemstilling irelevant ift. at sammenligne skoler på tværs - grundforudsætningen er jo netop den samme for alle skoler.

"Hurtigt færdig vs. rigtigt færdig". Denne faktor vil de fleste steder være et ret præcist billede af skolens syn på 'hård' viden, faglighed, koncentration, dygtighed og tests. En skole med en fornuftig holdning til disse nøglebegreber vil typisk have meget få elever der sjusker.

"Forskelligt hvad vi kan i forskellige sammenhænge". Ja, og? 'Argumentet' er ikke en post-doc værdigt, hvis det er tænkt at skulle forklare artiklen budskab (så mangler der i hvert fald noget argumentation). Faktoren gælder for alle børn til alle tider og er den samme for alle skoler.

"Nogle er bedre i samarbejde end enkeltvis". Faktoren er en variant af foregående, og også en faktor der er ens for alle skoler. Hvis en skole har fokuseret for meget på gruppearbejde, og undladt at bibringe poderne den nødvendige faglige viden, vil skolen score lavt i den nationale test - helt efter hensigten.

"Evne til at huske fakta". Det er klart for de fleste, at testen nødvendigvis må måle på elevernes evne til at huske fakta, fremfor f.eks. at indgå i problemorienteret gruppearbejde; men det gør ikke testen mindre værd. Elevens evne til at huske fakta må da være en forudsætning for at kunne deltage meningsfuldt i de øvrige læringsaktiviteter? Jeg mener, vi kan jo ikke overleve, hvis den eneste hukommelse der findes, er Google?

"Kun en del af den faglige viden". Ja, og? Ingen test kan nogensinde afdække *alt*. Også denne parameter er fælles for alle børn på alle skoler.

Af de anvendte faktorer, er de fleste generelle og gælder (med høj statistisk sandsynlighed) lige meget for alle elever på alle skoler. De faktorer der ikke nødvendigvis er generelle, er netop afhængige af læringsmiljøet på den enkelte skole og kan derfor netop bruges til at sammenligne skoler med.

Artiklen (og måske også post-doc'en?) er en ommer...

Opmærksomhed og andre ting :-)

Sådan en artikel vækker lidt minder, så her er en historie fra det virkelige liv.

Triggeren er:
Elevernes opmærksomhed kan nemt være påvirket af andre ting, end netop den test de er i færd med at tage. , og 'historien' udspiller sig til en terminsprøve - vistnok i 3G/matematik.

Terminsprøver betyder jo ingen ting, da de ikke står på det endelige papir, så det var bare noget der skulle overstås hurtigst muligt, så man kan komme videre med 'andre' ting.

På tidspunktet for en given prøve havde jeg slet ikke 'tid' til det, da vi skulle til at hælde vores (færdiggærede) øl på flasker.

Det er da langt vigtigere end en 'terminsprøve'.

Disse prøver var sat til 4 timer (SVJH), men da jeg havde travlt med at komme til 'vores øl' (sammen med kammeraterne), valgte jeg at lave den direkte med blæk/kuglepen i stedet for at lave kladder.

Jeg fik den 'flået af' på ca. 20 min.

For mig betød det ingenting at jeg (selvfølgelig) lavede sjuskefejl og fik 9, men min matematiklærerinde - for s*** og sq* he*** hun blev gal !!!

Jeg fik en times revselse (i enerum) på et tidspunkt, hvor jeg fik læst og påskrevet osv.. dybt skuffet over mig, da hun havde forventet noget mere.

Der ligger naturligvis en morale til nutidige elever:
Jeg havde travlt med andre 'gøremål', men netop denne revselse gav mig det nødvendige 'spark i røven' til at fokusere på uddanelsen i stedet for "cigaretter whisky og nøgne pi'r".

Test af skolebørn

Det er da rart at se, andre end vi ældre kan se idiotien i alle de tests, der ikke er noget værd som sammenligningsgrundlag for skolernes kvalitet.

Problem: Fejlkilder eller test?

Synes det er nogle særdeles relevante betragtninger, men det er ikke sikkert at de fejlkilder du nævner er et problem for tolkningen af den overordnet udvikling. Det kan dog være et problem hvis forældre tolker for meget på deres barns score.
Vil til gengæld give dig helt ret i at test bliver lavet udfra subjektive holdninger. Ydermere tror jeg at testen kan være med til at ændre fokus for elever, da du som sagt nævner at mange færdigheder ikke egner sig til test, vil det, meget firkantet stillet op, ikke være muligt at sige jeg er god til det her, pga. den her test. Denne evne til at ændre fokus er efter mit synspunkt hovedårsagen til at man hvis ikke afskaffe, i hvert fald være meget varsom med hvordan vurdere disse.
Dette gælder måske mest andre folk end de lærer der har med eleverne at gøre. Dermed ikke sagt at de lærer, er de eneste der kan sig noget meningsfuldt om hvordan børnene klare sig, men de skal helt klart med i processen.

Seneste fra Kultur & Samfund

Annonceinfo

Det læser andre lige nu

Annonceinfo

Annonceinfo

Abonner på vores nyhedsbrev

Når du tilmelder dig, deltager du i konkurrencen om lækre præmier.
Annonceinfo

Seneste kommentarer

Seneste blogindlæg