Lever dit databillede op til samfundets skønhedsidealer?
KOMMENTAR: Private selskaber og det offentlige henter data ind om os hver dag. Vi skal have digital dannelse og teknologi-forståelse på skoleskemaet, hvis vi i fremtiden skal kunne stille os kritisk overfor den kontrol, som dataovervågning kan skabe.
digital skole børn skærm data

En god teknologiforståelse kræver, at der undervises i det i skolen, mener forskerne, der blandt andet har talt med elever i 8. klasse om deres forhold til, hvilke data der bliver indhentet om dem. (Foto: Shutterstock)

Hvad ville du sige til at betale 12 kroner for den økomælk, kunden før dig betalte 9 kroner for?

Hvordan ville du reagere, hvis du fik high-speed internet af at droppe din barndomsveninde – og slow-speed, hvis du beholdt hende?

Eller hvis du blev nægtet en togrejse over Storebælt som straf for din negative udtalelse om regeringens energipolitik?

Ikke særlig positivt, gætter vi på. For du lever i et demokrati. Du har politiske rettigheder, frihedsrettigheder og sociale rettigheder.

Eller har du?

De fleste af os bruger meget af vores tid ved en skærm, og uden vi registrerer det, indhenter et hav af programmer et hav af data om os. Om hvad vi klikker på, hvad vi taler om, og hvordan vi bevæger os.

Vi ved faktisk ikke, hvad der sker med de data, vi fodrer programmerne med. Men modsat den fysiske verden, så finder vi os i det.

Det bør vi gøre noget ved. Og den digitale dannelse skal starte i skolen.

»På en eller anden måde er det jo lidt skræmmende«

Som led i vores igangværende forskning har vi blandt andet talt med elever i 8. klasse om deres forhold til, hvilke data der bliver indhentet om dem.

»Er der noget, der kunne få jer til ikke at ville downloade en app – for eksempel at den skulle have adgang til et eller andet?« spørger vi Malte og Alfred fra 8. Z i en uformel samtale.

Ingen af dem kan komme i tanke om noget: »Hvad er det værste, der kan ske? En målrettet annonce? Altså … der er ikke nogle slemme konsekvenser, jeg har oplevet af det,« ler Malte.

Isabella og Victor fra 8. A reflekterer i en anden samtale: »Der har været sådan noget med Facebook, hvor de bare gemmer alt om dig. Sådan noget som ens fødselsdato og sådan noget, det er bare i en database.«

Vi spørger, om de ved, hvad de bruger disse data til.

»Bruger de det?« siger Isabella overrasket. Victor synes at kunne huske, at der var en retssag for ikke så længe siden: »Altså … hvis du nu ligner en, der spiller meget fodbold, så kan de komme med reklamer, som handler meget om fodbold,« fortæller han.

Vi spørger, om de synes, målrettede reklamer er smart eller irriterende.

»Det ér vel smart,« siger Isabella. »Så har de fundet ens interesser,« uddyber hun, da vi spørger ind til det smarte.

Maja fra 8. Z er lidt skeptisk over det smarte:

»På en eller anden måde er det jo lidt skræmmende, at … bare det at vide, at det hele bliver brugt, og det hele bliver så’n lyttet til næsten. Og kigget på. Selvfølgelig er det lidt skræmmende.«

Snakken går på hendes mobilvaner og forståelse for de data, hendes yndlingsapps indsamler om hende.

Og hendes skepsis er sund – for data om hende bliver i den grad opsnappet og omformet af algoritmer. Ikke kun 'lidt' og 'næsten'.

Vi bidrager til kagen, men kender ikke opskriften

En algoritme kan lidt løst sammenlignes med en udviklers opskrift. Den består af en række ingredienser, et blandingsforhold og en fremgangsmåde.

Resultatet er en kage, skåret præcis efter udviklerens ønsker, som dernæst serveres for os og løbende tilpasses med nye ingredienser.

Vi bidrager med vores dataingredienser, men hvad kagen ellers består af, eller hvordan den er blevet til, ved vi ikke. Programmet fortæller det ikke, og det er ikke noget, vi lærer om i skolen.

Alligevel spiser vi gladeligt løs, mens andre tjener tykt på vores voksende sukkerafhængighed og tykke maver.

For har vi egentlig andre valg?

Dit forsikringsselskab kigger med, når du kører i bil og spiser burger

Forudsigende algoritmer er, som navnet antyder, skabt til at forudsige handlinger.

Målrettet indhold, der gennem brug af data forudsiger potentielle kunder og forsøger at lokke os på nøjagtig rette tid og sted med størst mulig sandsynlighed for, at vi opfører os som intenderet, er efterhånden et velkendt eksempel – men det er blot ét blandt utallige.

Ved du for eksempel, hvorfor Klaus betaler 1.300 kroner mindre om året for sine forsikringer i Gentofte bymidte, end du gør fem kilometer uden for Aabenraa?

Danske forsikringsselskaber indsamler oplysninger fra en lang række registre om os – men også om personer, der ligner os – så de kan skræddersy deres priser. De har desuden kig på muligheden for at samle data ind om, hvor hurtigt vi accelererer, og hvor hårdt vi bremser op, når vi kører i vores bil.

Og endda udnytte mobildata omkring, hvordan vi bevæger os i løbet af en dag. Så skynd dig ned i fitnesscentret, og hold dig fra fastfood-kæderne. 'Your insurance company is watching you'.

overvågning offentlig privat digital data

Både private selskaber og det offentlige kigger dig over skulderen i den digitale virkelighed. (Foto: Shutterstock)

Hvem holder det offentlige øje med?

Og forsikringsselskaberne er ikke de eneste, der holder øje. Det offentlige har adgang til store datasæt, som giver mulighed for at forbedre offentlig service, forebygge kriminalitet og kontrollere.

Men hvilke fordomme er algoritmerne designet til at vedligeholde? Hvem udsættes for mistænkeliggørelse i kriminalsager, hvis forudsigelserne bygger på forudsigende algoritmer – ikke blot ud fra dine data, men også ud fra data om andre, der ser ud til at ligne dig?

I Pittsburgh bor eksempelvis et omsorgsfuldt forældrepar, der frivilligt hjælper andre børn i deres samfund. Det til trods er parret flere gange blevet flagget, som det hedder, i digitale databaser for omsorgssvigt.

Deres 'forbrydelse' er, at de er fattige.

Værre står det til, hvis dine data ligner en terrorists. I så fald må du krydse fingre for, at dræberdronen, der er designet til målrettet drab, er programmeret med mennesker i beslutningsloopet, før den angriber dig.

Kinas digitalt diskriminerende diktatur

Skræmmeeksemplet over dem alle er Kinas eksperimenter med et socialt kreditsystem.

Gennem brug af borgernes data foretager Kina test med at generere en 'borgerscore', og du gør fornuftigt i ikke at udtale dig kritisk og uafhængigt eller bruge (for) mange timer om dagen på at spille computer, hvis du vil have en høj score, der giver dig adgang til eksempelvis visum til andre lande eller retten til at rejse med fly inden for landets grænser.

Måske er det også en god idé at gentænke dine venskaber og klippe nogle familiebånd. For også din omgangskreds’ adfærd kan ramme dig.

Til gengæld kan det betale sig jævnligt at købe bleer, hvis du vil oppe din score – for så er du sandsynligvis en ansvarlig forælder. Hvis altså ikke du 'gamer' systemet i afmagt for at komme til at ligne den prototypiske gode statsborger.

Men mon ikke, der er nogen, der får øje på dig, hvis det sidste er tilfældet? Genkendelsesteknologier gemmer nemlig ansigter og stemmer i en database, der linkes til personlige ID-numre. Ultimativ kontrol og no escape.

Så hvad gør vi – hvis vi ikke vil ofre vores demokrati for et digitalt diskriminerende diktatur?

I et demokrati skal alle lære at forstå teknologierne

Vigtigheden af at forstå datalogi i et demokratisk samfund blev formuleret for 50 år siden af datalogiprofessor Peter Naur – en dansk pioner på området – da han i 1968 slog fast, at »forståelsen af datamaternes programmering må bringes ind i almenuddannelsen og således blive almeneje«.  

I modsat fald advarede han om, at ekspertprogrammørerne ville komme til at indtage en magtstilling, der ville sætte demokratiet over styr.

50 år senere er hans advarsel mere relevant end nogensinde – og det er på tide, vi tager den alvorligt.

Når automatiserede systemer, designet af black box-algoritmer, i stigende grad træffer beslutninger uden menneskelig indblanding, bliver det i stigende grad umuligt for os at forstå, hvorfor vi eksempelvis bliver afvist, når vi ansøger om et lån, hvorfor vi får afslag på eller bliver fyret fra drømmejobbet, eller hvorfor vores forsikringspræmie pludselig er højere end andres.

'Det med småt' er ikke nok

To amerikanske professorer påpeger, at vi må afkræve, at teknologivirksomhederne bliver gennemsigtige, så vi som borgere kan få indsigt i forudsigende algoritmer, der har indflydelse på vores liv. Ikke blot gennemsigtighed, men meningsfuld gennemsigtighed, der understøtter forståelse.

De to professorer identificerer otte vigtige kategorier, vi som borgere må kende til, blandt andet en algoritmes mål og det problem, den adresserer, hvilke datasæt den trænes med – og hvilke der udelukkes – og en letforståelig sproglig forklaring på, hvordan den virker.

En anden amerikansk professor forlanger også, at alle får mulighed for at forstå algoritmer: »I takt med at kunstig intelligens anvendes mere bredt, vil det være afgørende at forstå, hvordan den når frem til sine konklusioner« – og tekniske forklaringer og 'det med småt' er ikke nok:

»Det må forklares til mennesker – også mennesker, der ikke er eksperter i kunstig intelligens.«

Med andre ord skal vi ikke kun have ret til at kende de data, vi putter ind i maskinerne – vi skal også vide, hvad der sker med dem inde i maskinen, og hvad der kommer ud.

Datalogi på skoleskemaet!

Men politisk regulering og forklaringer er ikke nok. I et samfund, der er så gennemsyret af data, må datalogi på skoleskemaet.

Det er ikke nok at have adgang til en bog for at lære at læse og analysere tekster. På samme måde er det heller ikke nok at kende de opskrifter, programmer er opbygget af.

Teknologiforståelse kræver undervisning.

I en nylig undersøgelse foretaget af Epinion for Undervisningsministeriet fremgår det blandt andet, at børn og unge oplever høj kontrol over de data, de deler på nettet. Men denne følelse bygger på at være i kontrol, hvis man har kontrol over sit input, det vil sige de data, man selv lægger op og deler.

Den tager altså ikke højde for, at man faktisk sjældent aner, hvad der sker med data inde i maskinen, og hvad outputtet er.

Desuden sporer man i undersøgelsen en tendens til, at digital dannelse handler om individet. Det samfundskritiske perspektiv mangler.

Teknologi bør bruges på medmenneskelige måder

Forskerzonen

Denne artikel er en del af Forskerzonen, som er stedet, hvor forskerne selv kommer direkte til orde.

Her skriver de om deres forskning og forskningsfelt, bringer relevant viden ind i den offentlige debat og formidler til et bredt publikum.

Forskerzonen er støttet af Lundbeckfonden.

Det er vores ansvar at lære børn at analysere og fortolke de algoritmer, der påvirker vores liv, så vi kan træffe valg på grundlag af oplysning og handle på grundlag af indsigt. Så vi ikke ender med individuelle priser i supermarkedet.

Så vi ikke ender med at betale med venner for ordentlig internethastighed. Så vi ikke ender med at ofre vores ytringsfrihed for en togrejse.

Og så vi i stedet kan vælge at bruge teknologierne positivt til alle de fantastiske ting, de faktisk kan hjælpe os med – såsom at identificere sygdomme i tidligere stadier, afhjælpe klimaforandringer eller klare rutineopgaver, der frigiver os tid til at koncentrere os om ting, der kræver menneskelig bevidsthed.

For eksempel at tage os af hinanden.

Forfatterne har udfoldet denne artikels pointer i en akademisk artikel, der forventes at udkomme i en antologi på Aarhus Universitetsforlag i 2019 med titlen: ’Maskiners (u)intelligens og algoritmers (a)moral – et demokratisk perspektiv på datalogisk tænkning og teknologiforståelse som fag i skolen’.

Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.