Kunstig intelligens læser 3,5 millioner bøger og konkluderer: Kvinder er smukke, mænd er rationelle

En kunstig intelligens har ledt efter mønstre i 3,5 millioner bøger og finder kendte kønsstereotyper. (Illustration: Shutterstock)

En kunstig intelligens har ledt efter mønstre i 3,5 millioner bøger og finder kendte kønsstereotyper. (Illustration: Shutterstock)

28 august 2019

Smuk og sexet. Det er to af de allermest brugte tillægsord om kvinder.

Retskaffen, rationel og modig bliver til gengæld rigtig ofte brugt om mænd. Det skriver Københavns Universitet i en pressemeddelelse.

En datalog fra Københavns Universitet har sammen med forskerkolleger fra USA gennemtrawlet en enorm mængde bøger for at finde ud af, om der er forskel på den type ord, mænd og kvinder bliver beskrevet med i litteraturen.

Forskerne har ved hjælp af en ny computermodel analyseret et datasæt bestående af hele 3,5 millioner bøger. Bøgerne er udgivet på engelsk i perioden 1900 til 2008 og er en blanding af skøn- og faglitteratur.

»Vi kan tydeligt se, at de ord, der bliver brugt om kvinder, i langt højere grad går på deres udseende, end de ord der bruges til at beskrive mænd. Dermed har vi fået bekræftet en udbredt opfattelse, men nu på et statistisk niveau,« siger datalog og adjunkt Isabelle Augenstein fra Datalogisk Institut på Københavns Universitet i en pressemeddelelse.

Forskerne har udtrukket alle de tillægsord og udsagnsord, der knytter sig til kønsbestemte navneord (for eksempel ’datter’ og ’stewardesse’). Det kan eksempelvis være kombinationerne ’sexet stewardesse’ eller ’pigerne sladrer’.

De har derefter analyseret, om ordene har en positiv, negativ eller neutral betydning.

Datalogernes analyser viser, at negative udsagnsord, der knytter sig til kroppen og udseendet, bruges hele fem gange så ofte om personer af hunkøn end personer af hankøn.

Analyserne viser også, at positive og neutrale tillægsord om kroppen og udseendet forekommer cirka dobbelt så ofte i beskrivelser af personer af hunkøn, hvor personer af hankøn derimod hyppigst bliver beskrevet med tillægsord, som har at gøre med deres opførsel og egenskaber.

Førhen har det typisk været sprogforskere, som har kigget på forekomsten af kønsbias, men ud fra mindre datamængder. Med maskinlærings-algoritmer kan dataloger i dag analysere data i kolossale mængder – i dette tilfælde 11 milliarder ord.

LÆS OGSÅ: Kønsstereotyper om klogskab rammer piger fra 6-års-alderen

Selvom mange af bøgerne er udgivet for flere årtier siden, spiller de stadig en aktiv rolle, påpeger Isabelle Augenstein. De algoritmer, som bruges til at lave maskiner og programmer, der kan forstå menneskesprog, bliver nemlig fodret med data i form af tekstmateriale, der ligger tilgængeligt på nettet. Det er den teknologi der fx bruges, når vores smartphones genkender vores stemmer, og når Google giver os forslag til søgeord.

»Det, algoritmerne gør, er at identificere mønstre, og hver gang de observerer et mønster, opfattes det, som at noget er ”sandt”. Og hvis nogle af disse mønstre refererer til biased sprog, bliver resultatet også biased. Systemerne adopterer så at sige det sprog, vi mennesker bruger - og dermed også kønsstereotyper og fordomme,« siger Isabelle Augenstein og giver et eksempel på, hvor det kan have betydning:

»Hvis det sprog, vi bruger om mænd og kvinder er forskelligt i for eksempel anbefalinger af medarbejdere, får det indflydelse på, hvilke personer der tilbydes job, når firmaer bruger IT-systemer til at sortere jobansøgninger.«

LÆS OGSÅ: Er vores køn formet af biologi eller kultur?

LÆS OGSÅ: Skønlitteratur gør dig klogere på dig selv

ams

Ovenstående er udvalgt og resumeret af Videnskab.dk, men redaktionen har ikke udført selvstændig research. Gå til den oprindelige kilde for flere detaljer.