Mængden af data er eksploderet, lige siden internettet fandt vej til vores mobiltelefoner for omkring 20 år siden.
I 2019 blev der hver dag produceret 294 milliarder e-mails, og i 2020 nåede den digitale datamængde 59 zettabyte – hvor en zettabyte er 1-med-21-nuller-bagved antal byte.
Alle de byte stammer fra alle mulige gøremål i vores hverdag, vores tanker, kroppe og relationer til andre mennesker.
Big data hedder det med et populært udtryk, som den irske geograf Rob Kitchin betegner som stigende mængde, hastighed og typer af data, der i højere grad kombineres, så man efterhånden kan vide alt om alle ved hjælp af data.
Den særlige form for matematiske modeller, som vi i daglig tale kalder kunstig intelligens, har gyldne dage i øjeblikket. Kunstigt intelligente algoritmer er motoren i at forstå store mængder af digitale data.
Uden dem kører databilen ikke.
Men hvorfor forstår digitale tjenester som Google eller Spotify så ikke bedre, hvad jeg vil have, når jeg nu afgiver så ekstremt mange data om mig selv, min adfærd og mine præferencer?
Hvorfor er der så meget bøvl med de selvkørende biler? Og hvordan kan det være, at algoritmer både kan redde liv, men også slå ihjel?
Kort sagt er svaret: Fordi kunstig intelligens ikke er rigtig intelligent.
\ Tænkepauser
Anja Bechmann har skrevet bogen ‘Tænkepauser – Data’, som denne artikel bygger på.
Tænkepauser er en bogserie fra Aarhus Universitetsforlag. I Tænkepauser formidler forskere deres viden på kun 60 sider i et sprog, hvor alle kan være med.
‘Data’ er nummer 90 i serien og udkom 7. juni 2021.
Læs mere om bogen her.
Data er algoritmernes hukommelse
Computeralgoritmerne giver bud på, hvad der er den bedste anbefaling eller i andre tilfælde det bedste bud på ansigtsmatch, og hvad den selvkørende bil skal foretage sig for at optimere kørslen.
Disse algoritmer indeholder avancerede matematiske modeller, som også går under betegnelsen kunstig intelligens – eller AI som en forkortelse for det engelske ’artificial intelligence’.
Man kalder det kunstig intelligens, fordi de matematiske modeller gør algoritmerne i stand til at lære og blive bedre.
På basis af store mængder data lærer algoritmer at se mønstre og foreslår eksempelvis på den baggrund, hvilke venners indhold jeg skal se, når jeg logger ind på Facebook.
Data bliver de lærende algoritmers hukommelse eller deres erfaring, om man vil. Og hvis algoritmerne ikke gør det, som programmørerne gerne vil have dem til, giver de dem flere, mere forfinede eller anderledes data, indtil de opnår et tilfredsstillende resultat.
\ Læs mere
Hybrid mellem menneskelig viden og matematisk beregning
De lærende algoritmer er som små børn, der skal have fortalt, hvad data er.
Lige meget, hvor intelligente algoritmerne er, så har mennesker på et tidspunkt trænet dem, ved at fortælle hvad der er misinformation, hvem et billede viser, og hvordan en selvkørende bil skal køre.
På den måde bliver algoritmerne en hybrid mellem menneskelig viden og matematisk beregning.
Den viden bruger algoritmerne ligesom børn til at tilgå nye ting. Når de ser noget nyt, forsøger de at finde et lignende element i deres hukommelse.
Algoritmerne handler derfor i vid udstrækning ud fra de data, de tidligere har set.
De lærende algoritmer kan genkende mønstre i vores store datamængder, som mennesker ikke kan se. Dermed kan de foreslå mere præcise beslutninger, end mennesker ville have været i stand til.
Efter at have set millioner af skanningsbilleder fra en MR-skanner kan en algoritme måske forudsige, hvor sandsynligt det er senere at udvikle kræft, hvis et bestemt område i ens hjerne ser ud på en bestemt måde.
Nogle gange kan algoritmers evne til at gennemtrawle gigantiske mængder data altså redde liv. Men algoritmer kan også slå ihjel.
\ Om Forskerzonen
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra Lundbeckfonden. Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af Lundbeckfonden. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
Teknologiske fremskridt kan være livsfarlige
Elaine Herzberg er navnet på den første fodgænger, der blev dræbt af en selvkørende Uber-bil.
Ulykken skete i Arizona i 2018, og bagefter undrede undersøgelsesteamet sig over bilens data, og hvorfor algoritmen ikke kunne genkende det tydelige menneske på videoen.
Eller måske kunne den, men besluttede alligevel af uvisse årsager at køre hende ned.
To år tidligere blev Joshua Brown dræbt i en selvkørende Tesla, da den kørte ind i en hvid lastbilanhænger, der også undslap algoritmens datagenkendelse.
Begge bilers kunstige intelligens var uden tvivl indstillet til at undgå menneskedrab, men lastbiler, der går i ét med omgivelserne, eller mennesker, der ikke opfører sig som forventet, kan være svære for algoritmer at håndtere.
\ Læs mere
Hvem skal vi redde?
Samtidig kan der opstå moralske dilemmaer med selvkørende biler, som et forskerhold i 2018 viste i tidsskriftet Nature med det såkaldte moralske maskineksperiment.
Forskerne fik svar fra millioner af mennesker fra 233 lande og regioner verden over og fandt ud af, at nogle kulturer ville favorisere yngre mennesker over ældre, mens andre ville det modsatte, hvis de ikke kunne redde alle i en ulykke med en selvkørende bil.
Det er med andre ord kulturbestemt, hvordan vi mennesker mener, at maskiner skal opføre sig.
Dataloger kalder det ’smal AI’, fordi denne form for kunstig intelligens er designet til en meget specifik funktion, og det vrimler med den slags lærende algoritmer i vores datadrevne samfund. Landmænd bruger dem til at fodre svin, og bankfolk handler aktier med dem.
Generel AI skal lære at imitere mennesket
Selv om smal AI altovervejende er motoren i vores digitale samfund, er det ofte såkaldt ’generel AI’, politikere og forskere debatterer i medierne.
Generel AI har en historie, der går helt tilbage til tankerne omkring computere og intelligens i Ada Lovelaces notater fra 1842.
Lovelace var den kendte engelske digter Lord Byrons datter og anses for at være den første, der lavede en algoritme, som en maskine skulle udføre.
Mest kendt er dog nok den engelske matematiker Alan Turings artikel i tidsskriftet Mind fra 1950, hvor han diskuterer computerintelligens som et spørgsmål om at efterligne menneskelig kommunikation.
Målet er gennem data at træne maskinen til at blive så god til at simulere, at man slet ikke kan kende forskel på, om det er en computer eller et menneske, man interagerer med. Det er den såkaldte Turing-test.
Den har i 70 år inspireret de mennesker, der har arbejdet på at skabe menneskelignende robotter, de såkaldte humanoids, som vi har set i science fiction-film som Ex Machina fra 2014 og tv-serien Westworld fra 2016-2020.
Da robotten Sophia ville ødelægge mennesker
Den meste kendte humanoid er robotten Sophia, som fik statsborgerskab i Saudi-Arabien i 2018 – hvad det så end betyder for en kvindelig robot.
Sophia optrådte første gang på teknologifestivalen SXSW i Austin, Texas, to år tidligere, hvor hun med blankt metalbaghoved uden hår og en noget mekanisk ansigtsmimik førte en samtale med sin skaber og nogle journalister om alt fra fritidsinteresser til fremtidsplaner.
Hun blev berømt og berygtet for at ende med at sige, at »hun vil ødelægge mennesker«, og på den måde ’afslørede’ hun sin ikke-menneskelige karakter, fordi de kulturelle normer og værdier ikke var indkodet tilstrækkeligt i hendes algoritme.
Programmørerne havde sandsynligvis ikke trænet hende nok på data om relationen mellem mennesker og robotter eller på data om empati.
Kunstig intelligens kan imitere, men ikke forstå
Meningen med Sophia var at imitere menneskelig kommunikation og adfærd ved hjælp af kunstig intelligens.
Men menneskers liv er så fyldt af tvetydige og udefinerbare sociale og kulturelle regler, at det har vist sig enormt svært at trække sådanne regler ud af data.
For en filosof som amerikanske John Searle er det imidlertid slet ikke nok, at et computerprogram kan bestå Turing-testen for at kvalificere sig som kunstig intelligens.
Hans argument kaldes ’det kinesiske rum’. Searle mener, at algoritmerne også skal have egne intentioner for at være generel AI og dermed have en evne til at forstå eller skabe mening og være bevidste.
Jeg kan i teorien kommunikere i et begrænset omfang med en kineser på kinesisk uden at forstå sproget, hvis jeg får den rette hjælp.
Med Googles sprogværktøjer kan jeg i princippet skrive og tale på alle mulige sprog uden at forstå en dyt af det, jeg siger.
Jeg imiterer bare, men forstår ikke.
Taler bare ud fra den data, de er fodret med
Men intelligens er evnen til at tilegne sig viden, opfatte og forstå sammenhænge mellem forskellige fænomener, tænke abstrakt og løse problemer.
Jeg har et sind, en intention og bevidsthed og evnen til at forstå, ifølge Searle.
Hverken den brede AI-robot Sophia eller de smalle algoritmer til at købe aktier eller finde anlæg for hjernesvulster med er således intelligente.
De taler bare ud fra de data, de er blevet fodret med, selv om det kan være i uforudsete kombinationer, som kan være mere eller mindre gavnlige eller heldige.
\ Læs mere
\ Kilder
- Anja Bechmanns profil (AU)
- ‘Tænkepauser – Data’, Aarhus Universitetsforlag (2021)
- ‘Big Data, new epistemologies and paradigm shifts’, Big Data & Society (2014), DOI: 10.1177/2053951714528481
- ‘Computing Machinery and Intelligence’, Mind (1950), DOI: 10.1093/mind/LIX.236.433
- ‘Minds, brains, and programs’, Behavioral and Brain Sciences (1980), DOI: 10.1017/S0140525X00005756
- ‘The Chinese Room Argument’, he Stanford Encyclopedia of Philosophy (2020)