Forestil dig, at du har været så uheldig eller uklog at begå en forbrydelse, og at en domstol netop har fundet dig skyldig. Nu kommer så det øjeblik, hvor straffen skal udmåles.
Men på det tidspunkt viser det sig, at dommeren for længst har forladt retssalen – for at indlede en anden retssag – og overladt jobbet til en algoritme.
Efter et kort øjeblik får du svaret: Algoritmen giver dig seks måneders fængsel.
Denne lille historie er naturligvis fiktion og giver måske mest af alt mindelser om begyndelsen til en Hollywood-film.
Ikke desto mindre er der tale om en mulighed, der ikke er så fjernt fra virkeligheden, som man måske skulle tro.
Hvilke fordele og udfordringer fører algoritmer i retssystemet med sig? Det er emnet for en ny bog og for resten af denne artikel.
\ Om bogen
Antologien Sentencing and Artificial Intelligence er redigeret af Jesper Ryberg og Julian Roberts og er netop udkommet hos forlaget Oxford University Press.
I antologien medvirker filosoffer, kriminologer og jurister fra universiteter i USA, England, Canada, Australien, Israel, Tyskland, Holland, Slovenien og Danmark.
Se her for mere information.
Er algoritmer i retssystemet ønskværdige eller ej?
Algoritmer bruges allerede i dag i retssystemer til at bidrage med informationer, som dommere kan inddrage i deres vurdering. For eksempel benytter man i mange delstater i USA algoritmer til at foretage risikovurderinger af kriminelle.
På baggrund af en lang række informationer foretager algoritmen en vurdering af, om en tiltalt er en ’højrisiko’- eller ’lavrisiko’-kriminel, altså om det er mere eller mindre sandsynligt, at vedkommende vil begå ny kriminalitet.
Men også når det kommer til selve udmålingen af straffe, ser man blandt andet i asiatiske lande i dag de første initiativer til at introducere algoritmer i arbejdet.
I Danmark er det endnu ikke aktuelt, men det er nok blot et spørgsmål om tid, før vi også – som minimum – begynder at overveje muligheden.
Det afgørende spørgsmål er naturligvis, om dette er ønskværdigt, altså hvad det indebærer af mulige fordele, samt hvad der er af udfordringer, der må håndteres.
Dette har været emnet for et forskningssamarbejde, der involverede forskere – filosoffer, kriminologer og jurister – fra universiteter i ni forskellige lande, og som har resultatet i vores bog Sentencing and Artificial Intelligence, der netop er udkommet hos forlaget Oxford University Press.
Anvendelse af algoritmer – der for eksempel benytter såkaldt ’machine learning’ (maskinlæring) – har ofte fokus på at kunne løse opgaver effektivt og ressourcebesparende.
Men det er klart, at når det gælder anvendelsen af kunstig intelligens til at vejlede eller eventuelt helt erstatte dommere i forbindelse med strafudmåling, er der mange andre retssikkerhedsmæssige forhold, der må tages i betragtning.
Dømt på et uigennemsigtigt grundlag
Et første emne, der bliver behandlet i bogen, og som har været genstand for en del debat, angår gennemskueligheden af, hvordan en algoritme når frem til sine anbefalinger.
En sag, der i særlig grad har tændt op under denne diskussion, udspillede sig for nogle år siden, da en tiltalt – Eric Loomis – blev dømt ved en domstol i Wisconsin for at deltage i et såkaldt ’drive-by shooting’.
I forbindelse med sagen blev der brugt en algoritme, kaldet COMPAS, til at foretage en farlighedsvurdering af Loomis.
Resultatet var, at Loomis blev klassificeret som en kriminel med høj risiko for tilbagefald (’high-risk offender’).
Loomis var ikke tilfreds med det svar. Han ville godt vide, hvorfor han endte med at få det prædikat.
Sagen endte i Wisconsins højesteret, som fastslog, at dette kunne Loomis ikke få at vide, da algoritmen var udviklet af et privat firma. Derfor var dens præcise måde at fungere på en forretningshemmelighed.
Afgørelsen tiltrak sig forståeligt en del opmærksomhed og har rejst en bredere diskussion om, hvilke krav der skal være til transparens, når kunstig intelligens (herfra AI) benyttes i retssystemer – hvor det at begrunde en afgørelse normalt anses for vigtigt.
\ Læs mere
\ Om Forskerzonen
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra vores partnere: Lundbeckfonden, Aalborg Universitet, Roskilde Universitet og Syddansk Universitet og Region H.
Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af partnerne. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
Hvordan sikrer vi, at algoritmer ikke diskriminerer?
Et andet emne, vi behandler i bogen, er såkaldt ’algoritmisk fairness’. Det beløber sig i denne sammenhæng først og fremmest til spørgsmålet om, hvorvidt algoritmer anvendt i retssystemer risikerer at være diskriminerende.
Det er i dag velkendt, at hvis for eksempel en ’machine learning’-algoritme fodres med data om afgørelser, der på den eller anden måde er diskriminerende, vil det blive opfanget og reproduceret af algoritmen.
Eksempelvis kan algoritmer i praksis være skævvredne i forhold til minoritetsgrupper.
Hvis man skal skabe algoritmer, der kan udmåle straffe, er det derfor både vigtigt, hvilken typer algoritme man benytter, og hvilke data de eventuelt trænes ud fra.
Men hertil kommer endnu mere basale spørgsmål, såsom: Hvornår kan der overhovedet siges at være tale om diskrimination, og under hvilke betingelser forskelsbehandling må anses for etisk problematisk.
Det er ikke enkle spørgsmål.
Masser af ubesvarede spørgsmål
Foruden spørgsmål om algoritmisk fairness rejser anvendelse af AI i forbindelse med strafudmåling også en bred vifte af andre vigtige spørgsmål.
- Hvordan kan man eksempelvis bedst sikre, at algoritmiske straffeanbefalinger inddrager, hvad der måtte være af formildende og skærpende hensyn i en straffesag?
- Hvordan kan man bedst håndtere fejl, som måtte være knyttet til svar givet af algoritmer, og som jo kan have ganske voldsomme konsekvenser, når der er tale om udmåling af straf?
- Og hvad er overhovedet et passende kriterium til at vurdere, om en algoritme gør sit arbejde godt nok?
Hertil kommer, at mange af disse spørgsmål er komplicerede af at være komparative i den forstand, at det ikke er nok alene at se på, hvad en algoritme formår, når straffe skal udmåles.
Det afgørende spørgsmål må altid være, om de ulemper og fordele, der er ved at introducere AI-værktøjer, er større eller mindre end de eventuelle ulemper og fordele, der er ved alene at lade beslutninger ligge i hænderne på mennesker – der jo ikke er fuldkomne.
Brug for mere forskning
Bogen udgør et første forsøg på at adressere nogle centrale udfordringer, som rejser sig, hvis AI skal introduceres i domstolenes arbejde.
Den viser med al tydelighed, at det er et felt, hvor der fremover vil blive brug for meget forskning.
Men det står dog som sagt allerede nu særdeles klart, at det på ingen måde vil være tilstrækkeligt blot at reducere diskussionen om brug af AI-værktøjer i retssystemet til et spørgsmål om ressourcebesparelse.
Når det gælder samfundets straffe af kriminelle, er der mange retssikkerhedsmæssige og etisk vigtige hensyn på spil.