Britiske Barings Bank kollapsede i 1995, fordi Nick Leeson – en trader, som arbejdede på bankens kontor i Singapore – gennem en årrække havde foretaget spekulative handler uden bankens godkendelse.
I begyndelsen gik Leesons investeringer godt, men efterhånden akkumulerede de betydelige tab, som Leeson forsøgte at dække ind med stadigt mere risikable handler.
Da korthuset styrtede sammen, tog Leeson den mere end 200 år gamle bank med i faldet.
Leeson fik fængselsstraf og udgav efterfølgende en bog, Rogue Trader, om forløbet (senere filmatiseret med samme titel).
Leesons gerninger kunne give anledning til psykologiske overvejelser over, hvad der driver spekulativ adfærd i de finansielle markeder og risikobetonet adfærd mere generelt (Leeson studerede da også psykologi efter sin løsladelse).
Egeninteresse versus virksomhedens interesse
Leesons adfærd er også et eksempel på det, der inden for samfundsteorien omtales som ’principal-agent-problemer’, som omhandler situationer, hvor én person eller gruppe af personer (principalen) delegerer beslutningskompetence til en anden (agenten).
Problemet opstår, når agenten har incitamenter til at handle på en måde, som maksimerer vedkommendes egne interesser fremfor principalens.
I Leesons tilfælde var han ansat til at forvalte bankens penge gennem investeringer, men han gjorde det på en måde, som overskred hans beføjelser i håb om at opnå personlige bonusser.
Agenten handlede ikke i principalens interesse, og det blev i sidste ende dyrt for dem begge.
Når jeg vælger at indlede med en næsten 30 år gammel sag, skyldes det, at den fint illustrerer den grundlæggende problematik mellem agent og principal.
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra vores partnere: Lundbeckfonden, Aalborg Universitet, Roskilde Universitet og Syddansk Universitet.
Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af partnerne. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
Siden Leeson er computeralgoritmer begyndt at indtage og dominere de finansielle markeder, og det betyder blandt andet, at det ikke længere indlysende, at agenten udgøres af en person.
Før jeg diskuterer implikationerne heraf, er det relevant at dykke lidt dybere ned i klassiske principal-agent debatter.
Hvordan får man agenten til at handle i principalens interesse?
Principal-agent-problemer forekommer i mange typer af sammenhænge, som sjældent er lige så spektakulære som Leeson-eksemplet.
Oprindeligt formulerede økonomerne Michael Jensen og William Meckling principal-agent-problemet til at beskrive forholdet mellem aktionærerne i en virksomhed og dens ledelse.
Ledelsen kan siges at handle på vegne af aktionærerne, men sidstnævnte har ingen garanti for, at førstnævnte ikke primært tilgodeser egne interesser.
Forskere har gennem tiden opstillet forskellige bud på, hvordan det grundlæggende problem med mulige interessekonflikter ved delegation af beslutningskompetence kan håndteres, således at adfærd afstemmes på tværs af principal og agent.
For eksempel er det blevet foreslået, at agentens adfærd kan bringes i overensstemmelse med principalens gennem særlige økonomiske incitamenter eller gennem klare kontraktuelle rammer.
Det er også blevet anført, at for så vidt som agentens opgaver kan specificeres klart og tydeligt, er det nemmere for principalen at overvåge, om der sker afvigelser fra det, agenten er bemyndiget og instrueret til.
Fra menneske til altdominerende algoritmer
Gennemgående for samfundsteoriens diskussioner om og mulige løsninger af principal-agent-problemet er, at man har betragtet agenten som et menneske:
Principal-agent-problematikken opstår, fordi der er et fysisk individ (eller en gruppe af individer), hvis interesser kan være i konflikt med principalens.
Denne optik indrammer fint eksemplet med Barings Bank. Ved at spekulere uden for sit mandat kunne Leeson sikre sig markante personlige bonusser, men det skete med betydelig risiko for banken.
Selv om banker verden over stadig har store grupper af individer ansat til at investere i finansielle produkter, er der de seneste årtier sket en transformation af de finansielle markeder, som stiller principal-agent-problemet i et nyt lys.
Snarere end mennesker af kød og blod er det således frem for alt fuldt automatiserede algoritmer, som i dag sender købs- og salgsordrer til børserne.
Det er vanskeligt at opgøre omfanget af disse algoritmer, men estimater peger på, at fuldt automatiserede algoritmer i visse markeder – for eksempel nogle aktiemarkeder – står bag 99 procent af det samlede antal ordrer.
Sådan fungerer 1. generation af algoritmerne
Den finansielle algoritmehandel kan opdeles i to generationer, hvor førstegenerationsalgoritmer forfølger strategier, mennesker har udviklet, mens andengenerationsalgoritmerne selv udvikler strategierne.
Den første generation af fuldt automatiserede algoritmer fik for alvor fart i begyndelsen af det 21. århundrede. Førstegenerations-algoritmer er kendetegnet ved, at deres beslutningslogikker er designet fra ende til anden af mennesker.
Typisk er arbejdsgangen den, at en trader på baggrund af omfattende markedsanalyser definerer en mulig investeringsstrategi, som da bliver omsat til computerkode af en gruppe programmører.
Resultatet er en klassisk ’hvis… så…’-logik, hvor algoritmen er designet til at agere på bestemte måder under givne markedsforhold.
Det kunne for eksempel være, at algoritmen skynder sig at købe en aktie, hvis den kan spotte, at efterspørgslen efter den givne aktie pludselig stiger – og så sælger den sekunder (eller mikrosekunder) efter, hvis kursen er steget.
Selv helt små gevinster per algoritmehandel kan være attraktive, hvis man foretager tusindvis af dem i minuttet – hvad mange førstegenerationsalgoritmer gør.
Tabte 460 millioner dollars på 45 minutter
Og hvad har disse førstegenerationsalgoritmer så med principal-agent-problematikken at gøre?
På sin vis intet. Algoritmen, som træffer investeringsbeslutninger, har trods alt ikke en egen vilje eller selvstændige interesser at pleje. Den handler ene og alene, som den er instrueret til.
Alligevel indebærer denne form for algoritmehandel principal-agent-problemer, om end i en mere indirekte form.
Det er således muligt, at de individer, som udvikler algoritmerne, plejer egne snarere end deres firmas (principalens) interesser.
Faktisk peger sociologiske undersøgelser af firmaer, som er specialiseret i denne form for algoritmehandel, på, at de ofte er indrettet således, at deres teams af algoritmetradere konkurrerer mod hinanden.
Ledelsen har svært ved at overvåge, hvilke algoritmer deres tradere udvikler, og hvordan de interne systemer interagerer med hinanden – eksempelvis kan de handle mod hinanden, hvilket både kan være ulovligt og tabsgivende.
At dette kan ende grueligt galt, er derfor næppe overraskende. Det grelleste eksempel er det amerikanske firma Knight Capital, som tilbage i 2012 tabte 460 millioner dollars på blot 45 minutter, fordi dets system pludselig og uventet aktiverede nogle gamle algoritmer.
Firmaet endte med at blive overtaget af en konkurrent.
Algoritmerne har fået ’frie hænder’
Siden midten af 2010’erne er et stigende antal firmaer begyndt at supplere eller helt erstatte førstegenerationsalgoritmer med en ny generation af algoritmer.
Disse andengenerationsalgoritmer er baseret på forskellige former for maskinlæring (machine learning) og er designet til selv at udvikle investeringsstrategier ud fra omfattende mængder af markedsdata.
I modsætning til førstegenerationsalgoritmer, der som nævnt bliver designet fuldt og helt af mennesker, og hvor specifikke (grupper af) individer får idéer til konkrete investeringsstrategier, spiller mennesker en mere begrænset rolle for andengenerationsalgoritmerne.
Der er naturligvis individer, som udvikler de konkrete machine learning-arkitekturer, ligesom der er individer, som udvælger og renser de data, algoritmerne fordres med.
Men i modsætning til deres forgængere er hele idéen med andengenerationsalgoritmer, at det er algoritmerne selv, som finder ud af, hvad, hvornår, og hvor meget der skal købes og sælges af aktier og andre finansielle produkter.
Hvordan kontrollere det, man ikke forstår?
Denne semi-autonomi, hvor algoritmer træffer egentlige investeringsbeslutninger, indebærer på én gang et gensyn med og en omkalfatring af principal-agent-problematikken.
Det er således i princippet muligt, at en andengenerationsalgoritme kan lære sig selv at foretage profitable investeringer, på en måde som enten er uetisk eller direkte ulovlig – og i hvert fald ikke flugter med de intentioner, som de individer, der udviklede dens grundlæggende arkitektur, måtte have haft.
Ligesom med Leeson-eksemplet kan dette indebære en betydelig risiko for virksomheden (principalen).
Fra en principal-agent-synsvinkel består udfordringen i, at eftersom investeringsbeslutningerne nu træffes af en algoritme, kan uønsket adfærd ikke reguleres gennem konventionelle metoder, hvad enten det handler om udførlige kontrakter eller økonomiske incitamenter.
Sådanne udfordringer har givet anledning til forslag om, at man pakker denne type selvlærende algoritmer ind i en tyk kontrolfrakke, som for eksempel sætter grænser for, hvor meget de kan investere.
Den slags kontrolmekanismer er vigtige, men adresserer ikke det mere fundamentale problem, som kendetegner de mest sofistikerede machine learning-arkitekturer, navnlig såkaldte ’neurale netværk’:
Nemlig at disse kan være så komplekse, at ikke engang de individer, som har udviklet dem, kan gennemskue, hvorfor algoritmen træffer sine specifikke investeringsbeslutninger.
Så længe dét er tilfældet, er det vanskeligt at definere de rette kontrolforanstaltninger.
Behov for en gentænkning af de finansielle markeder
Dette peger samtidig på den centrale forandring, som de finansielle markeder har undergået de seneste årtier.
Hvor Leesons dubiøse adfærd måske kunne tilskrives psykologiske faktorer og angik et principal-agent-problem, som i princippet kunne håndteres gennem en aftale mellem de relevante parter, kan andengenerationsalgoritmer hverken begribes psykologisk eller ud fra principal-agent-teoriens traditionelle løsningsforslag.
Når andengenerationsalgoritmer dominerer de finansielle markeder, er der derfor behov for en gentænkning af den måde, hvorpå disse markeder forstås, analyseres og reguleres.
Her træder psykologi i baggrunden og datavidenskab i forgrunden.
Opgaven og udfordringen består således i at finde metoder til at forklare, hvordan umiddelbart ikke-transparente andengenerationsalgoritmer fungerer – altså hvordan de konkret træffer investeringsbeslutninger. Det arbejder en gren af datavidenskaben netop med.
Først når de neurale netværks interne dynamikker kan forklares til bunds, er det muligt at forstå og regulere de aktuelle markeder på en tilfredsstillende måde.