Milepæl: Computer slår europamester i brætspillet go
Siden den skakspillende computer Deep Blue besejrede Garry Kasparov, har et af de ypperste mål for udviklere af kunstig intelligens været at skabe et computerprogram, der kan besejre en topspiller i det kinesiske brætspil go. Nu er det lykkedes.

Computere er på vej til at blive mere intelligente end mennesker.

Et stort skridt i den retning blev taget, da IBM’s skakspillende computer Deep Blue i 1997 vandt over den regerende verdensmester Garry Kasparov.

Nu ser de kunstige hjerner ud til også at have overhalet mennesker, når det kommer at flytte brikker på den smarteste måde i det oldgamle kinesiske brætspil go (læs om go i faktaboksen).

Virksomheden Google DeepMind har nemlig udviklet et computerprogram kaldet AlphaGo, der har slået den tredobbelte europamester Fan Hui fra Frankrig i en dyst over fem partier med cifrene 5-0. Det er første gang nogensinde, at en computer vinder over en professionel spiller i go på en spilleplade i fuld størrelse og uden handikap.

»Det var et historisk øjeblik,« siger Demis Hassabis, grundlægger af Google DeepMind. »Go er blevet anset for at have være den helt store udfordring – man kan sige den hellige gral – for forskning i kunstig intelligens, siden Deep Blue slog Kasparov i skak.«

Go er så svært at spille for computere, at mange af de dygtigste programmører på området indtil for nylig regnede med, at det først ville lykkes at slå en professionel spiller om 10 år.

»Det er en meget stor bedrift, der har perspektiver i forhold andre områder. Jeg er egentlig ret ligeglad med spil, men det her er interessant, hvis du for eksempel vil lave en selvkørende bil,« siger Ole Winter, der er professor ved Institut for Matematik og Computer Science på Danmarks Tekniske Universitet.

Endelig - et computerprogram, der kan slå en go-mester, står der på forsiden af det prestigefulde tidsskrift Nature (Illustration: Nature).

Ole Winther forsker selv i maskinlæring, men han har ikke været involveret i udviklingen af AlphaGo, der er beskrevet i det prestigefulde tidsskrift Nature.

Computere har sværere ved at spille go end skak

Den danske forsker bemærker dog, at AlphaGo kræver meget regnekraft. AlphaGo kan spille rigtig godt på en almindelig computer, men til dysten mod Fan Hui brugte programmet 1.200 processorer og 170 grafikprocessorer.

Den store regnekraft er nyttig, for det er langt sværere for computere at spille go end skak. Det er der to årsager til:

  1. For det første har man i en typisk position gennemsnitligt 200 mulige træk i go, mens man gennemsnitligt har 20 mulige træk i skak.
     
  2. For det andet er det svært at regne sig frem til, hvilken spiller der er ved at vinde i go og dermed vurdere værdien af de mulige træk. I skak har dronningen, løberne og bønderne forskellige egenskaber, og derfor et det relativt let at få en computer til at estimere, hvem der står stærkest på brættet.

AlphaGo efterligner den menneskelige hjerne

Men stor computerkraft er ikke nok til at regne go ud. Da der er hundredevis af mulige træk hver tur, og modstanderen kan reagere på hundredevis af måder, bliver spillet uhyre komplekst, når man tænker flere træk frem. Det vil derfor være umuligt selv for de hurtigste af de nuværende computere at gennemgå alle de mulige positioner.

»Hvis man havde en kvantecomputer, kunne man sikkert godt løse spillet. Men uden en kvantecomputer er det fysisk umuligt at rulle hele spillet ud, for der er flere måder at spille spillet på, end der er elektroner i universet,« siger Ole Winther.

Dygtige go-spillere kan naturligvis heller ikke overskue alle muligheder hele vejen frem til spillets afslutning, men de har en god fornemmelse af, hvilke træk der er gode. Derfor har forskerne fra Google DeepMind forsøgt at få AlphaGo til at arbejde på en måde, der minder mere om den menneskelige hjerne.

De har derfor udviklet to forskellige neurale netværk, som AlphaGo bruger til at reducere antallet af muligheder, som programmet skal regne på.

  • Policy-netværket foreslår en håndfuld lovende træk i en tur, så programmet slipper for at bruge kræfter på de hundredevis af andre muligheder.
     
  • Value-netværket gør, at AlphaGo nøjes med at planlægge sine træk omkring 20 ture frem, hvor den så estimerer sandsynligheden for at vinde i en given stilling, i stedet for at tænke hele vejen til spillets afslutning.

AlphaGo studerede mennesker og trænede sig selv

Fakta

Hvad er go?

Go er et mere end 2.500 år gammel brætspil fra Kina. I dag spilles det af 40 mio. mennesker på verdensplan.

Reglerne i go er ganske simple. To spillere skiftes til at lægge sorte og hvide sten på et bræt, hvorpå der er tegnet 19 vandrette og 19 lodrette linjer. Stenene lægges på de steder, hvor stregerne krydser hinanden. Målet er at bygge mure med stenene og på den måde omringe mest muligt territorium på brættet.

Det høje antal steder, hvor man kan placere sine sten, gør spillet meget dybt, så selvom det er simpelt i sin udformning, er det samtidig uhyre komplekst.

Det siges derfor, at go er let at lære, men tager en livstid at mestre. Og det er én af årsagerne til, at det først nu er lykkedes en computer at vinde over en professionel spiller.

De neurale netværk har brug for en solid viden om spillet for at kunne anbefale træk og vurdere stillingen, og den viden har AlphaGo selv tillært sig i to trin:

  1. Først studerede AlphaGo 30 millioner træk fra kampe, som dygtige go-spillere havde spillet mod hinanden over nettet.
     
  2. Derefter spillede AlphaGo mod sig selv tusindvis af gange og ændrede undervejs gradvist sine neurale netværk, ud fra hvilke strategier der virker bedst. Den fremgangsmåde kaldes reinforcement learning.

AlphaGo er blevet så god, at den slår de bedste eksisterende go-computerprogrammer 99,8 procent af gangene, og i oktober 2015 slog den altså også Europas bedste spiller med 5-0.

Mennesker har ellers stadig den fordel, at de er bedre til at lære ud fra få erfaringer, og mennesker kan også lære ved at læse en instruktionsmanual. Men mennesker har også svagheder i forhold til computere.

»Mennesker bliver trætte, når de spiller en lang kamp, og de kan lave fejl. De er ikke i stand til at lave alle de beregninger, som computere kan. Og måske endnu vigtigtigere så har mennesker begrænsninger i forhold til, hvor mange go-kampe de kan gennemgå i en livstid. Et menneske kan måske spille 1.000 partier om året, mens AlphaGo kan spille millioner af partier i løbet af en enkelt dag,« siger David Silver fra Google DeepMind.

Klogere smartphones, diagnosticering af sygdomme og selvkørende biler

AlphaGo kan give nye indsigter i go-strategier, ligesom skakcomputerprogrammer nu også bruges til at træne skakspillere og analysere kampe. Men Google DeepMind har større planer med deres kunstige intelligens end bare at spille go eller videospil, som de tidligere har fået en computer til at mestre.

»Spil er den perfekte platform til at udvikle og teste vores algoritmer hurtigt og effektivt, men i sidste ende vil vi bruge teknikkerne til at løse vigtige problemer i den virkelige verden,« siger Demis Hassabis.

På kort sigt ønsker de at bruge systemet til at gøre smartphones mere intelligente. På mellemlangt sigt forestiller de sig, at det kan bruges til at hjælpe læger med at diagnosticere sygdomme. På langt sigt drømmer de om, at kunstig intelligens kan assistere forskere.

Fakta

Menneske mod maskine

Computere forbedres år for år, hvilket illustreres af, hvornår de blev i stand til at slå verdens bedste spillere i forskellige brætspil:

1979: Backgammon
BKG 9.8 slog verdensmester i backgammon Luigi Villa med cifrene 7-1.

1994: Dam
Chinook vandt verdensmesterskabet med en sejr over dam-legenden Marion Tinsley.

1997: Skak
Deep Blue besejrede verdensmester Garry Kasparov med 3½-2½.

2006: Scrabble
Quackle vandt over den tidligere verdensmester David Boys med 3-2 i en bedst af fem-match.

2016: Go?
AlphaGo skal i marts 2016 spille mod Sedol Lee, der anses for at være verdens bedste go-spiller.

Men det kan også bruges i mange andre sammenhænge, hvor der skal findes struktur i store datamængder, og hvor man skal planlægge flere skridt frem.

»Der kommer nogle afledte, positive effekter for Google, i og med at man kan tage de her algoritmer og fremgangsmåder og putte dem ind i deres selvkørende biler for eksempel. Der kan du jo ikke her og nu vide, om du skal trykke på speederen. Du kan ikke sige, om det er godt eller dårligt. Du ved først senere, om du rammer ind i nogle andre eller ej, så der er også brug for et reinforcement learning-perspektiv,« siger Ole Winther.

Google: Det skal ikke bruges til at bygge dræberrobotter

Men kunstig intelligens kan også bruges destruktivt. Et udbredt skrækscenarie i science fiction-film er kunstig intelligens, der bliver så avanceret, at robotter kommer ud af kontrol og overtager verdensherredømmet.

Forskerne fra Google DeepMind forsikrer dog, at selvom deres kunstige intelligens er selvlærende, så er det mennesker, der altid sætter målet for, hvad systemet skal opnå.

Desuden fortæller Demis Hassabis, at da han solgte virksomheden til Google i 2014, blev det indskrevet i kontrakten, at teknologierne ikke må bruges til militære formål såsom udvikling af autonome dræberrobotter.

Nu skal computeren op mod verdens bedste spiller

Her og nu fokuserer Google DeepMind dog på en langt mere fredelig kamp.

AlphaGo skal nemlig i marts dyste mod sydkoreanske Lee Sedol, der anses for at være den bedste go-spiller i verden det seneste årti. Vinderen får en million dollar.

»Jeg har hørt, at Google DeepMinds kunstige intelligens er overraskende stærk, og at den bliver stærkere, men jeg er overbevist om, at jeg kan vinde i det mindste denne gang,« siger Lee Sedol om matchen, der sidestilles med Deep Blues legendariske kamp mod Garry Kasparov.