Fremtidens robotter skal ikke kun være intelligente. De skal også kunne samarbejde med mennesker. For selvom robotter er sat i verden for at hjælpe os, bliver vi også nogle gange nødt til at hjælpe dem.
For eksempel har vores nuværende hospitalsrobotter til transport af medicinsk udstyr og blodprøver som minimum brug for mennesker til at hjælpe med at laste og aflaste dem.
Den største udfordring, i forhold til at få hospitalsrobotterne til at løse opgaven som et menneske ville have gjort, er de såkaldte 'sidste 15 meter', hvor der skal ske en god interaktion mellem robotten og medarbejderen.
Robotter kan i højere og højere grad selvstændigt forholde sig til verden og træffe selvstændige beslutninger, samt kommunikere deres overvejelser til os mennesker.
Med faglige baggrunde inden for teknopsykologi, kunstig intelligens, forskning og anvendt teknologi, er vi – forfatterne til denne artikel – optaget af, hvordan man skaber teknologi, der kan betragtes som kompatibelt med menneskers psykologi og måden, hvorpå vi ønsker at arbejde og leve sammen.
Det er således de 'sidste 15 meter' til bedre samarbejde mellem robot og menneske, som er målet for vores forskning i kunstig social intelligens.
CoBots skal være kompatible med mennesker
Grænsen er lidt sløret for, hvornår man kan tale om interaktion og decideret samarbejde mellem medarbejderen og maskinen, og hvornår der kun er tale om to parallelle processer, hvor medarbejderen blot sætter maskinen i gang.
Men de fleste collaborative maskiner, også kaldet 'CoBots', er i deres natur udviklet til at enten assistere eller blive assisteret af mennesker. De kan altså have til formål at indgå i en samarbejdsrelation med et menneske.
Der er større og større fokus på at gøre robotter mere socialt intelligente og bedre til at samarbejde og kommunikere med mennesker, så samarbejdsrelationen bliver mere ligeværdig.
For selvom CoBots i princippet 'blot' er et stykke teknologi, er det dog ikke et simpelt værktøj som en hammer, der blot venter på at blive brugt af os mennesker, og kun fungerer som en passiv forlængelse af vores egne handlinger.
Denne artikel er en del af Videnskab.dk’s Forskerzonen, hvor forskerne selv formidler deres forskning, viden og holdninger til et bredt publikum – med hjælp fra redaktionen.
Forskerzonen bliver udgivet takket være støtte fra Lundbeckfonden. Forskerzonens redaktion prioriterer indholdet og styrer de redaktionelle processer, uafhængigt af Lundbeckfonden. Læs mere om Forskerzonens mål, visioner og retningslinjer her.
Kunstig intelligens skal hjælpe til at diagnosticere sygdomme
På trods af udfordringerne er potentialet stort. Vi ser spændende og opbyggelige eksempler på, hvordan den kunstig intelligens' kapacitet virker som en hjælp i sundhedsvæsenet.
Et eksempel på inddragelse af AI (Artificial Intelligence = kunstig intelligens) til at løse opgaver er i Region Hovedstadens Akutberedskab.
Er du så uheldig, at du må ringe 112, kommer du igennem til en dygtig vagt og til en såkaldt 'kunstig intelligent personlig assistent', Audia.
Denne AI-assistent er et stykke software i vagtens computer eller i en dims på bordet, der kan 'lytte' med i din og vagtens samtale og på den baggrund er tænkt som en hjælp for vagten i at holde styr på alle dine oplysninger og hjælpe dig på rette vej.
Softwaren er udviklet af et dansk techfirma, der har specialiseret sig i at udvikle software, der kan lære at opfange symptomer på hjerteanfald over telefonen og assistere vagten i rådgivning af den nødlidende.
Ifølge folkene bag Audia kan personalet for nuværende fange 84 procent af de registrerede hjerteanfald, når Audia hjælper til, modsat 75 procent uden.
AI inddrages altså til at løse opgaver bedre og hurtigere. Interaktionen er dog begrænset, og eksemplet ovenfor minder mest om de førnævnte parallelle processer.
Systemet forholder sig ikke som sådan til vagten eller vagtens situation og gør ikke noget for at tilpasse sig vagten.
Ret beset ved systemet jo overhovedet heller ikke, at det kommunikerer med en vagt, men spytter blot den information ud, som det er programmeret til.
Så det svarer ikke til den form for interaktion og kommunikation, som finder sted mellem mennesker, hvor vi har en gensidig opmærksomhed og evne til gensidig tilpasning.
Danmark er kommet til at spille en fornem rolle i udviklingen af fysiske CoBots. De første CoBots blev udviklet i USA i slutningen af 1990'erne, og i starten af 00'erne begyndte de første europæiske CoBots at blive lanceret.
Det danske firma Universal Robots lancerede deres første CoBot i 2008, og har siden kæmpet sig op til at blive nummer 1 i verden indenfor CoBots ifølge markedsanalysefirmaet Interact Analysis.
Hospitals-robot opførte sig dyssocialt
Men der gøres beundringsværdige forsøg rundt omkring på at lære Cobots at omgås mennesker og reelt interagere med os.
Det er en svær opgave at komme i hus med, da vi mennesker ikke altid er lige forudsigelige og nemme at stille tilfredse. Det var da også, hvad Sygehus Sønderjylland måtte sande, da de i 2009 trillede den intelligente TUG-transportrobot med det menneskelige navn Roberta ind på hospitalsgangene for at hjælpe med transport af blodprøver og andet.
Roberta var mest af alt i vejen for personale og patienter og evnede ikke at flytte sig, når ambulancefolkene kom løbende ind med båren.
I stedet for at fremstå hjælpsom og omgængelig, kom Roberta til at fremstå klodset, og hvad man i psykologien vil kalde dyssocial, hvis den havde været et menneske.
En social robot er mere populær
Et eksempel fra Pittsburgh Hospital i USA viser, hvordan det er nemmere at integrere en robot på en arbejdsplads, hvis robotten kan agere socialt.
En CoBot med det sigende navn CoBot blev tilbage i 2011 sat ud på gangene på hospitalet. Her gør den sig nyttig ved at hente kaffe og oplyse personalet om ledige lokaler og lignende.
Skal den derimod med elevatoren, må den bede om hjælp fra en forbipasserende. Den har ingen fingre, der kan trykke på elevatorknapperne. Den har heller ikke et menneskeligt navn, ligner ikke og taler ikke som et menneske.
Men den kan stille spørgsmål og bede om hjælp, og måske netop derfor blev den meget populær blandt de ansatte. For at kunne finde ud af, hvad den skal spørge om, bliver den nødt til at kunne reflektere over, hvad den allerede ved, og hvad den mangler at vide for at løse en given opgave.
Evnen til at reflektere over sin egen viden og manglende viden er en del af det som i psykologi kaldes introspektion.
Menneskets evne til introspektion – at kigge ind i sig selv og reflektere over sin egen mentale tilstand – er i høj grad også noget, vi forbinder med menneskelig intelligens og er måske netop derfor med til at gøre robotten mere menneskelig og relatérbar.
Menneskeliggørelse af maskinen kan være vejen frem
Når teknologien gøres levende og endda menneskelig i sin fysiske fremtoning og adfærd i form af handling, tale, skrift og mimik, er det for at skabe resonans i os mennesker (se her, her, her og her).
Og netop oplevelsen af genkendelighed er, hvad vi mennesker har brug for, når vi skal interagere med den og endda dele vores intentioner og præferencer.
Omvendt er det også genkendelighed, der automatisk får os til at forvente, at den kan genkende vores intentioner og præferencer. Så det er et tveægget sværd, fordi vi meget let kommer til at overvurdere, hvor meget den kan.
Grænsen er hårfin, for hvor meget eller hvor lidt vi vil acceptere, at Cobotten afviger fra eller ligner os. Vi frastødes, hvis den ligner os nærved komplet, men ikke opfører sig helt som os.
I AI og robotik kaldes dét fænomen 'the uncanny valley' (den 'uhyggelige dal').
Men er robotten for 'dum', langsom eller klodset, bliver vi enten sure på den eller griner af den.
Forståelse avler tryghed
Det er kun for nylig, at man inden for computer science har haft succes med at programmere komplekse menneskelige egenskaber ind i software-algoritmer som for eksempel evnen til at sætte sig i andres sted.
Det, man for nuværende kan, er at lære AI-algoritmer at forudsige vores fremtidige valg ud fra vores fortidige valg. De er som bekendt mestre i at genkende mønstre.
På DTU arbejder vi med at lære vores humanoide (menneskelignende) robot R2DTU (ikke at forveksles med R2D2 fra Star Wars) at kunne tage kognitive perspektiver. R2DTU er en robot af typen Pepper produceret af Softbank Robotics (se billedet).
Vi har brugt avancerede logiske modeller til at give robotten muligheden for at sætte sig i andres sted og forholde sig til, hvad andre tror, ved og ønsker.
Så hvor førnævnte CoBot kun kan forholde sig til egen manglende viden, kan R2DTU også forholde sig til andres manglende viden.
Det gør, at den eksempelvis selvstændigt kan finde ud af, hvornår det er relevant at give et bestemt stykke information videre til en bestemt person.
Den forsøger at gætte menneskers intentioner og vil derudfra bidrage med den information, som er nødvendig: Det vi har brug for at vide, men ikke allerede ved, for at kunne nå vores mål.
Indtil videre kan robotten kun gøre disse ting i relativt simple scenarier, men den underliggende teori muliggør, at man i fremtiden kan få sådanne sociale evner ind i robotter i meget mere generelle situationer.
Robotten 'R2DTU' forstår en hel del. Men forstår den også, hvad andre opfatter? Har den social intelligens? Se med og få svaret. (Video: Kristian Højgaard Nielsen / Forskerzonen)
Se en yderligere demonstration af robotten her (på engelsk).
Kunstig social intelligens kan være svaret
Når vi beder mennesker arbejde sammen med intelligente maskiner, skylder vi i videst muligt omfang at udvikle maskinerne, så de er kompatible med, hvordan vi mennesker fungerer.
Uden det kan vi ikke få en naturlig og fleksibel interaktion med fremtidens kunstige intelligens.
Det er med andre ord set fra vores position sikkert, at kunstig social intelligens vil gøre det nemmere for os at indgå i reelt samarbejde med teknologien om at finde løsninger på komplekse problemstillinger, om det så handler om selvkørende biler, medicinsk diagnosticering, sociale problemstillinger eller fysiske robotter på arbejdspladsen.
Meget af forskningen i kunstig intelligens bevæger sig helt sikkert også i den retning, men vi oplever alligevel, at der i det meste af befolkningen måske alligevel er en mangel på erkendelse af, hvor vigtige disse aspekter er.
Uden den erkendelse kan man let komme til at tro, at det måske er lettere at få CoBots ind i vores omgivelser, end det egentlig er.
Der foregår masser af social interaktion i trafikken og på hospitalsgangene, så derfor skal førerløse biler og hospitalsrobotter også have i det mindste et minimum af social intelligens.
Og hvis et system til medicinsk diagnosticering for det meste diagnosticerer korrekt, men ikke har sociale evner nok til at gøre sig forståeligt for os mennesker i de tilfælde, hvor det tager fejl, er det ikke synderligt tillidsvækkende.
Vi skal sørge for, at fremtidens kunstig intelligens og CoBots er hensynsfulde, tillidsvækkende og menneske-kompatible.
Sociale evner er centrale, for at vi mennesker kan indgå i gnidningsfrit samarbejde, og vi bør ikke give køb på kravet til sociale evner, blot fordi vores fremtidige samarbejdspartner er en robot.