Hvor lang tid går der, før vi kan bygge R2-D2 og C-3PO?
Når vi taler til en robot, skal den både kunne forstå vores tale og vores mimik for at kunne reagere, som vi håber, den vil gøre. En forsker fortæller her om, hvor tæt vi er på at kunne bygge robotter, der er lige så uafhængige som i Star Wars.

R2-D2 er officielt en astromekanisk robot, der kan navigere og reparere rumskibene, og C-3PO er en androide, der har kendskab til sprog og kutymer. De ser meget forskellige ud, en humanoide på størrelse med et voksent menneske og en lille skraldespand på hjul. (Foto: Gordon Tarpley, CC BY-SA via Flickr)

 

Star Wars-universet er fyldt med androider.

Det vrimler med lægeandroider, udforskningsandroider, arbejdsandroider, pilotandroider, selv kampandroider.

De udfører alle hver deres klart formulerede opgave, ofte med en vis grad af selvstændighed, uden behov for at interagere med mennesker.

Vi har teknologien til at fremstille humanoider

I det virkelige liv har vi teknologien til at fremstille androider. Men hvad med robotter, der også kan interagere med mennesker? For når det kommer til skabninger som R2-D2, C-3PO og Star Wars-filmen 'Force Awakens'-nyskabelsen BB-8, er det knap så sikkert, at vi kan.

De to mest berømte robotter fra Star Wars-filmene er designet, så de kan udføre forskellige opgaver. R2-D2 er officielt en astromekanisk robot, der kan navigere og reparere rumskibene.

C-3PO er en androide, der har kendskab til sprog og kutymer. De ser meget forskellige ud, en humanoide på størrelse med et voksent menneske og en lille skraldespand på hjul.

Social intelligens har stor betydning

Men det er tydeligvis deres sociale intelligens, der får os til at holde så meget af de to højt værdsatte holdkammerater.

Når det kommer til de basale færdigheder som at kune gå og være i stand til at fornemme omgivelserne, nærmer vi os det påkrævede mere og mere.

Avancerede humanoide robotter såsom Googles Atlas og NASAs Valkyrie er allerede gode til at gå (og kan endda danse). De nyeste teknikker inden for talegenkendelse og syntese er i rivende udvikling. Microsoft har for eksempel tilføjet tale-til-tale-oversættelse på Skype.

Og sanseteknologi, for eksempel computersynssans, ja, selv kunstige næser, er blevet mere og mere menneskelignende. Skabelsen af de basale tekniske byggeklodser til en humanoid C-3PO eller en R2-D2 er næsten det letteste ved hele processen.

Udfordringen ligger i at sammenføre komponenterne

Den virkelige udfordring ligger i at sammenføre komponenterne, så robotterne er i stand til at interagere på en social intelligent måde.

For at forstå, hvorfor det er så svært, kan du prøve at forestillle dig, hvad der sker, når mennesker taler ansigt til ansigt.

Video: Meet R5: Valkyrie NASA Johnson

Vi bruger vores stemmer, ansigter og kroppe på mange forskellige kontinuerlige og mangfoldige måder.

Det er overraskende, hvor meget information vi overbringer gennem ikke-verbale signaler. Betydningen af et ganske enkelt ord som 'måske' kan ændres dramatisk af alle de andre ting, personen, som siger ordet, gør.

Kommunikation finder sted i en kontekst

I det virkelige liv finder kommunikation ikke sted i et kontekstfrit tomrum. Andre mennesker både ankommer og forlader 'scenen', mens interaktionen er præget af, hvad der er gået forud for den, og endda alle tidligere interaktioner som kan have en stor effekt.

En robot skal ikke alene være i stand til at forstå alle nuancerne i de menneskelige kommunikationssignaler, den skal også producere forståelige, passende og relevante signaler som respons.

Det er mildest talt en kæmpe udfordring.

Avancerede robotter begrænses til laboratoriebrug

Det er derfor, at selv de mest avancerede robotter begrænses til laboratoriebrug. De kan kommunikere, men det er begrænset, og de kan generelt set kun interagere i meget specifikke situationer.

Alle disse begrænsninger reducerer det antal signaler, som en robot skal kunne forstå og producere, og det er på bekostning af naturlig social interaktion.

Men forbrugerne har stor appetit på socialt interaktive robotter. Man kan allerede nu købe en Pepper-robot, der er i naturlig størrelse, og som kan svare på spørgsmål, følge instrukser og reagere på følelser og ansigtsudtryk.

Efterspørgslen har siden juli 2015 været helt utrolig stor i Japan. Hver måned bliver oplaget på 1.000 enheder solgt på under ét minut.

Robot kan genkende og tale med mennesker

I juli 2014 slog robotten Jibo flere rekorder på crowdfunding-hjemmesiden Indiegogo, da den som en del af en forsøget på at rejse økonomisk støtte skaffede en million dollar eller knap syv millioner kroner på mindre end én uge. Det beløb er nu blevet til 60 millioner dollar eller godt 410 millioner kroner.

Robotten, der blev udtænkt af MIT i USA, vil kunne tale med og genkende folk samt huske deres præferencer.

Disse succeshistorier kan dog stadig ikke hamle op med vores favoritandroider fra Star Wars-filmene. Løsningsmodellen ligger i et andet, meget aktivt forskningsområde: datavidenskab.

Pepper er en robot i naturlig størrelse, som kan svare på spørgsmål, følge instrukser og reagere på følelser og ansigtsudtryk. Efterspørgslen har siden juli 2015 været helt utrolig stor, og hver måned bliver oplaget på 1.000 enheder solgt på under ét minut.
(Foto: Mike Blake/The Conversation)

De tidligste forsøg på at skabe interaktive robotter var oftest baseret på præprogrammerede 'regler' (hvis en person siger'X', svarer robotten 'Y' eller 'Z').

 

Vidner til forbedringer inden for 'Deep Learning'-algoritmer

Men robotudviklerne er på det seneste begyndt at benytte maskinel indlæring.

De har optaget interaktioner mellem mennesker eller mellem robotter og mennesker, og derefter har de lært robotten, hvordan den skal opføre sig baseret på den tilgængelige data. Det betyder, at robottens adfærd er meget mere fleksibel og tilpasningsdygtig.

Vi er for tiden vidner til store forbedringer inden for maskinel indlæring. Før i tiden kunne robotterne først 'lære', efter at optagelserne var blevet bearbejdet, men nye teknikker som 'deep learning'-algoritmer gør robotterne i stand til at lære fra ubehandlet data, hvilket ikke begrænser deres potentiale i så høj grad.

 

Måske ikke i vores levetid

Disse teknikker har allerede haft en stor indflydelse på talegenkendelse og computersyn.

Google har for nylig lagt sit 'deep learning'-algoritmeværktøj, TensorFlow, ud som open source-software, hvilket vil sige, at man kan få adgang til værktøjet uden omkostninger og har mulighed for at videreudvikle det. Det vil komme forskere over hele verden til gavn.

Kort sagt er der meget, der stadig skal gøres, før vi kan udvikle fuldkomne og interaktive robotter som R2-D2 og C-3PO. Jeg tror desværre ikke, at vi kommer til at se en fuldkommen version af dem i vores levetid.

De gode nyheder er, at det er et meget aktivt forskningsområde, og nye datavidenskabsteknikker medfører, at robotternes sociale intelligens undergår en rivende udvikling.

Vi bør være i stand til at opnå nogle meget spændende resultater inden for den nærmeste fremtid.

Mary Ellen Foster modtager støtte fra Europa-Kommissionen. Denne artikel er oprindeligt publiceret hos The Conversation.

Oversat af Stephanie Lammers-Clark

Videnskab.dk Podcast

Lyt til vores seneste podcast herunder eller via en podcast-app på din smartphone.