Det virker næsten som ren tankelæsning.
I et nyt studie har forskere brugt kunstig intelligens til at frembringe forståelige, talte sætninger blot ved at måle forsøgsdeltageres hjerneaktivitet.
Fem forsøgspersoner fik i studiet indopereret et implantat i hjernen som led i deres behandling for epilepsi, men implantatet kunne også måle hjerneaktivitet, og målingerne har forskerne brugt til at teste deres ‘tale-computer’.
»Vi prøver at lave den optimale oversættelse fra hjerneaktivitet til tale. Det gør vi ved at kigge på den del af forsøgspersonernes hjerne, der styrer de bevægelser i hals og mund, som skaber lyd, mens de taler,« sagde Edward Chang, der er professor i neurokirurgi ved University of California i San Francisco og medforfatter på det nye studie, i et telefonpressemøde før udgivelsen.
De frembragte lyde blev testet af en gruppe lyttere på i alt 1.755 personer spredt ud over de mange sætninger. Generelt vurderede lytterne dem som forståelige. Du kan også selv høre nogle af sætningerne i videoen øverst i artiklen.
Forskerne håber, at teknologien på lang sigt kan hjælpe talehæmmede, der f.eks. lider af Sclerose eller lammelser efter et slagtilfælde, med at få en stemme igen.
Studiet er netop udgivet i det anerkendte videnskabelige tidsskrift Nature.
LÆS OGSÅ: Din hjerneaktivitet er lige så unik som dit fingeraftryk
Sådan kom forskerne fra hjerneaktivitet til tale
Implantatet i de fem forsøgspersoners hjerner var belagt med elektroder, der kunne måle de elektriske impulser fra hjerneaktiviteten hos forsøgsdeltagerne.
Mens deltagerne blev sat til at læse engelske sætninger højt, der blandt andet var udvalgt fra kendte eventyr som Tornerose og Alice i Eventyrland, målte implantatet aktiviteten i de såkaldte motorsensoriske områder, der sidder i frontallapperne, som kontrollerer vores ansigtsmuskulatur og vores tale.
Elektroderne i implantatet målte desuden også på aktiviteten længere fremme i frontallapperne, hvor man regner med igangsættelsen af selve talen foregår, samt hørebarken i tindingelappen, der bruges til at behandle lyde.
Ved hjælp af kunstig intelligens, nærmere betegnet maskinlæring, kunne forskerne i gentagne forsøg finde sammenhængen mellem hjerneaktivitet og bevægelser i talemuskulaturen.
Den sammenhæng brugte forskerne til at afkode hvilke bevægelser, hjerneaktiviteten satte gang i for at frembringe tale, og derfra kunne de altså komme med et bud på den lyd, som deltagerne lavede.
For at teste, om man kunne forstå de kunstige lyde som sætninger brugte forskerne 1.755 engelsktalende lyttere fra rekrutteringstjenesten Amazon Mechanical Turk.
LÆS OGSÅ: Forskere om kunstig intelligens: Sådan løser vi problemet med den sorte boks
Dansk hjerneforsker: Fascinerende, men vi er langt fra målet
Det lyder måske kompliceret, men at oversætte hjerneaktivitet til tale er altså ikke helt simpelt. Derfor er Mikkel Wallentin, der er lektor på Center for Funktionelt Integrativ Neurovidenskab ved Aarhus Universitet da også imponeret, da Videnskab.dk taler med ham:
»Idéen med at oversætte hjernesignaler til tale er ekstremt spændende. Det er jo lidt science-fiction-agtigt at se den her kobling mellem den menneskelige hjerne og avanceret computerteknologi. Det er både fascinerende og skræmmende,« siger han.
Der er dog også problemer ved studiet, fortæller han.
LÆS OGSÅ: Abe bevæger robot-arm med tankerne
Første problem: Vores hjerner er ikke ens
Et af problemerne med at overføre teknologien, som er anvendt i studiet her, til andre personer, er ifølge Mikkel Walentin, at den kunstige intelligens skal ‘øve sig’ på hver enkelt person.
Den hjerneaktivitet, der giver meningsfulde ord hos én person, gør det nemlig ikke nødvendigvis hos en anden.
»Hjernens strukturer er forskellige. Selvom der er store fællestræk mellem vores hjerner, så har hjernens form, størrelse og foldninger variationer fra person til person,« siger Mikkel Wallentin.
LÆS OGSÅ: Kan hjerneforskere læse dine tanker?
Andet problem: Teknologien kan ikke hjælpe talehæmmede endnu
Den måde, teknologien ‘øver sig’ på at genkende og oversætte hjerneaktivitet til tale, er ved at måle på forsøgspersonen, mens de snakker. Og det giver ifølge Mikkel Walentin anledning til det næste problem.
For hvis teknologien skal hjælpe talehæmmede, bliver den nødt til at virke på en måde, der ikke kræver, at patienten skal kunne tale, siger Mikkel Wallentin.
»Det kan man af gode grunde ikke gøre hos personer, der netop ikke kan tale, så det ligger nok langt ude i fremtiden,« siger Mikkel Wallentin.
»Hvis man kunne skære leddet ud, hvor computeren analyserer på deltagerens talemuskulatur, så kunne man oversætte direkte fra hjerneaktivitet til tale, og det ville måske gøre det muligt i fremtiden at ‘træne’ computeren på personer, der ikke kan tale, men som for eksempel læser en bog,« siger Mikkel Wallentin.
Det er forskerne bag studiet dog også enige i:
»Det her er bare et første princip til en metode. De næste skridt handler om at finde ud af, om samme algoritme kan virke hos talehæmmede personer, og om teknologien overhovedet har nogen klinisk anvendelse,« sagde Edward Chang ved et pressemøde inden udgivelsen af studiet.
LÆS OGSÅ: Lam kvinde styrer computer med tankerne
Hjerneforsker: Teknologien kan måske overføres på andre
Ifølge Jonas Kristoffer Lindeløv, der er hjerneforsker og adjunkt på Centre for Cognitive Neuroscience ved Aalborg Universitet, er der dog håb forude i forhold til at få teknologien til at virke på andre.
»I studiet har de faktisk prøvet at bruge den kunstige intelligens, der har øvet sig på patient 1 på de andre patienter. Der sker et fald i kvaliteten af de sætninger, den laver, men det er stadig genkendeligt nok til at det kunne være brugbart,« siger han.
Han er desuden imponeret af detaljegraden i det nye studie.
»Det er et rigtig interessant studie. Teknologisk er det noget længere fremme, end hvad man tidligere har gjort på området. Deres model tager både højde for hjerneaktiviteten, bevægelserne og lyden, og den detaljegrad forbedrer resultaterne,« siger han.
Han er dog enig i, at der vil komme til at gå lang tid, før man vil kunne få en ‘talecomputer’ indopereret.
»Det er lovende resultater, men et muligt produkt befinder sig langt ude i fremtiden. Et vildt skud fra hoften vil være fem år, før man ser de første kliniske eksperimenter og 10 år, før det er noget almindelige mennesker overhovedet vil overveje,« slutter han.
Kan computeren læse tanker?
Nu vi er ved fremtiden, så lyder det nok i manges ører utroligt i sig selv, at man kan lave bare nogenlunde forståelige ord og sætninger ud fra målinger af hjerneaktivitet.
Man kan næsten ikke lade være med at undre sig over, om man i så fald også vil kunne høre andres tanker ud fra hjerneaktivitet.
»Det er oplagt at tænke, eftersom en væsentlig del af vores tanker er sproglige. Men det er ikke realistisk på nuværende tidspunkt. I første omgang giver det at få nogle vokaler og konsonanter ud rigeligt med udfordring,« siger Mikkel Wallentin.
Spørger man forskerne bag studiet, om man på sigt kan lirke noget ud af en forsøgsperson, som vedkommende ikke havde tænkt sig at sige, er meldingen da også klar:
»Alt i det her studie handler om, hvad personerne rent faktisk har sagt. Vi har prøvet at se på det (tankelæsningsperspektivet red.) før, men det har vist sig at være meget svært og udfordrende,« siger Edward Chang.
LÆS OGSÅ: Forskere har fundet en metode til at måle bevidsthed i hjernebølger
LÆS OGSÅ: Hvor kommer tanker fra? Hvorfor smitter gab? Og bestemmer hjernen min personlighed?