Forskere tættere på opklaring af talens gåde
Dansk forskerhold undersøger, hvordan vi lærer at tale. Resultaterne bruger de i arbejdet med at opfinde et nyt intelligent høreapparat.

Danske forskere forsøger at aflure, hvordan børn lærer at tale og afkode, hvad der er vigtigst i en talestrøm. (Foto:Colourbox)

 

Forfærdelige historier og billeder fra rumænske børnehjem dukkede op i medierne efter den rumænske diktator Ceausescu blev styrtet.

Nogle af børnene var nærmest opfostret i bure og voksne havde ikke henvendt sig til dem. Alligevel havde mange af børnene lært at tale.

»Ved at lytte til, hvad folk rundt omkring dem sagde til hinanden, havde de samlet brudstykker af sprog op. Naturligvis var de ikke så gode til at tale som børn, der bliver stimuleret af deres forældre, men de talte mirakuløst fint. Det var en øjenåbner for mig,« siger Peter Juel Henrichsen, lektor ved Institut for Internationale Sprogstudier og Vidensteknologi, Copenhagen Business School (CBS).

Historien fik ham til at sætte spørgsmålstegn ved den nuværende forskning i indlæring af sprog. 

Den tager ofte udgangspunkt i en række teoretiske pædagogiske og fonetiske ideer, som ikke tager højde for, at indlæringen af tale foregår, uden at børn ved noget som helst om teori og grammatik, forklarer han.

Peter Juel Henrichsens forskningshold har derfor nærmest visket tavlen ren.

Deres forskning baserer sig især på 150 sprogprøver, som læses ind i computerprogrammer.

Forskerne arbejder på at forstå, hvordan hjernen lærer at identificere de betydningsbærende ord, selvom de udtales forskelligt afhængig af afsenderen. Fuldstændig som når et barn lærer at prioritere vigtige ord som mad fra andre ligegyldige ord. 

Målet er at bruge den viden til at opfinde et intelligent høreapparat, som kan efterligne ørets og hjernens evner. 

Videnskab.dk som forsøgskanin

Peter Juel Henrichsen lader Videnskab.dks journalist være forsøgsperson i et enkelt forsøg i et næsten lydtomt rum (ekkofrit), der er isoleret med dyner fra gulv til loft.

Eksperimentet handler om at beskrive 13 geometriske figurer, der tilsammen danner et kors, på en måde så én, der ikke kan se tegningen, kan se den for sig. Eksempelvis:

»Nederst er der en blå firkant. Oven over firkanten er der en grøn cirkel.«

Af sprogprøven (udviklet af dr.phil. Nina Grønnum) kan man blandt andet høre, at der stor forskel på, hvordan ordet firkant udtales, når forsøgspersonen regner det som hovedbudskabet (som i den første sætning) og når det siges opsummerende (som i anden sætning, hvor 'cirkel' er det betydningsbærende ord).

Sprogprøven viser, at der er meget forskel på den personlige stil. Nogle går langt mere i detaljer end andre, når de beskriver tegningen.

»Det utrolige er, at øret og hjernen er i stand til at afkode de her helt forskellige lyde og alligevel trække de samme oplysninger ud af det,« siger Peter Juel Henrichsen. 

Programmer på computeren skal lave en særlig akustisk profil, der blandt andet afkoder intonationen hos den enkelte person, når et ord bliver tillagt særlig betydning.

Der er stor forskel på vores personlige stil, når vi taler. Forskeren spiller eksempler.

Forståelsesforstærker

Nuværende høreapparater forstærker alt lyd lige meget. Tunghøre får derfor problemer i de såkaldte cocktail-party situationer, det vil sige i situationer, hvor mange mennesker taler samtidig.

Vores hjerne sorterer uden problemer de vigtige oplysninger fra de mindre vigtige, og den funktion er forskningsholdet i gang med at kopiere.

Sådan ser ordet cirkel ud, når det omsættes til en grafik på computeren. X- og Y-værdier svarer til lydens energi i to udvalgte frekvensbånd (omkring hhv. 800 og 1300 Hz). Farvekoderne illustrerer, i hvilket tempo dele af ordet blev sagt. (Illustration:Peter Juel Henrichsen)

»Vi kan allerede nu få det til at fungere, når vi lægger tale oven på hinanden og beder computeren om at udvælge en særlig profil,« siger Peter Juel Henrichsen.

Det er ikke kun i festsituationer, baggrundsstøj kan være et problem. 

Forskerens egen far er tunghør, og når han eksempelvis går ned efter avisen, råber konen efter ham at han skal ”tage posten med op”.

Men de ord er ikke højere end støjen i opgangen eller på gaden, så han hører det slet ikke. Det problem skal det intelligente høreapparat kunne løse.

På et intelligent høreapparat skal man kunne trykke på en knap, der vælger, at apparatet nu er indstillet på eksempelvis partnerens særlige akustiske profil.

For som Peter Juel Henrichsen siger:

»Når ens partner siger noget til én, så er det jo altid interessant.«

Mens det klassiske høreapparat er en lydforstærker, skal det nye intelligente høreapparat ses som en forstærker af forståelsen og en sorteringsmaskine af den vigtigste lyd, forklarer forskeren.

 

Dyner i øregangen

Danmark har i mange år haft en førende position inden for lydforskning og høreapparater.

Københavns Universitet på Amager blev i 70'erne bygget rundt om et lydtomt rum. Det hvilede på vand for at skabe optimal akustik og havde kostet mange millioner. 

I dag kan langt mindre gøre det. 'Øregangen' , som den smalle gang med kontorer på CBS kaldes, hvor forskningen i indlæring af tale finder sted, ser ikke ud af meget.

Dynerummet har kostet cirka 2500 kroner. Men den moderne teknologi har gjort de store forsøgsopsætninger unødvendige.

»Til de her forsøg, hvor vi bruger optagelser af stemmer, er dynerne tilstrækkelige til at sikre kvaliteten af optagelserne,« siger Peter Juel Henrichsen.

Talens gåde skal omsættes til computermodel

Forskningen i indlæring af tale er grundforskning og vejen til et patent på det intelligente høreapparat er lang.

Foreløbig er flere funktioner alt for langsomme.

Det må eksempelvis ikke tage algoritmerne mere end 10 millisekunder at afkode, hvad der er betydningsfuldt i en talestrøm. Så langt er forskerne ikke kommet. 

Men flere af de store høreapparat-firmaer er interesserede i projektet, og Peter Juel Henrichsen er fortrøstningsfuld.

 »Det er ikke helt urealistisk, at det kommer til at lykkes for os. Når et spædbarn kan, så må vi da også kunne,« siger han.

Forskningsprojektet ’Automatic Reconstruction of Speech Events’ er støttet af Det Frie Forskningsråd (FKK), Carlsbergfondet, Det Nordiske Ministerråd (NorFA), CBS World Class Research Environment, samt diverse private fonde.Forskningsprojektet er ledet af Peter Juel Henrichsen. Resten af holdet består af:

Thomas Ulrich Christiansen, lektor ved DTU.

Jan Heegård Petersen, lingvist.

Maya Borges, Ph.d.-studerende

Ruben Schachtenhaufen, PhD-studerende.

Marcus Uneson, Lund Universitet (gæsteforsker). 

Violaine Michel, Geneve Universtitet (gæsteforsker).

 

Lyt på Videnskab.dk!

Hver uge laver vi digital radio, der udkommer i form af en podcast, hvor vi går i dybden med aktuelle emner fra forskningens verden. Du kan lytte til den nyeste podcast i afspilleren herunder eller via en podcast-app på din smartphone.

Har du en iPhone eller iPad, kan du finde vores podcasts i iTunes og afspille dem i Apples podcast app. Bruger du Android, kan du med fordel bruge SoundClouds app.
Du kan se alle vores podcast-artikler her eller se hele playlisten på SoundCloud

Det sker