Wissen

Sprache sichtbar gemacht Forscher hören Worte direkt aus dem Hirn

45859247.jpg

Das menschliche Gehirn ist einzigartig.

(Foto: picture alliance / dpa)

Kann man allein aus Hirnströmen auf Worte und gar ganze Sätze schließen? Karlsruher Wissenschaftlern ist das zumindest im Ansatz gelungen. Damit könnte Gelähmten geholfen werden, die bislang unfähig sind, sich der Außenwelt verständlich zu machen.

Forscher des Karlsruher Instituts für Technologie (KIT) haben direkt aus Gehirnströmen Laute, Wörter und sogar ganze Sätze rekonstruiert. Ausgewertet wurden Daten der Gehirnströme von sieben Epilepsiepatienten in den USA: Ihnen lag während des Sprechens ein Elektrodennetz direkt auf der Großhirnrinde des für ihre Epilepsie-Behandlung ohnehin freigelegten Gehirns. Mit Elektroden, die von außen auf den Kopf angelegt werden und so die elektrische Aktivität des Gehirns messen, sind solche spezifischen Aufzeichnungen noch nicht möglich.

"Zum ersten Mal können wir das Gehirn beim Sprechen beobachten", sagte Informatik-Professorin Tanja Schultz. Die Forscher können nun praktisch zusehen, wie das Gehirn den Sprechvorgang plant und dann die Muskeln der Artikulationsorgane mittels der Neuronen in der Großhirnrinde aktiviert, bevor die eigentliche Sprache hörbar wird.

Sichtbar gemacht wurden die Aktivitäten mit Hilfe von Farben: "Je höher die Aktivität, umso heißer die Farbe, erklärte Schultz. Die Patienten waren zuvor gebeten worden, bestimmte Texte zu sprechen - etwa eine Rede des ehemaligen US-Präsidenten John F. Kennedy oder auch einfache Kinderreime. Die Forscher wussten also zunächst, welche Laute wann gesprochen wurden und legten mit Hilfe der dabei gemessenen Hirnströme Datenbanken mit Prototypen von etwa 50 verschiedenen Lauten an.

Hilfe für Locked-in-Patienten

Auf Basis von Algorithmen gelang es anschließend, allein anhand der Gehirnströme zu verstehen, was gesagt wurde. Dazu werden Laute im Kontext von Wörtern und ganzen Satzphrasen betrachtet. "Wir bekommen damit schöne Ergebnisse, die in der Qualität zwar noch weit von der akustischen Spracherkennung entfernt, aber schon deutlich besser sind, als wenn man rät", sagte Schultz.

Knackpunkt der vierjährigen Forschung ist bislang die geringe Datenbasis von nur sieben Patienten, von denen jeweils höchsten fünf Minuten Sprache vorliegen. Die Wissenschaftler wollen ihre Analysen daher ausweiten. Neben einem besseren Verständnis der Sprachprozesse könnte der sogenannte Brain-to-Text "ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen". Beim Locked-in-Syndrom sind Menschen zwar bei Bewusstsein, aber gelähmt und damit unfähig, sich der Außenwelt verständlich zu machen.

Quelle: n-tv.de, ppo/dpa

Mehr zum Thema