Erfolgreich Zuhören im Rhythmus der Sprache – die Rolle der Alpha-Wellen

Aufmerksamkeit in Wellen: Neurowissenschaftler aus Lübeck und Leipzig untersuchen die Rolle der Alpha-Aktivität im Gehirn für unsere Aufmerksamkeitssteuerung – Testpersonen gesucht

Häufig fällt es uns schwer, aufmerksam zuzuhören – vor allem, wenn gleichzeitig störende Hintergrundgeräusche und Gespräche auf uns einströmen. Forscher an der Universität zu Lübeck und am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig haben nun herausgefunden, was den Erfolg beim Zuhören bestimmt: Je stärker die sogenannten Alpha-Wellen unseres Gehirns im Rhythmus der Sprache schwingen, desto größer unser Hör-Erfolg.

Eine Durchsage am Bahnsteig, das Quietschen des einfahrenden Zuges, die Gesprächsfetzen umgebender Passanten: In den meisten Alltagssituationen sind wir unzähligen Höreindrücken ausgesetzt, von denen jedoch nur wenige für uns von Bedeutung sind. Richten wir in solchen Momenten unsere Aufmerksamkeit nur auf eine Geräuschquelle, so hilft uns das, die bedeutende Information zu beachten und den Rest auszublenden. Eng verknüpft mit solchen Aufmerksamkeitsprozessen sind die Alpha-Wellen, deren Stärke uns die Höranstrengung des Zuhörers anzeigen. Wie uns die Modulation dieser Wellen im Gehirn ermöglicht, trotz Ablenkung zuzuhören, haben nun Neurowissenschaftler der Forschungsgruppe Auditive Kognition an der Universität zu Lübeck und am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig untersucht.

„Die Größe der Alpha-Wellen erhöht sich jeweils auf der Seite im Gehirn, auf der das zu hören ist, was wir als wichtig erachten“, erklärt Studienleiter Dr. Malte Wöstmann. „Der Unterschied im Ausschlag der Alpha-Wellen zwischen der linken und der rechten Gehirnhälfte verrät also, ob ein Zuhörer die Aufmerksamkeit nach links oder rechts richtet.“

Dabei tritt der Unterschied der Alpha-Aktivität zwischen den Hirnhälften keineswegs konstant während der wichtigen und unwichtigen Höreindrücke auf. Vielmehr verändert sich die Alpha-Aktivität im Rhythmus der Sprache, der wir lauschen wollen. Jedes gesprochene Wort im Gehirn löst zunächst die zu erwartende „Antwort“ in der Hörrinde aus. Dieser folgt dann, rund eine halbe Sekunde später, ein starker Unterschied der Alpha-Aktivität zwischen den Hirnhälften. „Unser Gehirn pendelt also in schwierigen Hörsituationen rhythmisch zwischen zwei Zuständen – der Verarbeitung der akustischen Information einerseits und der selektiven Aufmerksamkeit andererseits“, so Prof. Dr. Jonas Obleser, Leiter der Forschungsgruppe Auditive Kognition.

Das Interessante dabei: Diese Schwankungen der Alpha-Wellen treten nicht nur in den bereits lange bekannten Aufmerksamkeitsarealen im Scheitellappen des Großhirns auf, sondern auch direkt in der Hörrinde, die die akustischen Reize verarbeitet.

Was dieses rhythmische Pendeln der Alpha-Aktivität wiederum für das Zuhören bedeutet, untersuchten die Wissenschaftler anhand einer schwierigen Hörsituation: Sie spielten ihren Versuchspersonen über einen Kopfhörer gleichzeitig jeweils unterschiedliche Zahlen auf dem linken und rechten Ohr vor. Ein Piepton auf einem Ohr zu Beginn jedes Durchgangs signalisierte den Versuchspersonen, auf welche Seite sie ihre Aufmerksamkeit richten sollten. Dabei stellte sich heraus, dass der Hörerfolg einer Person umso größer war, sie also umso mehr Zahlen richtig wiedergab, je besser sich die Alpha-Aktivität ihres Gehirns im Rhythmus der gesprochenen Sprache veränderte.

Untersucht haben die Wissenschaftler diese Zusammenhänge mit Hilfe der Magnetenzephalografie. Damit lassen sich winzige Spannungsänderungen an der Kopfoberfläche ableiten, sodass die Hirnströme und ihre charakteristischen Alpha-Wellen sichtbar gemacht werden können.

„Wir wollen nun herauszufinden, wie es sich mit diesen Hirnprozessen bei Personen im mittleren und höheren Lebensalter verhält, wenn die Probleme in schwierigen Hörsituationen bekanntlich vermehrt auftreten“, so Obleser über eine seiner zukünftigen Studien..

Originalpublikation:
Wöstmann M, Herrmann B, Maess B & Obleser J (2016) Spatiotemporal dynamics of auditory attention synchronize with speech. Proceedings of the National Academy of Sciences of the United States of America (PNAS). DOI 10.1073/pnas.1523357113