An der Universität von Chicago wurde neulich mit Gebärdensprache experimentiert, um festzustellen, ob der Rhythmus des menschlichen Gehirns auf Lautsprache spezialisiert ist oder nicht.
Neuronale Synchronisation ist das Vermögen und die Tendenz des Gehirns, seine wiederholten Rhythmen und Zyklen auf die Rhythmen, denen es in der Welt begegnet, in Takt zu bringen. Die kurzen Phasen erhöhter Gehirnaktivität, die sogenannten Gehirnwellen, beeinflussen unsere Aufmerksamkeit. Da wir nicht alles in unserem Umfeld beachten können, könnten diese Schwingungen wichtig sein, um ahnen zu lassen, wann wichtige Informationen am wahrscheinlichsten aufkommen.
Bisher wurde viel über das Verhältnis zwischen Lautsprache und neuronaler Synchronisation geforscht. Wenn Menschen mündliche Sprache zuhören, dann synchronisieren die Gehirnwellen mit dem Pulsschlag der Lautstärkespitzen in der Sprache, die üblicherweise achtmal pro Sekunde passieren oder weniger. Diese Spitzen entsprechen ungefähr Silben.
Das Ziel der neuen Studie in der Proceedings of the National Academy of Sciences of the United States of America (PNAS) war es, zu testen, ob diese Synchronisation der Gehirnwellen speziell auf Lautsprache zugeschnitten ist, oder ob diese Fähigkeit eine allgemein anwendbare Funktion des Gehirns ist, die für alle zeitlich berechenbaren Prozesse zur Verfügung steht.
Für diese Studie wurde ein System entwickelt, um die Rhythmen einer Gebärdensprache per Computer zu quantisieren. Diese Metrik heißt instantaneous visual change (IVC) und bewertet jeden Zeitpunkt nach dem Grad der sichtbare Bewegung, wobei größere, schnellere Bewegungen einen höheren Wert bekommen als kleinere, langsamere.
Den gebärdenden und nicht-gebärdenden Probanden wurden Videos gezeigt, in denen Geschichten auf ASL (American Sign Language) erzählt wurden, während ihre Gehirnaktivität mittels Elektroenzephalographie (EEG) gemessen wurde.
Beim Vergleich des IVC-Werts mit den EEG-Daten wurde festgestellt, dass eine neuronale Synchronisation stattfand, obwohl die „Bewegungsspitzen“ bei Gebärdensprachen häufig ungefähr nur zweimal pro Sekunde kommen, viel langsamer als die Silben einer Lautsprache. Die Zentren im Gehirn, die für visuelle Verarbeitung zuständig sind, weisen jedoch eine Vorliebe für Frequenzen auf, die um zehnmal pro Sekunde liegen. Die Umstellung auf die viel langsameren Frequenzen der Bewegungen in ASL macht es also ziemlich eindeutig: das Gehirn synchronisiert seine Frequenzen mit dem des Eingabesignals und dies wird nicht vom Sinneskanal bedingt, durch den das Signal kommt.
Nicht nur mündliche Sprache
Das heißt: die Fähigkeit zur neuronalen Synchronisation scheint nicht auf mündliche Sprache spezialisiert zu sein.
Professorin Susan Goldin-Meadow, eine der Mitwirkende der Studie, sagte: „Was ich an dieser Studie besonders interessant finde, ist dass die Art und Weise verglichen wird, wie Gebärdende und Nicht-Gebärdende ASL-Stimuli verarbeiten. Obwohl beide Gruppen denselben Grad an neuronalen Synchronisation in den frühen visuellen Gehirnareale aufwiesen, gibt es doch Unterschiede in den vorderen Arealen – dieses Ergebnis schafft die Voraussetzungen dafür, dass wir Aspekte von der neuronalen Synchronisierung identifizieren, die von den physikalischen Eigenschaften der visuellen Signalen abhängen, im Vergleich zu Aspekten, die erst mit Sprachkenntnissen vorhanden sind.“