Wie interpretieren wir das, was wir sehen?
Gesicht oder Vase? Dass unsere visuelle Wahrnehmung am Ende auch Interpretationssache ist, zeigt zum Beispiel die sogenannte Rubin’sche Vase. Die bekannte schwarz-weiße Kippfigur stellt – je nachdem, ob man das schwarze Innenfeld oder die weißen Außenfelder betrachtet – eine Vase, einen Pokal oder zwei einander gegenüberliegende Gesichtsprofile dar (siehe Bild). Man kann nur entweder das eine oder das andere sehen. Unsere visuelle Wahrnehmung alterniert zwischen diesen Lösungen. Doch wovon hängt ab, was wir am Ende wahrnehmen? Was für eine Rolle spielt der „ruhende“Gehirnzustand, in dem wir uns befinden, noch bevor der Input kommt?
Wie wir das interpretieren, was wir sehen, hängt wesentlich davon ab, wie bestimmte Gehirnregionen miteinander kommunizieren, noch bevor der Sehreiz auf die Netzhaut trifft. Das haben jetzt Salzburger Neurowissenschafter als Erste in einem Experiment mit Testpersonen nachgewiesen.
Die neuen Erkenntnisse über Faktoren der Wahrnehmung könnten für die Entwicklung „intelligenter“Gerätschaften bei der MenschComputer-Interaktion von Nutzen sein. Die Studie wurde im hochrangigen Wissenschaftsjournal PNAS („Proceedings of the National Academy of Sciences“) publiziert.
Der Psychologiedoktorand und Erstautor der Studie, Elie Rassi vom Centre for Cognitive Neuroscience der Universität Salzburg, hat Tests mit 20 Probanden durchgeführt. Er zeigte ihnen in kurzen Abständen hintereinander immer wieder die Rubin’sche Vase. Sie mussten sagen (bzw. einen Knopf drücken), was sie gesehen hatten, Gesicht oder Vase. Unmittelbar bevor und während die Versuchsteilnehmer die Illusion betrachteten, wurden ihre Gehirnsignale mittels Magnetoenzephalographie (MEG) aufgezeichnet. MEG ist eine zeitlich hochauflösende Methode,
mit der die magnetischen Felder gemessen werden können, die elektrische Ströme im Gehirn erzeugen.
Das Kernergebnis: Die fortlaufenden dynamischen Netzwerkzustände unseres Gehirns haben einen Einfluss darauf, wie wir einen später auftretenden Reiz interpretieren. Wenn die auf Gesichtserkennung spezialisierte Gehirnregion mit frühen, auf einfachere Aspekte wie Orientierung oder Helligkeit spezialisierten Verarbeitungsregionen bereits kommuniziert, bevor der tatsächliche Reiz gesetzt wird, hat die Versuchsperson mit erhöhter Wahrscheinlichkeit auch später die Gesichter und nicht die Vase gesehen. Noch bevor ein Reiz auf die Netzhaut des Auges trifft, bestimmen also spezifische Netzwerkzustände im Gehirn, wie wir ein ambivalentes Bild interpretieren. „Die meisten Forscher analysieren die Gehirnaktivität ab dem Zeitpunkt, zu dem ein Ereignis dargeboten wird. Wir schauen hingegen ein paar Hundert Millisekunden zurück. So konnten wir eben sehen, dass – noch bevor wir einen Reiz darbieten – das spezifische Kommunikationsmuster zwischen den Hirnregionen ausschlaggebend ist für die Wahrnehmung“, ergänzt Projektleiter Nathan Weisz. Der Professor für Physiologische Psychologie ist Koordinator der MEG Unit am Centre for Cognitive Neuroscience der Universität Salzburg.
Mögliche Anwendungsgebiete dieser Grundlagenforschung gibt es vor allem im Bereich der MenschComputer-Interaktion, wie Weisz den SN sagt. Als konkretes Beispiel nennt er mögliche Verbesserungen beim Hören: „Es gibt Bemühungen, intelligente Hörgeräte zu entwickeln, die EEG-Daten berücksichtigen, um zu wissen, wie aufmerksam ein Hörgeschädigter gerade ist. Darauf aufbauend könnte man bestimmte Parameter beeinflussen. Ist man unaufmerksam, muss der Reiz intensiver sein.“
„Eine Anwendung könnten intelligente Hörgeräte sein.“