Wo ist die Milch? Da liegt sie ja!
Grazer Forscher haben zugeschaut, was im Gehirn passiert, wenn wir etwas finden. Dabei haben sie methodische Schwierigkeiten gelöst, die in ihrer Disziplin lange Zeit als unüberwindbar galten.
Wir alle tun es. Mehrere Hundert, vielleicht sogar Tausend Mal am Tag. Unzählbar oft. Wir suchen etwas: das Lieblings-T-Shirt im Schrank, das blaue Milchpackerl im Kühlschrank oder das eigene Auto im Parkhaus. „Visuelle Suche ist eines der grundlegendsten und häufigsten Verhalten des Menschen und anderer Wirbeltiere“, erklärt Christof Körner vom Institut für Psychologie der Uni Graz. „Wir suchen unsere Umwelt ständig nach relevanten Informationen ab.“
Das passiert mittels – meist unbewusster – Blickbewegungen. „Jeder Mensch bewegt seine Augen drei bis viermal in der Sekunde. Wir führen in unserem Leben weit mehr Blickbewegungen aus, als das Herz Schläge macht“, sagt Körner. Wurden Suchprozesse bisher in der psychologischen Forschung beobachtet, hieß es allerdings: „Stillhalten!“Denn jede Bewegung der Augen verzerrt das Signal der Elektroenzephalografie, kurz EEG. Versuchspersonen wurden etwa angewiesen, während der Messungen ein kleines Kreuz am Monitor zu fixieren. „Das entspricht aber nicht unserem natürlichen Blickverhalten. Die Augen wollen und müssen sich bewegen“, so Körner.
Dem Grazer Forscherteam rund um ihn und die Psychologin
Anja Ischebeck ist es in einem vom Wissenschaftsfonds FWF finanzierten, auf fünf Jahre angelegten Projekt gelungen, diese Hürde zu nehmen. Außerdem kombinierten die Wissenschaftler verschiedene bildgebende Verfahren. „Wir haben dem Gehirn beim Finden zugeschaut“, sagt Körner.
Dem Aha-Moment auf der Spur
Die Forscher baten Versuchspersonen, auf einem Display einen bestimmten Buchstaben, etwa ein T oder X, zu identifizieren oder zu zählen, wie oft er angezeigt wird.
„Unter gut kontrollierten Laborbedingungen sind solche komplexen Phänomene weit einfacher zu beobachten als draußen im Feld“, sagt Körner. Die Teilnehmer durften dabei schauen „wie im echten Leben“. Doch sie trugen eine EEG-Haube, ein Eye-Tracking-System und lagen im Kernspintomografen. Dort darf man keine magnetischen Geräte benutzen, die Forscher mussten ihre Geräte daher umbauen. Die Störsignale im EEG entfernten sie schließlich mittels bekannter, aber in dieser Form noch nicht angewandter mathematischer und statistischer Verfahren.
Auf diese Weise gelang es, Momente, in denen jemand einen Buchstaben sucht, mit jenen zu vergleichen, in denen das Gehirn feststellt, dass er fixiert wurde – Körner nennt diesen Augenblick den Aha-Moment. Das EEG zeigte diesen mit einer minimalen Verzögerung von 440 Millisekunden an. Und auch auf den Bildern aus dem Kernspintomografen (siehe Abbildung) erkennt man, wie das Gehirn aktiviert wird, wenn jemand einen gesuchten Buchstaben sieht.
Aber warum steht manchmal etwas, das wir suchen, direkt vor unserer Nase – und wir sehen es nicht? Einerseits, weil das Sehfeld des Menschen weit eingeschränkter ist, als den meisten bewusst ist. „Das Gehirn gaukelt uns ein größeres Sehfeld vor. Wir können aber nur in einem kleinen Bereich auf der Netzhaut scharf sehen“, erläutert Körner. Denn die Anzahl der Fotorezeptoren im Auge nimmt nach außen deutlich ab. Das lässt sich testen, indem man beide Arme ausstreckt und die Zeigefinger betrachtet. Fokussiert man auf den einen und bewegt den anderen zur Seite, erscheint dieser bald unscharf. Andererseits sei die Umwelt voller Distraktoren, also für eine Aufgabe nicht relevanter Objekte, so Körner. Diese können dem Zielobjekt zwar ähneln, lenken aber vor allem ab – es gelte, sie bei der Suche auszuschließen. Dazu ist volle Aufmerksamkeit nötig, eine sehr begrenzte Ressource: „Wir brauchen sie, damit ein Objekt ins Bewusstsein durchdringt.“
Die Aufmerksamkeit schwindet
Geschlechterunterschied gebe es beim Suchen und Finden keinen, sagt Körner, aber die Aufmerksamkeit würde – wie jede andere kognitive Leistung – mit dem Alter abnehmen: „Wir probieren alle Versuche ja zuerst einmal selbst aus. Dabei waren meine Doktoranden immer schneller als ich.“
Der Psychologe hatte sich in seiner Forschung ursprünglich damit befasst, wie Menschen Visualisierungen von Daten, etwa Grafiken zu Wahlergebnissen, verstehen. Dabei war ihm aufgefallen, wie wichtig die Suche relevanter Information und das Ausfiltern irrelevanter Informationen bei einer Aufgabe waren: „Die Aufmerksamkeit gleitet wie ein Scheinwerfer von einem Objekt zum anderen“, sagt er. Das faszinierte ihn, er wollte mehr wissen und wechselte von den anwendungsorientierten Fragen in die Grundlagenforschung.
SMS an die Außenwelt
Doch auch die hier erlangten Erkenntnisse könnten eines Tages praktischen Anwendungen nutzen. Sie könnten etwa dazu beitragen, Brain-Computer-InterfaceSysteme (BCI-Systeme), die eine Verbindung zwischen Gehirn und Computer schaffen, zu verbessern. Diese gelten als große Hoffnung für Menschen, die sonst nicht mit der Außenwelt kommunizieren können, wie Patienten mit amyotropher Lateralsklerose (ALS), einer unheilbaren degenerativen Erkrankung des motorischen Nervensystems. „Sie können die Aufmerksamkeit auf einen bestimmten Buchstaben richten, sich aber nicht mitteilen“, schildert Körner. Wird der Fokus auf einen Buchstaben im EEG gut abgebildet, könnten Betroffene eines Tages kraft ihrer Gedanken SMS-artige Nachrichten leichter schreiben.