Wenn Maschinen Gedanken lesen
Aus die Maus. Statt Befehle mit Tastatur einzugeben, sollen Computer-Gehirnschnittstellen diese Arbeit erledigen
Einem Computer zu erklären, was man von ihm will, ist nicht immer einfach, selbst wenn wir Geräten teilweise schon sagen können, was unser Anliegen ist. Theoretisch könnten Maschinen auch unsere Hirnsignale auslesen und daraus ableiten, was wir wollen. Eine solche Gehirn-Computer-Schnittstelle (BCI) wäre die direkteste Verbindung zwischen Anwender und System. Firmen wie Facebook und Elon Musks Neuralink versprechen bereits, dass die nötige Technologie in wenigen Jahren verfügbar sein soll. Wissenschaftler sind zurückhal- tender in ihren Prognosen. Die Schweizer Neurowissenschaftlerin Stéphanie Martin spricht mit dem KURIER über große Versprechungen, Systeme für Menschen, die nicht sprechen können, und Finanzierungsprobleme.
KURIER: US-Konzerne machen große Versprechungen, was das Gedankenlesen mit technischen Mitteln angeht. Wie realistisch ist das? Stéphanie Martin:
Vom Gedankenlesen sind wir noch weit entfernt. Firmen wie Facebook, Google und Co. versprechen zwar große Dinge, aber die Hürden sind aus heutiger Sicht riesig. Wir haben noch nicht die notwendigen Verfahren, um Hirnaktivität präzise zu messen. Man darf nicht vergessen, dass ein menschliches Gehirn aus etwa 80 Milliarden Neuronen besteht.
Diese Grenzen betreffen die Methoden, die ohne Implantate im Schädel auskommen?
Ja. Wir verwenden für unsere Forschung Elektroden, die in den Schädel eingepflanzt werden. Das geht aus ethischen Gründen nicht ohne Weiteres. Wir arbeiten mit Epilepsiepatienten in Spitälern, denen ohnehin Elektroden eingesetzt werden, um Messungen mit hoher zeitlicher und räumlicher Auflösung zu machen.
Welche Limitationen gibt es sonst?
Bei unseren Versuchen, die innere Stimme, also Gedanken, die wir in unseren Köpfen hören, auszulesen, kommen weitere Probleme dazu. Es ist beispielsweise sehr schwer festzumachen, wann ein Gedanke beginnt und wann er endet. Wir versuchen das derzeit einzugrenzen, aber eine solche Kategorisierung der Daten ist sehr schwierig. Zudem ist das Verhältnis von Signal zu Hintergrundrauschen denkbar schlecht.
Aber machbar ist es?
Theoretisch sollte es möglich sein, mit besserer Technologie. Ich bin aber nicht sicher, ob wir das in meiner Generation noch erreichen werden.
Das heißt die großen Tech-Firmen sind zu optimistisch?
Elon Musk hat bei Neuralink etwa 80 Personen und enorme Mittel zur Verfügung. Es ist fantastisch, dass die großen Firmen Interesse zeigen. Die haben sehr gute Forscher und machen das Thema interessanter für eine breite Öffentlichkeit. Sie kollaborieren auch mit anderen Forschungseinrichtungen und stellen Mittel zu Verfügung. Die Schattenseite ist, dass sie sehr intransparent sind und ihre Erkenntnisse nicht teilen.
Sehen Sie technische Durchbrüche am Horizont?
Es gibt große Bemühungen, die Technologie für das Aufzeichnen von Hirnströmen zu verbessern. Es werden Elektroden mit höherer Auflösung entwickelt und auch die Zahl der implantier- baren Elektroden wird gesteigert. Bei Systemen, die ohne Operationen auskommen, sehe ich weniger Fortschritt.
Wo stehen Sie mit Ihrer Forschung?
Wir haben bereits einzelne Wörter dekodiert. Dabei haben wir uns auf wenige, klinisch relevante Begriffe beschränkt, etwa Hunger, Durst, Ja oder Nein. Das sind einfache, binär unterscheidbare Kategorien. Dass wir einzelne Wörter klassifizieren können, haben wir bewiesen. Jetzt müssen wir die Ergebnisse auf Personen übertragen, die nicht sprechen können.