Wann sind wir auf einer Wellenlänge?
Schon heute ist es technisch möglich, unsere Gedanken zu interpretieren und unsere Emotionen zu kennen. So alarmierend dies ist, es kann uns auch nutzen. Daniel Strauss, Professor für Neurowissenschaft und Neurotechnologie, hat im Saarland ein Netzwerk mi
Kaum hat man sich daran gewöhnt, in der Gesellschaft 4.0 zu leben – analog zur Industrie 4.0, also auch sozial in einem Zeitalter digitaler Transformation –, wird schon die Gesellschaft 5.0 ausgerufen, in der die von Künstlicher Intelligenz angetriebene MenschMaschine-Interaktion nochmal ein weit höheres, hybridartiges Level erreichen soll.
Die Interaktion zwischen uns als Analogwesen und Robotern, Chatbots und sonstigen „Smart Services“wird dann nicht nur noch alltäglicher, allumfassender und bis in den letzten Winkel vernetzt sein, sie wird auch die Grenzen zwischen Realität und Virtualität immer weiter auflösen. Möglich, dass soziale Teilhabe irgendwann nurmehr um den Preis digitaler Teilhabe möglich sein wird. Dafür können Hirn-ComputerSchnittstellen dann unser Denken interpretieren, Absichten vorwegnehmen, Bedürfnisse kennen und Emotionen lenken. Bei all dem werden Fluch und Segen, wie so oft, nah beieinander liegen.
Wenn Daniel Strauss davon redet, dass es an der von ihm seit 2005 geleiteten „Systems Neuroscience & Neurotechnology Unit“(SNNU) immer darum ging, Technologien zu entwickeln, „die es uns erlauben, den Menschen zu lesen“, dann liegt ihm nichts ferner als Kontrolle oder Überwachung. Vielmehr steht der menschliche Nutzen im Mittelpunkt. Die Frage, die letztlich all seinen Forschungsprojekten zugrunde liegt, ist: Wo und wie können wir vom Potenzial smarter Neurotechnologien sinnvoll profitieren?
Die SNNU wie auch das 2021 von Strauss angeregte „Center for Digital Neurotechnoligies Saar“(CDNS) ist gleichermaßen der Medizinischen Fakultät der Uni und der Fakultät für Ingenieurwissenschaften der Hochschule für Technik und Wirtschaft (HTW) angegliedert – eine einzigartige Konstruktion weit über das Saarland hinaus. Weil daraus über Jahre ein Ökosystem für menschzentrierte Neurotechnologien erwachsen ist, an dem Partnerunternehmen aus Automotive, Produktion, Optik, Sensorik, KI, Medizintechnik und Robotik partizipieren, stößt das Modell längst deutschlandweit auf Interesse.
Angestoßen wurde es letztlich auch durch Straussens ungewöhnliche Forschungsvita. Er promovierte erst in Informatik und anschließend auch in den Neurowissenschaften, um sich dann in der medizinischen Fakultät zu habilitieren. Nach und nach baute Strauss – noch in den Zwanzigern, als er den Ruf an die HTW erhielt und 2005 eine Professur für Systemische Neurowissenschaften und Neurotechnologie – dann ein hochschulübergreifendes Forschungsnetzwerk mit auf, das mustergültig einlöst, was nicht wenige als Königsweg heutiger Wissenschaft ansehen: Interdisziplinarität in Kombination mit sehr tief reichendem Fachwissen.
Wobei Strauss lieber nicht von Interdisziplinarität im Sinne von fachlicher Verwässerung spricht. „Man ist in der Forschung schnell weg, wenn man sich ablenken lässt und nicht mehr in der Tiefe bleibt.“Es geht also nicht darum, einfach Knowhow zusammenzuwürfeln, sondern um das effiziente Nutzen äußerst genau definierter wissenschaftlicher Schnittstellen. So soll Grundlagen- sinnvoll mit Transferforschung verzahnt werden. Durch die Gründung des CDNS seien diese Aktivitäten „auf eine völlig neue Stufe gehoben worden“, meint der Neurowissenschaftler. In das CDNS eingebunden sind auch die Saarbrücker Uni-Informatik, diverse Homburger Fakultäten sowie das Zentrum für Mechatronik und Automatisierungstechnik (ZeMa).
An der HTW hat Daniel Strauss mit dem englischsprachigen Masterstudiengang Neural Engineering ein internationales Forschungssprungbrett etabliert und kann für seine Forschungen auf eine gut 20-köpfige, drittmittelfinanzierte, äußerst internationale Arbeitsgruppe zurückgreifen. Im HTW-Technikum sitzen sie an „monstergroßen Rechnern“, die all die erhobenen Daten extrem hochskalieren müs
sen. Etwa die mittels EEG-Hauben gemessenen Hirnaktivitäten von zwei kommunizierenden Personen. Strauss will bei diesem als „Hyperscanning“bezeichneten Verfahren Aufschlüsse gewinnen über den für eine gelingende Kommunikation maßgeblichen Zusammenhang zwischen Aufmerksamkeit und Emotion. Wendet man sich anderen doch eher zu, wenn sie einem sympathisch oder vertraut sind.
Zur Illustration zeigt er auf seinem Rechner eine Auswertung der Hirnareale zweier Kommunikationspartner: Man sieht zwei Graphen mit einem farbigen Liniengeflecht und teils wilden Ausschlägen der Amplituden: Zu sehen ist, ob und wann Sprecher und Hörer „auf einer Wellenlänge“waren – die Formulierung trifft ins Schwarze. Wenn zwei Menschen sich verstehen und aufmerksam sind, lassen sich die Aufzeichnungen optisch mehr oder minder übereinanderlegen: ihre Hirnaktivitäten zeigen ähnliche Wellenbewegungen, als seien sie synchronisiert. Die Forschung spricht von einer neuronalen Kopplung. Ausgeprägt ist diese Kopplung etwa bei einer von Empathie getragenen Eltern-Kind-Kommunikation.
Nutzen könnte man diese Erkenntnisse auch für das, was Strauss „empathische KI“nennt: Sei es, dass Fabrikroboter erkennen, wenn die Aufmerksamkeit der Arbeiter nachlässt. Sei es, dass Fahrassistenzsysteme ihre Art der Dialogführung an das Fahrerbefinden anpassen. Sei es, dass „empathische Inkubatoren“erkennen, wie viel Licht Frühgeborenen im Brutkasten gut tut. Einen Einwand nimmt Daniel Strauss sofort vorweg: die Sensibilität vieler Daten. Ja, diese dürften nur für die Dauer der Interaktion selbst erhoben werden. Dennoch: Das Auslesen unseres Inneren bleibt ein zweischneidiges Schwert.
Eines der faszinierenden Forschungsprojekte, an denen der 48-Jährige federführend beteiligt ist, nennt sich „Multi-Immerse“. Es zielt auf menschliche Nähe, wo diese physisch ausgeschlossen ist – etwa im Falle von Quarantänen oder räumlicher Distanz. In Zusammenarbeit mit der Homburger Kinderheilkunde und dem Direktor der Pädiatrie, Prof. Michael Zemlin, soll für Kinder, die aufgrund ihrer schweren Erkrankungen völlig abgeschirmt sind, mit Hilfe spezieller Sensortechnik, Akto
rik (Umwandeln von Signalen in Bewegung) und VR-Brillen ( VR steht für virtuelle Realität) die reale Trennung quasi aus den Angeln gehoben werden. Wenn die Eltern den Arm ihres Kindes im gemeinsam besuchten virtuellen Raum streicheln, soll das Kind dies wie eine reale Berührung empfinden. Was könnte wichtiger und heilsamer sein? Ob für von ihren Eltern getrennte Kinder oder alle, die in Pflegeheimen vereinsamen. Um diese Nähe zu simulieren, kooperieren unter dem Dach des CDNSZentrums Neurowissenschaftler, Informatiker und Mechatroniker.
Wie aber unterscheidet man, was an elektrischer Aktivität und verrauschten Signalen über die sündhaft teuren EEG-Hauben in welcher Hirnregion gemessen wird? Wie und wo sieht man, was Vertrauen, Aufmerksamkeit, Empathie ausmacht? Wissen muss man es, um bei virtuellen Kommunikationen alle für den emotionalen Resonanzraum relevanten Parameter zu berücksichtigen. Zumal ein anderes Forschungsfeld von Strauss, das Analysieren von Mikro-Expressionen im Gesicht, sich bei „Multi-Immerse“nicht nutzen lässt, weil die dort essenziellen VRBrillen das Gesicht abdecken und somit ein Decodieren der Mimik deutlich erschweren.
Wie viel in der Tiefe zu entdecken ist, zeigt eine andere, von Strauss` Team aus der Welt des Unsichtbaren ans Licht gebrachte Mikro-Bewegung. Die Ohrmuskeln würden ja als „neuronale Fossilien“gelten, meint Strauss und zeigt eine tausendfach hochskalierte Sequenz, in der unser Ohr sich, um aufmerksamkeitsgetrieben Schwingungen aufzunehmen, wie ein Segel im Wind bewegt. Prof. Strauss quittiert es mit dem Satz: „EEG-Hyperscanning kombiniert mit derart verstärkten MikroBewegungen, das macht außer uns weltweit kaum jemand.“