Uni entwickelt erste Sprachhilfe mit Emotionswiedergabe
Augsburger Forscher will Kommunikation für behinderte Menschen vereinfachen
AUGSBURG (KNA) - Es ist schwierig, sich diesen Satz in traurigem Ton vorzustellen: „Wir haben keine Hausaufgaben auf.“Und doch kann JanOliver Wülfing die Aussage in dieser Emotion abspielen. Oder verärgert oder – passender – glücklich. Glücklich, traurig, verärgert: Diese Gemütszustände hat Wülfing seinem Rechner bereits beigebracht. „Aber es sollen natürlich noch mehr werden“, sagt der 41-jährige Doktorand des Lehrstuhls für Multimodale Mensch-Technik-Interaktion der Universität Augsburg. Er entwickelt eine Kommunikationshilfe für Menschen mit Sprechbehinderung, die nicht nur Schrift verbalisieren, sondern auch Gefühle zeigen kann.
„Ein solches Gerät gibt es bislang noch nicht“, sagt Wülfing. „Bisher klingen die synthetischen Computerstimmen digitaler Kommunikationshilfen immer gleich – egal, ob sie etwas Fröhliches, Fieses oder Frustriertes ausdrücken. Es war wohl einfach niemand bereit, Geld für entsprechende Projekte lockerzumachen.“
Gefördert wird Wülfings Forschung vom Bundesarbeitsministerium im Rahmen des „PROMI“-Programms. Die Abkürzung steht für „Promovieren mit Behinderung“. Wülfing sitzt wegen einer infantilen Zerebralparese im Rollstuhl. „Ich bin das, was man landläufig einen Spastiker nennt“, erklärt er. „Ich habe bei der Geburt zu wenig Sauerstoff bekommen.“Die Folgen: Sprechfähigkeit und Feinmotorik sind eingeschränkt.
Dabei kann man sich mit Wülfing sehr wohl ganz normal unterhalten. Man muss nur manchmal nachfragen, wenn ihm ein ausgesprochenes Wort etwas zu undeutlich geraten ist. Wülfing zählt sich deshalb selbst nicht zur Zielgruppe seiner Computertechnik. Diese besteht vielmehr aus Menschen, die sich verbal überhaupt nicht mitteilen können. Mithilfe seines Programms können sie das, was sie sagen wollen, stattdessen in den Rechner eintippen. „Auch eine Eingabe über eine augengesteuerte Tastatur ist denkbar“, fügt Wülfing hinzu. „Diese Praxis wäre etwas für sogenannte Locked-in- oder auch andere Patienten, die von ihrem Körper nur noch die Augen bewegen können.“
Das, was in den Computer eingegeben wird, lässt sich von selbem dann hörbar in Worte fassen – und gleichzeitig in eine gewünschte Emotion. Die Handhabe ist also ziemlich einfach – die Programmierung dahinter allerdings nicht. „Es gibt ja sehr viele verschiedene Gefühle, und die jeweilige Tonlage dazu hat immer einen gewissen Facettenreichtum, aber keine Regelhaftigkeit“, erklärt Wülfing.
Rund 100 000 Menschen in Deutschland könnten von seiner Entwicklung profitieren, schätzt Wülfing, beispielsweise Schlaganfall-Patienten. Ihnen will der Doktorand mit seinem Projekt gleich zweifach zu mehr Teilhabe an der Gesellschaft verhelfen.
„Erstens können sich nicht sprechende Leute dank meiner Entwicklung emotional äußern – denn jeder bringt beim Reden unwillkürlich Gefühle mit über die Lippen“, sagt der Computerlinguist. „Zweitens können sie sich dadurch besser mit Nichtbehinderten unterhalten. Das zumindest ist die Hypothese meiner Doktorarbeit: dass die Unterhaltungen dank der Emotionswiedergabe länger und lebhafter werden als sie es aktuell bei Gesprächen mit monotonen Computerstimmen sind.“Dies führe dann zu einem größeren Interesse am Gesagten und so zu einem Barriereabbau. Wie lange Wülfing für sein Forschungsprojekt noch braucht, kann er nicht sagen. Er ist aber optimistisch, dass sein Gerät in den nächsten ein, zwei Jahren auch außerhalb der Uni einsatzbereit sein wird. Zuversicht – auch so ein Gefühl, das Wülfing seinem Programm noch beibringen könnte.