Emotionserkennung mit künstlicher Intelligenz
Algorithmen merken, wie Sie sich fühlen
Es ist sechs Uhr morgens. Eine autofahrerin ist nach ihrer nachtschicht auf dem Heimweg. Sie kann ihre augen kaum noch offen halten, unterdrückt mehrmals ein Gähnen. Doch bevor sie am Steuer einnicken kann, schaltet sich die künstliche Intelligenz (KI) in ihrem auto ein. Erst spürt die Fahrerin ein ruckeln an ihrem Sicherheitgurt, dann wird sie direkt angesprochen: „Sie sehen müde aus. Ich empfehle eine kurze Pause. Der nächste rastplatz ist 500 Meter entfernt.” Ganz so weit wie in diesem Beispiel ist KIbasierte Emotionserkennung, auch Emotion aI genannt, noch nicht. Doch ferne Zukunftsmusik ist das Szenario ebenfalls nicht mehr. Emotion aI kann schon jetzt mit hoher Genauigkeit am Gesichtsausdruck oder an der Stimme erkennen, was ein Mensch fühlt.
Emotionen genauso zuverlässig erkennen wie ein Mensch
Visuelle Emotionserkennung entschlüsselt mithilfe von sogenannten Deep-learningalgorithmen anhand der Mimik den Gefühlszustand einer Person. Die sprachliche Emotionserkennung wiederum analysiert Stimmen und kann daraus ableiten, wie sich jemand fühlt. Weltweiter Marktführer der visuellen KIEmotionserkennung ist affectiva. Das Unternehmen aus Boston sagt: „Unsere Vision ist es, eine Emotion aI zu entwickeln, die Gefühle genauso zuverlässig erkennen kann wie ein Mensch.” affectiva behauptet sogar, die Erfolgsquote seiner Technologie liege bei mindestens 90 Prozent. affec- tiva greift dafür auf eine Datenbank von 7,4 Millionen Gesichtern aus 87 ländern zurück. Die Technologie von affectiva könne deshalb auch kulturelle Unterschiede in Gesichtsausdrücken zuverlässig einordnen. als Grundlage der visuellen Emotion aI dient meist das Facial action Coding System (FaCS) des Psychologen Paul Ekman (siehe Kasten links). auch affectiva nutzt das Konzept. alles, was der algorithmus damit zur Emotionserkennung braucht, ist eine Kamera. Darüber hinaus kann das Unternehmen den algorithmus, je nach Kundenwunsch, auf die Erkennung ganz spezifischer Gesichtsausdrücke schulen. Die liste der Kunden von affectiva reicht von autoherstellern wie BMW und Daimler über Fernsehsender wie CBS bis hin zu Marketingfirmen wie Brown, die unter anderem Pepsi und Kelloggs berät. Ähnlich vielversprechend ist die intelligente sprachliche Emotionserkennung. auch sie basiert auf traditionellen wissenschaft-
lichen Konzepten. Das Münchner Unternehmen Audeering ist in diesem Bereich weltweit führend. Audeerings Technologie geht unter anderem auf die Erkenntnisse von Klaus Scherer, Psychologe am Neuroscience Center der Universität Genf, zurück. Scherer hat bereits 1974 ein Programm zur Stimmanalyse entwickelt, das die menschliche Stimme nach vielen verschiedenen Faktoren auswerten kann, etwa Tonhöhe, Energie oder Dominanz. Damit können sehr zuverlässige Aussagen zum Gefühlszustand einer Person gemacht werden. Entscheidend ist somit nicht, was eine Person sagt, sondern wie sie es sagt. Die Software von Audeering hat eine Trefferquote von 75 bis 80 Prozent und ist damit genauso gut in der Emotionserkennung wie ein Mensch. In einigen Fällen übertrifft die Technologie sogar den Menschen, sagt Audeering-Mitgründerin und CEO Dagmar Schuller: „Unsere Technologie erreicht in einigen Bereichen das Super-Human-Level. Zum Beispiel kann sie besser aus dem Audiosignal erkennen, ob jemand betrunken ist, als ein Mensch.” Zur Emotionserkennung reicht der Software ein Hörbeispiel von wenigen Sekunden. Dabei spielt es keine Rolle, ob es sich um eine Stimme am Telefon oder um eine Tonaufnahme handelt. Selbst Hintergrundlärm kann die Software herausfiltern. Das ist ein großer Vorteil gegenüber der visuellen Emotionsanalyse, bei der eine Person aus nächster Nähe die Kamera frontal anschauen muss, damit der Algorithmus die Mimik richtig interpretieren kann. Darüber hinaus hat die Stimme mehr Ausprägungen als das Gesicht. Ein intelligenter Sprachassistent wie Alexa oder Siri könnten so auch Nuancen wie Ironie oder Sarkasmus erkennen. „Das valideste Ergebnis erreichen Sie natürlich, wenn sie visuelle und sprachliche Emotionsanalyse miteinander kombinieren”, sagt Dagmar Schuller. Das ist für die meisten Unternehmen darum der nächste logische Schritt.
Was passiert, wenn der Algorithmus falsch liegt?
Das Potenzial, das sich daraus für die Technologie ergibt, ist enorm. Das Marktforschungsinstitut Technavio geht davon aus, dass der Markt für KI-basierte Emotionserkennung bis 2022 um 60 Prozent wachsen wird. Besonders gefragt ist Emotion AI im Marketing. Denn je mehr ein Unternehmen einen Verbraucher emotional involvieren kann, desto höher sind die Chancen, dass dieser ein Produkt kauft. Doch auch für andere Branchen ist diese Technologie durchaus interessant. Emotion AI kann als smarter Assistent im Auto eingesetzt werden. Ein solcher Assistent könnte gestresste Autofahrer auf ent- spanntere Routen lenken oder LKW-Fahrer vor dem Sekundenschlaf bewahren. Lehrer könnten mit der Technologie mehr auf die Bedürfnisse ihrer Schüler eingehen, Ärzte den Gemütszustand ihrer Patienten besser verstehen und Psychologen schneller Fortschritte mit autistischen Patienten erzielen. Die Technologie von Audeering wird darü- ber hinaus zur Früherkennung von neurologischen Krankheiten wie Parkinson oder Burnout eingesetzt. Doch neben all diesen Vorteilen besteht auch die Gefahr, dass die Software ohne das Wissen einer Person eingesetzt wird und damit in die Privatsphäre eingreift. Was passiert zum Beispiel, wenn ein Fahrgast in der U-Bahn die Software auf seinem Smartphone installiert hat und damit heimlich den Gefühlszustand der anderen Passagiere ermittelt? Denkbar ist auch, dass Onlineshops die Technologie in ihre Webseiten einbauen, um die Emotionen von unwissenden Nutzern beobachten zu können. Unternehmen wiederum könnten die Technologie heimlich bei Bewerbungsgesprächen einsetzen oder ihre Mitarbeiter ausspionieren. Die Verletzung des Datenschutzes ist jedoch nicht das einzige Pro-
„Emotion AI sollte nicht ohne Zustimmung der Nutzer eingesetzt werden!“dagmar schuller, CeO von Audeering
blem. Genau wie Menschen können auch Algorithmen die Mimik oder Tonlage einer Person falsch interpretieren. Beim Onlineshopping ist das nicht schlimm; bei einem Polizeiverhör könnte es dagegen gravierende Konsequenzen haben. Dennoch bieten einige Unternehmen, etwa die Firma Eyeris, den Behörden ihre Software als „Lügendetektor“an. Die Wissenschaft dahinter ist schwammig. Menschen sind grundsätzlich sehr schlecht darin, eine Lüge zu erkennen. Selbst trainierte Polizeibeamte und Psychologen liegen etwa nur in der Hälfte der Fälle richtig. Doch auch, wenn Gesichtserkennungsprogramme Mikroexpressionen besser erkennen und einordnen können als Menschen: Sie können letztlich nur Prognosen darüber abgeben, ob eine gehobene Augenbraue oder ein Muskelzucken auf eine Lüge hindeuten. Deshalb lehnen viele Unterneh- men, wie auch Affectiva, die Zusammenarbeit mit Polizei oder Geheimdiensten ab – noch. Denn es ist lässt sich nicht völlig ausschließen, dass Emotionserkennung künftig nicht doch in Verhören eingesetzt wird. So testet die Europäische Union derzeit eine solche Software als mögliche Unterstützung für Grenzbeamte. Auch deshalb plädiert Dagmar Schuller dafür, dass Emotion AI nie ohne die Zustimmung des Nutzers eingesetzt werden sollte. Die Emotionsanalyse von Audeering funktioniert deshalb nur lokal auf dem Gerät selbst. So haben Verbraucher es selbst in der Hand, ihre Daten preiszugeben oder nicht. „Nutzer werden immer abwägen müssen zwischen der Angst, transparenter für Dritte zu sein, wenn ihre Daten offengelegt oder verarbeitet werden und dem persönlichen Nutzen, der sich daraus ergibt. Doch die Entscheidung muss beim Individuum bleiben. Niemand sollte ihnen diese abnehmen; die Nutzer müssen sich selbst damit auseinandersetzen und sich dessen bewusst sein.”