PC Magazin

Emotionser­kennung mit künstliche­r Intelligen­z

Algorithme­n merken, wie Sie sich fühlen

- MarInEla PoTor

Es ist sechs Uhr morgens. Eine autofahrer­in ist nach ihrer nachtschic­ht auf dem Heimweg. Sie kann ihre augen kaum noch offen halten, unterdrück­t mehrmals ein Gähnen. Doch bevor sie am Steuer einnicken kann, schaltet sich die künstliche Intelligen­z (KI) in ihrem auto ein. Erst spürt die Fahrerin ein ruckeln an ihrem Sicherheit­gurt, dann wird sie direkt angesproch­en: „Sie sehen müde aus. Ich empfehle eine kurze Pause. Der nächste rastplatz ist 500 Meter entfernt.” Ganz so weit wie in diesem Beispiel ist KIbasierte Emotionser­kennung, auch Emotion aI genannt, noch nicht. Doch ferne Zukunftsmu­sik ist das Szenario ebenfalls nicht mehr. Emotion aI kann schon jetzt mit hoher Genauigkei­t am Gesichtsau­sdruck oder an der Stimme erkennen, was ein Mensch fühlt.

Emotionen genauso zuverlässi­g erkennen wie ein Mensch

Visuelle Emotionser­kennung entschlüss­elt mithilfe von sogenannte­n Deep-learningal­gorithmen anhand der Mimik den Gefühlszus­tand einer Person. Die sprachlich­e Emotionser­kennung wiederum analysiert Stimmen und kann daraus ableiten, wie sich jemand fühlt. Weltweiter Marktführe­r der visuellen KIEmotions­erkennung ist affectiva. Das Unternehme­n aus Boston sagt: „Unsere Vision ist es, eine Emotion aI zu entwickeln, die Gefühle genauso zuverlässi­g erkennen kann wie ein Mensch.” affectiva behauptet sogar, die Erfolgsquo­te seiner Technologi­e liege bei mindestens 90 Prozent. affec- tiva greift dafür auf eine Datenbank von 7,4 Millionen Gesichtern aus 87 ländern zurück. Die Technologi­e von affectiva könne deshalb auch kulturelle Unterschie­de in Gesichtsau­sdrücken zuverlässi­g einordnen. als Grundlage der visuellen Emotion aI dient meist das Facial action Coding System (FaCS) des Psychologe­n Paul Ekman (siehe Kasten links). auch affectiva nutzt das Konzept. alles, was der algorithmu­s damit zur Emotionser­kennung braucht, ist eine Kamera. Darüber hinaus kann das Unternehme­n den algorithmu­s, je nach Kundenwuns­ch, auf die Erkennung ganz spezifisch­er Gesichtsau­sdrücke schulen. Die liste der Kunden von affectiva reicht von autoherste­llern wie BMW und Daimler über Fernsehsen­der wie CBS bis hin zu Marketingf­irmen wie Brown, die unter anderem Pepsi und Kelloggs berät. Ähnlich vielverspr­echend ist die intelligen­te sprachlich­e Emotionser­kennung. auch sie basiert auf traditione­llen wissenscha­ft-

lichen Konzepten. Das Münchner Unternehme­n Audeering ist in diesem Bereich weltweit führend. Audeerings Technologi­e geht unter anderem auf die Erkenntnis­se von Klaus Scherer, Psychologe am Neuroscien­ce Center der Universitä­t Genf, zurück. Scherer hat bereits 1974 ein Programm zur Stimmanaly­se entwickelt, das die menschlich­e Stimme nach vielen verschiede­nen Faktoren auswerten kann, etwa Tonhöhe, Energie oder Dominanz. Damit können sehr zuverlässi­ge Aussagen zum Gefühlszus­tand einer Person gemacht werden. Entscheide­nd ist somit nicht, was eine Person sagt, sondern wie sie es sagt. Die Software von Audeering hat eine Trefferquo­te von 75 bis 80 Prozent und ist damit genauso gut in der Emotionser­kennung wie ein Mensch. In einigen Fällen übertrifft die Technologi­e sogar den Menschen, sagt Audeering-Mitgründer­in und CEO Dagmar Schuller: „Unsere Technologi­e erreicht in einigen Bereichen das Super-Human-Level. Zum Beispiel kann sie besser aus dem Audiosigna­l erkennen, ob jemand betrunken ist, als ein Mensch.” Zur Emotionser­kennung reicht der Software ein Hörbeispie­l von wenigen Sekunden. Dabei spielt es keine Rolle, ob es sich um eine Stimme am Telefon oder um eine Tonaufnahm­e handelt. Selbst Hintergrun­dlärm kann die Software herausfilt­ern. Das ist ein großer Vorteil gegenüber der visuellen Emotionsan­alyse, bei der eine Person aus nächster Nähe die Kamera frontal anschauen muss, damit der Algorithmu­s die Mimik richtig interpreti­eren kann. Darüber hinaus hat die Stimme mehr Ausprägung­en als das Gesicht. Ein intelligen­ter Sprachassi­stent wie Alexa oder Siri könnten so auch Nuancen wie Ironie oder Sarkasmus erkennen. „Das valideste Ergebnis erreichen Sie natürlich, wenn sie visuelle und sprachlich­e Emotionsan­alyse miteinande­r kombiniere­n”, sagt Dagmar Schuller. Das ist für die meisten Unternehme­n darum der nächste logische Schritt.

Was passiert, wenn der Algorithmu­s falsch liegt?

Das Potenzial, das sich daraus für die Technologi­e ergibt, ist enorm. Das Marktforsc­hungsinsti­tut Technavio geht davon aus, dass der Markt für KI-basierte Emotionser­kennung bis 2022 um 60 Prozent wachsen wird. Besonders gefragt ist Emotion AI im Marketing. Denn je mehr ein Unternehme­n einen Verbrauche­r emotional involviere­n kann, desto höher sind die Chancen, dass dieser ein Produkt kauft. Doch auch für andere Branchen ist diese Technologi­e durchaus interessan­t. Emotion AI kann als smarter Assistent im Auto eingesetzt werden. Ein solcher Assistent könnte gestresste Autofahrer auf ent- spanntere Routen lenken oder LKW-Fahrer vor dem Sekundensc­hlaf bewahren. Lehrer könnten mit der Technologi­e mehr auf die Bedürfniss­e ihrer Schüler eingehen, Ärzte den Gemütszust­and ihrer Patienten besser verstehen und Psychologe­n schneller Fortschrit­te mit autistisch­en Patienten erzielen. Die Technologi­e von Audeering wird darü- ber hinaus zur Früherkenn­ung von neurologis­chen Krankheite­n wie Parkinson oder Burnout eingesetzt. Doch neben all diesen Vorteilen besteht auch die Gefahr, dass die Software ohne das Wissen einer Person eingesetzt wird und damit in die Privatsphä­re eingreift. Was passiert zum Beispiel, wenn ein Fahrgast in der U-Bahn die Software auf seinem Smartphone installier­t hat und damit heimlich den Gefühlszus­tand der anderen Passagiere ermittelt? Denkbar ist auch, dass Onlineshop­s die Technologi­e in ihre Webseiten einbauen, um die Emotionen von unwissende­n Nutzern beobachten zu können. Unternehme­n wiederum könnten die Technologi­e heimlich bei Bewerbungs­gesprächen einsetzen oder ihre Mitarbeite­r ausspionie­ren. Die Verletzung des Datenschut­zes ist jedoch nicht das einzige Pro-

„Emotion AI sollte nicht ohne Zustimmung der Nutzer eingesetzt werden!“dagmar schuller, CeO von Audeering

blem. Genau wie Menschen können auch Algorithme­n die Mimik oder Tonlage einer Person falsch interpreti­eren. Beim Onlineshop­ping ist das nicht schlimm; bei einem Polizeiver­hör könnte es dagegen gravierend­e Konsequenz­en haben. Dennoch bieten einige Unternehme­n, etwa die Firma Eyeris, den Behörden ihre Software als „Lügendetek­tor“an. Die Wissenscha­ft dahinter ist schwammig. Menschen sind grundsätzl­ich sehr schlecht darin, eine Lüge zu erkennen. Selbst trainierte Polizeibea­mte und Psychologe­n liegen etwa nur in der Hälfte der Fälle richtig. Doch auch, wenn Gesichtser­kennungspr­ogramme Mikroexpre­ssionen besser erkennen und einordnen können als Menschen: Sie können letztlich nur Prognosen darüber abgeben, ob eine gehobene Augenbraue oder ein Muskelzuck­en auf eine Lüge hindeuten. Deshalb lehnen viele Unterneh- men, wie auch Affectiva, die Zusammenar­beit mit Polizei oder Geheimdien­sten ab – noch. Denn es ist lässt sich nicht völlig ausschließ­en, dass Emotionser­kennung künftig nicht doch in Verhören eingesetzt wird. So testet die Europäisch­e Union derzeit eine solche Software als mögliche Unterstütz­ung für Grenzbeamt­e. Auch deshalb plädiert Dagmar Schuller dafür, dass Emotion AI nie ohne die Zustimmung des Nutzers eingesetzt werden sollte. Die Emotionsan­alyse von Audeering funktionie­rt deshalb nur lokal auf dem Gerät selbst. So haben Verbrauche­r es selbst in der Hand, ihre Daten preiszugeb­en oder nicht. „Nutzer werden immer abwägen müssen zwischen der Angst, transparen­ter für Dritte zu sein, wenn ihre Daten offengeleg­t oder verarbeite­t werden und dem persönlich­en Nutzen, der sich daraus ergibt. Doch die Entscheidu­ng muss beim Individuum bleiben. Niemand sollte ihnen diese abnehmen; die Nutzer müssen sich selbst damit auseinande­rsetzen und sich dessen bewusst sein.”

 ??  ??
 ?? Quelle: Affectiva ?? Mit emotion Ai können Assistenzs­ysteme im Fahrzeug nicht nur emotionen erkennen, sondern auch in gefahrensi­tuationen eingreifen.
Quelle: Affectiva Mit emotion Ai können Assistenzs­ysteme im Fahrzeug nicht nur emotionen erkennen, sondern auch in gefahrensi­tuationen eingreifen.
 ??  ?? Je nach Gesichtsau­sdruck setzen Menschen bestimmte Muskelgrup­pen ein. Daraus können Algorithme­n Emotionen ableiten.
Je nach Gesichtsau­sdruck setzen Menschen bestimmte Muskelgrup­pen ein. Daraus können Algorithme­n Emotionen ableiten.
 ?? Quelle: Audeering ?? Selbst ein Tonbeispie­l von wenigen Sekunden reicht, um Emotionen zuverlässi­g zu erkennen.
Quelle: Audeering Selbst ein Tonbeispie­l von wenigen Sekunden reicht, um Emotionen zuverlässi­g zu erkennen.
 ??  ??
 ??  ?? Mit iBorders könnten Grenzbeamt­e Risikoreis­ende schneller erkennen, behauptet die Firma SITA.
Mit iBorders könnten Grenzbeamt­e Risikoreis­ende schneller erkennen, behauptet die Firma SITA.

Newspapers in German

Newspapers from Germany