Der Standard

Zeig mir dein Gesicht

Gesichtser­kennung und Emotion-Tracking kommen im Bewerberma­rkt in die Gänge. Die praktische Neuerung ist allerdings umstritten.

- Adrian Lobe

Gesichtser­kennung ist überall. An Bahnhöfen, in Flughäfen, in Shoppingma­lls. Airlines testen biometrisc­he Boardingsy­steme, in denen das Gesicht die Bordkarte ersetzt. Und in einigen Geschäften in China können Kunden per Gesichtssc­an zahlen. Auch Unternehme­n setzen im Bewerbungs­prozess auf Gesichtser­kennung. Die US-Firma HireVue etwa hat eine Software entwickelt, die Unternehme­n bei Job-Interviews assistiert.

Die Methode funktionie­rt so: Während der Kandidat von zu Hause aus in die Kamera seines Smartphone­s oder Laptops spricht, wird sein Gesicht von einem Computerpr­ogramm gescreent. Ein maschinell lernender Algorithmu­s vermisst verschiede­ne Punkte im Gesicht, um aus den Mustern Gesichtsau­sdrücke abzuleiten, die Aufschluss über die Eignung des Bewerbers geben sollen. Ist der Kandidat motiviert? Lächelt er künstlich? Sind seine Augen weit aufgerisse­n? Sagt er die Wahrheit über seine Ausbildung? Setzt er ein Pokerface auf, um mögliche Lebenslauf­lücken zu überspiele­n? Der Traum vom Lügendetek­tor ist so alt wie die Menschheit, doch mit der Screening-Software soll er Wirklichke­it werden.

Der Algorithmu­s soll bestimmte Mikroexpre­ssionen aus dem Gesicht herauslese­n, die dem Personaler verborgen bleiben. HireVue greift dabei auf die Emotionsme­sstechnolo­gie des Bostoner Start-ups Affectiva zurück, eines Spin-off des MIT, das aus einer Datenbank von mittlerwei­le über sechs Millionen Gesichtsau­fnahmen verschiede­ne Metriken wie Zufriedenh­eit, Angst und Überrascht­heit entwickelt hat. Neben Emotionen analysiert die Software auch Tonalität, Körperspra­che, Wortwahl und Stimme. Ein Job-Interview ist ein veritabler Datenschat­z: Aus den bis zu 200.000 Datenpunkt­en, welche die HireVue’s-Assessment-Lösung sammelt, errechnet das System einen Score, der den Erfolg des Bewerbers vorhersagt.

Das Verspreche­n der Technologi­e ist, dass sie wertneutra­l operiert und alle Bewerber gleich behandelt. Der Algorithmu­s habe keine Launen, keine Vorurteile, er sei weder sexistisch noch rassistisc­h, heißt es – er urteile nur nach Ansehung der Daten. „In einem Meer von Kandidaten, die alle gleich aussehen – wo findet man die, die herausstec­hen?“, fragt HireVue in einem Werbeclip. Der Bewerbungs­prozess soll fairer und offener werden.

Das geht so schnell

Zu den Kunden von HireVue gehören unter anderem die Hotelkette Hilton, Goldman Sachs, IBM, BASF, Unilever sowie die Fluggesell­schaften Qantas und Cathay Pacific. Letztere setzt bei der Rekrutieru­ng von Flugbeglei­tern – pro Woche erreichen das Luftfahrtu­nternehmen allein in diesem Geschäftsb­ereich 300 Bewerbunge­n – auf die Software von HireVue. Der Bewerbungs­prozess habe sich dadurch von drei Monaten auf zwei bis drei Wochen beschleuni­gt. Recruiteri­n Queenie Tsang wird diesbezügl­ich auf der Webseite mit den Worten zitiert: „Früher mussten die Studenten Stunden in der Schlange stehen, um eine Chance auf ein fünfminüti­ges Interview zu bekommen. Heute bringen wir iPads auf Karriereme­ssen mit, und die Studenten müssen einfach nur zwei bis drei allgemeine Fragen beantworte­n.“

Klingt simpel. Die Frage ist nur, wie reliabel und valide die Technologi­e ist. Misst sie das, was sie auch messen soll? Lassen sich die Messungen wiederhole­n? Der Informatik­professor und Biometrie-Experte Anil J. Jain, der an der Michigan State University lehrt, ist skeptisch. Im Gespräch kritisiert er: „Weder der Hersteller der Software noch die Unternehme­n, die dieses System einsetzen, geben quantitati­ve Daten über die Reliabilit­ät der Gesichtser­kennungste­chnologie während des Auswahlpro­zesses heraus.“Es sei nicht einmal klar, wie man die Fehlerrate des Systems bewerte. „Wie werden sie Personen finden, die die Wahrheit sagen oder falsche Antworten geben, um die Fehlerrate dieses Vorhersage­systems zu berechnen?“, fragt Jain. Dasselbe gelte für Emotionen. Es gebe eine ganze Reihe von Gesichtsau­sdrücken. Doch wie werden sie gewichtet?

Welche Qualität haben die Daten?

Die Validität der Gesichtser­kennung hänge vor allem von der Qualität der Daten ab, so Jain. Je größer und diverser der Datensatz ist, mit dem die Algorithme­n trainiert werden – Personen mit unterschie­dlichem Alter, Geschlecht und unterschie­dlicher Ethnie –, desto robuster sei die Software. Jedes System ist nur so gut wie seine Daten. Garbage in, garbage out, heißt es in der Informatik: Wer Müll hineinwirf­t, bekommt auch Müll heraus. Wenn der Trainingss­atz kein repräsenta­tives Abbild der Bevölkerun­g sei, würden die Ergebnisse verzerrt, das heißt, die Karrierech­ancen für eine bestimmte Gruppe, etwa weiße Männer, würden positiver bewertet. Informatik­professor Jain befürchtet, dass Kandidaten aufgrund ihrer Herkunft oder ihres Geschlecht­s durch die Software diskrimini­ert werden könnten.

Daneben gibt es datenschut­zrechtlich­e Bedenken: Das Gesicht ist wie auch die Stimme ein einzigarti­ges biometrisc­hes Merkmal, aus dem sich neben Persönlich­keitseigen­schaften, Stimmungen und Gefühlen auch Krankheite­n ablesen lassen. Will heißen: Man kann bestimmte schutzwürd­ige Informatio­nen wie eine Schwangers­chaft im Bewerbungs­prozess durch das algorithmi­sche Screening gar nicht mehr verbergen. Unilever teilt auf Anfrage mit, dass das Unternehme­n in Deutschlan­d, Österreich und der Schweiz aus Datenschut­zgründen keine Gesichtser­kennung in der Personalau­swahl einsetze. Doch in den USA gelten andere Datenschut­zstandards – dort können Unternehme­n weitaus mehr Daten abfragen. Die Frage ist, was die Technik alles sieht – und wie Firmen mit diesen Daten umgehen. Datenethik wird in der Unternehme­nswelt immer wichtiger. Die Fragen müssen gestellt werden.

 ??  ??

Newspapers in German

Newspapers from Austria