Jobgespräch: Der Roboter führt das Interview
Algorithmen analysieren selbstständig Lebensläufe, erstellen Profile aus Social-Media-Daten und führen Bewerbungsinterviews: Robo-Personaler haben die Bühne betreten.
München – Stellen Sie sich vor, Sie werden zu einem Auswahlgespräch eingeladen, und Ihnen sitzt kein Personaler aus Fleisch und Blut, sondern ein Roboter gegenüber. Was nach einem Science-Fiction-Szenario klingt, ist längst Realität. Unternehmen setzen bei der Personalwahl immer mehr auf Chatbots, automatisierte Skripte, die mit dem menschlichen Nutzer ein natürliches Gespräch führen sollen.
So hat das in San Francisco ansässige Start-up Mya Systems einen Chatbot namens Mya entwickelt, der mithilfe künstlicher Intelligenz Bewerbungsgespräche simuliert. Das Gespräch läuft wie ein Chat ab. Zunächst stellt sich der Robo-Personaler vor. Dann beginnt der Bot eine Konversation und stellt Fragen, die Aufschluss über die Eignung des Kandidaten geben sollen. Zum Beispiel: „Haben Sie Berufserfahrung?“„Wann ist Ihr frühester Einstiegstermin?“„Was sind Ihre Gehaltsvorstellungen?“Die Fragen beantwortet der Bewerber in einem Chatverlauf. Mithilfe neurolinguistischer Programmierung (NLP), einer Technik zur maschinellen Auswertung von Kommunikationsinhalten, zerlegt der Bot die Antworten in einzelne Bausteine und unterzieht sie einer semantischen Analyse.
Leider nein – schnell erledigt
Die extrahierten Informationen gleicht das KI-System über eine Cloud mit dem Anforderungsprofil für die Stellenausschreibung und dem Skript ab. Erfüllt der Kandidat die Jobqualifikationen nicht, bescheidet der Bot die Bewerbung abschlägig. Mya wurde genuin für die Plattform First Jobs entwickelt, läuft aber auch über Anwendungen wie Facebook Messenger, Skype oder über Kommunikationskanäle wie EMail und SMS.
Chatbots gelten als das nächste große Ding in der Start-up-Szene. So hat das Gesundheits-Start-up Babylon Health einen Chatbot entwickelt, der rund um die Uhr automatisiert Fragen von Patienten beantwortet. Auch Bewerbungsgespräche verlaufen dialogisch und lassen sich in einem Frage-Antwort-Schema automatisieren. Schon heute analysieren Algorithmen selbstständig Anschreiben und Lebensläufe. Inso- fern ist der Einsatz von künstlicher Intelligenz in einem fortgeschrittenen Stadium des Bewerbungsprozesses nur konsequent. Zumal sich die Flut von Bewerbungen ohne maschinelle Unterstützung kaum bewältigen ließe.
Mya Systems verspricht, dass die Automatisierung der Bewerbungsprozesse eine Zeitersparnis von 75 Prozent bringe und sich Personaler durch die frei werdenden Kapazitäten intensiver mit den einzelnen Bewerbern auseinandersetzen könnten. Zu den Kunden von Mya Systems gehört unter anderen der Personaldienstleister Adeco. Interessant ist, dass über 70 Prozent der Bewerber, die mit Mya ein Gespräch führten, die Maschine für einen Menschen hielten. Der Bot hätte damit den Turing-Test bestanden. Durch eine Optimierung des Skripts arbeiten die Entwickler daran, die Maschine immer menschlicher erscheinen zu lassen.
Das Versprechen der Robo-Personaler ist, dass sie wertneutral operieren und Kandidaten nur nach Ansehung der Daten beurteilen. Maschinen haben keine Lau- nen, Emotionen oder Vorurteile. Zumindest in der Theorie. In der Praxis haben Algorithmen wiederholt Stereotype reproduziert. So hat der Dienst Google Photos, der unter anderem eine Funktion zur automatischen Verschlagwortung von Bildern enthält, einen schwarzen Nutzer als „Gorilla“markiert. Auch Roboter können rassistisch sein. Wenn man in Googles Bildersuche nach dem Stichwort „CEO“sucht, erscheinen mit Ausnahme einer Barbie ausschließlich Männer.
Wer programmiert wie?
Umstritten ist, ob Algorithmen ein solches Bias reduzieren, indem sie darauf programmiert werden, Variablen wie Rasse, Geschlecht oder sozioökonomischen Status zu ignorieren, oder diesen verstärken. Microsofts Chatbot Tay, der die Twitter-Gemeinde mit rassistischen Beleidigungen überzog, ist nicht unbedingt ein Beweis für die Objektivität künstlicher Intelligenz. Zwar ist ein Algorithmus prinzipiell agnostisch, also in seiner Weltanschauung neutral. Doch ist sein Skript auch immer Ausfluss bestimmter Wertvorstellungen der Programmierer. Hinter jeder Maschine sitzt ein Mensch. Da die meisten Algorithmen mit Echtzeitdaten aus dem Netz gespeist werden und auf dieser Basis maschinell lernen, besteht die Gefahr, dass Vorurteile reproduziert werden. Hinzu kommt, dass die Möglichkeiten neurolinguistischer Programmierung begrenzt sind und ein Chatbot aus dem Input keine Erkenntnisse über Soft Skills gewinnen kann. Selbst wenn Algorithmen Persönlichkeitsmerkmale destillieren können – die Entscheidung, ob ein Kandidat für eine Stelle geeignet ist, kann die Maschine dem Menschen noch nicht abnehmen.