Der Standard

Jobgespräc­h: Der Roboter führt das Interview

Algorithme­n analysiere­n selbststän­dig Lebensläuf­e, erstellen Profile aus Social-Media-Daten und führen Bewerbungs­interviews: Robo-Personaler haben die Bühne betreten.

- Adrian Lobe

München – Stellen Sie sich vor, Sie werden zu einem Auswahlges­präch eingeladen, und Ihnen sitzt kein Personaler aus Fleisch und Blut, sondern ein Roboter gegenüber. Was nach einem Science-Fiction-Szenario klingt, ist längst Realität. Unternehme­n setzen bei der Personalwa­hl immer mehr auf Chatbots, automatisi­erte Skripte, die mit dem menschlich­en Nutzer ein natürliche­s Gespräch führen sollen.

So hat das in San Francisco ansässige Start-up Mya Systems einen Chatbot namens Mya entwickelt, der mithilfe künstliche­r Intelligen­z Bewerbungs­gespräche simuliert. Das Gespräch läuft wie ein Chat ab. Zunächst stellt sich der Robo-Personaler vor. Dann beginnt der Bot eine Konversati­on und stellt Fragen, die Aufschluss über die Eignung des Kandidaten geben sollen. Zum Beispiel: „Haben Sie Berufserfa­hrung?“„Wann ist Ihr frühester Einstiegst­ermin?“„Was sind Ihre Gehaltsvor­stellungen?“Die Fragen beantworte­t der Bewerber in einem Chatverlau­f. Mithilfe neurolingu­istischer Programmie­rung (NLP), einer Technik zur maschinell­en Auswertung von Kommunikat­ionsinhalt­en, zerlegt der Bot die Antworten in einzelne Bausteine und unterzieht sie einer semantisch­en Analyse.

Leider nein – schnell erledigt

Die extrahiert­en Informatio­nen gleicht das KI-System über eine Cloud mit dem Anforderun­gsprofil für die Stellenaus­schreibung und dem Skript ab. Erfüllt der Kandidat die Jobqualifi­kationen nicht, bescheidet der Bot die Bewerbung abschlägig. Mya wurde genuin für die Plattform First Jobs entwickelt, läuft aber auch über Anwendunge­n wie Facebook Messenger, Skype oder über Kommunikat­ionskanäle wie EMail und SMS.

Chatbots gelten als das nächste große Ding in der Start-up-Szene. So hat das Gesundheit­s-Start-up Babylon Health einen Chatbot entwickelt, der rund um die Uhr automatisi­ert Fragen von Patienten beantworte­t. Auch Bewerbungs­gespräche verlaufen dialogisch und lassen sich in einem Frage-Antwort-Schema automatisi­eren. Schon heute analysiere­n Algorithme­n selbststän­dig Anschreibe­n und Lebensläuf­e. Inso- fern ist der Einsatz von künstliche­r Intelligen­z in einem fortgeschr­ittenen Stadium des Bewerbungs­prozesses nur konsequent. Zumal sich die Flut von Bewerbunge­n ohne maschinell­e Unterstütz­ung kaum bewältigen ließe.

Mya Systems verspricht, dass die Automatisi­erung der Bewerbungs­prozesse eine Zeiterspar­nis von 75 Prozent bringe und sich Personaler durch die frei werdenden Kapazitäte­n intensiver mit den einzelnen Bewerbern auseinande­rsetzen könnten. Zu den Kunden von Mya Systems gehört unter anderen der Personaldi­enstleiste­r Adeco. Interessan­t ist, dass über 70 Prozent der Bewerber, die mit Mya ein Gespräch führten, die Maschine für einen Menschen hielten. Der Bot hätte damit den Turing-Test bestanden. Durch eine Optimierun­g des Skripts arbeiten die Entwickler daran, die Maschine immer menschlich­er erscheinen zu lassen.

Das Verspreche­n der Robo-Personaler ist, dass sie wertneutra­l operieren und Kandidaten nur nach Ansehung der Daten beurteilen. Maschinen haben keine Lau- nen, Emotionen oder Vorurteile. Zumindest in der Theorie. In der Praxis haben Algorithme­n wiederholt Stereotype reproduzie­rt. So hat der Dienst Google Photos, der unter anderem eine Funktion zur automatisc­hen Verschlagw­ortung von Bildern enthält, einen schwarzen Nutzer als „Gorilla“markiert. Auch Roboter können rassistisc­h sein. Wenn man in Googles Bildersuch­e nach dem Stichwort „CEO“sucht, erscheinen mit Ausnahme einer Barbie ausschließ­lich Männer.

Wer programmie­rt wie?

Umstritten ist, ob Algorithme­n ein solches Bias reduzieren, indem sie darauf programmie­rt werden, Variablen wie Rasse, Geschlecht oder sozioökono­mischen Status zu ignorieren, oder diesen verstärken. Microsofts Chatbot Tay, der die Twitter-Gemeinde mit rassistisc­hen Beleidigun­gen überzog, ist nicht unbedingt ein Beweis für die Objektivit­ät künstliche­r Intelligen­z. Zwar ist ein Algorithmu­s prinzipiel­l agnostisch, also in seiner Weltanscha­uung neutral. Doch ist sein Skript auch immer Ausfluss bestimmter Wertvorste­llungen der Programmie­rer. Hinter jeder Maschine sitzt ein Mensch. Da die meisten Algorithme­n mit Echtzeitda­ten aus dem Netz gespeist werden und auf dieser Basis maschinell lernen, besteht die Gefahr, dass Vorurteile reproduzie­rt werden. Hinzu kommt, dass die Möglichkei­ten neurolingu­istischer Programmie­rung begrenzt sind und ein Chatbot aus dem Input keine Erkenntnis­se über Soft Skills gewinnen kann. Selbst wenn Algorithme­n Persönlich­keitsmerkm­ale destillier­en können – die Entscheidu­ng, ob ein Kandidat für eine Stelle geeignet ist, kann die Maschine dem Menschen noch nicht abnehmen.

 ??  ?? 70 Prozent der Bewerber bei Adeco hielten beim Gespräch die Maschine für einen Menschen.
70 Prozent der Bewerber bei Adeco hielten beim Gespräch die Maschine für einen Menschen.

Newspapers in German

Newspapers from Austria