Mit barrierefreier Kosmetik erreicht Estée Lauder ganz neue Zielgruppen
Estée Lauder nutzt KI und Augmented Reality (AR), um Kundinnen und Kunden mit Sehbeeinträchtigung beim Auftragen von Make-up zu unterstützen
Der Kosmetikriese Estée Lauder hat einen sprachgesteuerten Make-upAssistenten entwickelt. Dieser kombiniert KI und AR, um Menschen mit Sehbehinderung dabei zu unterstützen, Beauty-Produkte zu verwenden. Der Voice-enabled Makeup Assistant (VMA) ist in den USA und Großbritannien als mobile (iOS)-App verfügbar und wird demnächst auch weltweit ausgerollt. Das Projekt hat dem Konzern einen „CIO 100 Award“in der Kategorie „IT Excellence“eingebracht.
Laut Christopher Aidan, Vice President Innovation und Emerging Technologies bei Estée Lauder, setzt der KI-unterstützte Make-upAssistent auf der bereits existierenden Plattform ARIA (Augmented Reality Immersive Application) auf: „Sie führt AR, KI und Machine Learning zusammen, um das Make-up auf dem Gesicht der Benutzer zu analysieren. Der VMA nutzt dann die Sprachführung, damit die User ihren idealen Look finden.“
Aidan und sein Team haben zwar die VMAApp relativ schnell entwickelt, die Forschungsphasen erwiesen sich jedoch als schwierig. Im Sinne der Inklusion sollte die App alle Formen, Größen, Hauttöne und einzigartigen Merkmale der Gesichter berücksichtigen. Um das sicherzustellen, war ein komplexerer KI-Trainingsprozess nötig als ursprünglich vorgesehen – und jede Menge Daten.
Der ursprüngliche Plan für den Make-upAssistenten sah vor, dass die Nutzerinnen ein Selfie machen, das der Algorithmus analysiert und ihnen dann entsprechende Optimierungstipps an die Hand gibt. Schon nach kurzer Zeit schwenkte das Team jedoch auf Echtzeit-Videos um, um die Gesichter der Userinnen zu scannen. Wenn die Videoanalyse zum Beispiel ergibt, dass jemand Lippenstift ungleichmäßig aufträgt, liefert die App natürlichsprachliche Anweisungen für Nachbesserungen. Sind die Korrekturen erledigt, gibt ein erneuter GesichtsScan Aufschluss darüber, ob das Ergebnis zufriedenstellend ist.
Bei der Entwicklung der App stand für Technologieexperte Aidan und sein Team der direkte Austausch mit sehbehinderten Menschen im Zentrum: Fokusgruppen wurden zusammengestellt, wobei Menschen mit verschiedenen Ausprägungen von Sehbeeinträchtigungen ausgewählt wurden. „Das ermöglichte dem Team, Einblicke in eine Vielzahl individueller Erfahrungen zu gewinnen und die eigenen Annahmen zu hinterfragen“, resümiert Aidan.
Das Feedback der Fokusgruppen wurde mit den Aussagen von Experten für Barrierefreiheit und Inklusion kombiniert, um die Anforderungen für den Voice-enabled Makeup Assistant optimal zu definieren. „Während der gesamten Design-, Entwicklungs- und Testphase ist das Nutzer-Feedback in unsere Entscheidungen eingeflossen, sogar bei kleineren Funktionen wie etwa der Möglichkeit, die Sprechgeschwindigkeit des virtuellen Assistenten anzupassen“, sagt Aidan.
Continuous Makeup Monitoring
Damit ist die Arbeit am Make-up-Assistenten für Estée Lauder allerdings noch nicht abgeschlossen: Seitdem die VMA-App im Januar 2023 zunächst in Großbritannien erschien, wurde weiter User-Feedback gesammelt und Raum für Optimierungen identifiziert. Aidan gibt ein Beispiel: „In der Praxis haben die Benutzer Fragen gestellt, die in der Testphase nicht aufgekommen waren – zum Beispiel, ob der Assistent auch Tipps geben könnte, wie sich ein Make-up entfernen lässt.“
Wie Michael Smith, CIO von Estée Lauder, ausführt, misst der Konzern den Erfolg der VMA-App an den Rückmeldungen der Benutzer. „Die Resonanz ist großartig: Die App vermittelt ihnen ein Gefühl von Selbstbestimmtheit. Sie können eigenständig neue Produkte ausprobieren und müssen sich dabei nicht auf andere verlassen und auch niemanden um Hilfe bitten. Und: Die App urteilt nicht, sie ist einfach nur ehrlich.“Der IT-Entscheider appelliert an seine Kollegen: „CIOs sollten der Entwicklung barrierefreier Produkte Priorität einräumen. Wenn man für alle Menschen auf eine integrative Art und Weise entwickelt, profitieren alle davon.“