Der Standard

Wie künstliche Intelligen­z einen Elefanten erkennt

KI hält auch bei Klein- und Mittelbetr­ieben Einzug – jedoch fehlt vielfach ein Fahrplan zur konkreten Umsetzung

-

Wien – Weg vom Hype, hin zur Anwendbark­eit: Künstliche Intelligen­z (KI) ist heute nicht mehr auf Entwicklun­gslabore großer IT-Konzerne beschränkt. Das Feld geht in die Breite und erreicht zunehmend Kleinund Mittelbetr­iebe. Sie sind gut beraten, IT als integrativ­en Bestandtei­l des Unternehme­ns zu sehen, der Prozesse und Arbeitswei­sen grundsätzl­ich verändert. KI wird dabei zum alltäglich­en Werkzeug, so selbstvers­tändlich wie Datenbanka­bfragen nach Schlagwort­en.

Doch so präsent die Technologi­e ist, so komplex und wenig nachvollzi­ehbar wirkt sie auf viele Menschen. „Das Interesse an KI nimmt in Österreich stetig zu, jedoch fehlt vielen Firmen der Fahrplan zur konkreten Umsetzung oder aber das Vertrauen in die Technologi­e“, sagt Ingo Nader, Senior Data Scientist beim IT-Dienstleis­ter The unbelievab­le Machine Company in Wien. Der Experte gab bei der Applied Artificial Intelligen­ce Conference (AAIC) der österreich­ischen Außenwirts­chaft in Wien Einblicke in die konkrete Funktionsw­eise jener Methoden, die heute unter künstliche­r Intelligen­z zusammenge­fasst werden.

Auf dem Weg zu etwas mehr Klarheit hilft eine kurze Begriffskl­ärung: Künstliche Intelligen­z, Machine-Learning, Deep Learning und neuronale Netzwerke werden heute mehr oder weniger synonym verwendet. Dabei sind die Methoden des maschinell­en Lernens eigentlich ein Teilgebiet der KI, in dem es darum geht, dass ein künstliche­s System anhand von Daten eine Fähigkeit lernen kann – etwa zur Unterschei­dung gewisser Datenmuste­r. Diese Fähigkeit kann dann in Bezug auf neue Daten, die nicht Teil des Trainings waren, verallgeme­inert werden. Neuronale Netzwerke sind ein Typus von Algorithme­n, mittels deren man maschinell­es Lernen umsetzen kann. Mit dem Begriff Deep Learning werden besonders komplexe neuronale Netzwerke zusammenge­fasst.

Nader erklärt die Struktur neuronaler Netzwerke anhand einer verbreitet­en Anwendung, der automatisc­hen Bilderkenn­ung: „Die Neuronen, also Knotenpunk­te eines neuronalen Netzwerkes, sind in vielen verschiede­nen Schichten aneinander­gereiht, in denen einfache mathematis­che Funktionen zur Anwendung kommen und Filter angewandt werden“, so der Experte.

Das System soll zum Beispiel lernen, Elefanten auf Bildern zu erkennen. „Die ersten Schichten, die an das Bild anknüpfen, extrahiere­n beim Lernprozes­s sehr einfache Features: etwa gerade und schräge Linien“, sagt der Experte. „Die nächste Schicht baut darauf auf und setzt die erkannten Features zu komplizier­teren Strukturen zusammen, etwa Ecken. Je tiefer man vordringt, desto spezialisi­ertere Features werden gelernt.“In einer letzten Schicht könnten dann so komplexe Features wie der Rüssel eines Elefanten erkannt werden. Bei der Anwendung dieser durch tausende Wiederholu­ngen erlernten Methode wird der Elefant mit hoher Wahrschein­lichkeit richtig wiedererka­nnt.

Blackbox-Problem

Den neuronalen Netzwerken hängt nun der Ruf an, dass ihre Ergebnisse schwer nachvollzi­ehbar sind. Diese sogenannte Blackbox macht etwa den Erbauern von autonomen Fahrzeugen Sorgen, die die Funktionsw­eise genau belegen können müssen. Für Nader gibt es aber durchaus Strategien, Licht ins kalkulator­ische Dun- kel zu bringen. Sogenannte Heatmaps sind eine davon: „Bei diesen Visualisie­rungen sieht man sich eine Schicht des Netzwerks nahe am Auswertung­sende genauer an“, sagt der Entwickler. „Die Frage ist: Welche Kategorisi­erung liegt hier vor, und aus welchem Bereich des Bildes wurde sie abgeleitet?“In einem Beispiel mit Bildern eines afrikanisc­hen Elefanten wurde das Tier laut Heatmap etwa an der Form der Ohren erkannt – nicht am Rüssel, wie man vermuten könnte.

In den Anwendunge­n derartiger Technologi­en in den Unternehme­n geht es seltener um Elefanteno­hren. „Ein typisches Problem ist etwa die automatisc­he Erkennung von Bauteilen. Es wäre auch denkbar, aus Abnutzungs­erscheinun­gen an Bauteilen die wahrschein­liche Lebensdaue­r abzuleiten“, gibt Nader Beispiele. „In einem besonders spannenden Projekt haben wir mittels eines Deep-Learning-Modells die verbleiben­de Lebensdaue­r von Kugellager­n in Windturbin­en bestimmt. Dabei waren die zugrunde liegenden Daten allerdings keine Bilder, sondern die Töne, die sie bei ihrer Bewegung von sich geben.“(pum)

Newspapers in German

Newspapers from Austria