AUF DEM WEG ZU ERGEBNISORIENTIERTER INTELLIGENZ
Neue Technologien beim maschinellen Lernen, bessere Programmiertechniken und mehr datengesteuerte Skills ermöglichen wichtige Fortschritte. Optimierte Werkzeuge, mit denen sich Resultate direkt mit dem Kernmodell verbinden lassen, treiben ebenso den Fortschritt. Ein Fachartikel von Mario Berger, Country Lead Austria bei Google Cloud.
Bei allen Diskussionen über maschinelles Lernen (ML) und künstliche Intelligenz (KI) wird oft ein wichtiger Aspekt vergessen: Maschinelles Lernen läuft vor allem im Hintergrund ab. Daher sollte die Effektivität der Technologie anhand der darauf basierenden Entscheidungen bewertet werden. Künstliche Intelligenz kann somit nicht nur Störungen vorhersagen, sondern auch quantifizieren, wie viele Störungen durch KI verhindert werden. Sie kann nicht nur Api-strukturen anhand von Datenverkehr erkennen, sondern auch, wie viele weitere APIS dadurch aufgebaut werden. KI kann nicht nur Objekte erkennen, sondern auch, wie viele Unfälle durch diese Fähigkeit verhindert werden.
Worauf ich hinaus will: Man kann durchaus behaupten, dass sich KI nicht an Parametern wie Genauigkeit und Datenverlust (zwei bevorzugte Maße des Deep Learning) messen lässt, sondern an ihrem Einfluss auf das Endresultat.
Zwei Probleme gilt es jedoch, beim Übergang von Lernmodellen zum erzielten Ergebnis zu lösen:
1. Entwickler müssen die Auswirkungen des Modells auf ihr Ergebnis messen.
2. Es müssen sehr rasch Anwendungen entwickelt werden, die die Ergebnisse beeinflussen, indem Lernmodelle integriert werden.
DAS PROBLEM DER MESSBARKEIT
Angenommen, man würde ein neues Vision-modell für ein autonomes Fahrzeug einführen. Die Kernaufgabe des Modells besteht darin, Unfälle besser zu vermeiden – und nicht etwa Objekte besser oder schneller zu erkennen. Natürlich gilt es auch dabei, Herausforderungen zu meistern. Unfälle sind – glücklicherweise
– seltene Ereignisse, was eine Messung jedoch entsprechend schwierig macht. Ein weiteres Problem: Ob Unfälle passieren oder nicht, ist von vielen verschiedenen Faktoren abhängig. Einige Variablen – wie das eigene Modell – hat man selbst unter Kontrolle. Andere hingegen entziehen sich dem Einfluss der Entwickler: das Verhalten anderer Autos, Regen oder Baustellen. Der Einsatz der bayesschen Statistik, A/b-methoden und ähnliche Lösungsansätze sind zwar gut für das Messen und Verstehen von Ergebnissen geeignet, sie reichen jedoch nicht aus.
Betrachten wir nun die zweite Herausforderung: Anwendungen, die lernen und sich anpassen, wobei das eben beschriebene Problem der Messbarkeit den Lernvorgang beeinflusst. Das Erstellen von Lernanwendungen ist etwas anderes als das Erstellen von maschinellen Lernmodellen. Da sich beides so stark unterscheidet, wechseln sehr selten Experten der einen Seite auf die andere.
Menschen, die sich mit maschinellem Lernen beschäftigen, richten ihre Modelle oft auf Input aus, von dem sie einen direkten Einfluss erwarten. Sie gehen zudem immer von einem „sauberen Eingabevektor“aus. Das heißt, dass alle Eingaben die gleiche Größe haben, standardisiert und normalisiert sein müssen.wenn also ein Modell zur Untersuchung von Kaufneigung auf vergangenem Kundenverhalten und Ähnlichkeit von Produkten aufbaut, aber eine andere Variable – etwa das Wetter – ebenfalls Einfluss auf das Verhalten hat, dann wird dies nicht berücksichtigt. Der Anwendungsprogrammierer kann dies auch nicht mit Zugriff auf die Wetterinformationen über eine API selbst integrieren.
Die Bedürfnisse des Ml-programmierers und des Anwendungsentwicklers sind nicht gut aufeinander abgestimmt. Es ist oft sogar sehr schwer, von der rauen Datenrealität zum sauberen Input für das Modell zu gelangen. Um die Entwicklung weiter voranzutreiben, muss diese Hürde aber bewältigt werden. Wenn sich zwei Welten so weit voneinander entfernt bewegen, dann gibt es nur eine Lösung: Beide müssen sich einander annähern.
ML wird zusehends einfacher, und dieser Trend muss weitergehen. Wir beobachten einige fantastische Fortschritte beim maschinellen Lernen im Bereich des „Learning-to-learn“-modells. Das sind Algorithmen, die verschiedene Räume und Typen von Modellen erforschen. Alphago hat einige dieser Techniken verwendet, um das Spiel zu lernen und letztlich gegen den weltbesten Go-spieler Lee Sedol zu gewinnen.
Diese Entwicklung ermutigt viele Menschen dazu, sich selbst mit Ml-modellen zu befassen und diese zu erschaffen. Das wiederum führt zu größerer Kompetenz verschiedener Entwickler. Zudem sind noch einfacher zu bedienende Modelle das Resultat.
Die Modelle in der Anwendungsentwicklung und die Programmierer sollten zudem künftig daten- und ergebnisorientierter arbeiten. Deshalb gilt: Voraussagen folgen, nicht Regeln. Lernmodelle müssen offener für APIS werden, um schnell und einfach auf zusätzliche Systeme außerhalb ihrer eigentlichen Programmierung zugreifen zu können – sei es, um Wetterinformationen von Dritten oder Vorhersagen von einem Modell zu erhalten, das von einem anderen Team erstellt wurde. Außerdem: Eine Kernausbildung für maschinelles Lernen sollte Voraussetzung für alle sein, die als Anwendungsprogrammierer arbeiten möchten.
EINFLUSS AUF DIE VERBESSERUNG VON ERGEBNISSEN
In den nächsten fünf Jahren wird maschinelles Lernen immer mehr an Bedeutung gewinnen, wobei sein Einfluss auf die Verbesserung von Ergebnissen entscheidend sein wird. Dazu müssen Anwendungen jedoch maschinelles Lernen einbeziehen. Es gilt, die Lücke zwischen ML und Anwendungen zu schließen. Neue Möglichkeiten bei ML, bessere Programmiertechniken und mehr datengesteuerte Skills führen zu wichtigen Fortschritten. Dasselbe gilt für bessere Werkzeuge, mit denen sich Resultate direkt mit dem Kernmodell verbinden lassen. Je besser das Zusammenspiel gelingt, umso vielversprechender sieht die Zukunft für intelligente Ergebnisse aus.
Lernmodelle müssen offener für APIS werden, um schnell und einfach auf zusätzliche Systeme außerhalb ihrer eigentlichen Programmierung zugreifen zu können.