Digitalisierung
Datenbasierte Services in der Industrie als Erfolgsfaktor
Maschinen und Anlagen und die dahinter stehenen Produktionsprozesse erzeugen kontinuierlich Daten. Erfolgreich können Unternehmen künftig nur sein, wenn es ihnen gelingt, Mehrwert aus diesen Daten zu generieren, vor allem im Bereich der Datenanalyse, wie Predictive Maintenance. Damit können Maschinenbauer datengetriebene Services anbieten. Produzierende Unternehmen hingegen erhöhen ihre Produktqualität und reduzieren Kosten.
DIE METHODEN und Werkzeuge des Machine Learning (ML) ermöglichen es, einen bisher unerschlossenen Zugang zu industriellen Maschinendaten zu liefern und damit unbekannte Zusammenhänge zu identifizieren. Allerdings ist die Erstellung von Machine-learning-modellen immer noch zeitaufwendig und kostenintensiv. Daher entsteht der Bedarf nach einem neuen, pragmatischen und wirtschaftlichen Ansatz für ML in der industriellen Anwendung.
Weidmüller unterstützt Maschinenbauer und -betreiber dabei, datenbasierte Services aufzubauen und zu nutzen. Das Industrial Automl-tool von Weidmüller ermöglicht es Unternehmen, eigenständig Machine-learning-modelle zu erstellen und so die gesammelten Daten in einen Mehrwert zu überführen. Aber was steckt hinter Data Science?
Und was genau ist unter „Automated Machine Learning“zu verstehen – im Vergleich zu traditionellen Projekten der industriellen Datenanalyse?
Erstellung von Machine-learning-modellen
Weidmüller hat sich zum Ziel gesetzt, Maschinenbauer und -betreiber darin zu befähigen, Machine-learning-modelle eigenständig zu erstellen. So sind die Betreiber in der Lage, die Produktion zu optimieren sowie Ausfallzeiten und Fehler zu reduzieren, Wartungsarbeiten zu optimieren, die Produktqualität zu verbessern und neue Services anzubieten. Dafür hat Weidmüller die Anwendung des maschinellen Lernens so stark vereinfacht, dass Domänenexperten mit ihrem Wissen über die Maschine oder den Produktionsprozess eigenständig ML- oder Ki-lösungen realisieren können – und zwar ohne Expertenwissen im Bereich Data Science. Denn Data Scientists sind keine Maschinenexperten und die Applikationsexperten sind keine Data Scientists.
Bei der klassischen Methode zur Entwicklung eines Ml-modells ist ein komplexer, manueller Prozess zu durchlaufen, der den Datensatz über verschiedene Prozessschritte verarbeitet und zum Mlmodell führt. Dafür müssen folgende Prozessschritte abgearbeitet werden: Datenintegration, Datenbereinigung, Datenaufbereitung, Feature Engineering, Modellauswahl, Modellbildung, Modellvalidierung, Bereitstellung der Modelle und schließlich das Deployment. Erst nach Abarbeitung aller dieser Schritte gibt es Resultate des Modells. Um diese einzelnen Schritte bearbeiten zu können, bedarf es fundiertem Know-how in der Data Science.
In wenigen Schritten von den Daten zum Ml-modell
Mit dem Tool Industrial Automl verfolgt Weidmüller einen anderen Weg und versetzt den Anwender in die Lage, in vier einfachen Schritten ein Ml-modell zu entwickeln und zu betreiben:
1. Datenimport
2. Datenanreicherung
3. Automatisierte Modellerstellung
4. Deployment des Modells
Für die einfache Ausarbeitung von Mlmodellen führt das Softwaretool den Anwender durch den Prozess der Modellentwicklung, weshalb Weidmüller hier auch von „Guided Analytics“spricht. Die Software hilft bei der Übersetzung und Archivierung des komplexen Applikationswissens in eine verlässliche Machinelearning-anwendung. Dabei fokussiert sich der Experte auf sein Wissen zum Maschinenund Prozessverhalten und verknüpft dieses mit den im Hintergrund ablaufenden Ml-schritten.
Intuitive Benutzerführung der Software
Dem Anwender stellt die Software im Wesentlichen zwei Module zur Verfügung. Mit dem Modelbuilder kann der Domänenexperte beispielsweise Mlmodelle zur Anomalie-erkennung und Klassifikation erzeugen. Entscheidend hierbei ist das Wissen der Applikationsexperten, denn sie haben die Erfahrung, wie das reguläre und anormale Verhalten ihrer Maschinen oder Anlagen aussieht. Die Experten erkennen direkt in der übersichtlichen Darstellung der Daten Abweichungen vom „normalen“Verhalten, können diese detektieren, labeln und so für die Modellbildung anreichern.
Der mit dem Applikationswissen angereicherte Datensatz ist die Eingangsgröße für das anschließende, automatisierte Generieren der Ml-modelle. Dabei entstehen Ml-lösungen, die mit den von Data Scientists manuell erstellten Lösungen durchaus vergleichbar sind. Dem Anwender werden mehrere Modelle vorgeschlagen, die auf unterschiedlichen Algorithmen und Werteparametern beruhen. Ziel ist es, im Optimierungsraum der Ml-möglichkeiten automatisiert die vielversprechendsten Pipelines und Modelle zu finden, unter anderem durch unterschiedliche Kombinationen von Features, Auswahl der passenden Algorithmen und Optimierung von deren Hyperparametern. Dazu fragt die Software an dezidierten Stellen implizit das Wissen der Domainexperten ab und bringt es dann für die Modellbildung mit ein.
Das für die Applikation passende Modell wählen
Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien wie Modellgüte, Ausführungszeit oder seinen bevorzugten Parametern aus. Das ausgewählte Modell kann exportiert und in die Ausführungsumgebung überführt werden (Deployment). Im zweiten Modul der Automl-software erfolgt schließlich die Ausführung der Modelle an der Maschine – On-premise oder Cloud-basiert – in der sogenannten Laufzeitumgebung.
Durch die Ml-automatisierung mit Industrial Automl ergibt sich eine Zeitersparnis für die Erstellung und den Vergleich der Modellen und Ergebnisse, zugleich wird die Time-to-market verkürzt. Die Aufgaben können deutlich rationeller umgesetzt werden, was wiederum wertvolle Ressourcen spart. Gleichzeitig profitiert der Nutzer auch von den jeweils aktuellsten Entwicklungen im Machine-learning-umfeld, die kontinuierlich in das Tool einfließen. Für die einfache Anwendung von Industrial Automl spricht auch, dass der Nutzer die Ergebnisse aus dem Algorithmus gut nachvollziehen kann und beispielsweise Feedback zur Relevanz der ausgewählten Features erhält. So lassen sich die Modelle
und damit die Ergebnisse über die Zeit durch neuen Input weiter optimieren, beispielsweise durch das Hinzufügen neuer Annotationen (Modellweiterentwicklung).
Ml-modelle mit der Modelruntime ausführen
Sind die richtigen Modelle ausgewählt, geht es um deren Ausführung. Dies erfolgt direkt an der Maschine on-premise oder in der Cloud. In der Modelruntime, also der Laufzeitumgebung, konfigurieren, betreiben und bewerten Anwender die eigenen Ml-modelle. Die Modelruntime basiert auf Docker-containern, in denen die wesentlichen Elemente zur Ausführung der Ml-modelle miteinander verbunden werden: Definition der Maschinen, Anbindung der Datenquellen, auszuführende Modelle, Konfiguration der Modellausführung. Die erstellten Modelle werden importiert und können dann der jeweiligen Maschine zugeordnet werden.
Für ein und dieselbe Maschine können auch mehrere Modelle verwendet werden und über die Zeit lassen sich Modell-updates aufspielen. Die Modellausführung lässt sich abhängig von der Anwenderanforderung konfigurieren. Die Konfiguration der Modelruntime erfolgt mithilfe der bereitgestellten Schnittstellen. Die Modellresultate werden ebenfalls über definierte Schnittstellen zur Verfügung gestellt und können so in den weiteren betrieblichen Ablauf einfließen, beispielsweise zum Auslösen von Meldungen über den aktuellen Maschinenzustand.
Dipl.-ing. Silke Lödige ist Presse-referentin bei der Weidmüller Interface Gmbh & Co. KG.