Weidmüller

Demokratisierung von Machine Learning


Fortsetzung des Artikels von Teil 2

Machine-Learning-Anwendungen beschleunigen

Tobias Gaukstern, Vice President Industrial Analytics bei Weidmüller.
Tobias Gaukstern, Vice President Industrial Analytics bei Weidmüller.
© Weidmüller

Tobias Gaukstern, Vice President Industrial Analytics bei Weidmüller, erläutert im Interview die Funktionsweise von Industrial AutoML und welche Vorteile die Software für Anwender bietet.

Mit dem ‚Modell Builder‘ werden Daten vom Domänenexperten klassifiziert. Wie genau kann man sich das vorstellen?

Der Nutzer kann die Maschinendaten mithilfe eines intuitiv bedienbaren Graphical User Interface – kurz GUI – markieren und so bestimmte Zeitbereiche als normales oder nicht normales Maschinenverhalten kennzeichnen. Nach diesem Verfahren lässt sich auch jedes andere Verhalten oder jeder Zustand in den Daten markieren und bezeichnen. Das sogenannte Labeling oder auch Tagging kann der Nutzer anhand beliebiger Datenreihen vornehmen und so sein Applikationswissen mit dem Datensatz verknüpfen. Die Berechnung der Korrelationen zu allen anderen Datenreihen erfolgt dann anschließend im Rahmen der Modellbildung automatisch.

Was genau versteht man unter überwachtem und unüberwachtem maschinellen Lernen?

Beim überwachten Lernen liegt zu jeder Trainingsaufgabe die richtige Antwort in Form eines Labels vor. Bei einer Klassifikationsaufgabe zum Beispiel werden die gültigen Klassen sowie die Zuordnung von Zuständen zu den jeweiligen Klassen vorgegeben. Im Fall des unüberwachten Lernens existieren keine Labels zu den Trainingsdaten. Es sollen also Strukturen in den Daten erkannt werden, deren Kategorien zuvor nicht bekannt sind. Dazu werden unter anderem Clustering-Verfahren angewendet. Bei unserem Industrial AutoML-Produkt kombinieren wir beide Ansätze. So kann ein Modell zur Anomalie-Erkennung trainiert werden, ohne dass bestimmte Anomalien bekannt sind. Es wird also das unüberwachte Lernen eingesetzt, um das Normalverhalten zu lernen. Im Betrieb wird dann jede Abweichung vom gewünschten Verhalten als Anomalie erkannt. Sind zusätzlich konkrete Anomalien bekannt, lassen sich die ML-Modelle mit Hilfe des unüberwachten Lernen validieren. 

Wie viele Trainingsdaten werden für ein ML-Modell benötigt?

Eine pauschale Antwort kann dazu nicht gegeben werden, da die notwendige Datenmenge von vielen Faktoren abhängt. Hier sind zum Beispiel die Abstraktheit der Daten, die Häufigkeit der Anomalie beziehungsweise der Fehler, die Anzahl der Features und der Datenspuren, die eine Korrelation zur Anomalie beziehungsweise zum Fehler aufweisen, zu nennen. Für den Start genügen in der Regel einige Megabyte an Trainingsdaten, um zu validieren, ob maschinelles Lernen für den Use Case geeignet ist und um ein erstes Modell zu trainieren. Wir sprechen hier also von einem Small-Data-Ansatz. Die Besonderheit unseres Ansatzes ist, dass bereits Trainingsdaten vom Normalverhalten einer Maschine ausreichen, um ein Modell zur AnomalieErkennung zu erstellen, wodurch sich fast jeder Anwender ohne Hürden auf die ML-Reise begeben kann.

Wie unterscheiden sich die vom Domänen-experten klassifizierten Daten von den ausgewählten Daten eines Data Scientist? Und inwieweit hätten Unterschiede Auswirkungen auf das Modell?

Der Ingenieur kann mit seinem Applikationswissen von Anfang an die Feature- und Zeitbereiche auswählen, die für den Use-Case relevant sind, und gleichzeitig mit den entsprechenden Labels versehen. Dieses Wissen kann der Data Scientist nicht einbringen, da er es in der Regel schlicht nicht hat. Dies gilt auch für Features, die der Domänenexperte zusätzlich kreiert. Dabei ist es ein großer Unterschied, ob der Domänenexperte sein Wissen direkt in den Datensatz einbringt, oder ob ein Data Scientist mit in dem Projekt eingebunden ist, der sich mühsam das Wissen erfragt und dann bei der Modellbildung berücksichtigt. Dieses spiegelt sich auch in der Modellperformance wider: Stark mit Domänenwissen angereicherte Modelle sind anderen Modellen üblicherweise überlegen – es kommt hier aber auch immer auf den Einzelfall an.

Die ML-Modelle werden von der Software automatisch generiert. Wie kann die Software wissen, welches Modell für die jeweilige Anwendung am besten geeignet ist?

Gerade die Kombination von Automated Machine Learning mit dem Domänenwissen des Anwenders führt zu den geeigneten Modellen für die jeweiligen Use-Cases. Mit dem Domänenwissen werden so die Zielsetzung und die zu berücksichtigenden Rahmenbedingungen gesetzt. Im Rahmen der automatischen Modellbildung werden eine Vielzahl an Kombinationen von Feature, ML-Verfahren und deren Hyperparameter gebildet, optimiert und validiert – und das immer vor dem Hintergrund der konkreten Anwendung. Das beste Modell ist letztendlich das mit der besten Performance hinsichtlich der von Nutzer gesetzten Zielgrößen. 

Welchen konkreten Nutzwert können Machinen- und Anlagenbauer mit der Software Industrial AutoML generieren? 

Zunächst einmal beschleunigt die Industrial AutoML-Software die Realisierung von ML-Lösungen um bis zu 80 Prozent. Das sind enorme Zeit- und auch Kostenvorteile. Bei Maschinenbauern lassen sich darüber hinaus merkliche Umsatz- und Margenvorteile mit neuen datenbasierten Services erzielen. Bei Maschinenbetreibern können Fertigungsprozesse optimiert werden, um zum Beispiel Produkteigenschaften zu verbessern, die Produktqualität sicherzustellen oder die Produktivität zu steigern. 


  1. Demokratisierung von Machine Learning
  2. Kooperation zwischen Weidmüller und Microsoft
  3. Machine-Learning-Anwendungen beschleunigen

Das könnte Sie auch interessieren

Verwandte Artikel

Weidmüller Interface GmbH & Co.KG

Künstliche Intelligenz

SPS