Interview mit Dr. Fabian Bause, Beckhoff

»KI ist ein evolutionärer Prozess«

29. März 2021, 10:17 Uhr | Andrea Gillhuber

Fortsetzung des Artikels von Teil 2

ML-Modelle trainieren und schützen

Wie trainiert man ein Modell zur Anomaliendetektion, wenn gar keine Anomalien bekannt sind?

Dr. Fabian Bause: Viele Wege führen zum Ziel. Eine einfache, leicht zu beschreibende Variante ist das Trainieren eines Klassifizierungsmodells, welches mit nur einer bekannten Klasse trainiert wird – der ‚keine Anomalie‘-Klasse. Man präsentiert dem Modell im Training ausschließlich Daten, die keine Anomalien beinhalten, und definiert diese Datenmenge als ‚Klasse A‘. Wird der Algorithmus im Prozess verwendet, erkennt er die ‚Klasse A‘ wieder. Er erkennt aber auch, wenn die Daten eine andere unbekannte Struktur aufweisen, und meldet dann eine nicht näher spezifizierte Anomalie.

Erneut: KI ist ein evolutionärer Prozess. Werden Daten an der Maschine kontinuierlich erhoben und auch das Klassifizierungsergebnis gespeichert, kann der Data Scientist mit dem Domänenexperten im Nachgang genau diejenigen Prozessabläufe, bei denen eine Anomalie erkannt wurde, nochmals näher analysieren. Gegebenenfalls lässt sich dann ein Modell-Update einsetzen, das nicht nur eine Anomalie erkennt, sondern auch den erkannten Fall näher eingrenzt.

Inwieweit sind Daten- und Know-how-Schutz bei der Entwicklung beziehungsweise dem Trainieren von ML-Modellen limitierende Faktoren?

Dr. Fabian Bause: Das Thema Datenschutz erscheint bei Maschinendaten auf den ersten Blick weit weg. Bei genauerer Betrachtung lässt sich allerdings durchaus dessen Relevanz erkennen. Zwar arbeitet man mit neutralen Daten einer Maschine, jedoch sind es Menschen, die diese Daten erheben und beispielsweise auch labeln. Die Daten sind damit nicht mehr rein neutraler Natur. Bei der Bearbeitung von ML-Projekten sollte man daher immer das nötige Augenmaß hinsichtlich des Datenschutzes haben.

Wie sicher sind ML-Modelle? Können sie beispielsweise von Cyberkriminellen manipuliert werden?

Dr. Fabian Bause: Alles was in unserer digitalisierten Welt an Daten oder Programmcode auf PCs existiert, kann in gewisser Weise von Cyberkriminellen manipuliert werden. Ein ML-Modell bildet hier sicherlich keine Ausnahme. Entsprechend bedeutsam sind Maßnahmen zur IT-Security. Beckhoff nimmt diesem Bereich sehr ernst und erarbeitet kontinuierlich entsprechende Maßnahmen für das Management von Sicherheitsrisiken bei der Nutzung seiner Produkte.

Stichwort Safety: Was muss bei ML in Safety-Anwendungen beachtet werden?

Dr. Fabian Bause: Functional Safety ist ein streng regulierter Bereich. Die ML-Anwendungen sind hier noch sehr jung und eher im Forschungsstadium. Aus meiner Sicht müssen hier noch einige grundlegende Entwicklungsarbeiten geleistet werden.


  1. »KI ist ein evolutionärer Prozess«
  2. Machine Learning in Echtzeit
  3. ML-Modelle trainieren und schützen

Das könnte Sie auch interessieren

Verwandte Artikel

Beckhoff Automation GmbH

Künstliche Intelligenz