Ende Juni 2019 lief das BMBF-Projekt 'Basissystem Industrie 4.0‘ aus. Das Fraunhofer IESE bietet auf dessen Basis nun zusammen mit NetApp und Objective Partner Industrie-4.0-Lösungen mit Support und Adaption auf Kundensysteme an. – Die Projekt-Verantwortlichen im Interview.
Zu Beginn eine grundsätzliche Frage: Sie beschäftigen sich alle intensiv mit der Vernetzung der Produktion. Was ist für Sie der Kern von Industrie 4.0?
Dr. Thomas Kuhn: Der wichtigste Aspekt ist, eine wandelbare Produktion zu erreichen. Ursprünglich nicht geplante Aktionen und Prozesse müssen sich einphasen lassen, ohne den Produktionsfluss zu stoppen. Die Voraussetzung für diese Wandelbarkeit schafft die durchgängige Digitalisierung von Fertigungsprozessen, die vordergründig zunächst das Realisieren von Live-Abbildern über digitale Zwillinge jedes Arbeitsschrittes gestattet und die dazugehörige Dokumentation abbildet. Beides ist für Unternehmen wichtig, um zu belegen und zu überwachen, mit welcher Qualität ein Produkt gefertigt ist.
Jürgen Hamm: Mit den daraus resultierenden Erkenntnissen lassen sich deutlich höhere Qualitätsstandards in der Fertigung erzielen. Werden die neu gewonnenen Datenmodelle aus der Fertigung mit den Business-Daten aus einem ERP-System angereichert und analysiert, kann ein Unternehmen deutlich verbesserte Geschäfts- modelle für alle seine Aktivitäten definieren. Durch das Anreichern von Fertigungsdaten ist es zum Beispiel rückwirkend möglich, Lieferantenbewertungen neu zu betrachten. – Das alles macht eine Industrie 4.0 aus.
Das durchgehende Digitalisieren der Fertigung bis in ERP-Systeme, wie SAP, verlangt die Datenübergabe an Schnittstellen. Auf welche kommt es besonders an?
Andreas Bader: Nun, wir reden hier lieber von Integration und folgen dabei dem Side-by-Side-Ansatz der SAP. Unser Bild ist weniger von asynchronen als vielmehr von synchronen Abläufen geprägt. Sicherlich spielen dabei Komponenten, wie der SAP Data Hub, eine wesentliche Rolle. Andererseits unterhalten wir uns im Umfeld von Industrie 4.0 sehr stark über die Durchgängigkeit von Prozessketten. Die fangen aber ganz vorne mit dem Auftrag oder sogar dem Angebot an. Im Grunde hängen die benötigten Schnittstellen ganz vom Kunden, seiner Umgebung und seinen Anforderungen ab.
Auf die vielzitierte Losgröße 1, das Einzelwerkstück, zielt Industrie 4.0 weiterhin ab, oder?
Jürgen Hamm: Ganz klar! Ein Ziel von Industrie 4.0 ist die Losgröße 1, was die beschriebene Wandelbarkeit einer Fertigung in letzter Konsequenz einschließt und wirtschaftlich abdeckt. Wichtig hierbei sind die digitalen Zwillinge. Mit ihnen lässt sich jede Änderung vorab simulieren. Ein digitaler Zwilling bildet jede Anlagenkomponente mit all ihren Funktionen und Diensten virtuell ab. Für eine ganze Fertigungslinie werden viele digitale Zwillinge vernetzt, mit denen sich verschiedene Szenarien durchspielen und neue Erkenntnisse gewinnen lassen.
In der Praxis bedeutet dies: Wer anders, schneller oder preiswerter produzieren will, muss die erzeugten Daten für die digitalen Zwillinge zunächst kopieren, was jedoch einen erheblichen Zeitaufwand bedeutet und hohe Kosten verursacht. Schreckt das Unternehmen nicht ab?
Thomas Kuhn: Richtig, dies schreckt Unternehmen durchaus ab. Aber durch den Einsatz moderner Technologien kann ein Replikat deutlich einfacher erzeugt und kostengünstig bereitgestellt werden. Wir haben in unserem Projekt BaSys 4.0 festgestellt, dass es mit der Snapshot-Technologie von NetApp möglich ist, sehr schnell ein Replikat zu erstellen. Diese Technologie erweist sich für die digitalen Zwillinge als optimal, weil sich während der Simulation nur wenige Daten ändern. Eine Monte-Carlo-Simulation, die stochastisch ein analytisch unlösbares Problem über die Wahrscheinlichkeitstheorie einschließlich unzähliger Zufallsexperimente löst, lässt sich damit reibungslos und effizient abbilden. Die gewonnenen Erkenntnisse kann man in die Produktionsplanung zurückführen. Auf diese Weise wird eine sich selbst optimierende Produktion realisiert.
Sie haben jetzt das Basissystem Industrie 4.0, kurz BaSys 4.0, angesprochen, das Sie am Fraunhofer IESE mit vierzehn Kooperationspartnern seit 2016 entwickelt haben. Was macht dieses offene Betriebssystem?
Thomas Kuhn: Mit BaSys 4.0 haben wir eine Middleware erstellt, die Maschinen vernetzt. Shop- und Office-Floor, also Fertigung und IT-Landschaft, sprechen jetzt miteinander. Das geschieht über Verwaltungsschalen, an die Maschinen ihre Daten senden. Ein Datenmodell strukturiert und gibt vor, wie die Daten zu organisieren sind. Diese Teilmodelle kombinieren und bereiten die Informationen so auf, dass diese genutzt werden können. BaSys 4.0 führt zum Beispiel Produktionsdaten eines Werkstücks zusammen und speichert diese in einer Verwaltungsschale ab, die diesem Werkstück zugeordnet ist. Das Werkstück und seine Daten laufen gemeinsam durch die Fertigungslinie. Anhand der Daten lässt sich die Qualität des Werkstücks und auch des Fertigungsprozesses nachvollziehen. In dem Moment, in dem die Daten in der Verwaltungsschale abgelegt werden, erhalten sie eine Bedeutung, eine Semantik. Egal aus welcher Quelle sie kommen, man kann mit ihnen weiterarbeiten. Wir zeigen: Eine protokollübergreifende Ende-zu-Ende-Kommunikation ist möglich.
Weshalb ‚reden‘ Maschinen sonst ‚aneinander vorbei‘?
Jürgen Hamm: Momentan sehen wir in der Fertigungsbranche Insellösungen. Die Maschinenhersteller setzen unterschiedliche Kommunikationsprotokolle ein. Durch BaSys 4.0 spielt es aber keine Rolle mehr, welche Protokolle die Maschinen sprechen oder ob die Daten nur an Klemmen bereitstehen. Das Gateway-Konzept von Fraunhofer IESE erlaubt es, beliebige Protokolle an BaSys 4.0 anzudocken. Die Middleware ist sozusagen der Schlüssel, um die Silos zu öffnen, welche die Hersteller gebaut haben. Die offene Softwareplattform macht aus den unstrukturierten Daten einen strukturierten Stream, den Business-Anwendungen wie ERP-Systeme und Analyse-Tools leicht verarbeiten können.
BaSys 4.0 sorgt also für eine Ende-zu-Ende-Kommunikation und aufbereitete Daten. Warum ist die Verknüpfung, zum Beispiel in die SAP-Welt, dennoch kein Selbstläufer?
Andreas Bader: Wie bereits erwähnt betrachten wir in unseren Lösungsansätzen stets die komplette Wertschöpfungskette. Und in BaSys 4.0 haben wir nun eine perfekte Komponente, um den Shop-Floor mit den kaufmännischen und betriebswirtschaftlichen Abläufen im Unternehmen zu koppeln. Die End-to-End-Betrachtung wird dadurch erst möglich. Das ist im Zuge der Digitalisierung zum Beispiel wesentlich für eine erfolgreiche Customer Journey. Wenn wir mit Losgröße 1 eine höhere Wandelbarkeit in der Produktion schaffen wollen, muss es uns auch gelingen, den Auftraggeber daran teilhaben zu lassen.
Halten wir fest: Eine Verwaltungsschale lädt die digitalen Zwillinge der Anlagen und bei ihr laufen die Maschinendaten ein, die BaSys 4.0 normiert; die Daten fließen und die Maschinen produzieren; ein digitaler Zwilling lässt sich relativ schnell ändern und laden. Was braucht es noch, um zwischendurch einen kleinen Auftrag einzuschieben?
Thomas Kuhn: Das Fertigen von kleinen Losgrößen bis runter zur Nummer 1 realisieren wir mittels dienstbasierter Produktion. Diese Fähigkeit beruht auf einem Architekturparadigma, das es in der IT-Welt mit der dienstbasierten Programmierung schon lange gibt. Mit BaSys 4.0 vollziehen wir das für die Automatisierungsabläufe, die in speicherprogrammierbaren Steuerungen codiert sind. Für eine dienstbasierte Fertigung kapseln wir diese Abläufe in Dienste, die idealerweise keine Seiteneffekte, dafür aber eine definierte Schnittstelle haben. Sprich: Die Steuerungen führen keine Abläufe mehr aus, sondern stellen Dienste bereit. Diese Dienste werden von Dienstnutzern aufgerufen, die damit Fertigungsabläufe festlegen und verändern. Die Steuerungen müssen nicht wissen, wann welcher Dienst für die Produktion eines Werkstücks erforderlich ist und müssen folglich auch nicht umprogrammiert werden, wenn sich die Dienstabfolge für eine Produktion ändert. Lediglich die Dienstnutzer müssen umprogrammiert werden. Da diese auf einer höheren Abstraktionsebene, zum Beispiel mittels Business Process Modeling Notation – kurz BPMN – definiert werden, ist dies deutlich einfacher und damit auch effizienter als die Neuprogrammierung einer SPS.
Fraunhofer IESE, NetApp und Objective Partner haben nun eine Referenzarchitektur für die Open-Source-Middleware BaSys 4.0 erarbeitet. Wie sieht diese aus?
Jürgen Hamm: Oberstes Ziel ist, eine zukunftsfähige und kostengünstige Plattform für die Fertigung zu schaffen, die alles in Containern bereitstellt und dafür auf Kubernetes zurückgreift. In unserer Referenzarchitektur bildet das ‚NetApp HCI-System‘ – eine hyperkonvergente Infrastruktur – die Basis, bei der alle Komponenten bereits virtualisiert und abgestimmt sind. Darauf setzen wir eine Containerlandschaft auf, deren Bereitstellung im Shop Floor erfolgt. BaSys 4.0 steckt in den Containern, die wir in einem kybernetischen Cluster betreiben, was Lizenzkosten spart. Container haben den Charme, dass sie sich schnell bereitstellen lassen.
Container haben aber nicht nur Vorteile. Bei jedem Systemneustart droht Datenverlust, weil Container keinen persistenten Speicher unterstützen. Die Daten, die in Unmengen anfallen, müssen aber irgendwo abgelegt werden und hochverfügbar sein. Wie lösen Sie das Problem?
Jürgen Hamm: Mit unserem Open-Source-Storage Provisioner ‚Trident‘, der nicht nur den Speicher bereitstellt, wenn der Container bootet. Denn der Provisioner spielt außerdem den letzten Datenstand per Snapshot-Technologie ein, was nur ein paar Sekunden dauert und so einen Datenverlust vermeidet. Trident und Snapshots machen BaSys 4.0 im Container hochverfügbar. Die Softwarelösung Trident zeigt auch an, auf welchen Volume das System die Daten von zig Containern schreibt. Der zentrale virtualisierte Datenspeicher wird mit unserer Software ‚Ontap Select‘ verwaltet. Wichtig ist: BaSys 4.0 im Container muss an der Maschine betrieben werden. Die Middleware selektiert die Daten vor. Das Abbilden der Verwaltungsschalen hält die Datenmengen klein. Eine Firma könnte an der Stelle darüber nachdenken, Daten aus der Verwaltungsschale in die Cloud zu transportieren, um nachgelagert Analysen zu fahren oder Anwendungen für künstliche Intelligenz zu nutzen.
Angenommen die Datenmenge ist nicht zu groß und die Bandbreite reicht aus: Wann ist es sinnvoll, BaSys 4.0 an die Cloud anzubinden?
Andreas Bader: Generell ist es sinnvoll, die Fertigungsdaten mitsamt dem Kontext zentralisiert abzulegen. Dies ermöglicht, die Daten aus verschiedenen Quellen weltweit zu konsumieren. Die Cloud erfüllt diese Aufgabe sehr gut. Und damit haben wir aus unserer Sicht bereits ein wesentliches Kriterium für die Cloud. An der Stelle spielen zudem die Veränderungen in den Infrastrukturen des Kunden eine Rolle, die sicherlich auch durch die Side-by-Side-Ansätze der SAP beeinflusst werden.
Wo findet die Übergabe ans SAP statt?
Jürgen Hamm: Die Daten aus BaSys 4.0 halten wir für die weitere Verarbeitung, wie Predictive Maintenance oder SAP-Standardprozesse, in einem Zwischenpuffer vor, wobei sich dieser Data Lake technologisch auf vielen Wegen realisieren lässt. An dem Data Lake dockt der ‚SAP Data Hub‘ an, die Schnittstelle in die SAP-Welt.
Die Referenzarchitektur für BaSys 4.0 schließt SAP ein. Was läuft automatisiert bis ins BaSys 4.0 ab, wenn ein Geschäftskunde etwas bestellt und das im SAP eingebucht wird?
Andreas Bader: Hier ist vieles möglich. Für die Demonstration haben wir die mobile Auftragserfassung des Kunden an das SAP-Backend angebunden. Im Hintergrund wird ein Kundenauftrag im ‚SAP SD Modul‘ erzeugt. Das SAP meldet an das BaSys 4.0 das bestellte Material – und wo es im Warenlager hinterlegt ist. Daneben speichern wir im Demo-Beispiel die Sensordaten der Geräte aus der Produktion im SAP-Backend.
Als Projektpartner wollen Sie BaSys 4.0 mit Referenzarchitektur gemeinsam vermarkten. Jede Produktionsstraße hat allerdings seine Eigenheiten. Auf was sollte sich eine Anwenderfirma einstellen?
Thomas Kuhn: Wir verwenden zwar fertige Softwarekomponenten sowie einen abgestimmten IT-Stack und können auch mit Clouddiensten interagieren. Aufwendig ist aber das, was davor passiert: So müssen wir dafür sorgen, dass Maschinen mit dem Datensystem kommunizieren. Das Abgreifen der richtigen Maschinendaten und das Erstellen der Datenmodelle passen wir an die anwenderspezifischen Gegebenheiten an. Wenn Maschinen nur Klemmen haben, benötigen wir beispielsweise zusätzliche Hardware. Nachdem wir die gemessene und logische Datenstruktur abgebildet haben, folgt das Planen der IT-Infrastruktur, wobei zu entscheiden ist, was für ein Data Lake integriert wird. Danach wird ins ERP-System integriert. Die Firma kann am Ende auf dem Dashboard auf einen Blick erfassen, wo sich gerade der Auftrag zwischen Ressourcenverwaltung und Versandlager befindet. Livedaten zeigen an, ob die Maschine die geforderte Qualität herstellt. Dann ist das Unternehmen in der smarten Produktion angekommen, die sich durch maschinelles Lernen und anderes ergänzen und weiter optimieren lässt. Auf diesem Weg beraten und begleiten wir Unternehmen intensiv. Diese benötigen auch Unterstützung, um die Transformation zu bewältigen.