Sie sind hier: HomeFeldebeneVernetzung

Heinrich Munz im Interview: Die Automation gestern und morgen!

Wie veränderte sich die Automatisierungstechnik in den vergangenen 20 Jahren? Heinrich Munz, zweimalig auserkorener Industrie-4.0-Manager des Jahres, lässt im Gespräch die letzten 20 Jahre Revue passieren und wagt einen Ausblick in die nächste Dekade.

Heinrich Munz im Gespräch Bildquelle: © Computer&AUTOMATION / Heiko Stahl

„Wir erlebten leider 30 Jahre lang den betriebs- und volkswirtschaftlichen Wahnsinn der Feldbus-Kriege – die jetzt hoffentlich mit TSN plus OPC UA ihr Ende finden!“, so Heinrich Munz.

Herr Munz, wenn Sie 20 Jahre zurückblicken: Wo standen wir damals in der Evolution der Automatisierungstechnik? 

Heinrich Munz: Vor 20 Jahren diskutierten wir drei wesentliche Fragen: Verdrängt der Industrie-PC die SPS? Verdrängen Ethernet-basierte Feldbusse die herkömmlichen Feldbusse? Und drittens: Wird es nur einen einzigen Ethernet-basierten Feldbus-Standard geben, auf den sich alle einigen?

Hat die Branche Antworten gefunden?

Heinrich Munz: Die Antwort auf Frage 1 kennen wir: SPS und IPC führen nach wie vor eine harmonische Symbiose auf dem Plant Floor, jedes Gerät bringt seine spezifischen Stärken für den jeweiligen Use Case ein. Teilweise verschwimmen auch die Grenzen zwischen IPC und SPS in reinen Software-Lösungen, sogenannten Soft-SPSen oder SPSen mit eingebauter Visualisierung.

Zu Punkt 2: Auch 20 Jahre nach Einführung von Profinet ist im Jahr 2018 gerade mal der Break Even erreicht – sprich: für das ethernetbasierte Profinet haben wir jetzt gerade mal in etwa die gleiche Marktdurchdringung wie mit Profibus. – Eine einmal eingeführte Technologie in unserer Branche verschwindet nicht so schnell. Dies führt uns auch zur Antwort auf die dritte Frage: Damals war der Zeitpunkt für die Einigung auf einen gemeinsamen Feldbus-Standard wegen des Übergangs auf die neue Ethernet-Technologie zwar günstig, konnte aber nicht gelingen, weil es einerseits noch keinen allgemeinen und neutralen Standard für die Echtzeit-Fähigkeit für Ethernet und andererseits auch keine firmenneutrale Informationsmodellierungs-Technologie gab.

Was vielmehr geschah war, dass einige Automatisierungsanbieter die Chance sahen für Wettbewerb und eigene USPs in der Entwicklung und Verbreitung von selbst entwickelten Echtzeit-Erweiterungen des Standard-Ethernets inklusive Geräteprofilen. Was wir dann erlebten, war der für die Branche betriebs- und volkswirtschaftliche fortgeführte Wahnsinn des Feldbus-Krieges. Die Spitze der Ironie bildete schließlich der IEC-Standard 61158, in welchem sage und schreibe 19 nicht kompatible und nicht interoperable Feldbusse ‚standardisiert‘ worden sind. Das hat sich Gott sei Dank in jüngster Zeit gewandelt: Mit OPC UA und TSN scheinen wir nun einen einzigen Informations- und Kommunikationsstandard für die Industrie zu bekommen.

Haben Sie damals die Entwicklung der Automatisierung so eingeschätzt, wie wir sie heute nun vorfinden?

Heinrich Munz: Im Großen und Ganzen schon – in puncto Umsetzungsgeschwindigkeit habe ich mich allerdings erheblich getäuscht. 

Woran lag es, dass die Geschwindigkeit der Evolution ganz anders verlief, als Sie sich das damals vorstellten?

Heinrich Munz: Ein Grund war und ist sicher der, dass die großen Automatisierungsanbieter und auch deren Kunden – völlig zurecht – so lange wie möglich ihren Return of Invest sichern wollen. Die Innovationszyklen in unserer Branche sind halt nun mal wesentlich langsamer als etwa im Consumer-Bereich. 

Ein weiterer Grund für die langsame Akzeptanz und Umsetzung von IT in der OT war und ist noch immer der erhebliche Kulturunterschied im Denken und Handeln dieser Bereiche. Während in der IT Themen wie Agilität, Fail fast, Fail often und eine Start-up-Mentalität gang und gäbe sind, dominieren in der OT nach wie vor Wasserfall-Modelle – etwa Zero Error-Tolerance, Kontinuierliche Verbesserungsprozesse – kurz KVP – und Lean Management – das Geschehen. 

Schließlich ist es auch schlicht eine Frage der Qualifikation. OT-Personal, welches ausgebildet ist, um SPSen zu programmieren und Feldbusse in Betrieb zu nehmen, ist noch nicht dazu qualifiziert, IT-Netzwerke intern und womöglich gar nach außen ins Internet mit all den dabei zu beachtenden Security-Maßnahmen entsprechend sachgerecht zu installieren und zu betreiben. Dies sehe ich als eine der größten Hürden für die schnelle Einführung von Industrie 4.0 in die Fertigungsbetriebe.

Heinrich Munz im Gespräch Bildquelle: © Computer&AUTOMATION / Heiko Stahl

Heinrich Munz: „Bisher dominiert in der Branche das mechatronische Denken – dies muss sich ­radikal über das Systemdenken hin zu den Services ­verändern.“

Welches sind die zukünftigen Schlüsseltechnologien für den Maschinenbau?

Heinrich Munz: Im Wesentlichen sehe ich fünf Schlüsseltechnologien: Die Mechanik, die Elektronik, die Firmware / Software, die Information / Kommunikation – auch drahtlos – und die Services. Bisher dominiert in dieser Branche das mechatronische Komponentendenken. Das Systemdenken, dass die Komponente oder Maschine beim Kunden stets nur ein Teil der Kundenlösung ist, fehlt häufig. Und Service wird nur verstanden im Zusammenhang mit Wartung- und Garantiefällen. 

Um künftig wettbewerbsfähig zu bleiben, muss der Maschinen- und Anlagenbauer umdenken. Selbstverständlich muss die Mechanik nach wie vor eine zentrale Rolle einnehmen, schließlich deckt diese den ‚Physical‘-Anteil der ‚Cyber Physical Systems‘ ab, was Industrie 4.0 als Weiterentwicklung der Mechatronik 3.0 schließlich ausmacht. Nur darf die Mechatronik nicht mehr als Selbstzweck gesehen werden, sondern als Mittel zum Zweck – für neue Geschäftsmodelle.

Die Leistungsfähigkeit der Elektronik wird weiterhin dank Moores Law mit einer Verdoppelung alle 18 bis 24 Monate quasi explodieren. Die Software hingegen muss die neue Hauptrolle spielen. ‚Software is eating the world‘ wie es Marc Andreesen, Gründer von Netscape einmal ausgedrückt hat oder ‚Software Defined Machines‘ sind die neuen Schlagworte. Was jeder kennt, der schon mal einen Software-Update wie bei einer Smartphone-App in seinen Tesla eingespielt hat und damit ein Auto mit völlig neuen Fähigkeiten, wie etwa automatisches Spurhalten oder selbstständiges Einparken, bekommt.

Damit aber diese neuen ‚Superhirne mit Mechanik-Anhang‘ ihre PS auch auf die Industrie-4.0-Straße bringen können, müssen sie informations- und kommunikationsfähig werden. Und zwar nicht nur wie bisher zur reinen Erfüllung ihrer Steuerungsaufgabe, sondern zusätzlich auch mit übergeordneten IT-Systemen in der so genannten Edge auf dem Plant Floor, aber auch mit IT-Systemen wie MES, ERP und Cloud. Hierbei spielt die Informationsmodellierungs-Technologie eine ganz entscheidende Rolle: Die Maschinen müssen semantische Selbstauskünfte geben können und sich dadurch selbst beschreiben, damit die Kommunikationspartner wissen, mit wem sie es zu tun haben und welche Daten und Funktionen die jeweilige Maschine anbietet. 

Und damit kommen wir zur fünften Schlüssel-Disziplin: den Services! Und zwar nicht nur die bisher bekannten Wartungs- und Garantie-Services, sondern völlig neue Dienstleistungen und Geschäftsmodelle des Maschinenbauers im Zusammenhang mit seiner Maschine. Bis hin zu ‚Machine as a Service‘, wobei das Mittel zum Zweck – die Maschine – im Besitz des Herstellers bleibt, diese dem Kunden lediglich beigestellt wird und direkt der Kundennutzen abgerechnet wird. Denn der Kunde ist eigentlich gar nicht an einem Roboter interessiert, sondern nur an dessen Bewegungsleistung. Warum ihm dann also einen Roboter verkaufen und nicht direkt die Bewegung? Letztere kann mittels der Maschinenkommunikation nach Industrie 4.0 fälschungssicher zum Hersteller übertragen werden, welcher etwa am Ende eines Monats eine automatisch erstellte Abrechnung über die Anzahl, Weite, Gewicht, Geschwindigkeit etc. der ausgeführten Roboterbewegungen durchführt. Die Verantwortung für Finanzierung, Inbetriebnahme, störungsfreien Betrieb, Service-Einsätze, Austausch und Rücknahme bleiben beim Maschinenbauer, der sich für diese neue Art Services entsprechend  entlohnen lässt. Dadurch entkommt der Maschinenbauer dem unaufhaltsamen grundsätzlichen Trend, dass jedes stark und lange nachgefragte Gut früher oder später zur Ware mit hohem Wettbewerb und niedrigen Margen verkommt.

Worin sehen Sie die Herausforderungen und Chancen der Automatisierungstechnik in den nächsten 10 bis 20 Jahren?

Heinrich Munz: Die größte Herausforderung ist und bleibt für mich der Übergang der Automatisierungstechnik vom bisher dominierenden Mechatronik- und somit komponentenzentrierten Denken – Mechanik, Elektronik und ein bisschen Software – hin zum cyberphysikalischen Systemdenken – also Mechanik, Elektronik, ganz viel Software, Maschineninformation und -kommunikation sowie Services. Wir müssen davon wegkommen, Daten und Funktionen einer Maschine in Bits und Bytes auf schmalbrüstigen Feldbussen abzubilden, und stattdessen mächtige Werkzeuge von der IT übernehmen, wie beispielsweise Informationsmodellierung und breitbandige Echtzeit-Kommunikation.

Als nächster Schritt müssen diese IT-Werkzeuge entsprechend genutzt werden. So müssen alle Automatisierungsgeräte mittels der Informationsmodellierung eine semantische Selbstbeschreibung erhalten. Glücklicherweise ist mit OPC UA bereits sowohl die notwendige Modellierungs- als auch Kommunikationstechnologie gefunden und mit großem Konsens für Industrie 4.0 ausgewählt worden. Die Aufgabe, es zu organisieren, dass herstellerübergreifende semantische Selbstbeschreibungen von Maschinen erstellt werden, hat sich der VDMA auf die Fahnen geschrieben. Wer denn sonst? Nur die Maschinenbauer selbst sind in der Lage, diese Aufgabe richtig zu erfüllen. Der bisherige Weg, dass die Feldbus-Vereine diese Aufgabe übernommen haben, war nicht der richtige. Um was es geht, ist ja schließlich die Maschine und nicht das Transport-Vehikel zur Kommunikation.

Dies alles hat natürlich viel mit Akzeptanz und Qualifikation der betroffenen Mitarbeiter zu tun. Es muss sich zeigen, ob und wie schnell es den ‚alten Hasen‘ gelingt, sich hier anzupassen, beziehungsweise wie schnell neue Generationen von Mitarbeitern nachfolgen werden. Die OT hat es – anders als etwa Banken, Versicherungen oder die Consumer-Welt – rund 30 Jahre lang versäumt, die Segnungen der IT inklusive deren Security zu verwenden und muss nun diese verlorene Zeit aufholen.

Heinrich Munz im Gespräch Bildquelle: © Computer&AUTOMATION / Heiko Stahl

„Die Edge-Ebene, Distributed Ledger-Technologien und die Künstliche Intelligenz werden die spannenden Themen der Automation in den nächsten Dekaden!“, so Heinrich Munz.

Welche für die Automation wichtigen Themen erwarten Sie in Zukunft? 

Heinrich Munz: Neben der semantischen Selbstbeschreibung von Geräten und Maschinen wäre da zum einen die Edge, also die Schnittstelle auf dem Plant Floor zwischen den Automatisierungsgeräten und den übergeordneten IT-Systemen. Die Edge wird eine sehr große und wichtige Rolle spielen, da sie von zwei Seiten aus befeuert wird. 

Erstens: Die Cloud dezentralisiert sich nach unten in die Edge hinein, weil die klassische, für reine Software-Anwendungen ohne physikalische Geräte gemachte Cloud im Zusammenhang mit den physischen Dingen des IoT diverse Nachteile hat, wie beispielsweise ‚zu weit weg‘, zu hohe Transportkosten der Daten, zu geringe Internet-Bandbreite, zu langsame Reaktionszeiten, selbst mit 99,5 % zu geringe Ausfallsicherheit, Angst der Betreiber, die Daten aus der Hand zu geben, Angst vor möglichen neuen Angriffsvektoren bezüglich Sabotage und Spionage.

Zweitens: Von den Geräten kommende, heute dezentral in den Geräten gelöste Aufgaben, werden in der Edge zentralisiert werden. So etwa eine nicht komponenten-, sondern systembezogene Daten-Filterung, Daten-Vorverarbeitung, Daten-Konzentration oder die Programmierung und Konfiguration von Geräten wie Robotern. Ein Beispiel: Im Sinne von systembezogenem Lösungsdenken ist es nicht optimal, wenn mehrere Roboter, welche alle zusammen mit entsprechenden Prozessteuerungen eine gemeinsame Aufgabe zu erfüllen haben, alle für sich einzeln programmiert beziehungsweise konfiguriert werden müssen, um sich dann über ein paar Bits und Bytes auf Feldbussen miteinander zu synchronisieren – und alles dann auch noch mit jeweils unterschiedlichen Engineering-Tools entwickelt. Viel einfacher wäre es doch, wenn alle Komponenten inklusive der Roboter, Prozessteuerungen und I/Os für diese gemeinsame Aufgabe von einem einzigen zentralen Engineering-Tool aus programmiert und konfiguriert und dann gesteuert werden könnten. Und dies genau wird eine der Aufgaben für die Edge sein.

Des Weiteren muss man sehen, welche der folgenden neuen Technologien sich in der industriellen Automatisierung wirklich durchsetzen werden: Neue Human Machine Interfaces wie Smart Phones, Tablets, Datenbrillen mit Augmented Reality. Oder noch visionärer: Implantate in der Netzhaut, im Ohr oder unter der Haut etwa zu ID-Zwecken.

Ein weiteres wichtiges Thema könnten die Distributed Ledger werden. Diese Techno-logiefamilie ist besser bekannt unter dem Markennamen Blockchain, was als Cyber-Währung zweifelhaften Ruhm erlangt hat, aber nur eine von vielen – etwa IOTA und C-Chain – möglichen Implementierungs- und Anwendungsarten darstellt. Das Grundprinzip ist eine verteilte, nahezu fälschungssichere Datenbank, in welcher einmal gemachte Einträge nicht mehr geändert werden können. Wer etwas eintragen darf, bestimmt eine Community online, wodurch eine Art konsensbasierte Verwaltung entsteht. Dies kann in unsere Branche für alle Anwendungsfälle genutzt werden, wobei es auf verlässliche Nachweise ankommt, wie beispielsweise Smart Contracts, also fälschungssichere Handlungsanweisungen, fälschungssichere Logbücher und Maschinen-‚Flugschreiber‘, welche Daten speichern können, um darauf basierend alte und neue Geschäftsmodelle abwickeln zu können. Mögliche Applikationen: Garantie-Nachweise, Haftungsansprüche, Pay per Use.

Und nicht zuletzt werden die Künstliche Intelligenz – kurz KI – und verwandte Themen wie Machine Learning und Deep Learning eine große Rolle spielen. Es lässt sich momentan noch nicht abschätzen, welchen Einfluss dies alles auf die industrielle Automatisierung haben wird. Dazu sind die Data Lakes noch zu klein, welche diese Technologien zwingend brauchen. In unserem Hause Kuka gibt es erste, vielversprechende Ergebnisse zur Machine-Learning-Familie, allerdings ‚Machine‘ wörtlich genommen: Roboter werden nicht mehr bis ins letzte Detail ausprogrammiert, sondern nach einer Programmierung des Grobgerüsts wird es dem Roboter überlassen, sich die letzten, optimierenden Details selbst durch vielfaches Ausprobieren anzueignen. Beispielsweise eine halbvolle Flasche so zu flippen, dass sie auf dem Flaschenboden zum Stehen kommt. Man nennt dies ‚Reinforcement Learning‘. Besonders spannend wird es, wenn man mehrere Roboter zusammen Aufgaben erlernen lässt, etwa ‚der Griff in die Kiste‘. Sobald ein Roboter etwas gelernt hat, behält er dies nicht für sich, sondern gibt sein Wissen an andere Roboter weiter, etwa durch Teilen des Wissens in der Cloud. Dadurch nimmt der Lernprozess eine exponentielle Geschwindigkeit an. Dies hat Google mit einigen Kuka-Robotern ausprobiert, welche lernen sollten, aus Kisten zufällig irgendwelche alltäglichen Haushaltsgegenstände zu greifen. Aber Vorsicht, heute gilt noch: „Ist es in Python, ist es Machine Learning. Ist es in Powerpoint, ist es KI.“