Sie sind hier: HomeSteuerungsebeneIndustrie-PC

Hans Beckhoff im Interview: Rückblick auf 20 Jahre Industrie-PC, Ethernet-Kommunikation & Co.

Computer&AUTOMATION – wer könnte diese Kombination besser reflektieren als Hans Beckhoff, Geschäftsführender Inhaber des gleichnamigen Unternehmens Beckhoff Automation aus Verl.

Hans Beckhoff, Beckhoff, SPS1 Bildquelle: © Beckhoff

Wie lange lebt die SPS noch? 1990 lautete meine Antwort auf diese Fage: Noch fünf Jahre – damals eine unheimlich lange Zeit für meine Verhältnisse!

Herr Beckhoff, Ende der 90er-Jahre wurde in den Fachzeitschriften die große Diskussion geführt: Setzt sich der Industrie-PC in der Industrieautomation durch und stirbt damit die klassische SPS? Ersteres ist eingetreten, die SPS lebt trotzdem noch. Wie resü­mieren Sie die letzten 20 Jahre Steuerungstechnik?

In zwei Jahrzehnten ändert sich sehr viel. Gerade in der Automatisierungstechnik gibt es jedes Jahr spannende, neue Innovationen – manchmal sogar revolutionäre; die eigentliche Auswirkung auf den Markt sehen wir aber in der Regel erst mit zehn Jahren Verspätung.

Wir bei Beckhoff haben bereits 1986 den ersten Industrie-PC geliefert, sprich seither gibt es bei uns PC-basierte Steuerungstechnik. Und schon 1990 wurde mir im Rahmen unseres ersten Auftritts auf der Hannover Messe von Journalisten die Frage gestellt, wie lange denn die SPS noch lebt? Als junger Ingenieur lehnte ich mich zurück und sagte: Noch fünf Jahre – damals eine unheimlich lange Zeit für meine Verhältnisse!

Als mir dieser Journalist 1995 wiederum dieselbe Frage stellte, ging es Beckhoff zwar gut und wir waren wunderbar gewachsen mit unserer Technik – im Markt insgesamt machte die PC-basierte Steuerungstechnik aber einen verschwindend geringen Anteil aus. Dies hängt zum einen mit der eingangs angesprochenen Zeitkonstante zusammen. Zum anderen gibt es bei den großen Anbietern der ­Steuerungstechnik auch ein gewisses Beharrungsvermögen, um bei erprobter Technik – wie eben der SPS-Technologie – zu bleiben.

Ungeachtet dessen sind wir überzeugt, dass die IPC-Technologie die bei weitem leistungsfähigste und oft sogar die preiswertere Plattform darstellt. Und auch eine Plattform, welche die beste Integration von IT- und Automatisierungseigenschaften ermöglicht.

Hans Beckhoff, Beckhoff, SPS2 Bildquelle: © Beckhoff

In 20 Jahren werden wir sicherlich Rechner an den Maschinen nutzen können, die 100-mal leistungsfähiger sind als heute.

Ebenfalls um die Jahrtausendwende begann die Stunde von Ethernet im Industrieumfeld zu schlagen. 2003 stellte Beckhoff mit Ethercat selbst eine entsprechende Lösung vor, die heute international verbreitet und akzeptiert ist. Hatten Sie diesen Erfolg so erwartet?

Wir waren schon optimistisch und wussten, dass wir etwas Gutes auf die Beine gestellt hatten. Aber dass wir mit Ethercat eine Art Weltstandard definieren, war uns zu dem Zeitpunkt nicht bewusst. Wie so oft in unserer Firmengeschichte sind wir hier im Glauben an die eigene Stärke mit einem gewissen ‚naiven‘ Optimismus vorangeschritten und haben diese Technologie aus eigener Überzeugung heraus entwickelt.

Bereits zum damaligen Zeitpunkt waren wir allerdings sehr erfahrene Feldbus-Experten: Zum einen hinsichtlich eigener Kommunikationssysteme, die wir früher schon in den Markt gebracht hatten. Zum anderen kannten wir aber auch alle anderen Feldbus-Systeme – im Wesentlichen den CAN-Bus sowie den Profibus. Im Vergleich zu all diesen vorhandenen Lösungen stellte die Entwicklung von Ethercat letztlich einen wahren Quantensprung dar: Einerseits in puncto Performance, die wir dahingehend optimiert hatten, dass wir mit einem einzigen Ethernet-Telegramm scheibchenweise Informationen von vielen Teilnehmern aus dem Feld einsammeln können. Andererseits bauten wir von Anfang an Distributed Clocks – sprich verteilte Uhren – ein, um eine absolut genaue Systemzeit in ein Automatisierungssystem zu integrieren. Ein weiteres Novum war: Damals musste – was heute schon fast in Vergessenheit geraten ist – jeder Bus über eine Masterkarte verfügen. Mit Ethercat war diese nun nicht mehr erforderlich, sondern man konnte das System an einem ganz normalen Ethernet-Port betreiben.

Nach den ersten positiven Reaktionen aus dem Markt entschlossen wir uns schließlich dazu, die Ethercat-Technologie offen zur Nutzung zur Verfügung zu stellen. In diesem Zusammenhang wurde die Ethercat Technology Group gegründet. Das Freigeben der Technologie hat sicherlich wesentlich zum weltweiten Erfolg von Ethercat beigetragen.
 

Hans Beckhoff, Beckhoff, SPS3 Bildquelle: © Beckhoff

Themen wie KI und Machine Learning werden bereits in den nächsten zwei bis drei Jahren Rückwirkungen auf die Maschinenfunktionalität haben.

Welche weiteren Entwicklungen – neben dem IPC und Ethernet – haben in Ihren Augen die Automatisierungstechnik in den vergangenen 20 Jahren maßgeblich geprägt?

1998 konnten wir IPCs mit einem CPU-Kern und einer Taktfrequenz von 1 bis 2 GHz zur Steuerung einer Maschine anbieten. Heute liefern wir Industrie-PCs mit bis zu 36 Kernen und 4 GHz Taktfrequenz. Daran sieht man, dass die Hardware-Entwicklung große Fortschritte gemacht hat – sprich das Moorsche Gesetz hat über die ganzen Jahre hinweg seine Gültigkeit bewiesen. Und wir glauben, dass dies auch mindestens die nächsten zehn Jahre noch so sein wird. Wenn wir heute die Bildverarbeitung oder Messtechnik in die Steuerung integrieren können, wenn wir in einer Maschine statt 20 auch 100 Achsen synchronisieren können und zudem eine Bahnsteuerung möglich ist – dann ist das dieser Leistungssteigerung zu verdanken.

Eine weitere entscheidende Entwicklung der letzten 20 Jahre ist die Zusammenfassung von Funktionsbereichen, zum Beispiel durch die Integration von Safety in die Standard-Steuerungstechnik. Und was die Antriebstechnik betrifft, so wurden neue Antriebsarten wie unser eXtended Transport System – kurz XTS – auf der Basis inverser Linearmotoren erfolgreich in den Markt eingeführt. Grundsätzlich sehe ich in spezialisierten magnetischen Antriebsformen einen Trend für die Zukunft, weil man diese heute algorithmisch beherrschen und damit viel Mechanik-Aufwand an der Maschine durch Softwarefunktionalität ersetzen kann.

Speziell mit Blick auf die Software waren die letzten 20 Jahre auch die Zeit, in der die IT-Welt noch näher mit der Automatisierungswelt zusammengerückt ist – im Fall von Twincat 3 beispielsweise mit der Integration der verschiedenen Tool-Ketten wie Visual C, C++ und IEC 61131 in das Visual Studio von Microsoft. Ein weiterer Vorteil liegt in der Einbindung von Matlab Simulink und damit der Messtechnik sowie der Bildverarbeitung. Kurzum: Diese durchgängige Integration von ursprünglich aus verschiedenen Bereichen oder auch von unterschiedlichen Firmen stammenden Funktionen in einem Softwarepaket halte ich für eine der wesentlichen Entwicklungstendenzen aus den letzten zwei Jahrzehnten.

Alles in allem ist die Automatisierungstechnik rückblickend insgesamt einfacher und auch kostengünstiger geworden. Man denke beispielsweise an die Einkabel-Technologie oder an das elektronische Motor-Typenschild – das gab es vor 20 Jahren gar nicht oder nur sehr selten. Gleichzeitig sind die Kosten pro Achse in der Steuerungstechnik während dieses Zeitraums zwischen 20 und 40 % gesunken.

Ein Thema, das Beckhoff bereits seit über sechs Jahren auf der Agenda hat, dafür aber bis heute noch keine marktreife Lösung vorgestellt hat, ist die komplett PC-basierte beziehungsweise frei programmierbare Sicherheitstechnik. Warum tun Sie sich bei diesem Thema so schwer?

Hier muss man etwas auseinanderhalten: Wir liefern seit mittlerweile etwa zehn Jahren hardwarebasierte Safety – sprich die Eingangs- und Ausgangsklemmen beziehungsweise Safety-Logik-Klemmen. Diese sind mit einem grafischen Editor frei programmierbar und decken rund 80 % aller Standard-Safety-Funktionen ab. Darüber hinaus haben wir uns vorgenommen, die Safety-Hardware-CPU abzuschaffen und durch eine rein softwarebasierte Runtime zu ersetzen. Dazu haben wir bereits die mathematischen Grundlagen und spezielle Compiler-Techniken entwickelt. Intern ist das mittlerweile ein fertiges Produkt – was lediglich noch fehlt, ist der einfache grafische Editor dazu. Bis Ende nächsten Jahres wird dieser zur Verfügung stehen und dann auch die offizielle Markteinführung erfolgen!

Seit über fünf Jahren beherrscht das Thema Industrie 4.0 die Branche. Wie lautet Ihre eigene Definition von Industrie 4.0 und wie sehen Sie die Branche diesbezüglich heute aufgestellt – auch international?

Industrie 4.0 ist ein komplexes Thema – von daher ist Ihre Frage nicht so ganz einfach zu beantworten, zumal in diesem Kontext ja auch immer wieder weitere Schlagwörter wie Digitalisierung oder auch IoT fallen.

Fangen wir mit der Digitalisierung an: Digitalisierung ist etwas, das die Industrie und die ganze Welt seit 1970 erfährt. Durch die Fortentwicklung der Hardware- und Software-Konzepte sind immer wei-tere Bereiche des Lebens – und damit auch der Industrie – von datentechnischen elektronischen Hilfsmitteln durchdrungen worden. In diesem Punkt sehe ich daher nicht den ganz großen Entwicklungssprung, sondern vielmehr eine schon ­lange vorhandene, sich aber beschleunigende Entwicklung. Die gute Wettbewerbsfähigkeit der deutschen Industrie zeigt, dass die heimischen Unternehmen diesbezüglich im Vergleich zu anderen Ländern ihre Hausaufgaben ganz gut gemacht haben.

Das dritte industrielle Zeitalter, in dem wir uns bis vor kurzem befunden haben, zeichnet sich nach dem Modell der Acatech – die den Begriff Industrie 4.0 bekanntlich im Jahr 2011 erfunden hat – dadurch aus, dass das Produktionsumfeld von lokaler Intelligenz an den Maschinen geprägt ist. Das gerade angebrochene, vierte industrielle Zeitalter ist nun dadurch geprägt, dass diese lokale Intelligenz mit der Cloud-Intelligenz verbunden wird. Das ist auch schon meine wesentliche Betrachtungsweise von Industrie 4.0 – sprich: Maschinen können über die Cloud miteinander ‚sprechen‘ oder auch Services aus der Cloud abrufen und für Vorgänge an der Maschine nutzen. Umgekehrt kann eine übergeordnete Intelligenz die Maschinen beispielsweise als verlängerten Ausgabe-Arm betrachten.

Wir bei Beckhoff können uns durchaus vorstellen, dass sich ein Teil der Maschinenintelligenz in Richtung Cloud verlagert – wir nennen dies das ‚Avatar-Konzept‘. Beispiele hierfür wären die Steuerung einer Maschine mit einer in der Cloud ablaufenden Spracherkennung oder Vibrationsanalysen für vorausschauende Diagnosen, die gar nicht online erfolgen müssen, sondern offline in der Cloud durchführbar sind. Schon heute können wir aber auch die ganze SPS ‚cloudifizieren‘ – abhängig von der Verfügbarkeit, von den Bandbreiten und den erreichbaren Reaktionszeiten. Mit Technologien wie 5G scheint hier einiges machbar zu sein; allerdings liegen auch hier die Reaktionszeiten immer noch oberhalb 
1 ms – eine Verpackungsmaschine lässt sich damit also noch nicht steuern. 
Jetzt kann man hochrechnen und ­fragen: Wie sieht Kommunikation in 20 Jahren aus?

Ich persönlich denke, dass wir dann in etwa bei 100 GBaud sein werden und mit Hilfe von speziellen Switching- und auch Funktechnologien die Reaktionszeiten für zentrale Anwendungen auf weit unter eine Milli-sekunde reduzieren können. Und so werden ihre Kollegen in 20 Jahren rückblickend schreiben ­können: 2018 war die Zeit, als die Maschinen zaghaft begonnen haben, mit der Cloud zu sprechen und aus der Cloud heraus Dienste abzurufen – heute ist dies völlig normal!

Welche weiteren Entwicklungen werden Ihrer Einschätzung nach die Automation in den kommenden 20 Jahren entscheidend verändern?

Die Grundlage für die Intelligenz an der Maschine ist unter anderem die Hardware. Diese wird in den nächsten Jahren weiter durch das Moorsche Gesetz bestimmt werden, sodass wir in 20 Jahren sicherlich Rechner an den Maschinen nutzen können, die 100-mal leistungsfähiger sind als heute. Das würde bedeuten, dass man 100- mal so viele Achsen oder auch Kameras steuern oder auch eine 10-mal schnellere Maschine mit sehr vielen Kameras betreiben kann. Insofern glauben wir, dass zum Beispiel der Einsatz von Bildverarbeitungssystemen an der Maschine – auch als Sensor und nicht nur zur Werkstück-Beurteilung – extrem zunehmen wird.

Auf der anderen Seite steigen mit der Rechenleistung und der zunehmenden Kommunikations-Bandbreite die Fähigkeiten der Cloud – mindestens um den gleichen Faktor. Auch hier ist letztlich die Fantasie des Ingenieurs gefragt, was in dieser Cloud dann alles passieren kann. In diesem Kontext tauchen Begriffe auf wie Künstliche Intelligenz und Machine Learning – Themen, die aber sicherlich nicht erst in 20 Jahren sondern bereits in den nächsten zwei bis drei Jahren Rückwirkungen auf die Maschinenfunktionalität haben werden. Auch wir bei Beckhoff  haben bereits eine Arbeitsgruppe ge­gründet, die Algorithmen der Künstlichen Intelligenz auf Anwendungsmöglichkeiten in der Automatisierung hin untersucht – unter anderem hinsichtlich der Bahnplanung in der Robotik oder auch zum Thema Sensor-Fusion. Die ersten Ergebnisse diesbezüglich sind sehr vielversprechend!

Im Zeitalter von Industrie 4.0 versuchen mehr und mehr klassische IT-Unternehmen oder auch Internet-Konzerne wie Google, Amazon & Co., der Industrieautomatisierung ihren Stempel aufzudrücken. Laufen die etablierten Automatisierungstechnik-Hersteller Gefahr, dass ihnen dadurch die ‚Butter vom Brot‘ genommen wird?

Das glaube ich nicht. Schließlich nähern sich die großen IT-Firmen – also Google, Microsoft und auch SAP – von ‚oben‘ kommend der Anwendungsebene. Sprich sie haben zum Beispiel Edge-Computer-Konzepte eingeführt, die wiederum lokale Intelligenz und auch Maschinensteuerungs-Intelligenz beinhalten können. In diesem Punkt haben die klassischen Maschinensteuerungs-Hersteller noch einen großen Know-how-Vorsprung, denn Automatisierungstechnik ist wirklich komplex. Insofern mache ich mir ­keine großen Sorgen, dass etwa Google plötzlich Motion-Steuerungen oder komplexere Messtechnik anbietet. Zudem ist der Markt schlicht zu klein für diese ­Firmen.

Die großen IT-Unternehmen haben in erster Linie Interesse an den Daten, weil sich daraus lukrative Geschäftsmodelle ableiten lassen. Steuerungen beziehungsweise Maschinenbauer können diese Daten liefern.

Sind aber nicht eben diese Geschäftsmodelle und weniger die reine Steuerungshardware das Reizvolle, mit dem auch der Maschinenbauer zukünftig sein Geld verdient?

In diesem Punkt wird es sicherlich einen Wettbewerb zwischen den Automatisierungstechnik-Anbietern und den Datenverarbeitern geben. Außerdem haben viele Maschinenbaukunden diesbezüglich ebenfalls eine eigene Strategie. 

Trotzdem heißt es immer wieder: Die Daten sind das Öl des 21. Jahrhunderts. Um die neuen datengetriebenen Geschäftsmodelle umsetzen zu können, müssen die Anwender aber auch bereit sein, ihre Daten zur Verfügung zu stellen. Scheitert es daran nicht meist noch? 

Ich will es positiv formulieren. Zunächst finde ich, dass die Angst um die Datensicherheit in Deutschland sehr viel ausgeprägter ist als in anderen Ländern. Wenn man aber erfolgreich Geschäftsmodelle in diesem Bereich entwickeln möchte, dann sollte man diese Angst beiseitelegen und vielmehr überlegen, welcher Nutzen sich aus all den Daten ziehen ließe. Innerhalb der deutschen KI-Gemeinde und sogar innerhalb des Eckpunktepapiers der Bundesregierung zur Künstlichen Intelligenz gibt es einen Vorschlag, eine anonymisierte allgemeine Datenbank zu entwickeln, in der personalisierte Daten eingespielt werden und anschließend anonymisiert als allgemeiner Datenpool für verschiedenste Nutzungsmöglichkeiten zur Verfügung stehen sollen.

Daneben gibt es viele andere praktische Methoden: Wir haben mit einigen unserer Kunden beispielsweise vereinbart, dass sie gelegentlich einen Testzyklus auf der Maschine fahren, der keine Aussage über das gerade Produzierte macht. Während dieses Testzyklus werden Daten mitgeschrieben, die sich dann für Predictive Maintanance heranziehen lassen.

Kurzum: Es gibt Lösungen für die Datenproblematik und ich würde immer empfehlen, bei den ersten Überlegungen nicht die Angst in den Vordergrund zu stellen, sondern stattdessen positiv nach den Möglichkeiten zu suchen.