Schwerpunkte

Dr. Gunther Kegel im Interview

Die Sensorik der letzten 20 Jahre

17. Dezember 2018, 01:30 Uhr   |  Inka Krischke

Die Sensorik der letzten 20 Jahre
© Pepperl+Fuchs

In den letzten 20 Jahren ist in der Automatisierungswelt viel passiert. Welche Veränderungen für die Sensorik bedeutsam sind und welche speziellen Entwicklungen hier vonstattengingen, erläutert Dr. Gunther Kegel, CEO von Pepperl+Fuchs, Präsident des VDE und ZVEI-Vizepräsident.

Herr Dr. Kegel, wenn Sie an die Gegebenheiten in der Sensorik vor 20 Jahren denken – was kommt Ihnen als erstes in den Sinn? Mit welchem Status quo hatten wir es in Fertigungs- und Prozesstechnik zu tun?

Dr. Gunther Kegel: 1998 haben wir die ersten zaghaften Schritte in Richtung Digitalisierung gemacht: Mit AS-Interface, Profibus, Interbus-S et cetera standen die ersten digitalen Feldbusse zur Verfügung. Zudem gab es die ersten Versuche, allgemein verbindlich Gerätebeschreibungen zu etablieren. Profibus und FoundationFieldbus bedienten sich sogenannter Profile und Device Descriptions – kurz DD. Erste auf Microsoft-Technologien basierende Process-Asset-Management-Werkzeuge eroberten die Märkte, der PC hielt Einzug in die Automation. Und: Die Sensorik wurde zum ‚embedded system‘, indem der Mikrocontroller in nahezu alle Sensoren integriert wurde.

Die Entwicklung des Field-Device-Tool-Konzeptes – kurz FDT – als herstellerübergreifender Schnittstellen-Standard fällt auch in diesen Zeitraum – mit welchen Konsequenzen für die Sensorik?

Dr. Gunther Kegel: Mit FDT entstand eine erste Technologie, mit der sich Feldgeräte – also Sensoren und Aktuatoren – über ein Stück ausführbaren Code – also eine Art Treiber – in höherwertige Steuerungen einbinden ließen, vorrangig aber in Process-Asset-Management-Systeme. Ziel waren vor allem komplexe Sensoren mit einer Vielzahl konventionell kaum beherrschbarer Parameter, wie sie insbesondere in der Prozessindustrie für das Messen von Druck, Füllstand und Durchflüssen nötig sind. An einfachen Sensoren für die Fabrikautomation wie Näherungsschaltern und Lichtschranken gingen die FDT-Entwicklungen zunächst vorbei.

Auch die ersten Diskussionen rund um das Thema Ethernet in der Fabrik wurden vor 20 Jahren geführt. Wann bekam das Ethernet Bedeutung für die Sensorik?

Dr. Gunther Kegel: Obwohl Ethernet längst in der Fabrik angekommen ist, werden Stand heute noch relativ wenige Sensoren direkt über Ethernet angebunden. Die Mehrzahl der Anwender nutzt sogenannte I/O-Module, um Sensoren über konventionelle binäre oder analoge Schnittstellen anzubinden und so mit dem Ethernet zu verknüpfen. Während in der Prozessindustrie die 4- bis 20-mA-Schnittstelle noch immer überwiegt, dominiert in der Fabrik die 24-V-Binärschnittstelle. Erst langsam erkennen Anwender den Nutzen einer digitalen Schnittstelle im Sensor, die neben den Messwerten die Einstellparameter und Diagnose-Informationen bereitstellt.

Welche Entwicklungen prägen die Sensorik zudem?

Dr. Gunther Kegel: Zu den robusten binären Sensoren, die nur Schwellwerte erfassen und zwei Zustände übertragen, haben sich in den vergangenen Jahren mehr und mehr messende Sensoren gesellt. Hier spielt eine ganze Reihe neuer Messverfahren eine wichtige Rolle: Ultraschall- und Radartechnologien vor allem, aber auch die Laser-Messtechnik hat sich in den letzten 20 Jahren etabliert. Letzteres deshalb, weil preiswerte und leistungsstarke Laserdioden genauso verfügbar wurden wie empfindliche fotosensitive Elemente bis hin zum CMOS-Chip mit mehreren 100.000 Bildpunkten.

Dr. Gunther Kegel
© VDE, Frank Rumpenhorst

„Erst langsam erkennen ­Anwender den Nutzen einer ­digitalen Schnittstelle im ­Sensor, die neben den ­Messwerten auch Einstell­parameter und Diagnose­informationen bereitstellt“, so Dr. Gunther Kegel 

Wie verändert Industrie 4.0 die Anforderungen an die Sensorik?

Dr. Gunther Kegel: Die wichtigste Anforderung ist die Konnektivität, also die physische und logische Einbindung jedes Sensors in die digitalen industriellen Netze. Als physikalische Schicht finden Ethernet und I/O-Link Anwendung. Im Moment entwickelt die Branche eine neue physikalische Zweileiter-Ethernet-Schicht. Mit ihr können Feldgeräte in der Prozessindustrie IP-Protokolle mit bis zu 100 MBit/s austauschen und die Teilnehmer gleichzeitig eigensicher mit Energie versorgt werden – eine notwendige Voraussetzung für die erfolgreiche Verbreitung der IP-Kommunikation auf der Feldebene. Die virtuelle Einbindung wiederum umfasst Technologien wie OPC UA und FDI, aber auch AutomationML und ecl@ss. Der Sensor avanciert vom Messwertgeber zur Datenquelle des Internets der Dinge – kurz IoT – und wird durch seine Verwaltungsschale vollständig digital beschrieben. Dies gilt für Prozess-Sensorik ebenso wie für Fabrik-Sensorik.

Wo steht die Prozess-Sensorik in dem Ganzen?

Dr. Gunther Kegel: Durch die direkte Einbindung von Sensorik in die IP-Kommunikation kann die Prozess-Sensorik nun Technologien nutzen, die wiederum aus dem Internet entliehen sind. An die Stelle aufwendiger Beschreibungsstandards für die Geräte-Integration treten eingebettete Webserver, mit deren Hilfe sich jedes Feldgerät mit einem herkömmlichen Browser bedienen lässt. Neue Maschine/Maschine-Protokolle wie MQTT halten Einzug, und für den IP-fähigen Sensor wird plötzlich das Thema Security virulent. Es ist davon auszugehen, dass die Sensoren von morgen – Stichwort Sensorik 4.0 – komplexer werden, weil die Einbindung zum Beispiel multisensorieller oder auch mehrdimensional messender Sensoren immer einfacher wird. Alle Sensoren müssen dabei ‚remote-fähig‘ sein – also auch Software-Updates über das Netz zulassen. Sensorik 4.0 wird also auch das Verwalten von Software-Release-Ständen in den Sensoren erforderlich machen.

Herr Dr. Kegel, wagen Sie einen Ausblick in die Sensorik der nächsten zehn Jahre?

Dr. Gunther Kegel: Der Sensor als Datenquelle wird fester Bestandteil der Industrie-4.0-Netze. Hersteller und Anwender werden Sensoren über ihren gesamten Lebenszyklus als digitales Gerät verstehen, dessen Software in bestimmter Weise mit in das Release-Management einzubeziehen ist. Dabei wird künstliche Intelligenz helfen, die Softwarestände zu verwalten und das Versionsmanagement zu unterstützen. Konnektivität und Lifecycle-Management bekommen für die komplexen Sensoren der Zukunft eine immer größere Bedeutung. Gleichzeitig werden preiswerte, gegebenenfalls mini­aturisierte Chip-Sensoren energieautark und können beispielsweise in großen Stückzahlen vom Prozessgut aufgenommen werden. Mit Methoden des Machine Learning wird aus diesen einfachen Massen-Sensoren dann eine ‚Schwarmintelligenz‘ generiert, die ein detailliertes, räumlich verteiltes Prozessverständnis erzeugt. Mit dreidimensionalen Laser-Sensoren, die über die Lichtlaufzeit reale Entfernungen messen können, entstehen dreidimensionale Raumbilder in Echtzeit, die für die Fabrikplanung von morgen genauso hilfreich sind wie für die Navigation fahrerloser Transportfahrzeuge, für kollaborative Roboter und für autonome Maschinen. Zukünftige Sensoren werden dabei zunehmend Algorithmen der künstlichen Intelligenz nutzen, um Messwerte zu verbessern, sich selbst zu kalibrieren, Muster und Objekte robust zu erkennen und sich automatisiert in komplexe Kommunikationsnetze zu integrieren.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Pepperl + Fuchs GmbH, Pepperl+Fuchs GmbH / Mannheim, ZVEI Zentralverband Elektrotechnik und Elektronikindustrie e.V., VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V.

SPS 2019

Anbieter zum Thema