TSN ist nur ein „Kanal“, um Daten auf deterministische Weise von einem Ort zum anderen zu bringen. Es befasst sich nicht mit Anwendungsfunktionen auf höherer Ebene. Wie unterscheidet sich der Ansatz von DDS gegenüber etwa OPC UA und MQTT, was diese höheren Ebenen betrifft?
Intelligente Fabriken im Zeitalter von Autonomie und Industrie 4.0 erfordern mehr als nur die Integration von Daten zwischen industriellen Steuerungen, Historien und HMIs. Die zunehmende Komplexität der Automatisierung und der Anzahl der vernetzten Dinge treibt auch den Bedarf an skalierbarer, schneller, zuverlässiger und interoperabler Kommunikation in die Höhe. Ebenso wichtig ist die Notwendigkeit, innovative Softwaretechnologien wie die Künstliche Intelligenz (KI) näher an die Edge zu integrieren, um die Vorteile von Echtzeiterkenntnissen nutzen zu können.
Moderne Protokolle wie MQTT und OPC UA Pub/Sub sind mittlerweile beliebte Technologien, die neue Anwendungen näher an die Edge heranbringen. Sie wurden als leichtgewichtige Publish/Subscribe-Messaging-Transporte entwickelt oder nachgerüstet. Zudem eignen sie sich ideal für die Verbindung von Remote-Geräten mit Edge-Anwendungen oder die schnelle Integration von Geräten in eine zentralisierte Cloud-Infrastruktur.
Aber diese Arten von zentralisierten Lösungen bringen die Dinge nicht wirklich näher an die Edge, bieten keine Echtzeit-Fähigkeiten und sind auch keine gute Lösung für die Konvergenz. Notwendig ist ein ganzheitlicher Ansatz, der sowohl die Netzwerke der unteren Ebene als auch die Verbindungen der oberen Cloud-Ebene auf interoperable Weise handhabt und Daten als gleichwertige Bestandteile der Architektur behandelt.
Die drastische Umgestaltung einer Branche verlangt eine unterschiedliche Perspektive und sollte sich im Prozess des Überdenkens der gesamten Softwarearchitektur eines Systems widerspiegeln. Die Herausforderung, Rohdaten in verwertbare Informationen umzuwandeln, wird nicht dadurch gelöst, dass man die Konnektivität erhöht und die Anwendungen näher an die Edge-Ebene verlegt.
Erstens bestehen Rohdaten aus einzelnen Fakten, denen der Zusammenhang fehlt, die keine Aussage haben und schwer zu verstehen sind. Daten im Kontext bestehen aus einzelnen Fakten mit einer Aussagekraft. Informationen lassen sich am besten als eine Reihe von Daten im Kontext mit Relevanz für einen oder mehrere Sachverhalte zu einem bestimmten Zeitpunkt oder für einen bestimmten Zeitraum beschreiben – daher brauchen sie sowohl Relevanz als auch einen Zeitrahmen.
Zweitens sind Daten keine Ware, sondern ein Vermögenswert. Um diesen zu verstehen, ist eine Methodik zur Datenbewertung erforderlich. Systemarchitekten sind heutzutage der Meinung, dass die leistungsfähigste Methode zur Datenbewertung ein Ansatz ist, der als Datenzentrierung bezeichnet wird.
Bei der Datenzentrierung handelt es sich um ein architektonisches Muster, bei dem Daten das primäre und permanente Gut sind, während Anwendungen kommen und gehen. In einer datenzentrierten Architektur werden einheitliche Datenmodelle verwendet, um ein System in Bezug auf die ausgetauschten Informationen und nicht auf Geräte oder Anwendungen zu beschreiben. Datenmodelle liefern Schemata (welche Informationen fließen und wie stehen sie miteinander in Beziehung) und ein Kontrollmodell (wie und wann fließen sie).
Und schließlich haben sich die Arten von Daten, die heute erzeugt werden, von einfachen Zeitreihendaten – Zeitstempel, Schlüssel, Wert – zu erweiterten Sensordaten, Echtzeit-Videoströmen, LIDAR und Echtzeit-GPS-Standortdaten entwickelt, um nur einige zu nennen. Die Verwaltung dieser komplexen Datenmengen benötigt eine konvergente Infra-strukturlösung, die Echtzeitfunktionen bietet und die Verwaltung des Datenflusses innerhalb einer datenzentrierten Konnektivitätsinfrastruktur vereinfacht.
Ethernet (genormt unter IEEE 802.3) ist eine der ursprünglichen Netzwerktechnologien. Aufgrund seiner einfachen Implementierung und seiner Fähigkeit, sich ohne Verlust der Rückwärtskompatibilität weiterzuentwickeln, ist es zum De-facto-Standard in der IT-Vernetzung geworden. Obwohl es bereits seit fast einem halben Jahrhundert existiert, hat man erst im letzten Jahrzehnt damit begonnen, Ethernet in die OT (Operational Technology)-Lösungen zu integrieren.
Industrielle Anwendungen haben in der Regel strenge zeitliche und deterministische Anforderungen. Per Definition garantiert Ethernet keine deterministische Nachrichtenübermittlung oder Echtzeitverhalten. Dank seiner extrem hohen Leistung eignet es sich jedoch für die meisten derartigen Anwendungen, vorausgesetzt, es gibt eine Möglichkeit, den Netzverkehr zu verwalten.
Zwei Faktoren, die die Einführung von Ethernet in der Industrie verlangsamt haben, sind Jitter, die Variation in der Verzögerung zwischen den ankommenden Paketen, und Latenz, die Zeit, die ein Paket braucht, um sein Ziel zu erreichen. Der ursprünglichen Ethernet-Spezifikation mangelte es an Determinismus. Darum herrschte lange die Meinung vor, dass das Protokoll in vielen Maschinenanwendungen nicht zuverlässig eingesetzt werden kann, weil zu befürchten war, dieser Mangel an Determinismus könnte zu schlechter Qualität oder sogar zu Maschinenschäden führen.
Time-Sensitive Networking (TSN) löst das Problem der standardisierten Echtzeitkommunikation auf der Grundlage von Standard-Kommunikationshardware. Es handelt sich um eine Erweiterung des Standard-Ethernet, die die Datenkommunikation in Layer 2 regelt (Tabelle 1).
Es ist wichtig, daran zu denken, dass TSN nur ein „Kanal“ ist, um Daten auf deterministische Weise von einem Ort zum anderen zu bringen. Es befasst sich nicht mit Anwendungsfunktionen auf höherer Ebene, wie Sicherheit oder Bewegungssteuerung. Der eigentliche Wert von TSN für die OT liegt in der Möglichkeit, industrielle Netzwerke zu virtualisieren, so wie viele Unternehmen ihre Serverinfrastruktur in der Cloud konsolidiert haben. Die gemeinsame Nutzung derselben Netzwerk-Hardware durch verschiedene Arten von Datenverkehr bildet die Grundlage für die Konvergenz.
Beim Data Distribution Service (DDS)-Standard der Object Management Group (OMG) handelt es sich um ein plattformunabhängiges Software-Framework für die Entwicklung und Implementierung datenzentrierter Software-Lösungen. Ein DDS-Datenmodell beziehungsweise ein relationales Konzept wie eine Datenbanktabelle, liefert ein Schema, während DDS Quality of Service (QoS) eine genaue Kontrolle über Datenraten, Fristen und andere Datenflussparameter bietet. Durch die Definition eines gemeinsamen, sicheren „globalen Datenraums“ bietet DDS eine „einzige Informationsquelle“, die den höchsten Grad an Zusammenhang (wie verwandt die Funktionen innerhalb eines einzelnen Moduls sind) ermöglicht und gleichzeitig eine lose Kopplung (die Abhängigkeiten zwischen den Modulen) garantiert.
Verteilte Systeme drücken die Kopplung in vier Dimensionen aus:
DDS erweckt den Eindruck, dass alle Daten im System lokal sind. Anwendungen lesen und schreiben in einen wie einen lokalen Speicher aussehenden globalen Datenraum, und die datenzentrierte DDS-Middleware sorgt dafür, dass dieser die richtigen Daten enthält. Im Gegensatz zu OPC UA, OPC UA Pub/Sub und MQTT gibt es keine Clients, Server oder Broker. Der globale Datenraum befindet sich zwischen jedem Teilnehmer und bietet sicheren, deterministischen Zugriff auf Informationen ohne enge Verknüpfung.
Die wichtigste Fähigkeit von DDS ist die Dienstgüte (Quality of Service, QoS). DDS ermöglicht es jeder Anwendung, 21 verschiedene Parameter anzufordern, wie etwa Fristen, Latenzbudgets, Aktualisierungshäufigkeit, Historie, Liveliness Detection, Zuverlässigkeit, Bestellung, Filterung und mehr. Mit diesen QoS-Parametern können Systemdesigner eine verteilte Anwendung auf der Grundlage der Anforderungen an und der Verfügbarkeit von spezifischen Daten erstellen. Zu den Beispielen gehören:
DDS plus TSN führt zu einem konvergenten Ansatz für die Handhabung der Echtzeitkommunikation in industriellen Anwendungen. Vom Design her ist DDS netzunabhängig. Mit DDS QoS können deterministische Anwendungen unabhängig vom Transport erstellt werden. Bei harten Echtzeitanforderungen verlässt sich DDS auf den zugrunde liegenden Netzwerktransport. TSN macht Standard-Ethernet echtzeitfähig und ermöglicht die Zusammenführung mehrerer Verkehrsarten im selben Netz (Virtualisierung). DDS bietet einen deterministischen, plattformunabhängigen, datenzentrierten Rahmen für die Architektur und Implementierung hochgradig verteilter Systeme von der Edge- bis zur Cloud-Umgebung.
DDS over TSN (Tabelle 2) ist die interessanteste Entwicklung in der industriellen Kommunikation seit der Entwicklung von Ethernet. Durch die Kombination dieser beiden Standards erhält die industrielle Automatisierung eine virtualisierte (konvergierte) Datenzentrierung in Echtzeit. Dadurch wird es möglich, Rohdaten in verwertbare Informationen umzuwandeln, auf die in Echtzeit reagiert werden kann, ohne dass die inhärenten architektonischen Einschränkungen von MQTT, OPC UA und OPC UA Pub/Sub zum Tragen kommen.