Schwerpunkte

Crate.io

IoT-Projekte scheitern oft an den Daten

26. März 2020, 19:44 Uhr   |  Meinrad Happcher | Kommentar(e)


Fortsetzung des Artikels von Teil 1 .

Überwindung konventioneller Restriktionen

Das wesentliche Rückgrat derartig komplexer Systeme bildet der Ansatz, für IoT-Daten einen zentralen, beliebig skalierbaren IoT-Daten-Pool zu schaffen, welcher in der Lage ist, massive Datenmengen von beliebig vielen Datenquellen zu erfassen, über eine Standard-SQL-Schnittstelle eine intelligente und schnelle Nutzung dieser Daten zu gewährleisten und eine unlimitierte Skalierung von (Roh-)Daten kosteneffizient zu erlauben. Denn mit der Speicherung alleine ist es nicht getan.

Der Verpackungshersteller Alpla nutzt ein industriefähiges Zeitreihenmanagement von Crate.
© Crate.io

Der Verpackungshersteller Alpla nutzt ein industriefähiges Zeitreihenmanagement von Crate.

Gefordert ist ein System, das die anfallenden Informationen in Echtzeit und im Stream analysiert, aber auch gleichzeitig die historischen Daten-mengen kombinieren kann und in geeigneter Form bereitstellt.
Das führt zu neuen Anforderungen an die Architektur der zugrundeliegenden Datenbanken. Tatsächlich wurden konventionelle Datenbanken und Infrastrukturtechnologien nicht für die Welt der Maschinendaten in einem IoT-Maßstab entwickelt. In der Historie bestimmte die jeweilige Anwendungs-generation die notwendige Leistungsfähigkeit der IT.
In Zeiten lokal arbeitender ERP- oder MES-Systeme war die IT-Umgebung durch Mainframes, Client-/Server-Technologien und relationale SQL-Datenbanken definiert. Das Datenvolumen war eher begrenzt ebenso wie die Datenvarietät und die benötigte Geschwindigkeit. Es ging in erster Linie um die Sicherstellung der Datenkonsistenz, Zuverlässigkeit und Standardisierung.

Mit dem Aufkommen des Internets sowie der Cloud inklusive weiterer Anforderungen wie Mobile, Open-Source oder Big Data zeigten sich schnell die Performance-Schwächen dieses Ansatzes. Folgerichtig entstanden verteilte und dokumentenorientierte NoSQL-Datenbanken, die auch den Ansprüchen von Web-Scale-Architekturen gewachsen waren. Das Datenvolumen stieg kontinuierlich ebenso wie die Verarbeitungsgeschwindigkeit. Auch die Varietät der Daten nahm zu. Gefordert waren Systeme, die eine hohe Verfügbarkeit garantierten, ein schnelles und flexibles Development von Anwendungen ermöglichten und eine massive Zahl von Anwendern unterstützen konnten.

Das industrielle IoT mit seinen maschinengetriebenen Datenmengen läutete jedoch ein neues Level der digitalen Transformation ein. Neue Lösungen müssen heute nicht nur im Hinblick auf die Datenmengen performen, sondern es geht um die Kombination der traditionellen Datenwelten (Stichworte: SQL, ERP) mit Milliarden Datensätzen aus Sensoren und anderen IoT-Geräten, alles verknüpft aus unter Umständen weltweit verteilten Fabriken als Datenquellen, und mit enormen Skalierungsanforderungen.
Diese notwendige Flexibilität bei gleichzeitiger Kosteneffizienz erlaubt es, ganzheitliche Managementkonzepte zu unterstützen. Und das vor dem Hintergrund extremer Datenvolumina (von Terabyte zu Petabyte) und höchsten Anforderungen (Reaktion in  Millisekunden) an die Geschwindigkeit bei einer hohen Varietät der zu bewältigenden Datenformate. Gefordert sind also Lösungen, die eine schnelle Datenerfassung und Echtzeit-Analyse ermöglichen, die einfach im Hinblick auf die wachsenden Zahl der Standorte und zu steuernden Maschinen skaliert werden können und die notwendige Flexibilität besitzen, um sowohl in der Cloud als auch lokal zu arbeiten.

Seite 2 von 4

1. IoT-Projekte scheitern oft an den Daten
2. Überwindung konventioneller Restriktionen
3. Das Beste aus zwei Welten
4. Wirtschaftlichkeit und Funktionalität

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

KI an der Werkzeugmaschine
Erfolgreich vernetzt! Vernetzt erfolgreich?
Finger weg von den Big Playern?
Prozesse in Echtzeit überwacht
Das Smartphone zum Vorbild
KI und ERP in der Fertigung