Moxa - Artificial Intelligence of Things

Edge-Computing für das industrielle AIoT

19. Februar 2021, 13:55 Uhr | Andrea Gillhuber

Fortsetzung des Artikels von Teil 3

Die Entwicklungstools

Für verschiedene Hardware-Plattformen stehen mehrere Tools zur Verfügung, die den Prozess der Anwendungsentwicklung beschleunigen oder die Gesamtleistung für KI-Algorithmen und maschinelles Lernen verbessern.

Deep-Learning-Frameworks

In Betracht kommt die Verwendung eines Deep-Learning-Frameworks, d.h. einer Oberfläche, einer Bibliothek oder eines Tools, mit dem sich Deep-Learning-Modelle einfacher und schneller erstellen lassen, ohne dass man sich mit den Details der ihnen zugrunde liegenden Algorithmen auseinandersetzen muss. Deep-Learning-Frameworks bieten eine klar umrissene Möglichkeit zur Definition von Modellen unter Verwendung einer Sammlung von vorgefertigten und optimierten Komponenten. Die drei beliebtesten sind:

•  PyTorch wurde in erster Linie vom KI-Forschungslabor von Facebook entwickelt und ist eine Open-Source-Bibliothek für maschinelles Lernen, die auf der Torch-Bibliothek basiert. PyTorch ist eine freie und quelloffene Software, die unter der modifizierten BSD-Lizenz veröffentlicht und für Anwendungen wie Computer-Vision und die Verarbeitung von natürlicher Sprache eingesetzt wird.

•  TensorFlow ermöglicht schnelles Prototyping, Forschung und Produktion mit den benutzerfreundlichen Keras-basierten APIs von TensorFlow, die zum Definieren und Trainieren neuronaler Netzwerke verwendet werden.

•  Caffe zeichnet sich durch eine ausdrucksstarke Architektur aus, mit der sich Modelle und Optimierungen ohne harte Codierung definieren und konfigurieren lassen. In Caffe kann ein einzelnes Flag gesetzt werden, um das Modell auf einer GPU-Maschine zu trainieren und es dann auf Warenclustern oder mobilen Geräten zu implementieren.

Hardwarebasierte Beschleuniger-Toolkits

KI-Beschleuniger-Toolkits werden von Hardware-Herstellern angeboten und sind speziell für die Beschleunigung von KI-Anwendungen wie maschinellem Lernen und Computer-Vision auf ihren Plattformen konzipiert.

•  Das Toolkit Intel OpenVINO (Open Visual Inference and Neural Network Optimization) von Intel wurde dafür konzipiert, Entwicklern beim Erstellen robuster Anwendungen für Computer-Vision auf Intel-Plattformen zu helfen. OpenVINO ermöglicht außerdem ein schnelleres Inferencing für Deep-Learning-Modelle. 

•  Das Toolkit NVIDIA CUDA ermöglicht leistungsstarkes Parallel-Computing für GPU-beschleunigte Anwendungen auf eingebetteten Systemen, Rechenzentren, Cloud-Plattformen und Supercomputern, die auf der Compute Unified Device Architecture (CUDA) von NVIDIA basieren.

Umgebungsbedingungen

Zu guter Letzt gilt es auch den physischen Ort zu berücksichtigen, an dem die Anwendung implementiert werden soll. Industrielle Anwendungen sollten einen weiten Betriebstemperaturbereich aufweisen und über geeignete Mechanismen zur Wärmeableitung verfügen. Bestimmte Anwendungen erfordern zudem branchenspezifische Zertifizierungen oder Zulassungen. Viele Anwendungen unterliegen Größenbeschränkungen, daher werden Edge-Computer mit kleinem Formfaktor bevorzugt.

Überdies können hochgradig dezentral organisierte Industrieanwendungen an entlegenen Standorten eine Kommunikation über Mobilfunk- oder WLAN-Verbindung erfordern. So macht ein industrietauglicher Edge-Computer mit integrierter LTE-Mobilfunkkonnektivität ein zusätzliches Mobilfunk-Gateway überflüssig und spart wertvollen Platz im Schaltschrank und Kosten für die Bereitstellung. Zudem kann eine redundante Mobilfunkverbindung mit Dual-SIM-Unterstützung erforderlich sein, um eine Datenübertragung auch bei schwachem Signal sicherzustellen.


  1. Edge-Computing für das industrielle AIoT
  2. Verlagerung von KI in den Edge-Bereich des IIoT
  3. Die Edge-Computing-Ebenen
  4. Die Entwicklungstools
  5. Edge-Computing für industrielle AIoT-Anwendungen – Beispiel Maschinenbau

Das könnte Sie auch interessieren

Verwandte Artikel

Moxa Europe GmbH, MOXA Technologies Co. Ltd.