Sie sind hier: HomeSteuerungsebeneIndustrie-PC

Industriecomputer: Rechenpower für KI

Fortsetzung des Artikels von Teil 1.

Schnell einsatzfähige KI-Lösungen

Bis vor Kurzem noch mussten Fertigungsunternehmen die für KI-Projekte benötigte Hard- und Software als einzelne Komponenten beschaffen und anschließend sehr aufwendig und langwierig zusammenführen, konfigurieren und optimal aufeinander abstimmen. Inzwischen gibt es eigens validierte und in kurzer Zeit einsatzfähige Paketlösungen – einschließlich der jeweils erforderlichen Rechen-, Speicher- und Netzwerk-Kapazitäten sowie der passenden KI-Frameworks und Bibliotheken für maschinelles Lernen und Deep Learning. So können etwa Deep-Learning-Lösungen für ein automatisiertes Qualitätsmanagement in der Fertigungsindustrie aus Lösungen von Servern und Nvidia-Grafikprozessoren bestehen. 

EMC-PowerEdge-C6420-Server, Dell Bildquelle: © Dell EMC

Die EMC-PowerEdge-C6420-Server von Dell eignen sich für High Performance Computing und KI direkt an den Maschinen. Sie bieten maximale Dichte, Skalierbarkeit und Energie-Effizienz pro Einheit auf einer modularen 2HE/8S-Plattform.

Ein mögliches Anwendungsszenarium ist eine erweiterte vorausschauende Wartung, die Montagefehler frühzeitig erkennt. Zum Einsatz kommen hier etwa HPC-Server wie der ‚Dell EMC PowerEdge C4140‘, dessen integrierte Nvidia-Tesla-Grafikprozessoren und Intel-Xeon-Scalable-Prozessoren sich speziell für komplexe Anwendungsszenarien des maschinellen Lernens und Deep Learning in der Bildverarbeitung eignen. 

Beim Deep Learning wird ein neuronales Netzwerk trainiert, indem es Daten von Sensoren oder Kameras als Input erhält. Damit lernt das neuronale Netzwerk beispielsweise Bilder mit einer sehr geringen Fehlerquote korrekt zu erkennen. Dazu ist eine Vielzahl arithmetischer Operationen erforderlich. In einem Prozessor oder einer GPU (Graphics Processing Unit) wird jede arithmetische Operation auf einer ALU (Arithmetic Logic Unit) ausgeführt. In der Menge der Operationen gibt es einige, die mehr genutzt werden als andere. Wenn solche Operationen auf allgemeinen ALUs nicht schnell genug sind, bauen Lieferanten spezielle ALUs für einen bestimmten Vorgang. Nvidia etwa hat Tensor Cores eingeführt, die solche Vorgänge wesentlich effizienter erledigen können als allgemeine ALUs. 

Es gibt weitere spezifische Funktionen, durch die GPUs sich für Deep Learning eignen, indem etwa viele kleine und im Vergleich zu ALUs langsame Rechenkerne genutzt werden. Obwohl jeder einzelne Kern langsamer ist als eine CPU, wird durch die parallele Verarbeitung eine hohe Geschwindigkeit erzielt. Ein weiteres Merkmal ist der GPU-Speicher mit hoher Bandbreite, der sich hervorragend für das Streaming von Daten eignet. Die Latenz ist viel höher als die einer einzigen CPU, aber auch hier wird die Performance durch die Parallelität der Streams besser, wenn die Bandbreite höher ist.

Vielfältige Anknüpfungspunkte und Ideen für Projekte können Fertigungsunternehmen durch eine Analyse und Auswertung der Arbeit des Nvidia Deep Learning Institute erhalten, in dem auch Dell EMC mitwirkt. Interessant sind zum Beispiel Use Cases, bei denen es um Wahrnehmung geht. Wissenschaftler erforschen hier unter anderem Weiterentwicklungen von Fabrikrobotern und deren Interaktion mit menschlichen Kollegen. Darüber hinaus arbeiten die beteiligten Unternehmen an Innovationen in den Schnittmengen von High Performance Computing, Künstlicher Intelligenz und Data Analytics.