Sie sind hier: HomeSteuerungsebeneIndustrie-PC

Industriecomputer: Rechenpower für KI

Fortsetzung des Artikels von Teil 2.

Flash-Speicher für KI

Um die Deep-Learning-Lösungen mit den erforderlichen großen Datenmengen zu versorgen, benötigen Fertigungsunternehmen beispielsweise All-Flash-Scale-out-NAS-Storage-Lösungen. Diese stellen Speicherkapazitäten für den Aufbau von Data Lakes bereit und bieten damit die Basis zur Durchführung umfangreicher Analysen – beispielsweise mit dem Hadoop Distributed File System (HDFS). Hadoop ist eine kosteneffiziente Lösung für das Speichern und Verarbeiten von Big Data, insbesondere von semistrukturierten und unstrukturierten Daten, die aus unterschiedlichen Quellen wie Dokumenten, Videos sowie Bildern aller Art stammen. 

Künstlichen Intelligenz im Fertigungsumfeld, Dell Bildquelle: © Dell EMC

Eine von Dell EMC und Nvidia entwickelte Deep-Learning-Lösung basiert auf PowerEdge-Servern von Dell EMC sowie Nvidia-Tesla-V100-Grafikprozessoren mit Tensor-Recheneinheiten.

Die Stärke von Hadoop ist die Verwendung von ‚Schema on Read‘. Bei einem Data Warehouse muss man in der Regel wissen, wie die Tabellen aussehen, bevor sie geladen werden. Hadoop ist in der Lage, Daten aus beliebigen Quellen oder Typen zu beziehen; erst danach finden Anwender heraus, wie sie die Daten organisieren wollen. Unternehmen nutzen deshalb Hadoop als kosteneffizientes ‚Lager‘ für alle Arten von Daten. Diese Art der Speicherung wird oft auch als Hadoop Data Lake bezeichnet. Allerdings ist die Hadoop Map Reduce Engine zur parallelen Verarbeitung großer Datenmengen nicht für iterative Verarbeitung geeignet, wie sie Data Analytics oft erfordert. Daher eignet sich Hadoop am besten für die Batch-Verarbeitung. 

Die Storage-Systeme bieten darüber hinaus den parallelen, hochperformanten Zugriff auf alle Daten im Speichersystem, der für Applikationen im Bereich des Maschinellen Lernens und von Deep Learning bedeutsam ist. Eine wichtige Rolle spielt dies etwa beim Einsatz von KI-Frameworks wie TensorFlow oder Caffe. 

Auch für Maschinelles Lernen auf Basis von Hadoop gibt es in absehbarer Zeit einsatzfähige Lösungen. Sie basieren auf Servern mit skalierbarer Storage-Leistung und umfassen Data-Science- und Framework-Optimierung zur schnellen Inbetriebnahme. Das ermöglicht die Erweiterung bestehender Hadoop-Umgebungen für Maschinelles Lernen. Für schnelle und sichere Self-Service-Datenerfassung im Unternehmen können zum Beispiel die Cloudera Data Science Workbench sowie für Big Data und Maschinelles Lernen die Open Source Unified Data Analytics Engine Apache Spark zum Einsatz kommen.

Autor: 
Fisnik Kraja ist Solution Consultant High Performance Computing und Machine Learning bei Dell EMC.