Schwerpunkte

Machine Learning

Künstliche Intelligenz erfordert Rechenpower

12. September 2019, 08:30 Uhr   |  Armin Erich


Fortsetzung des Artikels von Teil 2 .

Spezialhardware für Trainingsvorgänge und Inferenzen?

Angesichts der beschriebenen mathematischen Besonderheiten hinsichtlich der IT-technischen Umsetzung von neuronalen Netzwerk-Strukturen, gibt es verschiedene hardwaretechnische Ansätze, die sich aufgrund ihrer Architektur besonders für eine schnelle und effiziente Umsetzung dieser Operationen eignen.Die CPU ist das Herzstück eines jeden Computers und zeichnet sich durch eine komplexe Hardware-Architektur und einen universellen Befehlssatz aus. Das prädestiniert die CPU für eine sehr flexible Ab­arbeitung unterschiedlichster Algorithmen mit verschiedenen Zielsetzungen. Die Universalität wird dabei aber mit nicht optimaler Performance für dezidierte Aufgaben erkauft, sodass hier zunächst von einer eingeschränkten Eignung für den KI-Einsatz gesprochen werden muss. Allerdings können moderne Hochleistungs-Server-CPUs mit vielen Cores und Multi­threading auch bei KI-Aufgaben sehr gute Leistungen erzielen und sind in Rechenzentren durchaus auch für die Modellgenerierung verwendbar. Für ein Inferenz-Szenario, also der Anwendung eines bereits trainierten Modells mit geringem bis mittlerem Leistungsbedarf, sind in der Regel auch weniger performante CPUs problemlos einsetzbar.

Neuronales Netzwerk, Inonet
© Inonet

Gehirnzellen sind mittels Synapsen vermascht und kommunizieren bidirektional. Die Umsetzung von Information in Aktion erfolgt an sogenannten Motoneuronen. Das Ganze nennt sich in der Biologie neuronales Netzwerk.

Ungeachtet dessen gibt es jedoch deutlich besser geeignete Hardware für Deep-Learning-Szenarien, wie zum Beispiel Grafikprozessoren oder kurz GPUs (Graphic Processing Units). Die GPU kann Bestandteil der CPU sein, sich als eigener Chip auf dem Mainboard befinden oder in Form einer Steckkarte (meist über PCIe) mit dem Mainboard verbunden werden. Die Rechenleistung wird hier durch Parallelisierung von Rechenaufgaben über eine Vielzahl von zur Verfügung stehenden Recheneinheiten im Vergleich zu einer CPU immens gesteigert. Dafür lassen sich sowohl Consumer-Grafikkarten als auch professionelle Grafikkarten einsetzen, wobei erstere in der initialen Anschaffung günstiger sind, während zweitere über eine deutlich höhere Lebensdauer verfügen.

VPUs (Vision Processing Units) sind im Inferenz-Umfeld in jüngster Vergangenheit immer beliebter, wenn es um Deep-Learning-Szenarien auf Basis von Bild- und Bewegtbilddaten geht. Diese für den industriellen Einsatz ausgelegte Hardware ist langlebiger und hält erweiterten Umgebungstemperaturen stand. Hersteller von VPU-Modulen sind unter anderem Nvidia etwa mit dem Jetson-TX2-Modul, oder auch Intel beziehungsweise Movidius mit dem Myriad X. In Ergänzung zu industrieller Hardware ermöglichen die VPU-Module mittlere bis hohe Performance für Inferenz-Maschinen, etwa für die einfache Analyse von Bilddaten mit bis zu 9 FPS (Frames per Second), bei verhältnismäßig geringer Leistungsaufnahme von lediglich 4 W im Fall einer Myriad2 VPU. Meistens werden VPUs auf Steckmodulen angeboten, deren Leistung von einer bis aktuell acht VPUs skaliert und die über Standard-Schnittstellen wie PCIe, mPCIe, m.2 oder USB verfügen. Aufgrund ihrer Kompaktheit – die USB-Einheiten sind lediglich so groß wie gewöhnliche USB-Sticks – sind diese Module einfach in Industrie-PCs integrierbar und können so beim Edge Computing ihren Dienst verrichten.

FPGAs (Field Programmable Gate Array) sind programmierbare digitale Bausteine, bei denen auch die Hardwarestruktur (logische Schaltungen) programmierbar ist. FPGA-Karten weisen eine sehr dynamische Leistungsaufnahme auf, da sie sich durch die individuellen Konfigurationsmöglichkeiten der Hardware direkt auf den Anwendungsfall abstimmen lassen und so maximale Effizienz und Performance für die jeweilige (KI-)Anwendung liefern können. Durch Implementierung parallel arbeitender Hardwarestrukturen ist die Leistung noch weiter ausreizbar. Demgegenüber steht jedoch ein hoher individueller Entwicklungsaufwand, der sich in der Regel erst bei Anwendungen mit größeren Stückzahlen rechnet.  
 

Seite 3 von 4

1. Künstliche Intelligenz erfordert Rechenpower
2. Definitionen und Abgrenzung der Begriffe
3. Spezialhardware für Trainingsvorgänge und Inferenzen?
4. Vor Ort oder in der Cloud?

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

InoNet Computer GmbH