Schwerpunkte

Machine Learning

Künstliche Intelligenz erfordert Rechenpower

12. September 2019, 08:30 Uhr   |  Armin Erich


Fortsetzung des Artikels von Teil 3 .

Vor Ort oder in der Cloud?

Generell besteht die Möglichkeit, sowohl die Modellgenerierung (Training) als auch die anschließende Bearbeitung einer Aufgabe (Inferenz) vor Ort, zum Beispiel in der Werkshalle (Edge Intelligence), oder remote – etwa in einem Datenzentrum (Cloud)  –durchzuführen. Während sich beim Edge Computing die Rechenleistung lokal befindet und dadurch meist Echtzeit-Fähigkeit ohne nennenswerte Verzögerungen gewährleistet ist, besteht beim Cloud-Ansatz in der Regel keine Echtzeit-Fähigkeit und es wird eine hohe Bandbreite zur Übertragung der einzelnen Datenpakete benötigt. Cloud Computing bietet jedoch im Gegensatz zum Edge Computing leicht skalierbare Rechenleistung – zum Beispiel durch Virtualisierung – mit weltweitem Zugriff. Zudem muss die genutzte Hardware im Gegensatz zur Hardware, die im Shop Floor zur Verwendung kommt, keine industriellen Anforderungen erfüllen und ist somit deutlich günstiger in der Anschaffung.

Inferenz-Anwendungen, Inonet
© Inonet

In Inferenz-Anwendungen können deutlich kompaktere Geräte­klassen als in ­Trainings-Anwendungen eingesetzt werden, um die zuvor angelernten Vorgänge umzusetzen.

Moderne KI-Systeme werden bereits durch ausgebildete Spezialisten in dedizierten Rechenzentren definiert, erstellt und trainiert. Diese Fachleute sind häufig auf ein bestimmtes KI-Framework spezialisiert. MXNet, Tensorflow und Caffe2 sind in diesem Kontext nur drei Beispiele von vielen. Bei einigen Applikationen ist während des KI-Systementwurfs und Trainings auch bereits die potenzielle Inferenzhardware vorgegeben. 

Man kann allerdings auch einen Trend beobachten, bereits fertig trainierte Inferenzsysteme als Bausteine zu einer eigenen KI-Anwendung hinzuzufügen. Dies ist immer dann möglich, wenn sich die KI-Applikation auf standardisierte Aufgaben festlegen lässt. Beispiele hierfür wären die optische Erkennung von Verkehrsschildern oder das Erkennen und Lesen von Texten auf Fotos. Hier kann das Inferenz-System als Software-Baustein aus einer Anzahl von Anbietern ausgewählt, qualifiziert und in das eigene Produkt integriert werden. Dabei ist es notwendig, dass das KI-System nicht bereits während des Systemdesigns zu stark auf ein spezifisches Zielsystem ausgerichtet worden ist und der Anwender noch genug Flexibilität vorfindet, um die Anforderungen seiner Applikation umzusetzen. 

Dieser flexible Ansatz wird zum Beispiel von Toolkits wie Intels OpenVino unterstützt. Dieses nimmt für sich in Anspruch, bereits fertig definierte Inferenzsysteme anderer Frameworks einlesen, optimieren und ohne großen Programmieraufwand auf unterschiedliche Zielhardware aufsetzen zu können. Auf der Eingabeseite wird bereits eine Vielzahl bekannter KI-Frameworks unterstützt und Intel wirbt damit, monatlich diese Auswahl zu erweitern. Auf der Ausgabeseite werden die bereits angeführten Zielsysteme in Form von CPUs, GPUs, VPUs und FPGAs unterstützt. Somit ist in diesem Rahmen das Zielsystem, auf welchem die Inferenzapplikation zum Einsatz kommen soll, flexibel skalierbar, ohne die Applikation neu zu konfigurieren. Alle diese Hardwareplattformen sind, im Gegensatz zu den KI-Trainingsplattformen in den Rechenzentren, industrietauglich und somit für die Integration in Edge-Computing-Applikationen geeignet.

Autor: Armin Erich ist Entwicklungsleiter bei Inonet Computer.

Seite 4 von 4

1. Künstliche Intelligenz erfordert Rechenpower
2. Definitionen und Abgrenzung der Begriffe
3. Spezialhardware für Trainingsvorgänge und Inferenzen?
4. Vor Ort oder in der Cloud?

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

InoNet Computer GmbH