VDMA-Podiumsdiskussion

Plug & Smile!

7. September 2022, 11:10 Uhr | Peter Stiefenhöfer
Plug&Smile
© xiaoliangge / Stock.Adobe.com

Embedded Vision ist zunehmend auch in der Embedded Community ein »Must have«. Wie ist es um den Status quo der Technik und künftige Entwicklungen bestellt? Eine VDMA-Podiumsdiskussion auf der embedded world 2022 hatte genau dies zum Thema.

»Integration of Embedded Vision: Plug & Play or Plug & Pray?« – diesen leicht provokanten Titel trug die von den Messeveranstaltern und der VDMA-Fachabteilung Machine Vision organisierte Podiumsdiskussion. Im Mittelpunkt der Diskussion zwischen Gion-Pitschen Gross (Allied Vision), Jan Jongboom (Edge Impulse), Dr. Olaf Munkelt (MVTec Software), Jan-Erik Schmitt (Vision Components) und Dr. Frederik Schönebeck (Framos) stand zunächst die Frage, welche Unterschiede zwischen der traditionellen Bildverarbeitung und Embedded Vision bestehen. Denn auf den ersten Blick ähneln sich beide Ansätze: Eine Kamera nimmt Bilder auf, die anschließend ausgewertet werden.

Aber: Die beiden Architekturen müssen sehr unterschiedliche Anforderungen erfüllen. Während PC-basierte Vision-Systeme auf nahezu unlimitierte Rechenressourcen und Speicherkapazität zugreifen können, indem sie beispielsweise Teile der Bildverarbeitung auf eine GPU, auf andere Rechner im Netzwerk oder Daten in die Cloud auslagern, sehen sich Entwickler von Embedded Vision-Systemen mit diversen Limitationen konfrontiert: Die in der Regel sehr geringe Baugröße von Embedded Vision-Systemen erfordert den Einsatz kleiner Module mit möglichst geringem Stromverbrauch, um insbesondere bei Batterie-betriebenen Geräten eine ausreichende Einsatzdauer zu ermöglichen.

Eine geringere Leistungsaufnahme reduziert zudem die Erwärmung der Systeme, die einen negativen Einfluss auf die Bildqualität hat. Gleichzeitig haben sich in den vergangenen Jahren Embedded-Prozessoren stetig weiterentwickelt, sodass sie PC-basierten Systemen heutzutage im Bezug auf Rechenleistung und Funktionalität kaum nachstehen.

Gion-Pitschen Gross_VDMA_Podiumsdiskussion
Gion-Pitschen Gross von Allied Vision: Hersteller stellen ihre Treiber inzwischen als Open Source zur Verfügung, so dass Anwender diese an ihren Einsatzfall anpassen und vorbereitete Beispiele nutzen können.
© NürnbergMesse

Auf die Frage, wo Standards für Embedded Vision am nötigsten wären, hat Jan Jongboom eine klare Antwort: »Als Software-Hersteller wünsche ich mir eine API, um aufgenommene Bilder auf einfache Weise ins System zu bekommen, egal mit welcher der zahlreich am Markt verfügbaren Hardware sie akquiriert wurden.« Nicht zuletzt dieser Mangel an Standards erschwert es Anwendern, Embedded Vision-Technologie einzusetzen. Doch warum ist es im Bereich Embedded Vision so schwer, Standards zu definieren?

Jan-Erik Schmitt formuliert die Antwort auf diese Frage so: »Große Prozessor-Hersteller haben mit ihren Produkten und Entwicklungstools einen gewissen Technologievorsprung und wollen diesen auch behalten. Daher sind sie nicht offen für Standards, mit denen sie einen Teil ihres Vorsprungs an ihren Wettbewerb abgeben müssten.« Die Experten sind sich zudem einig, dass Standards zwar hilfreich seien, weil sie Vorteile wie einen einfacheren Einstieg für Anwender mit sich bringen. Andererseits können sie in bestimmten Fällen auch zu einem gewissen Overhead in Embedded Vision-System führen, die einer optimalen Auslegung des Systems im Wege stehen.

Jongboom_Jan_VDMA_Posiumsdiskussion
Jan Jongboom von Edge Impulse: Ich wünsche mir eine API, um aufgenommene Bilder auf einfache Weise ins System zu bekommen, egal mit welcher Hardware sie akquiriert wurden.
© NürnbergMesse

»Um einen Standard in einem System umzusetzen, benötigt man meist zusätzliche Layer, die die Leistung des Systems reduzieren«, erläutert Jan-Erik Schmitt. »In der PC-Welt ist dies ein geringeres Problem, da man erhöhte Leistungsanforderungen dort immer noch durch die Auswahl leistungsstärkerer Komponenten erfüllen kann da die Ressourcen-Optimierung in der Regel nicht im Fokus steht – ganz anders als bei hoch optimierten Embedded Vision-Lösungen.« 

Ein weiterer Grund für die Schwierigkeit, in allen Segmenten geeignete Standards für Embedded Vision zu definieren, liegt aus Sicht der Experten darin, dass Embedded Vision-Systeme naturgemäß skalierbarer sein müssen als klassische Bildverarbeitungssysteme.

Einen möglichen Weg, der viele Standards hinfällig machen würde, nennt Dr. Olaf Munkelt: »Apple hat vor kurzem mit dem M1-Prozessor einen Chip vorgestellt, der eine extrem hohe Rechenleistung bei sehr niedrigem Stromverbrauch zur Verfügung stellt. Dieser Chip enthält leistungsfähige SoCs für verschiedene Aufgaben, die auch für Embedded Vision-Systeme eine enorme Leistungssteigerung bedeuten können. Wenn sich alle Player der Branche auf diese Richtung einigen würden, würde das viele Probleme vereinfachen, zumal Apple auch die erforderlichen Software-Tools bereitstellt.« Eine Festlegung aller Embedded Vision-Player auf diese Apple-Plattform ist jedoch kaum zu erwarten.

Jan-Erik_Schmitt_VDMA_Podiumsdiskussion.png
Jan-Erik Schmitt von Vision Components: Heute verlassen junge Leute die Universitäten und sind bereits BV-Experten, weil sie sich mit diesem Thema schon während ihrer Ausbildung befasst haben.
© NürnbergMesse

KI befeuert Embedded Vision

Methoden der Künstlichen Intelligenz kommen derzeit auf nahezu jedem technischen Feld verstärkt zum Einsatz. Auch für den Bereich Embedded Vision sieht das Podium dies als klaren Trend, wie Jan Jongboom ausführt: »Aus Anwendersicht ist es mit KI einfacher, Systeme zu entwickeln, die gut generalisieren. Der Einsatz von Transfer Learning, bei dem eine große Anzahl von bereits eingelernten Bildern aus anderen Anwendungen als Basis für das Training eines Systems dient und lediglich eine verhältnismäßig kleine Zahl an neuen Bildern eines spezifischen Anwendungsfalls hinzugefügt wird, minimiert den Aufwand für Anwender enorm. Man kann beispielsweise in der Produktion sehr schnell einige Bilder von guten und fehlerhaften Teilen aufnehmen und das System damit ergänzend trainieren. Danach versteht es eigenständig den Unterschied zwischen OK und NOK. Dies revolutioniert den Weg, wie man Bildverarbeitungssysteme programmiert, und senkt die Hürde für die Entwicklung praxistauglicher Modelle dramatisch: Noch vor wenigen Jahren war es erforderlich, eine extrem große Anzahl an Bildern zu sammeln und einzulernen.«

Es gibt jedoch auch einen negativen Aspekt von KI-Methoden, gibt Dr. Olaf Munkelt zu bedenken: »Industrielle Anwender wollen meistens eine Erklärung dafür, warum ein Teil als fehlerhaft eingestuft wird oder warum eine bestimmte Entscheidung so gefallen ist. KI-Systeme sind sehr leistungsfähig, aber sie sind nicht sehr gut darin zu erklären, warum sie eine Entscheidung getroffen haben. Diese Aussage gilt ganz unabhängig vom Thema Embedded Vision und bedeutet: Vertrauen ist ein Kernproblem beim Einsatz von KI. Wir investieren ziemlich viel Zeit, um das Vertrauen der Anwender in diese Art von Algorithmen zu stärken, denn Anwender werden sie nicht nutzen, solange sie dieses Vertrauen nicht haben.« 

Das gilt nach Munkelts Worten insbesondere für Anwendungen, in denen sehr präzise Ergebnisse benötigt werden: »Existiert ein größerer Toleranzbereich, in dem untersuchte Teile als gut bewertet werden, so erleichtert dies die Akzeptanz für den Einsatz von KI-Algorithmen. In anderen Anwendungen funktioniert das jedoch nicht so einfach.« Hinzu kommt der Umstand, dass KI-basierte Systeme nur dann gute Ergebnisse liefern können, wenn das vorangegangene Training entsprechend gut war.

Schoenebeck_Frederik_VDMA_Podiumsdiskussion
Dr. Frederik Schönebeck von Framos: Wir müssen Architekturen zur Verfügung stellen, die skalierbar sind und dennoch einen einfachen Zugang erlauben.
© NürnbergMesse

Dennoch überwiegen laut Munkelt die positiven Möglichkeiten von KI, da unter anderem AI Accelerators dazu beitragen, den Einsatz von Embedded Vision zu vereinfachen. MVTec hat dafür in seiner Software ein Abstraction Layer vorgesehen, der es Entwicklern vereinfacht, mit KI-Beschleunigern wie TensorFlow, OpenVINO oder anderen Produkten zu arbeiten. »Anwender schätzen das sehr, weil sie sich dadurch nicht mehr um das Codieren aller Bits und Bytes kümmern müssen«, so der MVTec-Geschäftsführer.

Ist Embedded Vision zu kompliziert?

Embedded Vision haftet generell der Ruf an, eine relativ komplizierte Technologie zu sein. »Plug & Play« schien in diesem Bereich lange unerreichbar, und tatsächlich war die Technologie aufgrund fehlender Werkzeuge oft nur für Experten geeignet. Inzwischen sieht das anders aus. Jan-Erik Schmitt sieht eine ähnliche Entwicklung wie beim Deep Learning: »Auch dort gibt es inzwischen deutlich einfacher zu verstehende Werkzeuge, da hat sich in den vergangenen Jahren sehr viel verändert. Die Werkzeuge zur Realisierung von Embedded Vision-Systemen entwickeln sich auch deshalb weiter, weil Hard- und Software ständig leistungsfähiger werden. Dadurch entstehen immer neue Ideen, wo die Technologie eingesetzt werden kann. Mit den zahlreichen Embedded Vision-Applikationen, die in den vergangenen 20 Jahren entstanden sind, gibt es außerdem immer mehr Menschen, die sich mit diesem Thema befassen und weiter in die Technologie eintauchen wollen.« 

Munkelt_Olaf_VDMA_Podiumsdiskussion
Dr. Olaf Munkelt von MVTec Software: Vertrauen ist ein Kernproblem beim Einsatz von KI.
© NürnbergMesse

Hinzu kommt, dass bis vor einigen Jahren Mathematiker, Physiker oder Ingenieure für die Erstellung von Bildverarbeitungsanwendungen erforderlich waren und erst durch den praktischen Umgang mit der Technologie die nötigen Erfahrungen sammeln konnten. »Heute verlassen junge Leute die Universitäten und sind bereits BV-Experten, weil sie sich mit diesem Thema schon während ihrer Ausbildung befasst haben«, so Schmitt. »Es gibt daher heute viel mehr Bildverarbeitungsexperten als früher.« 

In Kombination mit den mittlerweile erzielen Vereinfachungen beim Einsatz von Embedded Vision beschreibt Schmitt den aktuellen Stand der Technologie daher eher als »Plug & Smile« denn als »Plug & Pray«. Vereinfacht wird Anwendern der Einsatz von Embedded Vision laut Gion-Pitschen Gross auch durch die Nutzung von Open Source-Software: »Vieles davon ist heute sehr einfach verfügbar und kann mit wenig Aufwand an den jeweiligen Anwendungsfall angepasst werden. Dieser Trend ist noch relativ jung, doch Hersteller wie Allied Vision stellen ihre Treiber inzwischen als Open Source zur Verfügung, so dass Anwender diese an ihren Einsatzfall anpassen und vorbereitete Beispiele nutzen können. Auch das vereinfacht Anwendern die Realisierung ihrer Applikationen.« 

Stiefenhoefer_Peter_VDMA_Podiumsdiskussion.png
Der Autor: Peter Stiefenhöfer ist Inhaber PS Marcom Services in Olching.
© PS Marcom Services

Die Experten sind sich einig: Der Einsatz von Embedded Vision in der Industrie profitiert mit einem gewissen zeitlichen Abstand stark von den technologischen Weiterentwicklungen im Consumer-Bereich und der zunehmenden Rechenleistung von Embedded-Systemen. Aus diesen Gründen stehen mit Embedded Vision ausgestattete Geräte wie zum Beispiel mobile Barcode- oder Datencode-Scanner, Drohnen, selbstfahrende Fahrzeuge, Liefer-Roboter, selbstfahrende Transportsysteme und viele weitere Anwendungen weiterhin vor einer sehr positiven Entwicklung.


Das könnte Sie auch interessieren

Verwandte Artikel

PS Marcom Services, Allied Vision Technologies GmbH, Vision Components GmbH

embedded world