Sie sind hier: HomeFeldebeneBildverarbeitung

Embedded Vision: Bildverarbeitung im Umbruch

Welche Möglichkeiten bieten Embedded Vision und Machine Learning für Anwender? Dieser Frage widmeten sich der VDMA und fünf Industrievertreter im Rahmen einer Podiumsdiskussion während der embedded world 2019. Eine Zusammenfassung.

Podiumsdiskussion des VDMA auf der embedded world 2019 Bildquelle: © NürnbergMesse

"Embedded Vision Machine Learning: new architectures and technologies boosting (new) vision applications" lautete der Titel einer Podiumsdiskussion des VDMA während der embedded world 2019.

Technische Grundlage von Embedded-Vision-Systemen sind unter anderem kompakte, leistungsstarke Rechnerplattformen, die wenig Energie verbrauchen und dank standardisierter Schnittstellen zu Bildsensoren immer mehr Bilddaten in Echtzeit verarbeiten können. James Tornes, Vice President Systems and Software der Intelligent Sensor Group von ON Semiconductor, führt die positive Entwicklung von Embedded Vision unter anderem darauf zurück, dass die verfügbaren Sensoren und Kameras immer kleiner werden und zunehmend rauschfreiere Aufnahmen ermöglichen. Damit nehme auch die erforderliche Verarbeitungsleistung ab, um die gewünschten Aufgaben zu lösen. „Ein wichtiger Aspekt ist die Tatsache, dass die Leistungsfähigkeit von Prozessoren für batteriebetriebene Anwendungen – wie zum Beispiel Handscanner, Türklingelkameras oder intelligente IP-Kameras et cetera – stark zunimmt. Die dort verwendeten Prozessoren sind teilweise auch in geeigneten Embedded-Applikationen einsetzbar.“ Diese Tatsache bezeichnet Tornes als einen wichtigen Enabler für den gesamten Embedded-Vision-Markt.

Die derzeit größte Herausforderung bei der Anwendung effizienter Bildverarbeitungsfunktionen für Embedded-Vision-Systeme sind laut Paul Maria Zalewski, Director Product Management bei Allied Vision Technologies, die Kameras mit allen dafür erforderlichen Integrationsanstrengungen. „Neue Kameramodule und -technologien werden Embedded-Ingenieuren dabei helfen, die einmaligen Entwicklungskosten erheblich zu senken. Gleichzeitig profitieren Anwender von mehr Bildverarbeitungsfunktionen direkt im Kameramodul, was die Ressourcenzuteilung auf der Host-Seite verbessert.“

Dass die Leistungsfähigkeit solcher Kamera-Module in der jüngsten Vergangenheit stark zugenommen hat, führt Jason Carlson, CEO von Congatec, vor allem auf die Leistungsexplosion in der Prozessortechnologie zurück: „Heute können verschiedene Cores eines Prozessors verschiedene Aufgaben übernehmen. Ein Core ist beispielsweise für die Gateway-Aufgaben zuständig, ein anderer dient als Motion Controller, und weitere Cores des gleichen Chips können Vision-bezogene Aufgaben wie zum Beispiel die Erkennung von Gesichtern erledigen.“ Dass alle diese Bereiche in einem einzigen System kombiniert und abgearbeitet werden können, hat entsprechend Auswirkungen auf die Preise der darauf aufbauenden Lösungen, die so ständig wirtschaftlicher werden.