Sie sind hier: HomeFeldebeneBildverarbeitung

Nachgehakt bei Prof. Dr. Didier Stricker: Augen für das Internet der Dinge

Im Januar startete das mit fast fünf Millionen Euro geförderte EU-Projekt 'Eyes of Things': Acht europäische Partner arbeiten daran, das Internet der Dinge mit 'Augen' zu versehen. Was im Detail dahinter steckt, erläutert Prof. Dr. Didier Stricker vom Deutschen Forschungszentrum für Künstliche Intelligenz.

Prof  Dr  Didier Stricker, DFKI Bildquelle: © DFKI

"Mit einem ersten Prototypen rechnen wir Mitte 2016.", so Prof. Dr. Didier Stricker, Leiter des Forschungsbereichs erweiterte Realität/Augmented Vision am DKFI.

Prof. Stricker, was verbirgt sich hinter dem EU-Projekt 'Eyes of Things'?

Im Bereich der Computer Vision wird seit vielen Jahren daran gearbeitet, die Fähigkeit des Sehens auf den Computer zu übertragen. Bisher sind dazu aber entsprechend leistungsstarke, energiehungrige und teure Rechner nötig. Mit ‚Eyes of Things‘ beziehungsweise EoT wollen wir Computer-Vision-Anwendungen für jeden zugänglich machen.

Wie soll das aussehen?

Wir wollen eine für Computer-Vision-Anwendungen im 'Internet of Things' optimierte, kostengünstige und leistungsstarke Plattform mit bisher noch nicht gekannter Energieeffizienz schaffen. Eine Akku-Ladung soll einen ununterbrochenen Betrieb von 30 Tagen ermöglichen. Wir werden Computer-Vision-Produkte ermöglichen, die mit bisher am Markt verfügbaren Komponenten aufgrund von Faktoren wie Preis, Größe, Gewicht oder Energieverbrauch nicht realisierbar waren. Darüber hinaus werden europäische Unternehmen in die Lage versetzt, Computer-Vision-Produkte in kürzerer Zeit zu entwickeln und mit niedrigeren Kosten auf den Markt zu bringen als bisher.

Technologisch heißt das…?
EoT verfolgt einen ganzheitlichen Ansatz, der sowohl Optimierungen der Hardware als auch der Software umfasst. Zu den zentralen Hardware-Komponenten gehören ein energieeffizienter Computer-Vision-Prozessor, eine äußerst sparsame und extrem kompakte Kamera mit Abmessungen von etwa 1,5 mm × 1,5 mm sowie ein energiesparender Chip für die drahtlose Kommunikation.
Für Entwickler ist eine Middleware geplant zur einfachen Programmierung von Apps für EoT-Geräte sowie eine Bibliothek optimierter Basis-Computer-Vision-Algorithmen. Und für den Anwender wird die Middleware Konfigurations- und Verwaltungsfunktionen für sein EoT-Gerät bieten – PC oder Smartphone oder Tablet. Darüber hinaus soll es möglich sein, neue Computer-Vision-Anwendungen aus einem EoT-App-Store drahtlos auf das EoT-Gerät zu laden.

Welchen Part an den Arbeiten übernimmt das DFKI?

Das DFKI erarbeitet die Middleware-Komponenten für das EoT-Gerät sowie das Smartphone und übernimmt die Optimierung einiger Basis-Computer-Vision-Algorithmen für die EoT-Plattform. Später wollen wir diejenigen Partner unterstützen, die Beispielanwendungen auf Basis der Plattform entwickeln.

Gibt es schon erste vorzeigbare Ergebnisse?

Das Projekt befindet sich noch in einer frühen Phase. Momentan werden die Hardwarekomponenten optimiert und die zum Betrieb nötige Middleware entwickelt. Mit einem ersten Prototyp rechnen wir Mitte nächsten Jahres.

Wie sieht die Roadmap aus?

Das Projekt wurde im Januar mit einer Laufzeit von drei Jahren gestartet. In den ersten 18 Monaten werden die Grundlagen im Bereich Hard- und Software geschaffen: In Sachen Hardware liegt der Fokus auf der Weiterentwicklung eines für Computer-Vision-Aufgaben optimierten, energieeffizienten Prozessors sowie einer Nanokamera. Diese und weitere energiesparende Komponenten werden danach auf einem kompakten Board von maximal 30 mm × 15 mm integriert und bilden die EoT-Hardwareplattform. Im gleichen Zeitraum soll auch die Softwarebasis entstehen: Dies umfasst die Entwicklung der Middleware sowie die Optimierung von Basis-Computer-Vision-Algorithmen auf die Hardwareplattform. In der zweiten Projekthälfte werden dann vier Beispielanwendungen entwickelt, die die Tauglichkeit der Plattform für den Praxiseinsatz demonstrieren. Beispielsweise ist eine Audio-Tour für Museen geplant, bei der das EoT-Gerät erkennt, was der Nutzer betrachtet, um dann automatisch die passenden Informationen zum jeweiligen Ausstellungsgegenstand wiederzugeben.