Kurzentschlossene aufgepasst!

Konferenz Internet of Thing – 20 % Rabatt

29. September 2022, 9:08 Uhr | Iris Stroh, Cluster Electronics
Sprecher der Konferenz »Internet of Things - Vom Sensor bis zur Cloud«
© WEKA Fachmedien

Am 11. Oktober 2022 findet die Konferenz »Internet of Things – Vom Sensor bis zur Cloud« in München statt. Welche Themen und Referenten Sie erwarten, zeigt der Überblick. Buchen Sie jetzt Ihre Teilnahme und sichern Sie sich 20% Rabatt mit dem Rabattcode IOT22NLELNET.

Das gesamte Programm und die Anmeldung finden Sie auf der Event-Webseite der Konferenz Internet of Things – Vom Sensor bis zur Cloud.

Anbieter zum Thema

zu Matchmaker+

Eröffnungs-Keynote: Industrial Metaverse – KI unterstützte Instandhaltung mit Hilfe von Spot Robotern

Max Morwind
Max Morwind von Microsoft
© WEKA Fachmedien/Microsoft
Marek Matuszewski
Marek Matuszewski/Roboverse Reply
© WEKA Fachmedien/Roboverse Reply

Die beiden Sprecher geben in ihrem Vortrag einen Überblick über aktuelle Smart-Product- und Smart-Factory-Anwendungsfälle, die mit der Microsoft-Azure-IoT-Edge-to-Cloud-Technologie umgesetzt wurden. Zusätzlich wird ein konkretes Kundenbeispiel für die Optimierung der Instandhaltung vorgestellt, bei dem mit Hilfe künstlicher Intelligenz und des Spot-Roboters signifikante Einsparungen erreicht wurden.

11. Oktober 9:15 bis 10:00

Die verschiedenen Sessions

Nach der Eröffnungs-Keynote finden zeitlich parallel verschiedene Sessions statt: Am Vormittag Session 1 (Künstliche Intelligenz im IoT) und Session 2 (Digitaler Zwilling und Retrofit), am Nachmittag Session 3 (Security und Open Source) und Session 4 (Best Practices). Den Abschluss der Konferenz bildet eine gemeinsame Abschluss-Keynote mit dem Titel »KI, Ethik und Recht«.

Session 1: Framework für den Daten- und KI-Lebenszyklus

Hoai My Van
Hoai My Van/Fraunhofer IKS
© WEKA Fachmedien/Fraunhofer IKS

In der Industrie 4.0 werden durch intelligente Vernetzung von Maschinen und Abläufen immer mehr Daten generiert. Aus diesen Daten kann – mithilfe von Künstlicher Intelligenz (KI) – Wissen generiert werden, um Produktion und Services zu verbessern. Jedoch existieren Herausforderungen, die die Analyse mithilfe von KI erschweren: Heterogenität der Produktionssysteme, hoher Koordinationsaufwand für einen Data Scientist, sowie fehlende Flexibilität für den KI-Betrieb.

Um diese Herausforderungen zu bewältigen, entwickelt das Fraunhofer IKS im Rahmen des REMORA Forschungsprojekt ein Framework für den Daten- und KI-Lebenszyklus. Ziel ist es, die Entwicklung von KI zu unterstützen, die Integration von KI (von der Komponentenebene bis hin zur Cloud) zu flexibilisieren, und den automatisierten, kontinuierlichen Betrieb von KI zu ermöglichen.

Anhand eines Beispiels – Prädiktive Wartung an einer Produktionslinie – soll das Framework und seine Nutzung veranschaulicht werden: von der Datensammlung aus Maschinen und Sensoren, über KI-Training in der Cloud, bis hin zum kontinuierlichen Echtzeitanalyse.

11. Oktober 10:0 bis 10:30

Session 1: Aktuelle KI-Architekturen zur robusten automatischen Erkennung und Transkription von Sprache

Marin Burger
Marin Burger/DNDY, Data and Design
© WEKA Fachmedien/DNDY, Data and Design

ASR–Systeme (Automated Speech Recognition) stellen neben herkömmlichen Interfaces (u.a. Screens, Keyboards, Touchpads) eine weitere Schnittstelle zwischen Mensch und Computer dar. Besonders nützlich sind ASR-Systeme vor allem, weil sie eine Kommunikation ohne direkte physische Interaktion mit einem IT-System ermöglichen. Die wissenschaftliche Community und Expert*innen sind sich einig, dass der Einsatz von ASR-Systemen weiter zunehmen wird. Zur Erstellung eines ASR-Systems müssen technisch komplexe Herausforderungen gelöst werden. Ein Sprach-Audiosignal ist aus unterschiedlichen Gründen für Computer sehr schwer zu interpretieren. So vermengt sich beispielsweise das Sprachsignal mit anderen Geräuschen oder ist von Person zu Person, selbst wenn diese dieselbe Sprache sprechen, mehr oder weniger unterschiedlich. Erste praktisch einsetzbare ASR-Systeme als Marktlösungen bedienen sich einer Systemarchitektur, die auf wahrscheinlichkeitstheoretischen Ansätzen (bspw. Gausian Mixture Model) und einfachen Sprachmodellen basieren. Diese Systemarchitekturen waren in der Vergangenheit und sind auch heute weiterhin im Einsatz. Ein wichtiger Entwicklungssprung hinsichtlich der Leistungsfähigkeit dieser Modelle wurde durch den Einsatz von Deep-Learning-Netzwerken, oft in Kombination mit einer Erhöhung der Trainingsdatenmenge, erreicht. Durch den Einsatz von Deep-Learning-Methoden im Bereich der automatisierten Spracherkennung ergeben sich, bedingt durch die fast schon jährlichen Forschungsdurchbrüche im Bereich des Deep Learnings, ständig neue AI-Architekturmöglichkeiten. Zu den technischen Aspekten kommt hinzu, dass mehr und mehr private Unternehmen in diesen Forschungsbereich einsteigen. Die Gründe dafür sind, dass auch diese den hohen Wert einer zusätzlichen Mensch-Maschinen-Schnittstelle erkannt haben. Beispielsweise haben Google, Microsoft, Amazon und Facebook AI mittlerweile zahlreiche Forschungsarbeiten zu diesem Thema finanziert und veröffentlicht. Aus diesen technischen und wirtschaftlichen Gründen gibt es heute eine Vielzahl an unterschiedlichen ASR-Architekturen. Eine wissenschaftliche Recherche der DNDY. Data and Design GmbH hat Ende 2021 über 100 relevante wissenschaftliche Arbeiten zu diesem Thema identifiziert und analysiert. Zur Kategorisierung und Vorauswahl der recherchierten Modelle wurde eine Abstufung anhand der Leistungsfähigkeit der einzelnen Architekturen getroffen. Dieser konnte anhand öffentlich zugänglicher ASR-Datensätze durchgeführt werden, die von der Forschungs-Community als Test-Datensätze zur Verfügung gestellt werden.

Unser Vortrag möchte die folgenden Fragestellungen beantworten:
•  Sind Deep-Learning-Technologien für die robuste automatisierte Spracherkennung endgültig der Standard?
•  Welche Deep-Learning-Methoden sind in welchen Abschnitten des Spracherkennungsprozesses besonders vielversprechend?
•  Welche Einflüsse haben andere Deep-Learning-Forschungsfelder auf die ASR-Forschung?

11. Oktober 10:30 bis 11:00

Session 1: Objekterkennung on Edge

Nicolai Minter
Nicolai Minter/Accso - Accelerated Solutions
© WEKA Fachmedien/Accso - Accelerated Solutions
Dominik Lotz
Dominik Lotz/Accso - Accelerated Solutions
© WEKA Fachmedien/Accso - Accelerated Solutions

Als Objekterkennung wird das Erkennen von einem oder mehreren Objekten in Sensordaten bezeichnet. Hier gibt es viele Anwendungsfelder, sei es das Lokalisieren von weiteren Verkehrsteilnehmern beim autonomen Fahren oder das Erkennen von Produkten in industriellen Fertigungsprozessen. Durch diese unterschiedlichen Anwendungsbereiche ergeben sich, basierend auf ihrer Anwendungsumgebung, Systeme mit mehr oder weniger Rechenleistung und Speicherkapazität.

Bei Bild- oder Videodaten ist es das Ziel, das Objekt z.B. durch eine Bounding Box zu lokalisieren und einer Klasse zuzuordnen. Besonders in diesem AnwendungsbereichE gibt es bereits sehr gute Deep Learning Ansätze, die Objekte mit hoher Genauigkeit erkennen. Sie basieren meist auf komplexen Convolutional Neural Network (CNN) Architekturen, die über viele Layer immer komplexere Bildeigenschaften erkennen. So werden beispielsweise anfangs Farben und Kanten erkannt, welche in späteren Layern größere Formen bilden. Ihre hohe Komplexität erfordert allerdings auch, dass entsprechend viele Trainingsdaten und Rechenleistung zur Verfügung stehen.

Ziel dieses Vortrags ist es aufzuzeigen, wie sich Objekterkennung auch mit wenig Daten und Hardwareressourcen, also on Edge, umsetzen lässt. Dazu haben wir Python und den NVIDIA Technologiestack genutzt, um performante Objekterkennungsmodelle via Transferlearning für verschiedene Anwendungsszenarien anzupassen und über Pruning so lange Parameter zu entfernen, bis die Architektur auf einem Nvidia Jetson Nano einsetzbar ist. Auf diese Weise lässt sich mit begrenzter Hardware eine Echtzeit-Objekterkennung in Videostreams umsetzen. Zur besseren Einordnung haben wir dieselbe Objekterkennung auf einem weiteren Technologiestack von Luxonis und Intel implementiert.

11. Oktober 11:30 bis 12:00

Session 1: Edge-KI für die Automation: Mit smarter Hardware zu smarten Daten

Dr. Uwe Hatnik
Dr. Uwe Hatnik/Fraunhofer IIS/EAS
© AdobeStock

Leistungsfähige neuronale Netze kommen mittlerweile in vielen Gebieten zum Einsatz und können perspektivisch auch das industrielle Umfeld erobern. Auf Grundlage „smart“ erfasster und verarbeiteter Daten kommen Einsatzgebiete wie Condition-Monitoring oder Predictive Maintenance in Betracht. Nötig wird dafür die Datenerfassung und -analyse von Komponenten bis hin zu ganzen Anlagen mit dem Ziel, die richtigen Daten an der richtigen Stelle effizient bereitzustellen.

Heute erfassen Sensoren Daten, die meist noch an einen leistungsfähigen Server übertragen und dort zentral ausgewertet werden. Mit der wachsenden Anzahl von Sensoren wird das Datenaufkommen jedoch immer größer und die Datenübertragung und -analyse immer zeit- und energieaufwendiger.

Ein Ausweg ist der Einsatz von smarten Lösungen nah am Sensor. Kontinuierliche Messdaten lassen sich so bereits frühzeitig vorverarbeiten und lediglich relevante Ergebnisse oder bestimmte Zustände müssen an den zentralen Server weitergeleitet werden.

11. Oktober 12:00 bis 12:30

Session 1: Multikriterielles AutoML für TinyML unter Berücksichtigung des Energiebedarfs

Philipp Woller
Philipp Woller/Fraunhofer-Institut für Integrierte Schaltungen IIS
© WEKA Fachmedien/Fraunhofer-Institut für IIS

Hintergrund – Die gute Verfügbarkeit von Methoden aus dem Bereich der künstlichen Intelligenz (KI) und zahlreich erhältliche eingebettete Sensorsysteme bilden die Voraussetzung für eine Vielzahl neuer, intelligenter “IoT”-Anwendungen in sehr kurzer Zeit. In der Realität führt jedoch die geringe Überschneidung der Kompetenzen von Entwicklern eingebetteter Systeme (HW) und Data-Scientists (SW) häufig zu langen Entwicklungszyklen. Der HW Entwickler kann die HW-Anforderungen von datenbasierten Projekten nur schwer abschätzen, während der SW-Entwickler teils nicht in der Lage ist, die Einhaltung der Randbedingungen für eingebettet Systeme wie Speicher- oder Energiebedarf zu gewährleisten.

Ziel - Um diese beiden Welten zusammenzubringen entwickelt das Fraunhofer IIS verschiedene AutoML-Verfahren, die sowohl die Energieaufnahme auf dem Zielsystem, als auch die Performanz der KI-Pipeline als Optimierungsziele berücksichtigt.

11. Oktober 12:30 bis 13:00


  1. Konferenz Internet of Thing – 20 % Rabatt
  2. Session 2: Digitaler Zwilling und Retrofit
  3. Session 3: Security und Open Source
  4. Session 4: Best Practice

Verwandte Artikel

WEKA FACHMEDIEN GmbH