Sensoren liefern im industriellen Umfeld sowie im Alltag eine unüberschaubare Menge an Daten. Werden diese mittels Künstlicher Intelligenz fundiert ausgewertet, sind sie für viele Vision-Anwendungen nutzbar – und machen aus einfachen Kameras intelligente Sensoren.
Bei Vision-Systemen in Anwendungen zur Automatisierung von Workflows geht es stets um die Erkennung von Objekten oder Fehlern aufgrund äußerer Merkmale oder um das Monitoring bestimmter Szenarien. Optische Bildeinzugsgeräte wie hochauflösende Kameras und Sensoren generieren hierfür eine Vielzahl digitaler Bilddaten. Diese müssen mittels Software-Lösungen verarbeitet und ausgewertet werden, um nutzbare Informationen daraus zu gewinnen und für verschiedenste Vision-Anwendungen bereitzustellen. Um hohe Erkennungsraten zu erreichen, empfiehlt sich in vielen Fällen der Einsatz von Künstlicher Intelligenz (KI).
Während bei traditionellen Ansätzen die relevanten Eigenschaften des zu erkennenden Objekts auf Basis von Regelwerken definiert und beschrieben werden, arbeitet KI mit selbstlernenden Algorithmen. Diese werten im Rahmen eines Trainingsprozesses große Bilddatensätze umfassend aus und erkennen dabei bestimmte, wiederkehrende Muster. Die Software lernt automatisch spezifische Besonderheiten und Merkmale von relevanten Objektklassen, so dass auf diese Weise neue Bildinformationen und abgebildete Objekte exakt einer speziellen Klasse zugeordnet werden können. Dadurch lassen sich Gegenstände zuverlässig und mit hoher Genauigkeit identifizieren sowie präzise lokalisieren.
Die Vorteile solcher robusten, KI-basierten Erkennungsmechanismen kommen in Vision-Lösungen zum Tragen wie beispielsweise in ‚Smart Vision‘ von Cloudflight. Smart Vision bezeichnet eine Technologie, die mithilfe von KI wertvolle Informationen aus Bild- und Videodaten generiert. Dieser Prozess führt von der Erhebung der Bild- und Videodaten mit Bildeinzugsgeräten durch eine Pipeline verschiedener KI-Module zur Datenverarbeitung und Informationsgewinnung bis zu den Umsystemen, in denen diese Informationen zur Anwendung kommen. Dieser End-to-End-Ansatz integriert die gesamte Prozesskette und verhindert dadurch Reibungsverluste sowie Medienbrüche.
Am Beginn der Pipeline zur Datenverarbeitung steht ein Kamera-Connector, der die Daten in 2D oder 3D von den Bildeinzugsgeräten entgegennimmt. Anschließend gelangen die Daten an KI-Module, die je nach Anwendungsfall flexibel miteinander kombiniert werden können. Ein Beispiel für eine solche KI-Komponente ist das Modul zur Objekterkennung: Es ermöglicht, mittels KI alle Objekte vordefinierter Typen in einem Bild zu erkennen und mit einer Bounding Box zu begrenzen. In der Maschinenproduktion lassen sich beispielsweise bestimmte Fertigungsfehler wie Lackierfehler oder Kratzer als zu erkennende Objekte definieren und einlernen. So kann das Modul Informationen dazu liefern, ob ein Maschinenteil einen Mangel aufweist, wo genau der Mangel besteht und welche Art von Fehler vorliegt. Damit eignet sich dieser Baustein insbesondere zur Qualitätskontrolle in der Fertigung.
Im Hintergrund der angewandten KI-Module kümmert sich ein übergeordnetes System um das Durchschleusen der Daten durch die einzelnen Komponenten und überprüft die Ergebnisse. Nachdem die Datenverarbeitung abgeschlossen ist, gibt ein Cloud-Connector die gewonnen Informationen an weitere Glieder der vernetzten Industrie-4.0-Prozesskette weiter, zum Beispiel an die Warenwirtschaft oder die Produktionsplanung.
Lernende Algorithmen bilden die technische Basis für KI-Module. Welcher konkrete Algorithmus jeweils zum Einsatz kommt, hängt einerseits von der Art und Komplexität der Aufgabenstellung ab, und andererseits müssen Laufzeiteigenschaften wie Energieaufwand und Zielhardware berücksichtigt werden. In der modernen Computer Vision werden häufig neuronale Netze genutzt, die mithilfe von passendem visuellen Input in iterativen Trainingsprozessen so weiterentwickelt werden, dass sie automatisiert Informationen aus neuem Bildmaterial generieren können. In der Objekterkennung gehören die Verfahren YOLO (‚You only look once‘) oder R-CNN (‚Region based convolutional neural networks‘) zu den bekanntesten Optionen für den Aufbau neuronaler Netzwerke.
Bei Smart Vision verwandeln sich optische Bildeinzugs- geräte also zu smarten Sensoren. Mit ihrer Hilfe lassen sich datengesteuerte, intelligente Dienste implementieren und Prozesse hochgradig automatisieren – beispielsweise die Qualitätskontrolle in der industriellen Fertigung. Abgesehen von der beschriebenen Objekterkennung können die optischen Sensoren noch eine Vielzahl anderer KI-gestützter Vision-Aufgaben erfüllen, etwa die Identifikation von Personen, die exakte Lagebestimmung und das sichere Handling von Werkstücken, die präzise Vermessung von Gegenständen sowie die Beobachtung und Bewertung von Szenarien.
Für die Implementierung eines Smart-Vision-Ansatzes im Unternehmen bietet Cloudflight ein ganzheitliches Service-Portfolio aus einer Hand. Dies beginnt mit einer Beratung hinsichtlich möglicher Strategien und der technischen Umsetzung, um ein tragfähiges digitales Geschäftsmodell zu entwickeln. Durch eine fundierte Datenanalyse und entsprechende KI-Module auf Basis vortrainierter Modelle lassen sich Proof-of-Concept-Prozesse maßgeblich beschleunigen. Die hauseigene Machine-Learning-Plattform ‚ModelCloud‘ sorgt für ein schnelles Training und iteratives Benchmarking der eingesetzten KI-Modelle nach dem Prinzip: Trainieren – Testen – Wiederholen.
Darüber hinaus erfolgt im Rahmen eines Software-Engineering-Workflows die tiefgehende Systemintegration sowie das bedarfsgerechte UI/UX-Design der Anwendung – beispielsweise mittels transparenter Dashboards und Statistiken. Auch die passende Sensor-Technologie sowie deren Installation ist Teil des Gesamtpakets. Dabei liefern Systempartner verschiedene Hardware-Lösungen, zum Beispiel Bildeinzugsgeräte wie LiDAR-Geräte, Time-of-Flight- oder hochauflösende RGB-Kameras. Abgerundet wird das Service-Portfolio durch den Software- und Hardware-seitigen Betrieb der gesamten Systemlandschaft.
Doch in welchen Branchen und Anwendungsfällen ist die Implementierung von Smart Vision überhaupt sinnvoll?
Aufgrund der generischen Konzeption der Lösung sind neben der Qualitätssicherung in der industriellen Fertigung viele weitere Szenarien denkbar: Dazu zählen beispielsweise Smart-City-Lösungen, die in Großstädten den Individual- sowie öffentlichen Nahverkehr steuern und kanalisieren. Die Software-Algorithmen sind zum Beispiel in der Lage, Fahrzeuge präzise zu erkennen, zu zählen und sie in spezifische Klassen wie beispielsweise Pkw, Lkw unterschiedlichen Typs, Motorräder oder Fahrräder einzuteilen. Auch Personen, die sich auf öffentlichen Plätzen wie etwa U-Bahnhöfen bewegen, lassen sich zielsicher detektieren. Ebenso lässt sich das gesamte Parkplatz-Management durch die Erkennung von Nummernschildern sowie die Nachverfolgung von Parkdauer und Position der Fahrzeuge steuern und optimieren. Die Lösung kann zudem Bewegungen von Verkehrsobjekten identifizieren und protokollieren. Werden bestimmte, benutzerdefinierte Unregelmäßigkeiten wie etwa die Nicht-Einhaltung des Mindestabstands festgestellt, kann das System Warnungen ausgeben und sogar entsprechende Aktionen auslösen. Im Ergebnis entsteht eine 360°-Sicht auf die Nahverkehrsinfrastruktur.
Auch in Sicherheitslösungen bietet das Vision-System diverse Möglichkeiten, wie zum Beispiel die Identifikation von Menschen anhand ihres Gesichts im Rahmen von 2-Faktor-Zugangssystemen. Ebenso lassen sich Personen und Objekte in Sicherheitsschleusen erfassen und zählen. Öffentliche Bauwerke und Einrichtungen wie Regierungsgebäude, Militäranlagen, Häfen oder Flughäfen lassen sich durch ein Monitoring per Vision-System sichern; dies gilt ebenso für die Überwachung von bestimmten Zonen wie Parkplätzen, Bergbau- und Bohrgebieten, Solarparks oder Industrieanlagen. Last but not least kann die Technologie auch eingesetzt werden, um Notfälle in öffentlichen Räumen zu erkennen.
Ein weiterer klassischer Anwendungsfall von Smart Vision ist die Optimierung und Automatisierung vernetzter Produktionsprozesse im Sinne von Industrie 4.0. So ist das System beispielsweise in der Lage, Produkte im Fertigungskreislauf aufgrund optischer Merkmale, Data-Codes oder aufgedrucktem Text verlässlich zu erkennen. Ebenso lässt sich die Interaktion zwischen kollaborativen Robotern (Cobots) und ihren menschlichen Kollegen effizienter gestalten: Bewegen sich Maschinen eigenständig in Produktionshallen, beobachtet die Vision-Technologie das Geschehen und analysiert die Bewegungsrichtung. Dies vermeidet gefährliche Kollisionen, sorgt für flüssigere Fertigungsabläufe, reduziert teure Unterbrechungszeiten und erhöht die Sicherheit für Mensch und Maschine.
Darüber hinaus eignet sich das Vision-System für Transport- und Logistiklösungen: Beispielsweise lassen sich Gepäckstücke anhand eines visuellen Fingerabdrucks entlang der gesamten Transportstrecke identifizieren und nachverfolgen, was QR-Codes überflüssig macht. Produkte auf Förderbändern können eigenständig erkannt, vermessen und sortiert werden. Durch eine automatisierte Volumen- und Füllstandsmessung lässt sich der verfügbare Platz in Lagern, Lastwagen und Containern optimieren, was eine vorausschauende Planung ermöglicht und Verwaltungs- und Betriebskosten erheblich senken kann. Zudem ist die Vision-Lösung in der Lage, beim Einsatz autonomer Fahrzeuge die Umgebung verlässlich zu erkennen und dadurch den Betrieb sicherer zu gestalten.