Iconics Germany: Herzlich willkommen, Alexa!

In den letzten Jahren fanden zahlreiche Sprachsteuerungssysteme wie etwa Alexa den Weg in die Wohnzimmer. Geht es nach Iconics, steht dieser Schritt nun auch für die Produktionshallen an.

André Lange auf der SPS IPC Drives Bildquelle: © Computer&AUTOMATION

André Lange, Iconics, demonstriert die Vorteile der Sprachsteuerung und von Augmented Reality für industrielle Anwendungen.

Die Spracherkennungsfunktion der ‘HoloLens’ von Microsoft bietet zwar seit einiger Zeit Maschinen die Fähigkeit, Aktionen basierend auf Sprachbefehlen zu erkennen und auszuführen. Jedoch können nur zuvor konfigurierte Sprachbefehle ausgeführt werden, wie etwa „vorwärts“, „rückwärts“, „zwei“, „drei“, „aufwärts“, „abwärts“ oder „Ende“. Andere Spracherkennungssysteme, wie ‚Alexa‘ von Amazon, ‚Siri‘ von Apple oder ‚Cortana‘ von Microsoft haben in den letzten Jahren eine rasante Entwicklung im Verbrauchersektor erlebt. Der entscheidende Vorteil: Die enthaltene KI kann Umgangssprache und Dialekte erkennen sowie mit lauten Umgebungen umgehen und zudem ganze Sätze interpretieren.

Warum finden solche Systeme nicht auch in der Automatisierungsumgebung Verwendung? Eine Frage, die sich auch Iconics gestellt hat – und jetzt zur SPS IPC Drives 2018 die Alexa-Integration in einen Mitsubishi-Roboter vorstellt. Eine spezielle, sogenannte ‚Skill‘ verbindet dabei die Iconics-Software mit der Robotersteuerung, wodurch Sprachbefehle sofort erkannt und ausgeführt werden. Die neue sprachbasierte Integration kann etwa bei der Inbetriebnahme, im Betrieb sowie im Unterricht mit Robotern eingesetzt hilfreich sein. Es handelt sich dabei um eine allgemeine Voice-Commanding-Integration, die nicht nur Alexa, sondern auch andere Voice-Systeme, wie Siri, Cortana oder Google, unterstützt.

Doch das bleibt nicht das einzige Einsatzgebiet: „Darüber hinaus können die Funktionen von Alexa für andere Automatisierungsaufgaben genutzt werden“, wie André Lange, Managing Director Central Europe bei Iconics, weiter ausführt und konkrete Beispiele nennt: „Alexa, geben Sie mir die zehn wichtigsten Alarme der letzten Schicht.“ In diesem Beispiel könnte den Anwender im Kontrollraum die aktuellen, zeitlich gefilterten Alarmmeldungen bis zur letzten Schicht angezeigt werden. Die manuelle Konfiguration der Alarmanzeigefilter kann so praktisch entfallen. Und auch für direkte Befehle nannte Lange ein Beispiel: „Alexa, schicke Alarm 4711 per E-Mail an Hans Muster und öffne einen Arbeitsauftrag“.
Des Weiteren kann Alexa in Abstimmung mit der Automatisierungssoftware von Iconics proaktiv Fehlermeldungen mit einer besonderen Priorität direkt als Sprachausgabe melden und ausgeben. Alexa meldet dann beispielsweise über einen Lautsprecher: „Wir haben ein Problem mit dem Füllstand im Tank 3, der Füllstand hat den Vor-Alarmpegel von 2000 Litern überschritten“. Und auch ein aktiver Eingriff in überwachte Prozesse sei möglich.

Frühes Stadium

Zusammenfassend stellt Lange klar: „Die Integration von Sprach- und Prozesssteuerung befindet sich noch in einem frühen Stadium, und es müssen mehr Erfahrungen in verschiedenen Umgebungen gesammelt werden. Eine Anwendung im Stahlwerk ist sicher etwas anderes als die eines Reinraums eines Bio-Labors. Es gibt auch Fragen in den Bereichen Sicherheit und Zugang.“ Doch im Wesentlichen seien durch die Integration von Sprachbefehlen und Prozesssteuerung weitere Produktivitätssteigerungen zu erzielen. Die einst nur menschlichen Fähigkeiten des Sprechens und Hörens werden nun für die Maschineninteraktivität genutzt.
Der auf der Messe vorgestellte Anwendungsfall zeigt einen Mitsubishi-Roboter, der auf Alexa-Kommandos reagiert. Hier werden drei Biersorten zur Auswahl gestellt und das bestellte Bier gereicht. Alexa beantwortet aber auch Fragen nach dem Verbrauch, Füllstand, Alarme oder Ähnliches.