Sie sind hier: HomeSteuerungsebeneSafety & Security

Mensch-Roboter-Kooperation: Neue Ansätze zur Kollisions-Vermeidung

Die gemeinsame Nutzung des Arbeitsraums durch Menschen und Roboter ist ein wichtiger Schritt auf dem Weg zur zukünftigen industriellen Produktion. Damit eine effiziente Zusammenarbeit funktioniert, sind intuitive und sichere Interaktions- und Steuerungsmöglichkeiten erforderlich.

Mensch-Roboter-Kooperation Bildquelle: © Manfred Zentsch / Fraunhofer IOSB

Nach wie vor sind in heutigen Produktionsstätten die Arbeitsräume von Menschen und Robotern in aller Regel durch Zäune, Lichtschranken oder ähnliche Sicherheitstechniken voneinander abgeschottet. Sobald diese strikte Trennung aufgehoben wird und Menschen sich den Arbeitsraum mit ortsfesten Manipulatoren oder mobilen Robotern teilen, kommt es zwangsläufig zu Interaktionen. Dabei kann es sich sowohl um unbeabsichtigte Interaktionen handeln – etwa wenn sich die Wege von Menschen und mobilen Robotern zufällig kreuzen – als auch um gewollte physische Interaktionen wie die Übergabe von Teilen oder Werkzeugen. Was letzteres betrifft, geht es angesichts der immer höheren Produktvariabilität und kürzeren Produktlebenszyklen künftig primär darum, Routine-Aufgaben, die Roboter effizient bewältigen können, mit anspruchsvollen beziehungsweise spezifischen Aufgaben zu verzahnen, für deren Bearbeitung der Mensch besser geeignet ist.

Entscheidend für den Erfolg derartiger Konzepte ist, dass sich der Roboter im gemeinsamen Arbeitsraum stets sicher verhält. Am Fraunhofer-Institut für Op­tronik, Systemtechnik und Bildauswertung IOSB wurde hierfür ein entsprechendes Verfahren basierend auf einer Umgebungserfassung entwickelt. Personen und Objekte im Arbeitsraum werden dabei von Sensoren wahrgenommen, so dass sich ein dreidimensionales Modell der Roboterumgebung erstellen lässt. Damit ist der Abstand des Roboters zum nächsten Hindernis berechenbar, und der Roboter kann rechtzeitig verlangsamen und anhalten, bevor es zu einer Kollision mit Personen oder anderen Hindernissen im Arbeitsraum kommt.

Zur Gewinnung der 3D-Information sind verschiedene Sensorprinzipien einsetzbar: Lichtlaufzeitprinzip (Laserscanner/LIDAR, PMD-Kameras), Triangulationsprinzip (Musterprojektion, ‚Kinect‘-Sensor) oder Kameras nach dem Stereoprinzip. Die Sensoren können fest im Arbeitsraum installiert oder am Roboter montiert sein. Die zweite Variante ist insbesondere für mobile Plattformen und mobile Manipulatoren sinnvoll, weil sich dadurch ihr potenziell sehr großer Arbeitsraum mit einer vertretbaren Anzahl von Sensoren abdecken lässt.

Umgebungsmodell des Roboters mit statischen und dynamischen Hindernissen Bildquelle: © Manfred Zentsch / Fraunhofer IOSB

Bild 1: Umgebungsmodell des Roboters mit statischen Hindernissen (grau) und dynamischen Hindernissen (Höhe farbcodiert). Zu sehen ist eine Person, die physisch mit dem Roboterarm interagiert.

Aufgrund begrenzter Sensorgesichtsfelder und möglicher Verdeckungen sind üblicherweise mehrere Sensoren erforderlich, um den Arbeitsraum ausreichend überwachen zu können. Dies führte letztlich zur Entwicklung eines Verfahrens, mit dem sich 3D-Informa­tion aus unterschiedlichen Sensoren fusionieren lässt. Mit anderen Worten: Es vereint die Daten der einzelnen Sensoren zu einem 3D-Modell der lokalen Roboterumgebung (Bild 1). Zusätzlich werden dabei verdeckte Bereiche, die von den Sensoren nicht eingesehen werden können, weil sie hinter einem Objekt liegen (Bild 2 oben), explizit betrachtet und bei der Berechnung des aktuellen Abstands zwischen Roboter und Hindernissen berücksichtigt. Verdeckungen sind insbesondere dann kritisch, wenn sich das Hindernis zwischen Sensor und Roboter befindet, denn in diesem Fall wird nur die dem Sensor zugewandte Objektoberfläche erfasst, während die näher beim Roboter befindlichen Objektteile vom Sensor nicht wahrgenommen werden. Ohne Berücksichtigung von Verdeckungen würde es also zu einer Unterschätzung des Hindernis-Abstandes kommen, was es aus Sicherheitsgründen zu verhindern gilt. Durch die Fusion von Sensoren mit überlappenden Gesichtsfeldern lässt sich das Ausmaß der Verdeckungen reduzieren (Bild 2 unten).

Abdeckung des Arbeitsraums eines Roboters Bildquelle: © Manfred Zentsch / Fraunhofer IOSB

Bild 2: Durch die Fusion von Sensoren lässt sich die Abdeckung des Arbeitsraums vergrößern. Zudem reduziert sich bei überlappenden Gesichtsfeldern das Ausmaß der Verdeckungen.

Eine weitere Herausforderung ergibt sich, wenn neben den Hindernissen der Roboter selbst in den Sensordaten zu sehen ist. Vor der Abstandsberechnung ist dann zunächst zwischen Roboter- und Hindernispunkten zu unterscheiden. Dies erfolgt, indem ein 3D-Modell des Roboters in seinem aktuellen Zustand berechnet und der entsprechende Bereich aus den Sensordaten herausgefiltert wird, so dass nur noch die tatsächlichen Hindernispunkte übrigbleiben. Neben den aktuellen Gelenkwinkeln des Roboterarms sind dabei die Gegenstände zu berücksichtigen, mit denen der Roboter interagieren soll. Beispielsweise werden vom Roboter gegriffene Objekte dem Modell hinzugefügt, so dass sie während des Transports nicht als Hindernisse gelten.

Zusätzlich zur 3D-Erfassung der unmittelbaren Roboterumgebung wird im gesamten Arbeitsraum eine Erkennung und Prädiktion von bewegten Hindernissen durchgeführt. Die aktuelle Geschwindigkeit und Bewegungsrichtung von Personen, Fahrzeugen oder anderen Objekten werden aus dem Zeitverlauf ihrer Bewegung geschätzt. Daraus lassen sich Vorhersagen über die Objektpositionen in der nahen Zukunft ableiten. Die wahrscheinlich von Hindernissen belegten Bereiche werden mit der geplanten Bahn des Roboters verglichen. Falls eine Kollisionsgefahr besteht, kann der Roboter frühzeitig verlangsamen oder anhalten. Sobald das Hindernis die Bahn wieder verlassen hat, setzt der Roboter seine Fahrt fort.