Projektergebnisse
Aufbau eines Demonstrators
Im Projekt wird ein Demonstrator aus zwei Robotermodulen (Universal Robots UR5e) und einem Handarbeitsplatz aufgebaut, um die beantragten Forschungsthemen an realer Industriehardware zu testen und zu validieren. Als Steuerung wird in den Modulen eine ctrlX CORE eingesetzt, welche die Möglichkeit bietet, mit selbst entwickelten Applikationen erweitert zu werden. Ziel ist es, anhand ausgewählter Use-Cases aus den Bereichen der Onlinetrajektorienplanung, Roboter-Roboter-Kooperation und Mensch-Roboter-Kollaboration den Einsatz von Robotern in flexiblen Umgebungen zu zeigen.
Mensch-Roboter-Kollaboration
Zur intuitiven Kooperation zwischen Roboter und Mensch ist eine zuverlässige Erfassung der Bewegung eines menschlichen Körpers notwendig. Die Bewegungen werden mithilfe eines Kamerasystems sowie Beschleunigungssensorik registriert und durch Sensorfusion in ein gemeinsames Modell überführt. Durch die Prädiktion der menschlichen Bewegungen entsteht die Möglichkeit, dass ein Robotersystem dem Menschen rechtzeitig ausweichen kann sowie den Menschen bei seiner Arbeitsverrichtung unterstützen kann.
Veröffentlichung:
C. Cai, S. Liu, A Probabilistic Dynamic Movement Primitives Framework on Human Hand Motion Prediction for an Object Transfer Scenario, 2023. 22nd IFAC World Congress. LINK
Roboter-Roboter-Kooperation
Im Projekt wurde ein Ansatz zur Online-Bewegungsplanung von Robotermanipulatoren in Kooperation entwickelt. Der Algorithmus ermöglicht, dass Robotersysteme nicht mehr „starr“ programmiert werden, sondern eigenständig die Bewegungsplanung übernehmen und auf Veränderungen der Umgebung reagieren können. Anhand von zwei Szenarien wurde die entwickelte Methode im Projekt validiert und optimiert. Zunächst wurde ein Szenario entwickelt, in der ein Roboter eigenständig eine Pick&Place Aufgabe (Sortieren von unterschiedlichen Bauteilen) mithilfe eines Vision-Systems vollführt. Im zweiten Szenario kooperieren zwei Roboter in einem gemeinsamen Arbeitsbereich, indem sie gemeinsam ein Demontageprozess an mehreren Produkten durchführen. Die Roboter tauschen dabei jederzeit ihre aktuellen Zustände aus und können sich mithilfe der entwickelten Methode gegenseitig ausweichen.
Veröffentlichungen:
- N. Gafur, G. Kanagalingam, A. Wagner, M. Ruskowski, Dynamic Collision and Deadlock Avoidance for Multiple Robotic Manipulators, 2022. IEEE Access 10, 55766 - 55781. LINK
- N. Gafur, L. Weber, V. Yfantis, A. Wagner, M. Ruskowski, Dynamic path planning and reactive scheduling for a robotic manipulator using nonlinear model predictive control, 2022. 30th Mediterranean Conference on Control and Automation. LINK Experimental Results Video
Softwarearchitektur und Standardisierung von Schnittstellen
Neben der autonomen Bewegung von Robotern wurde im Projekt auch die flexible Erweiterung des Systems mit Software- und Hardwarekomponenten untersucht. Hierzu wurden Möglichkeiten für ein „Plug&Produce“-Prinzip sowie die individuelle Ansteuerung im Kontext von Industrie 4.0 betrachtet. Als Wahl eines geeigneten Kommunikationsprotokolls für die Modellierung einer semantisch definierten Schnittstelle wurde OPC UA eingesetzt. Bestehende Companion Specifications wurden analysiert, Lücken identifiziert und Schnittstellen, die alle Anforderungen an eine standardisierte Schnittstelle liefern, wurden mithilfe von OPC UA für die Module umgesetzt. Für den Bedarf der flexiblen Ansteuerung und Verknüpfung der Systeme wurde ein Capability-Skill-Modell erstellt. Das Modell wurde gemeinsam in einer Unterarbeitsgruppe der Plattform I4.0 konsolidiert. Die Erweiterbarkeit der eingesetzten Steuerungen wird durch einen „App“-basierten Ansatz ermöglicht. Somit ist die nachträgliche Erweiterung von Funktionalitäten gegeben.
Veröffentlichungen:
- Mitarbeit an einem konsolidierten Capability-, Skill-, Service-Modell. LINK
- Mitarbeit an einem VDMA-Whitepaper „Fähigkeiten in der Produktionsautomatisierung“. LINK
- Mitarbeit an einem Capability-Teilmodell für die VWS. LINK
- Mitarbeit an einem „Control Component (Skill)“-Teilmodell für die VWS. LINK