Verfahrensentwicklung für die robotergestützte Objektentnahme mittels multisensoraler 3D-Messtechnik (TakeIT)
Das Entwicklungsprojekt „TakeIT“ soll einen Beitrag zur Lösung eines zentralen Problems der Automatisierungstechnik leisten und konzeptionelle, strukturelle und technologische Voraussetzungen schaffen, die Roboter in die Lage versetzen, ungeordnet in einem Behälter liegende Objekte erkennen und greifen zu können. Um Roboter dazu zu befähigen, benötigen sie eine möglichst eindeutige, genaue und vollständige räumliche Beschreibung der zu greifenden Objekte. Trotz der weit fortgeschrittenen Messtechnik ist dieses Problem bis heute nicht zufriedenstellend gelöst. Ein wesentlicher Schritt zur Lösung dieser Problematik kann aber unter Nutzung neuerdings verfügbarer 3D-Messkameras erreicht werden. Insbesondere dann, wenn die von diesen Kameras erzeugten 3D-Punktwolken mit hochaufgelösten Bildern kombiniert werden und damit evtl. Defizite in Bezug auf Detailauflösung und geometrischer sowie optischer Charakterisierung kompensiert werden.
Motivation
In der Automatisierungstechnik spielen Roboter, die ungeordnet in einem Behälter liegende Objekte erkennen und greifen können, eine zentrale Rolle („bin picking“). Um Roboter dazu zu befähigen, benötigen sie eine möglichst eindeutige, genaue und vollständige räumliche Beschreibung der zu greifenden Objekte.
Trotz der weit fortgeschrittenen Messtechnik ist dies ein bis heute nicht zufriedenstellend gelöstes Problem, da die bislang eingesetzten Messverfahren nicht gleichzeitig die nötige Geschwindigkeit, Genauigkeit und Vollständigkeit in der Erfassung von 3D-Oberflächen besitzen. Neuerdings verfügbare 3D-Messkameras können mit ihrer hohen Messfrequenz zur Lösung dieser Problemstellung beitragen.
Um die Schwächen aktueller 3D-Kameras hinsichtlich ihres höheren Messrauschens, ihrer geringeren Auflösung und der mangelnden morphologischen Präzision an Kanten zu kompensieren, werden die 3D-Datensätze mit hochauflösenden Bildern einer simultan eingesetzten Industriekamera ergänzt.
Aktivitäten
Das Messsystem bestehend aus einer höher aufgelösten monochromen 2D-Kamera und einer mobilen 3D-Kamera setzt für die Ausschöpfung des Potenzials der Messsensoren und die Möglichkeit der konformen Nutzung eine gemeinsame Kalibrierung und Kenntnis der gegenseitigen Orientierung voraus. In einer sogenannten „Simultankalibrierung“ werden diesbezüglich für beide Systeme die Kameraparameter, sowie deren relative Orientierung über einen Ausgleichungsprozess mitbestimmt. Diese feste relative Beziehung zwischen beiden Sensoren ermöglicht die Korrespondenzwiederherstellung zwischen Bild und 3D Messungen.
Dies ermöglicht das Zusammenspiel beider Sensoren im Hinblick auf die robuste Generierung eines 3D-Gesamtmodells durch die Registrierung einzelner Aufnahmen. Aus dem Gesamtmodell wird in einem weiteren Verarbeitungsschritt die Position und Ausrichtung der einzelnen zu entnehmenden Objekte detektiert und an den Roboter übertragen. Die Ermittlung der Positionen erfolgt dabei über Segmentierungsalgorithmen angewendet auf den 3D-Datensatz, kombiniert mit Verfahren aus der Bildanalyse.
Resultate
Zur Fusion der aus mehreren Raumrichtungen gewonnenen 3D-Datensätze wurden verschiedene, auf unterschiedlichen Konzepten basierende, Methoden getestet. Auf Basis dieser Erkenntnisse erfolgte die Entwicklung und Implementierung von Softwarebausteinen. Mit diesen Bausteinen ist es im Gesamtsystem möglich, multisensorische und multiperspektivische 2D/3D-Datensätze in Echtzeit zu einem Gesamtdatensatz zu verschmelzen. Basierend auf diesem Datensatz erfolgt die Erkennung und robotergestützte Entnahme von Objekten.
Die Projektergebnisse kommen zunächst einmal primär den Projektpartnern Metronom Automation GmbH und Hirata Engineering Europe GmbH zugute. Beide Unternehmen haben ihre Tätigkeit in der Fabrikautomation und robotergestützten Fertigung bzw. Qualitätskontrolle. Perspektivisch gesehen wird TakeIT in deren zentralen Anwendungsfeldern zum Einsatz kommen können.