Videos und andere Projektinhalte
On-line Neuplanung von Bewegungen
Dieses Video zeigt den Roboter HoLLiE, der mit seiner RGBD-Kamera seine Umwelt erfasst, und diese auf Kollision mit seinem geplanten Bewegungsablauf prüft.
Bei Erscheinen eines neuen Hindernisses wird instantan eine neue Bewegungsbahn geplant, so dass der Roboter nicht mit seinem Ellenbogen das Hindernis umstößt.
Alle Kollisions-Berechnungen laufen auf einer CUDA Titan GPU.
Weitere Details finden Sie unter www.gpu-voxels.org
GPU-basierte Voxel-Kollisionserkennung
Das FZI verfolgt im Projekt ISABEL die Entwicklung einer Voxel-Repräsentation, welche optimal für die parallelisierte Verarbeitung auf einer GPU geeignet ist. Hierbei werden sowohl live Umwelt-Daten von 3D-Kameras als auch die Modelle des Roboters in diese Datentruktur überführt und dann auf Kollision geprüft. Die Ergebnisse erlauben eine sehr schnelle Bewegunsplanung.

Voxel-Darstellung einer Büro-Umgebung

Bewegungsplanung innerhalb einer Sensorpunktwolke (grün). Der Roboter bewegt sich innerhalb eines geplanten Schlauches (rot), welcher permanent auf das Eindringen von neuen Hindernissen untersucht wird.

Bewegungsplanung der industriellen omniRob Plattform in der Simulation. Diese Plattform wird im Anwendungsszenario bei infineon eingesetzt werden.
Lichtfeldkamera

Die Lichtfeldkamera bietet bei kompakten Maßen für die mobile Anwendung eine großen synthetische Blende für einen ausgeprägten Effekt der Schärfentiefe. Um einen großen Überlappungsbereich für die Kameras zu erzielen sind diese auf einen gemeinsamen Punkt im Arbeitsabstand von 1 m ausgerichtet.

Die Lichtfeldkamera besteht aus einem Kamera-Array mit 16 Monochrom-Kameras, die in zwei Ringen angeordnet sind. Drüberhinaus verfügt der Kamerakopf über eine Farbkamera in der Mitte der Kameraanordnung sowie eine LED-Zusatzbleuchtung. Die tragende Struktur des Gehäuses ist aus Aluminium gefertigt, während die Schale des Kamerakopfes im Fused Deposition Modelling-Verfahren aus Kunststoff hergestellt wurde.

Im Rahmen des Projekts ISABEL werden auch bestehende Technologien der Partner eingesetzt. Hier gezeigt ist die exemplarische Anbindung einer Lösung für die kamerabasierte Selbstlokalisierung der mobilen Roboterplattform. Die geschaffenen Schnittstellen erlauben eine schnelle Einbindung weiterer Schlüsseltechnologien.

Die Objekterkennung unter Verwendung der Lichtfeldkamera setzt das Vorliegen entsprechender Umgebungsmodelle voraus. Für die Verifikation der Modelle und die Erfassung von Lichtfelddaten realer Objekte kommt ein Versuchsaufbau zum Einsatz, der es erlaubt systematisch Aufnahmen von Objekten unter definierter Beleuchtung anzufertigen. Die Ausrichtung des Objekts zur Kamera, sowie Richtung und Intensität des Lichts könnten für jede Aufnahme frei gewählt werden.