Sie verwenden einen veralteten Browser und können nicht alle Funktionen dieser Webseite nutzen. Hier erfahren Sie, wie Sie Ihren Browser aktualisieren können.

OK
Karriere | Investoren

Roboter mit dreidimensionaler Wahrnehmung – wie die dritte Dimension Einzug in die Bildverarbeitung hält

Roboter, die schnell, zielgenau und scheinbar mühelos Waren greifen und platzieren – lange Zeit war das schwierig und nur nach einer langen Anlernphase zu realisieren. Dass Kollege Roboter räumlich sehen und fast wie ein Mensch interagieren kann, war für Jahrzehnte reine Zukunftsmusik. Doch mit 3D-Bildgebungsverfahren ändert sich das gerade. Allgemein spielt in der Bildverarbeitung die 3D-Technologie eine immer größere Rolle.

Welche 3D-Verfahren gibt es?

Insbesondere in der Robotik, der Fabrik- und Logistikautomatisierung und im Medizinsektor eröffnen sich dank 3D völlig neue Möglichkeiten zum Lösen komplexer Bildverarbeitungsaufgaben. 3D-Bildverarbeitung ist interessant, wenn Volumen, Formen oder die 3D-Position und Orientierung von Objekten benötigt werden, z. B. um im Logistikbereich Waren sicher und schnell von A nach B transportieren zu lassen. Was aber ist die Technik hinter der Erzeugung dreidimensionaler Bilder?

Vier Verfahren spielen zurzeit die Hauptrollen bei der Erzeugung dreidimensionaler Bilddaten:

  • Time-of-Flight
  • Lasertriangulation
  • Stereo Vision
  • strukturiertes Licht

Wo liegen die Unterschiede?

Verschiedene Verfahren und ihre Einsatzgebiete

Stereo Vision und strukturiertes Licht

Stereo Vision arbeitet ähnlich wie das menschliche Augenpaar. Zwei 2D-Kameras nehmen zwei Bilder eines Objekts aus zwei verschiedenen Positionen auf und berechnen die 3D-Tiefeninformation mit Hilfe des Triangulationsprinzips. Schwierig wird dies bei homogenen Flächen und schlechten Lichtverhältnissen. In diesen Fällen können nicht genügend übereinstimmende Fakten in den beiden Bildern gefunden werden, um daraus dreidimensionale Bilder zu errechnen. Bei diesen Problemen kann strukturiertes Licht weiterhelfen, um den Bildern eine eindeutige und vordefinierte, und bekannte Struktur zu geben.

Einsatzgebiet
Ein klares Plus für Stereo Vision ist die hohe Genauigkeit im Nahbereich. Jedoch werden zum Erlangen einer hohen Genauigkeit Referenzmarken, zufällige Muster oder Lichtpattern, die durch eine strukturierte Lichtquelle in die Szene gegeben werden, auf dem Objekt benötigt. In der Koordinatenmesstechnik oder der 3D-Vermessung von Arbeitsräumen eignet sich Stereo Vision in der Regel gut. Für das Produktionsumfeld eignet sich diese Technik meistens nicht optimal, sondern wird für Industrieanwendungen nur dann interessant, wenn eine hohe Prozessorlast und höhere Gesamtsystemkosten tolerierbar sind.

Lasertriangulation

Bei der Lasertriangulation werden eine 2D-Kamera und eine Laserlichtquelle eingesetzt. Der Laser projiziert Linien auf die Szene, die von einer 2D-Kamera aufgenommen wird. Ändert sich die Entfernung des Messobjektes, so ändert sich die Position der Laserlinie im Kamerabild. Aus den Positionskoordinaten der Linie im Bild wird die Entfernung des Objektes von der Laserlichtquelle berechnet.

Einsatzgebiet
Da hier von vornherein strukturiertes Licht eingesetzt wird, gibt es kaum Probleme mit unkooperativen Oberflächen oder geringem Umgebungslicht. Die Lasertriangulation liefert sehr genaue Daten auch bei kontrastarmen Objekten. Ein Problem der Lasertriangulation besteht insbesondere im immer schneller werdendem Arbeits- und Produktionsumfeld. Hierfür ist dieses Verfahren relativ langsam. Durch das scannende Verfahren muss während der Aufnahme immer wieder gestoppt und die Veränderung der Laserlinie aufgenommen werden.

Funktionsprinzip Lasertriangulation

Time-of-Flight (ToF)

Time-of-Flight ist eine sehr effiziente Technologie um Tiefendaten zu gewinnen und Entfernungen zu messen. Eine ToF-Kamera liefert zwei Arten von Informationen für jedes Pixel: den Intensitätswert (Grauwert) und den Abstand des Objektes von dem Sensor, den Tiefenwert. Bei Time-of-Flight wird zwischen zwei verschiedenen Methoden unterschieden, das Continuous-Wave- und das gepulste Time-of-Flight-Verfahren.

Das gepulste Time-of-Flight-Verfahren ermittelt beispielsweise die Entfernung aus der Laufzeit von Lichtpulsen. Dies erfordert sehr schnelle und präzise Elektronik. Durch den technischen Fortschritt sind die Erzeugung präziser Lichtpulse sowie deren exakte Vermessung inzwischen zu vertretbaren Kosten möglich. Die hier eingesetzten Sensoren verfügen über eine höhere Auflösung verglichen zum Continuous Wave-Verfahren, da die Sensorfläche durch kleinere Pixel effizienter ausgenutzt werden kann.

Eine integrierte Lichtquelle sendet Lichtpulse aus, welche auf ein Objekt treffen und zurück zur Kamera reflektiert werden. Es wird auf Basis der Zeit, die das Licht unterwegs war, bis es nach der Aussendung wieder zurück auf den Sensor trifft, die Entfernung und somit der Tiefenwert für jeden einzelnen Pixel berechnet. Dies macht eine einfache und echtzeitfähige Darstellung von Punktwolken möglich und liefert zusätzlich ein Intensitätsbild und ein Konfidenzbild, das zum gleichen Zeitpunkt aufgenommen wird.

Einsatzgebiet
Das ToF-Verfahren eignet sich gut für Volumenmessungen, Palettieraufgaben sowie autonom fahrende Fahrzeuge im Logistik- und Produktionsumfeld. Auch im Medizinbereich für die Positionierung und die Überwachung von Patienten und in der Fabrikautomation beispielsweise für Robotersteuerungen und Bin Picking-Aufgaben leistet eine ToF-Kamera gute Dienste.

Time-of-Flight Kameras in einem smarten Gabelstapler zur Lagerautomatisierung
Time-of-Flight Kameras in einem smarten Gabelstapler zur Lagerautomatisierung

Welche Technologie eignet sich für meine Anwendung?

Beispiel für Time-of-Flight
Beispiel für Time-of-Flight

Wie bei 2D-Kameras, gibt es auch bei 3D-Kameras nicht eine einzige Technologie zum Lösen aller Aufgaben. Die Anforderungen müssen abgewogen werden, um die optimale Technologie auszuwählen.

Bei der Entscheidung über die passendste Technologie für die gegebene Anwendung sind folgende Fragen wichtig: Möchte ich die Position, die Form, das Vorhandensein oder die Orientierung von Objekten erkennen? Welche Genauigkeitsanforderung ist gewünscht und benötigt? Wie ist die Oberflächenbeschaffenheit des Objektes? Wie ist der Arbeitsabstand und die geforderte Geschwindigkeit? Außerdem müssen die gewünschten Kosten und die Komplexität der angestrebten Lösung zu den Gegebenheiten der 3D-Technologie passen.