Veranstaltungsprogramm

Sitzung
Optische Messtechnik für den Unterwassereinsatz
Zeit:
Donnerstag, 03.02.2022:
11:00 - 12:30

Chair der Sitzung: Patrick Westfeld, Bundesamt für Seeschifffahrt und Hydrographie
Virtueller Veranstaltungsort: ZOOM-Meeting

Präsentationen

Multisensorische Erfassung von großmaßstäbigen Schiffsstrukturen im schwimmenden Zustand unter und über Wasser

Frank Niemeyer1, Tim Dolereit2, Nils Judzinsky2, Nico Neumann3, Philipp Woock3, Johann Wollstadt4, Helge Renkewitz5, Ganzorig Baatar5

1Fraunhofer IGP, Rostock; 2Fraunhofer IGD, Rostock; 3Fraunhofer IOSB, Karlsruhe; 4Fraunhofer IKTS, Dresden; 5Fraunhofer IOSB-AST, Ilmenau

Inspektionsaufgaben unter Wasser rücken mehr und mehr in den Fokus der Wirtschaft und Wissenschaft. Durch die besonderen Umgebungsbedingungen unter Wasser steigt der Anspruch an Mess- und Inspektionssysteme mit der Größe des Messobjektes. Das Teilprojekt: „Multisensorische Erfassung technischer Strukturen“, das am Leistungszentrum „Sustainable Subsea Solutions“ im ehemaligen Fischereihafen in Rostock angesiedelt ist, hat zum Ziel, Schiffsstrukturen im schwimmenden Zustand über und unter Wasser dreidimensional zu erfassen. Dabei steht nicht die lokale Inspektion von kleineren Arealen an den Bordwänden primär im Fokus. Vielmehr sollen durch das Scannen Aussagen über die gesamte Schiffsstruktur (großmaßstäbige Verformungen, Torsionen, Biegungen) gewonnen werden. Unter Wasser kommt ein Multi Beam Sonar zum Einsatz. Über Wasser tracken Lidar und Kamerasysteme die Schiffsbewegungen und Erfassen gleichzeitig die Bordwände und Decksaufbauten. Über die Trackingzyklen sollen die synchron aufgenommenen Messwerte zueinander in ein übergeordnetes Koordinatensystem transformiert und zu einem ganzheitliche 3D-Modell fusioniert werden. Das derzeitige Messystem ist bisher statisch an der Kaikante befestigt. Das Messobjekt soll sich vor dem Scanner bewegen. In einem Folgeprojekt ist ein komplett dynamisches Messystem geplant.

Dieser Beitrag gibt einen Einblick in die derzeitigen Entwicklungs- sowie erste Messergebnisse in diesem Projekt.

Niemeyer-Multisensorische Erfassung von großmaßstäbigen Schiffsstrukturen_b.pptx


Kalibrierung und Genauigkeitsuntersuchung eines Unterwasser-Lasertriangulationssensors

Hannes Sardemann, Christian Mulsow, Hans-Gerd Maas

TU Dresden, Deutschland

Lasertriangulation ist ein etabliertes optisches Messverfahren, das unter anderem im industriellen Bereich häufig zur Anwendung kommt. Mit einigen Anpassungen kann das Verfahren auch unter Wasser angewendet werden. Mit einem grünen Linienlaser und einer Kamera, die auf einer festen Basis in einem wasserdichten Gehäuse angebracht werden, lassen sich hochgenaue Unterwassermessungen im Nahbereich durchführen. Dadurch können zum Beispiel flache Bereiche von Gewässern oder versunkene Objekte dreidimensional erfasst werden. Um einen flexiblen Messaufbau mit einer statischen Basis zu realisieren, werden Kamera und Laser in einem gemeinsamen Glasgehäuse angebracht. Um möglichst orthogonale Schnitte auf der Objektoberfläche zu erreichen sollten Laser und Kamera dabei beide schräg zur Gehäuseoberfläche angebracht werden. Durch die Brechung des Lasers an den Übergängen von Luft zu Glas und von Glas zu Wasser verformt sich der Laser-Fächer. Dadurch kann dieser nicht mehr, wie bei herkömmlichen Triangulationssensoren, als Ebene parametrisiert werden. Stattdessen wird der Laser-Lichtkegel in einzelne Sub-Strahlen unterteilt. Für die Messung von Objektkoordinaten wird zuerst die Laserlinie im Bild detektiert und mit kalibrierter innerer und äußerer Orientierung daraus ein Bildstrahl berechnet. Dieser Bildstrahl wird an den Trennflächen gebrochen und dann mit dem ebenfalls an den Trennflächen gebrochenen Lichtkegel geschnitten. Die Sub-Strahlen des Laser-Fächers werden einzeln betrachtet und an den Trennflächen gebrochen, bis derjenige Sub-Strahl gefunden ist, welcher den Bildstrahl schneidet.

Im Beitrag wird das Mess- und Kalibrierkonzept vorgestellt, und die damit erreichbaren Genauigkeiten werden sowohl theoretisch, als auch praktisch untersucht. Für die praktischen Untersuchungen wurde ein Sensor mit einer Basis von ca. 12 cm genutzt. In einem Messbereich von ca. 20 cm Tiefe konnten damit Messgenauigkeiten von 0,3 mm erreicht werden.



Visuelle Odometrie und SLAM für die Bewegungskompensation und mobile Kartierung mit einem optischen 3D-Unterwassersensor

Michael Bleier1, Helge Andreas Lauterbach1, Joschka van der Lucht1, Matthias Heinze2, Christoph Munkelt2, Andreas Nüchter1

1Informatik VII - Robotik und Telematik, Julius-Maximilians-Universität Würzburg, Deutschland; 2Fraunhofer-Institut für Angewandte Optik und Feinmechanik IOF, Deutschland

Im Projekt UWSensor wurde ein neuartiger optischer 3D-Unterwassersensor basierend auf Streifenlichtprojektion mit einem GOBO-Projektor entwickelt. Das Sensorsystem ermöglicht eine flächige 3D-Erfassung mit hoher Genauigkeit und Abtastrate, sowie eine gleichzeitige Erfassung von Farbdaten. Dies erlaubt den Einsatz zur mobilen Kartierung und 3D-Erfassung mit einem Unterwasserfahrzeug. Dieser Beitrag beschäftigt sich mit der Bewegungsschätzung sowie der Fusion der Einzelscans in ein global konsistentes 3D-Modell. Hierbei wird zunächst visuelle Odometrie in Kombination mit einem faseroptischen Gyroskop genutzt, um die Eigenbewegung des Sensors zu schätzen. Die daraus latenzarm abgeleiteten Posen werden dem Live-Aufnahmesystem des Sensors bereitgestellt, um eine online-Bewegungskompensation der den 3D Scans zugrundeliegenden Serie von Kamerabildern zu realisieren. Anschließend wird eine mehrstufigen Registrierungsstrategie angewendet, um die Trajektorienschätzung weiter zu verfeinern. Zunächst wird mittels des Iterative Closest Point (ICP) Algorithmus jede 3D-Punktwolke sequentiell gegen ihre Vorgänger registriert. Da sich kleine Restfehler in der Registrierung akkumulieren, erfolgt im nächsten Schritt eine zweite Registrierung mittels einem zeitkontinuierlichen ICP-Verfahren. Hierbei werden mehrere Punktwolken zu Teilkarten zusammengefasst und gegeneinander registriert, wobei die Verbesserungen der Trajektorie im Anschluss wiederum auf die einzelnen Posen der Punktwolken verteilt werden, um die Kontinuität der Trajektorie zu bewahren. In diesem Registrierungsschritt werden auch Schleifen in der Trajektorie erkannt und geschlossen, um den Drift zu korrigieren. Für die Kalibrierung des Sensorsystems wurde eine Kombination von Aufnahmen in Luft und im Wasser eingesetzt. Das Verfahren wurde auf Aufnahmen mit dem neuentwickelten Sensorsystem in einem Wassertank getestet und evaluiert. Hierbei wurden sowohl bekannte Testkörper mit bewegtem Sensor im Wasser eingescannt, als auch die berechneten Trajektorien anhand von optischen Markern validiert.

Bleier-Visuelle Odometrie und SLAM für die Bewegungskompensation und mobile Kartierung_b.pdf


Photogrammetry to create detailed 3D models of submarine objects

Thomas Grab, Sebastian Pose, Tobias Fieback

TU Bergakademie Freiberg, Deutschland, Scientific Diving Center

Bei der wissenschaftlichen Untersuchung Unterwasser werden eine Vielzahl an Daten erhoben. Dabei können Gas-, Wasser-, Sediment/Boden- und Gesteinsproben sowie (Mikro-)Biota abhängig von der jeweiligen Fragestellung gemessen und in einen kartografischen Kontext gesetzt werden. Aktuell geschieht das anhand vorhandener Karten aus Beobachtungen, händischer Vermessung bzw. einfachen Sonarmessungen. Diese Karten lassen sich durch Fixpunkte georeferenzieren und bilden die Grundlage für die Untersuchungen. Die durch den händischen Kartierungsprozess entstehenden Fehler lassen sich durch Fixpunkte aber nur teilweise korrigieren, daher nimmt die Verwendung von aktuellen terrestrischen Vermessungstechniken durch die wachsenden Anforderungen an die Qualität der Unterwasserforschung auch Einzug in die Arbeit wissenschaftlicher Taucher. So arbeitet das Scientific Diving Center der TU Bergakademie Freiberg aktuell mit einer Kartenbasis aus georeferenzierten Sonardaten, sowie fotogrammetrisch rekonstruierten Detailmodellen, welche hier vorgestellt werden. Dabei werden die Daten für die Tauchgangsvorbereitung, Dokumentation des Untersuchungsgebietes, -objektes, der Vermessung oder Analyse, dem Monitoring sowie der Tauchsicherheit verwendet.

Für die Erfassung der Unterwasserobjekte mittels Fotogrammetrie werden hochaufgelöste Unterwasseraufnahmen verwendet und mit Hilfe einer Software (Agisoft Metashape Pro) zusammengesetzt. Dafür werden Unterwasserkameras sowie je nach Anwendungs- und Einsatzbereich notwendig zusätzliche Beleuchtung verwendet. Es wird dabei zwischen zwei unterschiedlichen Vorgehensweisen unterschieden:

- Nahbereichsfotogrammetrie

- „Luftbild“fotogrammetrie

So konnten im Rahmen von wissenschaftlichen Exkursionen detaillierte Modelle von Statuen oder kleinen Wracks, sowie flächige Bereiche von Riffkanten sowie eines größeren Wracks untersucht und erfasst werden. Für die Auswertung erfolgte eine einfache Rekonstruktion direkt vor Ort, sowie eine hochaufgelöste Rekonstruktion auf dem HPC- „high performance cluster“ der TU Freiberg. Zusätzlich wurden in einem Steinbruch vielfältige detaillierte Objekte erfasst. Hierbei lässt sich der positive Effekt der Beleuchtung klar in der Farbwiedergabe erkennen. Aktuell wird noch an einer Farbkalibrierung in der Auswertung gearbeitet.

Um die Genauigkeit der Vermessung mittels Fotogrammetrie zu bewerten, wurde ein Genauigkeitsvergleich Unter- und Überwasser durchgeführt und im Rahmen des Beitrages vorgestellt. Dazu wurde eine bekannte Geometrie 3D gedruckt und die Ergebnisse Unter- und Überwasser verglichen.

Die Untersuchungen in einem Steinbruch wurden im Rahmen das Projekt „RoBiMo – Roboter gestütztes Binnengewässermonitoring“ durchgeführt. Dazu wird einen autonome Schwimmplattform entwickelt die dreidimensional, tiefenaufgelöste Gewässerparameter simultan erfasst. Dazu sind Informationen über den Gewässergrund notwendig, welche mittels eines hochauflösenden Fächerecholots durch die Plattform erfasst werden.

Im Beitrag wird gezeigt wie diese Informationen mit den Daten der Fotogrammetrie der wissenschaftlichen Taucher und den Drohnendaten für die Geländeoberfläche verknüpft werden, um ein gesamtheitliches Model eines Gewässers mit dessen Bathymetrie zu erhalten.

Anhand dessen werden im Rahmen des Projekt RoBiMo, die Daten mittels Virtueller Realität visualisiert. Die Kombination der Drohnen-, Fotogrammetrie- und Sonardaten erfolgt dabei direkt in der Software Agisoft Metashape. Hierfür werden die bestehenden lokalen und georeferenzierten Koordinatensysteme verbunden und verknüpft. Aktuell werden die Daten für die Ausbildung von Tauchern vor Ort, der Simulation von Strömungen im Gewässer oder für die Darstellung der erfassten Gewässerparameter verwendet.

Grab-Photogrammetry to create detailed 3D models of submarine objects_b.pdf