Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen.
Wählen Sie eine Sitzung aus, um die darin gehaltenen Vorträge anzuzeigen.

 
 
Sitzungsübersicht
Sitzung
Photogrammetrie
Zeit:
Mittwoch, 02.02.2022:
11:00 - 12:30

Chair der Sitzung: Thomas Luhmann, Jade Hochschule

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Photogrammetrische Vermessung der zerstörten Brücken im Katastrophengebiet Ahr (Arbeitstitel)

Martin Petry1, Thomas Becker2

1Vermessungsbüro, Deutschland; 2Becker Ingenieure GmbH

Am 14. Juli 2021 ereignete sich eine Flutkatasrophe im nördlichen RLP.

Hierbei wurde der Landstrich,der links und rechts der Ahr liegt völlig zerstört.

Am 16. Juli wurde die Bitte an mein Büro herangetragen, unverzüglich mit Vermessungsarbeiten für den Wiederaufbau der zerstörten Brücken zu beginnen (Bestandsaufnahmen).

Auftraggeber hierbei waren das THW, der betroffene Kreis, die betroffenen Verbandsggemeinden, sowie der LBM RLP (Landesbtrieb für Mobilität in RLP).

Gebündelt wurden diese Aufträge über des Ingenierubüro Becker (Brückenbau- und Brückenprüfingenieur) aus Grafschaft.

Schnell wurde bei den ersten Arbeiten an der Landgrafenbrücke in Ahrweiler klar, dass dies mit der klassischen Vermessung mit Tachymeter (Scannertachymeter SX 10 von Trimble) nicht realisiert werden konnte. Ebenso war aus gleichen Gründen die Scannervermessung mit einem Faro FOCUS_S nur bedingt möglich.

Dies war wegen des umfänglichen "Baustellenverkehrs" mit Radlader, Bagger, Kippern und sogar Bergepanzern von der Bundeswehr nicht, oder nur eingeschränkt möglich, da die Horizontierung der geodätischen Instrumente nicht über den Zeitraum, der für eine Messung benötigt wurde, gewährleistet war.

Hier wurde schnell klar, dass als Einzige die Photogrammetrie die Lösung dieses Problems darstellte. Da für das THW gearbeitet wurde, war es auch kein Problem im Kriesengebiet, in dem für UAV´s ein Aufstiegsverbot galt, die Aufstiegsgenehmigungen zu erlangen.

Nach der Auswertung des ersten Fluges (mit geplottetem Orthofoto mit Einkartierung von Längs- und Querprofilen wurde schnell klar, das das Orthofoto mit Maßstabsleiste etc. genau das "Produkt" war, das an den "Brückenbaustellen" dringlich benötigt wurde. Aus der georeferenzierten Punktewolke wurden, wie schon erwähnt, Längs- und Querprofile abgeleitet. Die Lage dieser Profile wurde in den Orthofotos dargestellt. Ebenso wurde ein u.a. komplettes 3D-Modell der näheren Umgebung der Brücken erzeugt und digital zur Verfügung gestellt.

Nachdem also die Mitarbeiter des THW dieses Orthofoto (Auflösung 1,6cm/Pixel) für Ihre Planung des weiten Vorfgehns in der Hand hatten, wurde ich unmittelbar mit der Befliegung von weiteren drei Brücken in Ahrtal beauftragt.

Insgesamt wurden bis jetzt von meinem Büro zwischen der Rheinmündungsbrücke bei Sinzig (Kripp) bis nach Antweiler, also entlang dem rheinland-pfälzichen Teil der Ahr, 26 Brücken größtenteils photogrammetrisch vermessen.

Die meisten Brücken wurden rein photogrammetrisch vermessen, bei einigen Brücke wurde aber auch die Photogrmmetrie in Kombination mit den terrestrischen Scanneraufnahmen des FOCUS_S kombiniert.

Die Auswertung wurde größtenteils mit Pix4D (rein photogrammetrisch) aber auch RealityCapture und 3df-Zephyr (Kombination von Photogrammerie und terrestrischem Scanner) durchgeführt.

Weitere drei Brücken sind zur Zeit beauftragt und die Befliegung steht aus.



Genauigkeitbetrachtung von 6DOF Markern für die 3D-Bewegungsanalyse mit einer einzigen Kamera

Ralf Lichtenberger

LIMESS Messtechnik u. Software GmbH, Deutschland

Mit 6 DOF Markern werden 3D-Koordinaten mit einer einzigen Kamera gemessen. Die holographischen Marker liefern zusätzlich eine präzise 3D Winkelmessung. Die Binärcodierung erlaubt eine vollautomatische Markerdetektion- und Zuordnung. Mit diesen Eigenschaften wird die 3D Bewegungsanalyse z.B. im Crashversuch oder bei Festigkeitsuntersuchungen von Strukuren deutlich vereinfacht und automatisierbar. Doch wo sind die Genauigkeitsgrenzen dieser innovativen Lösung ? Dieser Beitrag stellt das Funktionsprinzip der 6DOF Marker vor und liefert Genauigkeitsvergleiche der Marker zu klassischen Stereosystemen für die 3D-Bewegungsmessung.



Photogrammetrische Bestimmung von Kopfbewegungen mittels Facial Landmarks – proof of concept

Mirko Riedel1, Danilo Schneider2, Jana Kramp2

1deveritec, Deutschland; 2TU Dresden, Institut für Photogrammetrie und Fernerkundung (IPF)

Im Rahmen der Krebsbehandlung ist die Strahlentherapie, vor allem im Kopfbereich, ein etabliertes Verfahren. Dabei wird der Tumor durch eine hochenergetische Bestrahlung lokal abgetötet. Um während einer Therapiesitzung eine Bewegung des Kopfes zu verhindern, werden derzeit mechanische Fixierungen (Masken) verwendet. Jedoch belasten diese den Patienten mechanisch und psychisch stark. Weiterhin verursachen sie einen erhöhten Arbeitsaufwand zur initialen Erstellung bzw. Einrichtung sowie beim Anbringen in der Therapiesitzung.

Aus diesen Gründen wurde das Forschungsprojekt „Increasing the precision of patient positioning in radiotherapy using positioning aids“ (imPRESSing) initiiert. Das Ziel ist dabei zu prüfen, ob die mechanische Fixierung des Kopfes durch eine messtechnische Überwachung der Kopfposition und -neigung ersetzt werden kann. Weiterhin wird geprüft, ob das Tracking hinsichtlich Genauigkeit, Zuverlässigkeit und Geschwindigkeit für eine automatisierte Strahlnachführung geeignet ist.

Für die messtechnische Überwachung ist das Ziel des Projektes die Fusion von drei physikalisch unabhängigen Lösungsansätzen: Funkortung auf Basis von UWB, Bewegungsdetektion mittels IMU und photogrammetrische Posenbestimmung auf Basis eines Mehrkamerasystems. Dadurch kann ein hohes Maß an Sicherheit des Trackings gewährleistet werden.

Der Schwerpunkt dieses Beitrags liegt dabei auf dem proof of concept des optischen Trackings bzw. der optischen Bewegungsdetektion. Dabei wird auf den Aufbau und Funktionsweise, die Bildmessung von „Facial Landmarks“ sowie die Systemkalibrierung eingegangen. Weiterhin werden erste experimentelle Ergebnisse der Kalibrierung, der Bildmessung und der photogrammetrischen Bestimmung der 3D-Koordinaten der Facial Landmarks vorgestellt. Erste Ergebnisse haben gezeigt, dass die Bildmessung prinzipiell funktioniert und die 3D-Koordinaten sowie die photogrammetrische Kopfposenbestimmung mit einer ausreichenden Genauigkeit (im Bereich weniger Millimeter) bestimmt werden können. Gleichzeitig zeigt sich auch weiteres Verbesserungspotenzial. Auf Basis der ersten Ergebnisse wird auch auf die erreichbare Genauigkeit und Unsicherheit sowie auf den Einfluss von äußeren Randbedingungen eingegangen.



Machine Learning approach to predict the position of a new online position measurement system’s target

Luis Garcia1, Uwe Bielke2, Theo Hageney3, Klaus Banzhaf3, Ernst Wiedenmann4, Rainer Börret1

1Aalen University, Aalen, Germany; 2Glasgow Caledonian University, Glasgow, UK; 3eµmetron GmbH, Aalen, Germany; 4Serious Enterprises, Aalen, Germany

This article discusses a Machine Learning approach for position determination of a target, that is used in a new measurement device called Multi-Aperture-Positioning-System (MAPS). The MAPS consists of two components, the measurement unit itself and the target, which is mounted to a machine under test – for example, an industrial robot. The measurement system is based on a photogrammetric approach using an aperture array and a single camera. To achieve high accuracy in position calculation, multiple complex algorithms with high computing effort are used. Actual the MAPS offers an accuracy equal to or better compared to existing photogrammetric devices.
Using Machine Learning, a Neural Network is trained by measurement data. In order to generate these data, a coordinate measurement machine (CMM) was used to scan a grid of positions in the measurable area of the MAPS, while the measurement unit took images at every position. The images taken are used as input for training, while the real CMM coordinates are used to label these images. Previously MAPS used several algorithms to calculate the position of the target from the taken image. The key idea behind the Machine Learning approach is, that a Neural Network, trained on thousands of labeled data, should be as accurate as the originally used algorithms in determining the position of the target while being much faster. In addition, systematic errors, model errors, and uncertainties in the system parameters can be eliminated. While the Neural Network learns directly from the captured data, algorithms use formulas to calculate the position from the images. These formulas have a lot of influencing factors, that cannot always be precisely determined, change over time, or are not even known. When using a Neural Network instead, the model learns the relation between input and output data including all influences that exist at the training time. On the whole, this paper investigates if a Neural Network can replace the originally used algorithms while achieving similar or better performance.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: 20. Oldenburger 3D-Tage
Conference Software - ConfTool Pro 2.6.142
© 2001–2022 by Dr. H. Weinreich, Hamburg, Germany