Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
S05: Photogrammetrie I
Zeit:
Donnerstag, 08.03.2018:
9:30 - 11:00

Chair der Sitzung: Danilo Schneider
Chair der Sitzung: Eberhard Gülch
Ort: Hörsaal 2760
96 PLÄTZE
Fokus Optische 3D-Messtechnik / geometrische Aspekte inkl. Bildorientierung

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen
9:30 - 9:50

Zuordnung Von Verknüpfungspunkten Zu Einem Generalisierten Gebäudemodell Für Die UAV-Bildorientierung

J. Unger, F. Rottensteiner, C. Heipke

Leibniz Universität Hannover, Institut für Photogrammetrie und GeoInformation (IPI), Deutschland

Die Wahl von Sensoren für die Bestimmung von Ausrichtung und Position (Pose) von unbemannten Luftfahrtsystemen / Unmanned Aerial Vehicles (UAV) ist durch geringe Nutzlast und Kostenanforderungen beschränkt. Außerdem wird die Positionsmessung per GNSS durch Signalabschattungen erschwert, wenn ein UAV sich beispielsweise in urbanem Gebiet in Häuserschluchten bewegt. Im Ergebnis ist die direkt gemessene Pose als wichtige Eingangsgröße für viele Anwendungen zu ungenau oder nicht verfügbar.

Wir beschreiben vor diesem Hintergrund eine Methode zur Schätzung der Trajektorie eines UAVs mithilfe eines generalisierten Gebäudemodells. Obwohl ein solches Modell hinsichtlich Genauigkeit und Detaillierungsgrad begrenzt sein kann, ist die Integration dieser Information in eine Bündelausgleichung hilfreich, um Drifteffekte einer rein bildbasierten Schätzung der Pose zu kompensieren.

Anders als Ansätze, die Primitive zwischen Bild und 2D-Ansicht des Modells abgleichen, ordnen wir Verknüpfungspunkte im Objektraum den Ebenen des Modells zu. Zuordnungen werden in Form von fiktiven Beobachtungen für die Distanz eines Punktes zu einer Ebene in einer hybriden Bündelausgleichung eingeführt.

Zunächst werden die Bilder auf Basis homologer Punkte orientiert und eine robuste Bündelausgleichung ohne Berücksichtigung des Gebäudemodells durchgeführt. Dabei führen wir zur Definition des Datums direkte GNSS-Beobachtungen für das Projektionszentrum der Kamera ein oder geben anderweitig Startpose und Maßstab vor.

Die fiktiven Beobachtungen sowie direkte Beobachtungen für die unbekannten Parameter der Modellebenen werden zu den Bildbeobachtungen hinzugefügt. Die Eckpunkte des Gebäudemodells definieren die Positionen der Modellebenen im Objektraum; ihre 3D-Koordinaten werden ebenso als Unbekannte mit direkten Beobachtungen und ihre Zuordnung zu Modellebenen über fiktive Beobachtungen eingeführt. In der resultierenden hybriden Ausgleichung werden die Bildposen, Objektpunktkoordinaten und die Modellparameter verfeinert.

Im stochastischen Modell erhalten die fiktiven Beobachtungen der Eckpunkte eine hohe Genauigkeit, da sie die gegebene Topologie der Modellebenen wiedergeben. Die Genauigkeit der fiktiven Beobachtungen für Verknüpfungspunkte korrespondiert mit dem Grad der Generalisierung des Modells: Je stärker dieses generalisiert ist, desto mehr müssen die fiktiven Distanzen sich von Null unterscheiden dürfen und umso größer muss die Standardabweichung sein. Die Genauigkeit des Modells ist in der Standardabweichung der Koordinaten der Eckpunkte repräsentiert.

Für die Zuordnung von Verknüpfungspunkten zu Ebenen des Gebäudemodells untersuchen wir zwei Ansätze. Der erste basiert auf der 3D-Distanz des Punktes zu einer Ebene: Ein Punkt wird der Ebene mit der kürzesten Distanz zugeordnet, es sei denn, diese Distanz ist größer als ein Schwellwert. Der zweite Ansatz basiert auf in der rekonstruierten Punktwolke extrahierten Ebenen. Gültige Ebenen hinsichtlich Anzahl zugehöriger Punkte und ausreichend großer zusammenhängender Komponenten werden Modellebenen zugeordnet. In einer Variante dieser zweiten Zuordnung wird der Suchraum für die Ebenenextraktion durch das Gebäudemodell eingeschränkt. Verknüpfungspunkte, die Teil einer erfolgreich zugeordneten extrahierten Ebene sind, führen schließlich zu fiktiven Beobachtungen, die sie mit der korrespondierenden Modellebene verknüpfen.

Im Vergleich zu unseren vorausgegangenen Arbeiten (Unger et al., 2017) zeigen wir die Weiterentwicklung unserer Methode für längere Bildsequenzen, die eine gleitende Bündelausgleichung erfordert, und evaluieren diese auch hinsichtlich der Unterschiede zwischen den Zuordnungsansätzen.

Literaturverzeichnis

Unger, J.; Rottensteiner, F.; Heipke, C., 2017: Assigning Tie Points to a Generalised Building Model for UAS Image Orientation. In: International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-2/W6, 385-392
DOI: 10.5194/isprs-archives-XLII-2-W6-385-2017


9:50 - 10:10

Registrierung von Flugzeuggetragenen Kameraaufnahmen und UAV-Aufnahmen zur Anreicherung von 3D Daten

R. Boerner, Y. Xu, L. Hoegner, U. Stilla

Technische Universität München, Deutschland

Dieser Beitrag beschreibt ein Verfahren zur automatischen Registrierung von gemeinsam aufgenommenen ALS-Punktwolken und Luftbildern mit einer weiteren, von einem UAV nicht zeitgleich aufgenommenen Bildsequenz. Durch UAV-Befliegungen kann sowohl die räumliche als auch zeitliche Auflösung erhöht werden und so eine detailliertere Änderungsdetektion erfolgen. Vergleicht man Photogrammetrische Punktwolken erzeugt aus Bildern, die von einem UAV oder von einem Flugzeug aus aufgenommen worden sind, so zeigen diese typischerweise eine unterschiedliche Punktdichte und –verteilung. Da mit einem UAV generell tiefer geflogen wird, als mit einem Flugzeug, ist die Bodenpixelgröße der UAV Bilder geringer als bei den Luftbildern. Folglich ist die Punktdichte resultierender 3D Daten aus einer Rekonstruktion im Fall der UAV-Daten höher.

Prinzipiell kann man die Aufnahmen der unterschiedlichen Sensoren im 3D-Raum (über die Erzeugung einer Photogrammetrischen Punktwolke aus den Kameraaufnahmen) oder im 2D-Raum (Affintransformation) registrieren. Die Berechnung von Transformations- und Korrekturparametern erfolgt dann auf Grundlage korrespondierender Punkte, Geraden oder im 3D-Fall durch Ebenen oder Passpunkte.

Das Ergebnis einer Flugzeugbefliegung sind Daten des Laserscanners (3D Punktwolken), die Luftbilder der Kamera und eine Registrierung der beiden Sensoren im globalen Koordinatensystem, somit können die Kameraposition und Orientierung als bekannt angenommen werden. Eine UAV-Befliegung liefert die Luftbilder der UAV-Kamera und eine Positionierung und Orientierung des UAVs. Aufgrund einer kleineren und günstigeren GNSS-Antenne und günstigeren IMUs im UAV sind die Orientierungsparameter im Vergleich zur Flugzeugbefliegung aber ungenauer wodurch die Orientierungsparameter zwischen den unterschiedlichen Bilddaten lediglich als Initial gegeben angenommen werden können. Ein weiteres Problem stellt die Tatsache dar, dass die UAV-Befliegung nicht zeitgleich erfolgte, womit durch unterschiedliche Belichtungen die radiometrische Verteilung der Bilder stark unterschiedlich sein kann. Dies macht eine Registrierung unter Verwendung von SIFT-Features schwieriger. Daher wird in diesem Beitrag der Ansatz verfolgt, geometrische Features ohne radiometrische Information zur Koregistrierung zu verwenden. Bei dem vorgestellten Verfahren soll sowohl auf Passpunkte als auch auf manuell festgelegte Verknüpfungspunkte verzichtet werden. Als geometrische Elemente dienen Geraden. Die Geraden werden in den Luftbildern gesucht und zu Strukturen von paarweise parallelen Geraden zusammengefasst. Die Strukturen mit einem großen Ähnlichkeitswert werden als Zuordnung betrachtet. Anschließend werden basierend auf der Zuordnung die Parameter der Affintransformation zwischen den Bildern in einem Ransac-basierten Ansatz optimiert. Mittels dieser Transformationsparametern lassen sich die Informationen von Tiefenbildern der LiDAR-Daten zu dem jeweiligen Luftbild der Flugzeugkamera in das Bild der UAV-Kamera übertragen. Die übertragenen Informationen des Tiefenbildes liefern somit 3D-Informationen zu den Pixeln des Bildes der UAV-Kamera welche mittels dieser 3D Informationen im Raum neu orientiert werden kann.

Als Testdatensatz dient eine Befliegung des Mangfall Gebietes südöstlich von München vom Tegernsee zur Autobahn A8 worin Luftbilder und LiDAR Daten enthalten sind. Die UAV-Befliegung erfolgte in einem Waldgebiet südlich der Autobahn A8 wleches ebenfalls mit den Daten der Flugzeugbefliegung abgedeckt ist.


10:10 - 10:30

Smart Phone Accuracy of Multi-Camera Pedestrian Tracking in Overlapping Fields of View

S. Busch

Kartographie und Geoinformatik, Deutschland

In this paper, we analyze the suitability of event mapping via smart phones by evaluating the accuracy for pedestrian tracking. We employ a multiple view tracking and bundle adjustment and recover the scale by an alignment to reference points measured via a total station. The use of multiple perspectives by loosely time synchronized smart phones, enabled a least squares assignment of detections while improving the pose estimations of pedestrians and reducing occlusions. Finally, we used a total station to track a pedestrian to evaluate our results and show that the photogrammetric smart phone tracking accuracy of 20 cm is suitable for event mapping.

In more detail, we placed three smart phones on a camera stand to observe a complex scene from multiple perspectives. The smart phones recorded images with a rate of 8 Hz and full HD resolution. The complexity of the scene results from many occlusions which occur during the movement of the persons in the field of view. The pose of the cameras was determined by recording a short video of a round tour through the scene. Structure-from-motion was used to reconstruct the scene.The resulting local poses were transformed to a global coordinate frame by the alignment of the point cloud generated via bundle adjustment to total station measurements. This localization approach could also be used for precise localization of smart phones by using short image sequences, a highly accurate point cloud of the surroundings (e.g. from mobile mapping), and an approximate localization via GPS. The pedestrian detection in the images was performed by a number of neural network detectors [1,2,3]. We show that pedestrian pose estimation by skeleton fitting [2,3] is more accurate than the use of a bounding box [1]. To align successively arriving detections, we extended our single camera Kalman filter tracking approach to multiple perspectives by using the prediction of the filter for the alignment process. Firstly, we optimized the spatial intersection result for each possible combination of detections from different views by a least squares assignment. Secondly, we calculated a probability for each combination to find the corresponding detection by filtering all combinations with a threshold and picking the most likely combinations. Afterwards, we estimated the posterior probability for all possible assignments and aligned the most likely detections. Our tracking result is compared against a ground truth produced by a total station. One pedestrian carried a support rod mounted with a 360-degree prism at a height of about 3 meters to prevent occlusions and was tracked by a total station. The results demonstrate that our approach is capable of estimating trajectories of pedestrians in 3D real world coordinates with sufficient precision for map matching and thus is suitable for event mapping.

[1] J. Redmon and A. Farhadi. Yolo9000: Better, faster, stronger. arXiv preprint arXiv:1612.08242, 2016.

[2] S.-E. Wei, V. Ramakrishna, T. Kanade, and Y. Sheikh. Convolutional pose machines. In CVPR, 2016.

[3] Z. Cao, T. Simon, S.-E. Wei, and Y. Sheikh. Realtime multi-person 2d pose estimation using part affinity fields. arXiv preprint:1611.08050, 2016.


10:30 - 10:50

Bestimmung Der Korrespondenz Zwischen Historischen Gebäudeaufnahmen Basierend Auf Der Zuordnung Geometrischer Merkmale

F. Maiwald, D. Schneider, F. Henze

TU Dresden, Deutschland

1. Einleitung

Dieser Beitrag befasst sich mit der Verknüpfung und anschließender relativen Orientierung historischer Aufnahmen der Fotothek der SLUB (Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden). Der Schwerpunkt wird vor allem auf Gebäudeaufnahmen gelegt. Im Gegensatz zu aktuellem Bildmaterial sind bei historischen Fotografien verschiedene Faktoren ausschlaggebend, die eine automatische Bildanalyse (Merkmalssuche, Merkmalszuordnung und relative Orientierung) deutlich erschweren:

  • Die Verschlagwortung in der Bibliothek zeigt häufig nicht alle oder auch fehlerhafte Ergebnisse.
  • Einige Aufnahmen sind gar nicht oder nur mit einer geringen Auflösung digitalisiert.
  • Für die verwendeten Kameras liegen keine Kameraparameter, Kameratypen und Kamerastandpunkte vor. Geometrische Eigenschaften sind teilweise oder gänzlich unbekannt.
  • Die radiometrischen Differenzen zwischen zwei Bildern derselben Epoche sind in den meisten Fällen sehr groß.

Aufgrund dessen werden in dem hier präsentierten Ansatz ausschließlich geometrische Merkmale verwendet, um die Verknüpfung zwischen zwei oder mehreren historischen Aufnahmen zu ermöglichen. Als robuste Merkmale haben sich vor allem Rechtecke herausgestellt. Diese können zum einen relativ leicht und schnell detektiert werden und zum anderen zeigen Rechtecke bei historischen Gebäuden oft eindeutige Formationen (Lage und Anordnung von Fenstern, Steinen, Verkleidungen) und können so in anderen Bildern wiedererkannt werden. Herkömmliche Matching-Verfahren wie Brute-Force-Matching und Flann-based-Matching führten mit intensitätsbasierten Deskriptoren wie SIFT, SURF und ORB zu keinen korrekten Zuordnungen zwischen zwei Bildern.

2. Arbeitsablauf

Um die Rechtecke zu detektieren, wird auf die Bilder ein Canny-Filter mit automatisierter Schwellwerterkennung angewendet. Liniensegmente werden über ein morphologisches Closing mithilfe eines Rechteckkernels verstärkt. Anschließend können im Canny-Bild Konturen gefunden und mittels Template-Matching Rechtecke detektiert werden.

Im nächsten Schritt wird für jedes gefundene Rechteck ein Deskriptor erstellt, der ein einzelnes Rechteck möglichst eindeutig beschreibt. Dazu werden die n nächsten Nachbarn zu jedem Rechteck betrachtet und die Lage der Schwerpunkte zueinander abgespeichert. Zusätzlich werden die umliegenden Rechtecke auf affin-invariante Eigenschaften wie Parallelität, Flächenverhältnisse und Seitenverhältnisse geprüft. Die Anzahl der umliegenden Rechtecke n wird dabei bisher manuell gewählt, soll in Zukunft aber iterativ bestimmt werden. Die Deskriptoren für jedes Rechteck werden in beiden betrachteten Bildern bestimmt und anschließend mittels Brute-Force Matching verknüpft.

3. Auswertung und Ergebnisse

Der Reckteckdeskriptor erreicht bei ausgewählten Bildpaaren 70 % - 100 % korrekte Punktzuordnungen. Der Deskriptor ist zum jetzigen Zeitpunkt maßstabs- und translationsinvariant. Eine Rotationsinvarianz (die bei historischen Aufnahmen selten notwendig ist) ist bisher nur bedingt gegeben. Fehlerhafte Zuordnungen entstehen beispielsweise in Bildern, bei denen einzelne Fenster nur wenige Pixel ausfüllen (Totalaufnahmen). Diese bereiten dem Algorithmus aufgrund der erschwerten Rechteckdetektion (Rechteckgröße fällt unter einen definierten Schwellwert) noch Probleme. In der Weiterverarbeitung der durch homologe Punkte bestimmten Fundamentalmatrix bis zur relativen Orientierung kommt erschwerend hinzu, dass keine Kameraparameter bzw. Kalibrierdaten vorhanden sind und die einzelnen Kameras sich gegebenenfalls stark voneinander unterscheiden. In dieser Hinsicht kann ein Structure-from-Motion Ansatz sinnvoll sein.

4. Fazit

In diesem Beitrag wird gezeigt, wie zwischen historische Aufnahmen, die stark variierende radiometrische Eigenschaften besitzen, eine Korrespondenz über die Zuordnung geometrischer Merkmale hergestellt werden kann. In der Zukunft sollen die Reckteckdetektion sowie die Beschreibung der Rechtecke weiter optimiert werden. Im Anschluss können qualitative Aussagen über Zuordnungs- und Orientierungsgenauigkeit der Bildpaare getroffen werden.



 
Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.122
© 2001 - 2018 by Dr. H. Weinreich, Hamburg, Germany