Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
S18: Photogrammetrie II
Zeit:
Freitag, 09.03.2018:
13:15 - 14:45

Chair der Sitzung: Martin Weinmann
Chair der Sitzung: Thomas Abmayr
Ort: Hörsaal 2760
96 PLÄTZE
Fokus Bildanalyse / Classification und Dense Matching

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen
13:15 - 13:45

Investigations on the Potential of Binary and Multi-class Classification for Object Extraction from Airborne Laser Scanning Point Clouds

M. Weinmann1, R. Blomley1, M. Weinmann2, B. Jutzi1

1Karlsruher Institut für Technologie (KIT), Deutschland; 2Universität Bonn, Deutschland

Nowadays, the semantic interpretation of airborne laser scanning (ALS) point cloud data still commonly relies on supervised classification. However, the small amount of training data which is typically available for this task not only hinders the use of modern deep learning techniques, but also the use of standard contextual classification techniques such as Conditional Random Fields (CRFs). The latter can cope with the irregular point sampling, while providing a theoretically well-founded approach for point cloud classification. However, CRFs require a sufficient number of training examples to 1) relate the data representations derived for individual 3D points and the defined classes to obtain an initial labeling and then 2) robustly infer relations among neighboring 3D points to improve the initial labeling by imposing spatial regularity. Thereby, the initial labeling is often achieved by using a classifier with probabilistic output, and this output in turn is used to define the unary potential also known as association potential of a CRF. In most cases, the unary potentials are obtained via classic supervised classification techniques like Support Vector Machines (SVMs) or Random Forests (RFs).

When analyzing the performance of classic supervised classification techniques for point cloud classification, one can observe that it depends on different influencing factors. The most prominent ones are represented by the number and similarity of the defined classes, the set of involved features and the classification strategy itself. The latter becomes particularly important for applications which focus on object extraction in terms of detecting only objects corresponding to a specific class (e.g. “cars”, “roads”, “buildings” or “trees”), while all remaining classes could also be merged to a common class “background”.

In this paper, we investigate the potential of different classification strategies for object extraction from ALS data. As baseline, we take into account the standard strategy of multi-class classification using SVM or RF classifiers. In addition, we focus on the strategy of a binary classification with respect to different objects of interest as e.g. contained in the semantic classes “cars”, “roads”, “buildings” and “trees”. For each classification strategy, the classification itself is based on a set of geometric features that has recently been proven to be appropriate for classifying ALS data. To derive objective conclusions, we perform extensive tests on two publicly available ALS datasets for which corresponding semantic labelings are provided.

After briefly summarizing related work (Section 2), we explain the involved strategies for the semantic classification of ALS data in detail (Section 3). Subsequently, we present and discuss the derived experimental results with a specific focus on binary and multi-class classification of ALS data given user-defined class labels such as “cars”, “roads”, “buildings” and “trees” (Sections 4 and 5). Finally, we provide concluding remarks and suggestions for future work (Section 6).


13:45 - 14:15

Dense Matching mit WorldView-4 und Kompsat-3 Bildern

K. Jacobsen1, U. Sefercik2

1Leibniz Universität Hannover, Deutschland; 2Bülent Ecevit University Zonguldak, Türkei

Mit dem Start von WorldView-4 im November 2016 steht nach WorldView-3 ein zweiter zivil verfügbarer optischer Satellit mit einer Bodenauflösung von 31cm zur Verfügung, der eine Konkurrenz für Luftbilder darstellt. Im Bereich von Istanbul wurde neben einem WorldView-4 Stereomodell auch ein Kompsat-3 Stereomodell, mit 70cm Objektpixelgröße, mit flächenbasierter Bildzuordnung nach der Methode der kleinsten Quadrate und Semi Global Matching (SGM) ausgewertet. Die Kompsat-3 Bilder liegen als level 1R (basic) und level 1G vor. Level 1G Bilder sind genäherte Ortho-Bilder, die auf das SRTM Oberflächenmodell mit 3 Bogensekunden Punktabstand projiziert sind. Trotz akzeptabler Widersprüche an 71 Passpunkten von SX=0.82m und SY=0.90m zeigen sich auch unter Berücksichtigung des Referenzhöhenmodells in dem erzeugten Höhenmodell lokale systematische Höhenabweichungen, so dass die Kompsat level 1G-Bilder, trotz der einfach zu erzeugenden Epipolarbilder, für präzise Auswertungen nicht zu empfehlen sind. Die nicht beeinflusste relative Genauigkeit erlaubt allerdings eine Erstellung eines 3D-Stadtmodells.

Die WorldView-4 Aufnahmen sind, entsprechend der von GeoEye bevorzugten Bildgeometrie, auf eine Objektebene konstanter Höhe projiziert und damit geometrisch unproblematisch auszuwerten. Mit SX=0.15m, SY=0.07m und SZ=0.26m entsprechen die Widersprüche an den Passpunkten den an 31cm Objektpixelgröße gestellten Erwartungen.

Die Bildzuordnung nach der Methode der Kleinsten Quadrate weisen die in dem dicht bebauten Auswertegebiet zu erwartenden Probleme der flächenbasierten Zuordnung auf, die nur die Geometrie größerer Gebäude einigermaßen richtig wiedergeben, wobei in Basisrichtung die Verdeckungen durch das Basis-Höhen-Verhältnis beider Datensätze von 1:1,2 deutliche Verwischungen erzeugt. Semi Global Matching hat zwar die gleichen Probleme mit den Verdeckungen, gibt die Dachformen aber entsprechend der Objektpixelgröße wieder soweit die Dächer nicht durch Bäume überragt werden.

Ein Vergleich mit einem Laserscanner Referenz Oberflächenmodell ist im Bereich der Gebäudekanten und der Vegetation schwierig. Die Laserscannerpunkte können auf überstehenden Dächern oder der Fassade liegen und im Bereich der Vegetation ist die Oberfläche nicht mit der Oberflächendefinition von optischen Bildern vergleichbar. Mit einem Vegetationsfilter können diese Bereiche allerdings aus dem Höhenmodell entfernt werden.

Besonders die mit WorldView-4 erzeugten Ergebnisse sind vergleichbar mit denen von Luftbildern mit entsprechender Auflösung. Sowohl die Genauigkeit als auch die Details sind gleichwertig.


14:15 - 14:45

Ein systematischer Vergleich verschiedener Multi-View Stereo-Lösungen für die luftbildgestützte dreidimensionale Infrastrukturkartierung

P. Schär1, S. Cavegn1,3, D. Novak2, B. Loesch2, H. Eugster1,2, S. Nebiker1

1Fachhochschule Nordwestschweiz, Institut Geomatik, Gründenstrasse 40, 4132 Muttenz, Schweiz; 2iNovitas AG, Oberrohrdorferstrasse 1c, 5405 Baden-Dättwil, Schweiz; 3Universität Stuttgart, Institut für Photogrammetrie, Geschwister-Scholl-Str. 24D, 70174 Stuttgart

Seit einigen Jahren werden Infrastruktur-Inspektionen und 3D-Kartierungen zunehmend nicht mehr vor Ort sondern anhand von Webdiensten effizient am Arbeitsplatz vorgenommen. Die vorausgehende Datenerfassung erfolgt in der Regel entlang von Strassen- und Schienenkorridore aus der Fahrzeugperspektive. Ergänzend dazu können Bilddaten aus der Vogelperspektive einen entscheidenden Mehrwert bieten, bergen aber auch neue Herausforderungen. Aufgrund der deutlich vergrösserten Aufnahmedistanz zu den abzubildenden Infrastrukturen sind physische Stereomesssysteme unvorteilhaft, was die Bestimmung von virtuellen Stereobasen mittels bildbasierter Georeferenzierung erfordert. Für die anschliessende robuste und effiziente 3D-Bildextraktion, welche verschiedene Befliegungsmuster und Bildaufnahmekonfigurationen unterstützen soll, sind neue Ansätze gefragt. Zudem ist die effiziente Handhabung deutlich grösserer Bildformate mit der Möglichkeit zur massiven Skalierung bzw. Parallelisierung sämtlicher Prozessschritte nicht trivial.

In diesem Beitrag wird ein für beliebige Luftbildaufnahmen entwickelter Ablauf vorgestellt und systematische Untersuchungen zur Bestimmung der 3D-Information präsentiert. Dabei wird die Leistungsfähigkeit folgender drei Lösungen für die dichte Bildkorrelation (Dense Image Matching, DIM) verglichen: COLMAP, CMVS/ PMVS und SURE. Während CMVS/ PMVS direkt eine Punktwolke erzeugt, erfolgt die Punktwolkengenerierung bei COLMAP und SURE aufgrund von fusionierten Tiefenkarten. Von diesen Punktwolken werden mit den bekannten Kamerastandorten Bild-Ansichten gerendert. Diese ermöglichen einen pragmatischen und effektiven visuellen Vergleich der DIM-Resultate und erlauben die Beurteilung von Vollständigkeit und Dichte der jeweiligen Punktwolken. Vergleiche zur Detailtreue und Streuung konnten anhand von Profilen in Bereichen mit grösseren Abweichungen vorgenommen werden. Unter anderem zeigt sich, dass die Punktwolkenergebnisse mit COLMAP um ca. Faktor 30 dichter sind als jene von CMVS/PMVS. Jedoch ist auch die Rechenzeit um ein vielfaches länger.

Die vier untersuchten Anwendungsfälle zeichnen sich durch verschiedenartige Infrastrukturtypen, Befliegungsmuster und Aufnahmesensoren aus: lineare Befliegung einer Autobahn, Objektbefliegung eines Strommasts, grossflächige Befliegung einer Baustelle sowie eines Industrieareals mit Solardächern. Um die Vergleichbarkeit der Ergebnisse zu ermöglichen, dienten die mit COLMAP bestimmten äusseren Orientierungsparameter für alle DIM-Lösungen als identische Grundlage. Der implementierte automatisierte Workflow erlaubte nicht nur systematische Untersuchungen, sondern liess auch die effiziente Ermittlung von adäquaten DIM-Parametern für jeden Anwendungsfall zu.



 
Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.119
© 2001 - 2018 by Dr. H. Weinreich, Hamburg, Germany