Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
K2: Kurzpräsentationen
Zeit:
Mittwoch, 13.03.2024:
10:30 - 11:30

Chair der Sitzung: Norbert Haala
Ort: D125


Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Von der LiDAR-Punktwolke zur Anwendung für die Bundesverwaltung - Ableitung von Geoobjekten für den Digitalen Zwilling Deutschland

T. Herbst, M. Hannemann, P. Borrmann

Bundesamt für Kartographie und Geodäsie, Deutschland

Das Bundesamt für Kartographie und Geodäsie (BKG) arbeitet derzeit an einem „Digitalen Zwilling Deutschland“ (DigiZ-DE) für die Bundesverwaltung. Der DigiZ-DE wird ein intelligentes, räumliches, digitales Abbild Deutschlands sein, das bspw. die Simulation verschiedener Zukunftsszenarien auf einer gemeinsam genutzten technischen Plattform ermöglicht. Durch die deutschlandweite Abdeckung soll der DigiZ-DE Bundesverwaltungen in ihren Entscheidungsfindungen bei raum- und geobezogenen Aufgaben zukünftig unterstützen. Das BKG bietet mit dem DigiZ-DE eine Dienstleistung für die Bundesverwaltung an, um deren Bedarfe und die daraus resultierenden Anwendungsfälle umzusetzen. Ein entscheidender Schritt bei der Entwicklung ist es, Anwendungsmöglichkeiten gemeinsam mit den Bedarfsträgern praxisnah zu entwickeln, zu erproben und zu validieren.

Eine wesentliche Datengrundlage des DigiZ-DE bildet ein hochpräzises 3D-Modell, das mithilfe luftgestützter Laserscan-Technologie LiDAR (Light Detecting and Ranging) für die ganze Bundesrepublik erstellt wird. Mit dieser Sensorik wird die Oberfläche mit einer Punktdichte von mehr als 40 Punkten pro Quadratmeter erfasst und in einer vorklassifizierten Punktwolke entsprechend der Standardklassen geliefert. Die ALS (Airborne Laserscanning)-gestützte Befliegung wird während der Vegetationsperiode in den Jahren 2024 und ggf. 2025 stattfinden. Dabei ist es nicht auszuschließen, dass verschiedene Laserscanner-Sensoriken für den Überflug zum Einsatz kommen könnten.

Um spezifische Fragestellungen im Rahmen der Umsetzung von Anwendungsfällen bearbeiten zu können, müssen die LiDAR-Daten zunächst standardisiert aufbereitet werden. Die Aufbereitung und Prozessierung der hochaufgelösten LiDAR-Daten stellt aufgrund der Vielzahl verschiedener in der Datengrundlage enthaltenen Objekte und ihrer Merkmale sowie der umfangreichen Datenmenge eine fachliche und technische Herausforderung dar, die von der Bundesverwaltung und anderen Nutzern nicht immer bewältigt werden kann. Daher ist es notwendig, durch Vorprozessierung eine Datengrundlage aus den Rohdaten zu schaffen, die sich einerseits am Bedarf orientiert und gleichzeitig Flexibilität im Hinblick auf die vielfältigen Fragestellungen bietet. Zu den Prozessierungsschritten zählen unter anderem die Segmentierung spezifischer Geoobjekte in eindeutige Instanzen, die Ableitung von Objektmerkmalen, die Verfeinerung der bereits vorhandenen Klassifikationen der Punktwolken. Auf diese Weise werden Redundanzen in der Prozessierungskette vermieden und standardisierte Ausgangsbedingungen für die Entwicklung von Analysen geschaffen. Mögliche Objects of Interests sind dabei Einzelbäume, Gebäude oder auch Windkraftanlagen. Am Beispiel eines Objekttyps soll der Arbeitsablauf und das zugehörige Datenmodell vorgestellt werden. Die im Rahmen dieses Prozesses generierten „Modelldaten“ sollen außerdem einer breiteren Öffentlichkeit zur Verfügung gestellt werden.



SDDI - MINIMAL ECOSYSTEM FOR THE ESTABLISHMENT OF URBAN DIGITAL TWINS

M. Knezevic, A. Donaubauer, T. H. Kolbe

Technische Universität München, Lehrstuhl für Geoinformatik, Deutschland

Cities are complex systems involving diverse stakeholders with different interests and knowledge of various aspects of physical urban elements. Integrating, managing, and visualizing information from distributed sources, especially in Urban Digital Twins (UDT) development, is a common challenge. Arising from diverse digital resources (sensor measurements, point clouds, geospatial data, spreadsheets, simulation results) across stakeholders, it serves various applications. A UDT is a distributed system of systems. To digitize and maintain physical urban objects in a distributed UDT, an essential and robust management system is needed. UDT management occurs at two levels: Digital resource level (static and real-time data, analytics, simulation tools) indicates the contributing organization, detailing resource combinations for specific use cases and the level of individual digital objects representing physical city elements where the system must offer stable identifiers for digital reference objects. These act as anchors for integrating and visualizing information in a distributed framework that spans the entire lifecycle of these entities.

To address these needs, we'll present our minimal ecosystem concept for establishing and managing distributed UDTs.



ADA: Eine föderale API zur Beschaffung von Geodaten

C. Frank, R. Steinke, A. Willner, R. Figura

CISS TDI GmbH, Deutschland

Das Auffinden und Beziehen von Geodaten ist häufig mit hohen Aufwänden verknüpft. Insbesondere Daten, welche den Länderhoheiten unterstehen, stellen hier eine besondere Herausforderung dar. Im Rahmen eines bereits abgeschlossenen Forschungsprojekts namens BAB, gefördert vom BMDV, untersuchte die CISS TDI diese Herausforderungen für den föderalistisch geprägten Datensatz ALKIS. Hierbei wurde eine heterogene Datenlandschaft bzgl. Aktualisierung, Datenmodell, Abgabeweg und Ansprechpartner für die 16 Bundesländer identifiziert. Mit ADA, dem vom BMDV geförderten Anschlussprojekt, wird nun eine Verminderung der Auffindbarkeits- und der Bezugsaufwände mittels einer föderalistischen API zum nutzerfreundlichen Bezug von länderübergreifenden ALKIS-Daten angestrebt.

In diesem Beitrag wird die neu entwickelte/zu entwickelnde ALKIS Datenbeschaffungs-API (ADA) und dessen Beitrag zur Verbesserung der Auffindbarkeit, sowie zur Vereinfachung der Bestellung von ALKIS dargestellt.



Gauß-Zentrum “Der zeitliche Wandel von Geodaten”: Forschungsagenda und aktueller Stand

M. Dorozynski1, T. Werner2, M. Fangueng3, F. Thiemann3, F. Rottensteiner1, T. Brinkhoff2, P. Otto4, M. Sester3, T. Dahms5, M. Hovenbitzer5

1Institut für Photogrammetrie und GeoInformation, Leibniz Universität Hannover; 2Institut für Angewandte Photogrammetrie und Geoinformatik, Jade Hochschule Wilhelmshaven / Oldenburg / Elsfleth; 3Institut für Kartographie und Geoinformatik, Leibniz Universität Hannover; 4School of Mathematics and Statistics, University of Glasgow; 5Bundesamt für Kartographie und Geodäsie

Die Identifizierung von Veränderungen der Landbedeckung sind von großem Interesse für Untersuchungen verschiedener räumlicher Prozesse, zum Beispiel im Kontext von Fragen der Entwicklung von besiedelten Flächen oder des Umweltschutzes. Vor diesem Hintergrund hat das Bundesamt für Kartographie und Geodäsie (BKG) das Gauss-Zentrum ins Leben gerufen (https://www.bkg.bund.de/DE/Forschung/Gauss-Zentrum/der-zeitliche-wandel_cont.html). In Zusammenarbeit mit der Leibniz Universität Hannover und der Jade Hochschule Oldenburg werden Methoden zur automatisierten Klassifizierung, Organisation und Analyse von Geodaten unterschiedlichen Alters und unterschiedlicher Qualität entwickelt. Somit soll eine computergestützte Analyse von Zeitreihen ermöglicht werden. Im Projekt werden als Datengrundlage existierende historische und aktuelle Luftbildaufnahmen sowie Kartendaten herangezogen, wobei für jüngere Zeitpunkte zudem digitale topographische Daten und Satellitenbilder berücksichtigt werden (siehe Abbildung 1).

Die Informationen über die jeweilige Landbedeckung sind in einem Großteil der Daten lediglich implizit enthalten (Bilddaten bzw. gescannte Kartendaten). Um die angestrebte automatisierte Analyse zu ermöglichen, müssen die originären Rasterdaten zunächst gemäß einem vorgegebenen Objektartenkatalog segmentiert und damit digitalisiert werden. Alle Daten, d.h. sowohl die originären Rohdaten als auch die Ergebnisse der Segmentierung, werden in einer Datenbank vorgehalten. Diese Repräsentation ist dann auch die Basis für die automatische raum-zeitliche Analyse, die im Projekt auf Grundlage statistischer Untersuchungen durchgeführt werden wird.

Damit dieser Arbeitsablauf möglich wird, sind verschiedene offene Forschungsfragen zu lösen, etwa: Wie lassen sich historische und aktuelle Daten gemeinsam speichern? Mittels welcher Strukturen können Daten unterschiedlicher Herkunft in einer Datenbank in Einklang gebracht werden? Wie können Veränderungen über die Zeit automatisch analysiert werden? Welche Objektarten lassen sich zuverlässig und mit welcher Genauigkeit aus historischen Geodaten ableiten?

Für die automatische Ableitung der Landbedeckung aus den historischen und aktuellen Daten sollen größtenteils Deep Learning Verfahren eingesetzt werden. Hier stellt sich die Frage nach der Art der Architekturen und insbesondere auch der Übertragbarkeit. Abschließend soll festgestellt werden, ob sich wesentliche Einflussfaktoren für ausgewählte räumliche Prozesse, wie zum Beispiel Urbanisierung, aus den Ergebnissen einer statistischen Zeitreihenanalyse identifizieren lassen. Im Rahmen des Projekts sollen diese offenen Fragestellungen anhand von mehreren geeigneten Testgebieten in Deutschland beantwortet werden. Im vorliegenden Beitrag wird der aktuelle Stand des Projekts mit ersten Ergebnissen zu einigen der genannten Fragestellungen präsentiert.

Als Basis zur Organisation von raumzeitlichen Daten erfolgt der Einsatz eines Geodatenbanksystems (ALAM et AL., 2022), welches im Zusammenspiel mit standardisierten Schnittstellen einen interoperablen Datenaustausch ermöglicht. Grundsätzlich ist das Ziel der Klassifikation die Prädiktion einer Landnutzungsklasse in der Klassenstruktur aus dem Projekt Cop4ALL (Sandmann et al., 2022).

In einem ersten Experiment werden Luftbilder mit einer Bodenauflösung von 20 cm im Raum Hameln für das Jahr 2022 zur Klassifikation herangezogen, wobei zunächst auf Grund der aktuell noch eingeschränkten Verfügbarkeit von Trainingsdaten nur eine binäre Klassifikation zur Unterscheidung von Gebäuden und anderen Landbedeckungsarten implementiert wurde. Als Klassifikator dient zunächst ein Convolutional Neural Network (CNN; Krizhevsky et al., 2012), wobei im weiteren Verlauf des Projekts auch Attention-basierte Verfahren, z. B. (Liu et al., 2021), genutzt werden sollen. Um zu solch einer pixelweisen Klassifikation zu kommen, wird zunächst ein U-Net (Ronneberger et al., 2015) mit einem Xception Backbone (Chollet et al., 2017) als Encoder als Klassifikator herangezogen. Der Klassifikator wird mittels stochastischem Gradientenabstiegsverfahren mit Momentum zur Minimierung der Softmax-Kreuzentropie und Early Stopping basierend auf dem F1-Maß auf einem Validierungsdatensatz trainiert (Lernrate: 0,002; Momentum: 0,9). Auf dem unabhängigen Testdatensatz kann ein mittleres F1-Maß von 93,7 % und eine Gesamtgenauigkeit von 95,5 % erreicht werden.

Im Rahmen eines weiteren Gemeinschaftsprojektes des BKG mit dem Leibniz-Institut für ökologische Raumentwicklung (IÖR) werden die vom Gauss-Zentrum entwickelten Methoden eingesetzt und die flächendeckend produzierten Ergebnisdaten im IÖR-Monitor veröffentlicht.



Konzept zur methodischen Klassifizierung, Zuweisung von Attributen und Labeling von Fassadenelementen in Kamerabildern zur Level of Detail 3 (LOD3) Rekonstruktion von Gebäuden

F. Frank1, P. Buckel2, L. Hoegner3

1IWT gGmbH, Deutschland; 2DHBW Ravensburg, Deutschland; 3Hoschschule München, Deutschland

Im Rahmen des LevelUp-Forschungsprojektes (FKZ. 01IS23037C) beschäftigt sich das Institut für Technik und Wirtschaft (IWT) mit der photogrammetrischen Rekonstruktion von LOD3-Gebäuden. Die Rekonstruktion erfolgt anhand von zuvor aufgenommener Bildsequenzen, mit exakten Positions- und Winkelinformationen, in zwei Schritten. Im ersten Schritt werden die Fassadenelemente instanziiert segmentiert und zweiten Schritt erfolgt die dreidimensionale Fassadenrekonstruktion. Die instanziierte Segmentierung soll mithilfe von Deep Learning erfolgen. Die Trainings- und Validierungsdaten benötigen dabei eine vollständige Klassifizierung der Fassadenelemente. Die Klassifizierung ist sehr komplex, da einzelne Objekte hierarchisch voneinander und untereinander abhängig sein können. Zudem können die Objekte eine Vielzahl von Attributen aufweisen. Exemplarisch kann hierfür die hierarchische Verbindung von: Wand, Fensterrahmen, Fensterflügel, Glas-Element aufgeführt werden. Attribute eines Fensterflügels sind unter anderem der Öffnungszustand und die Öffnungsrichtung.
Ziel dieser Arbeit ist daher die Entwicklung eines Konzepts zur Klassifizierung und zur Zuweisung von Attributen der Fassadenelemente zur instanziierten Segmentierung in Outdoor-Bildern. Als Grundlage zur Klassifizierung und Attributerstellung wurden bestehende Vorarbeiten im Bereich der Klassifizierung von LiDAR Systemen, Normen im Hausbau (z.B. VDI 2552 – Building Information Model), von Fassadenelemente (z.B. DIN EN 612 für Regenrohre) sowie Dateiformatstandards (z.B. CityGML) auf Anwendbarkeit zur Segmentierung evaluiert. Auf Basis der Evaluation wurde ein hierarchisches Klassendiagramm zur instanziierten Segmentierung entwickelt. Mithilfe des Klassendiagramms wurden anschließend Bilder gelabelt. In der Anwendung stellten sich zuvor nicht berücksichtigte Sonderfälle heraus, wie beispielsweise Gerüste vor Gebäuden, Sicherheitsfangeinrichtungen auf Dächern, Lochblechbalkonverkleidungen oder Briefkästen in Vorbauten. Aus diesen Sonderfällen ergab sich eine iterative Anpassung der Klassen und Attribute während des Labeling-Prozesses. Eine geeignete Label-Form je Klasse wurde während des Labeling-Prozesses abgeleitet. Die Überlagerung einzelner Objekte innerhalb von zweidimensionalen Bildern, wie z.B. Bäume vor einem Haus, führen zu dreidimensionalen, tiefenversetzten Informationen, die auf die Abhängigkeit einzelner Objektklassen untereinander auswirkt. Aus diesen Abhängigkeiten wurde ein Best Practice Vorschlag für einen effektiven Labeling-Prozess erarbeitet.
Zusammengefasst ist das Ergebnis dieser Arbeit ein Vorschlag eines praxistauglichen Labeling-Konzepts zur instanziierten Segmentierung von Fassadenelementen in Bildern. Das Konzept besteht aus einem hierarchischen Klassendiagramm mit Elementattributen sowie einer praxisorientierten und effektiven Vorgehensmethode für den Labeling-Prozess.



Concept for Uncertainty-Aware Implicit 3D Geometry

M. Heiken1, M. Mehltretter1, M. Hillemann2, M. Ulrich2, C. Heipke1

1Leibniz Universität Hannover, Deutschland; 2Karlsruher Institut für Technologie

Der formatierte Text befindet sich im Anhang. Zusammenfassung des Abstract:

In this paper, we present a concept for the representation and determination of uncertainty-aware implicit 3D geometry. Furthermore, we investigate ideas to apply uncertainty-aware implicit 3D geometry to the tasks of 3D surface reconstruction and the detection of anomalies in the 3D geometry of objects.



A Visual Comparison of Density-Based and Surface-Based Neural Radiance Fields for Geometric Scene Reconstruction

P. Hübner, D. Iwaszczuk

Technical University of Darmstadt, Department of Civil and Environmental Engineering, Remote Sensing and Image Analysis, Germany

Since their emergence in 2020, Neural Radiance Fields (NeRFs) [1] have caused a tremendous surge in research efforts in the domain of computer graphics, specifically in novel-view rendering. The original NeRF formulation represents scenes as continuous implicit fields assigning each point in 3D space density and radiance values. This implicit field is represented by the learned weights of a neural network and optimized by sampling rays from training images with known poses and comparing the radiance accumulated along the ray weighted by density with the respective pixel color.

Already early on in NeRF research, variants have been proposed where the density field is replaced by an implicitly modeled surface in the form of a distance field [2]. This distance field assigns each point in 3D space a signed distance value to the nearest surface which is represented as the zero-crossing of the underlying signed distance function.

For both, density-based and surface-based NeRF variants, numerous approaches have been proposed in the last years. Commonly, surface-based variants were held to yield better scene geometry while being inferior in terms of rendering quality in comparison to density-based approaches. However, in a recent evaluation study [3], surface-based NeRFs showed consistently lower geometric quality compared to ground truth data then density-based approaches. Inspired by this surprising finding, we aim to take a closer look at the scene geometry of both NeRF variants.

In doing so, we want to eliminate the additional step of deriving explicit geometry representations such as point clouds or triangle meshes from the implicit fields and take a closer look at the implicit fields themselves. This is realized by rastering cross-sections through the scene in high resolution and visualizing the density/distance values with a suitable color scale. This approach reveals interesting differences in terms of spatial distribution and range of absolute density.

values between different density-based NeRF variants. Furthermore, densitybased and surface-based approaches can be directly compared visually without the additional influence of meshing or point cloud retrieval which can behave differently for both variants and thus distort an unbiased evaluation.

An examplary visualization of cross-sections through the ’Ficus’ dataset used by Mildenhall et al. [1] is depicted in Figure 1.

References

[1] Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, and Ren Ng. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis. In European Conference on Computer Vision (ECCV), pages 405–421, 2020.

[2] Peng Wang, Lingjie Liu, Yuan Liu, Christian Theobalt, Taku Komura, and Wenping Wang. NeuS: Learning Neural Implicit Surfaces by Volume Rendering for Multi-view Reconstruction. In Advances in Neural Information Processing Systems (NeurIPS), volume 34 (pre-proceedings), pages 1–13, 2021.

[3] Fabio Remondino, Ali Karami, Ziyang Yan, Gabriele Mazzacca, Simone Rigon, and Rongjun Qin. A Critical Analysis of NeRF-Based 3D Reconstruction. Remote Sensing, 15(14):3585:1–22, 2023.

[4] Matthew Tancik, Ethan Weber, Evonne Ng, Ruilong Li, Brent Yi, Justin Kerr, Terrance Wang, Alexander Kristoffersen, Jake Austin, Kamyar Salahi, Abhik Ahuja, David McAllister, and Angjoo Kanazawa. Nerfstudio: A Mod



How to Evaluate NeRF Geometry: A Comparative Evaluation of Different Approaches to Derive Explicit Geometry from Neural Radiance Fields

L. Weber1, P. Hübner2, T. Wirth3, A. Kuijper4,5, D. Iwaszczuk2

1Technical University of Darmstadt, Germany; 2Technical University of Darmstadt, Department of Civil and Environmental Engineering, Remote Sensing and Image Analysis, Germany; 3Technical University of Darmstadt, Department of Computer Science, Interactive Graphics Systems Group, Germany; 4Technical University of Darmstadt, Department of Computer Science, Mathematical and Applied Visual Computing, Germany; 5Fraunhofer IGD, Germany

Neural Radiance Fields (NeRFs) [1] are used to optimize a neural scene representation based on a set of given training images with poses. This scene representation, in the original formulation, consists of an implicit density and radiance field where a multi-layer perceptron learns to regress density values for given spatial coordinates in 3D space and radiance values which additionally depend on the viewing direction. This implicit field is trained via differential volume rendering. The original purpose of the approach is to render realistic images for new poses not included in the training set. However, the underlying density field also holds promise for image-based reconstruction of scene geometry. In this regard, NeRFs can be seen as equivalent to the dense reconstruction multi-view stereo step of the classic photogrammetric pipeline [2]. In first evaluation studies, they have proven to yield complementary properties in terms of reconstruction quality showing promising results particularly in those aspects such as texture-poor and reflecting scene surfaces where classical photogrammetry has weaknesses [3].
However, different works which target NeRF geometry evaluation have so far used different methods to derive explicit geometry like point clouds or tri1 angle meshes from the implicit density field represented by the neural network. Some works like Remondino et al. [3] apply meshing algorithms like Poisson or Marching Cubes to the density field with suitable parameters for e.g. density thresholds. Others discretize the density field in a brute-force manner and extract point clouds from the resulting voxel grid, either by directly applying thresholds on the density itself [4] or its spatial gradient [5]. Finally, point clouds can be extracted from trained NeRFs by determining the accumulated transmittance along rays through the scene [6].
The aim of this work is to investigate, which of the different methods are best suited to accurately represent explicit scene geometry. Thus, its main aim is not to evaluate the quality of NeRF-based geometry reconstruction per se, but to clarify in which way NeRF geometry ought to be evaluated. To this aim, we apply the different methods for deriving explicit geometry from implicit density fields mentioned above and quantitatively compare the resulting geometry against available reference data. In doing so, we consider different dataset characteristics as well as different NeRF variants.

References
[1] Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, and Ren Ng. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis. In European Conference on Computer Vision (ECCV), pages 405–421, 2020.

[2] Johannes L. Schönberger, Enliang Zheng, Jan-Michael Frahm, and Marc Pollefeys. Pixelwise View Selection for Unstructured Multi-View Stereo. In European Conference on Computer Vision (ECCV), pages 501–518, 2016.
[3] Fabio Remondino, Ali Karami, Ziyang Yan, Gabriele Mazzacca, Simone Rigon, and Rongjun Qin. A Critical Analysis of NeRF-Based 3D Reconstruction. Remote Sensing, 15(14):3585:1–22, 2023.

[4] M. Jäger, P. Hübner, D. Haitz, and B. Jutzi. A Comparative Neural Radiance Field (NeRF) 3D Analysis of Camera Poses from HoloLens Trajectories and Structure from Motion. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLVIII-1/W1-2023: 207–213, 2023.
[5] M. Jäger and B. Jutzi. 3D Density-Gradient Based Edge Detection on Neural Radiance Fields (NeRFs) for Geometric Reconstruction. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLVIII-1/W3-2023:71–78, 2023.
[6] D. Haitz, B. Jutzi, M. Ulrich, M. Jäger, and P. Hübner. Combining HoloLens with Instant-NeRFs: Advanced Real-Time 3D Mobile Mapping. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLVIII-1/W1-2023:167–174, 2023.



Investigating the Relationship between Image Quality and Crowdsourcing for Labeling

L. E. Budde1, D. Collmar2, U. Sörgel2, D. Iwaszczuk1

1Technische Universität Darmstadt, Fachbereich Bau- und Umweltingenieurwissenschaften, Fachgebiet Fernerkundung und Bildanalyse, Deutschland; 2Universität Stuttgart, Institut für Photogrammetrie und Geoinformatik, Deutschland

The quality of training data and the performance of machine learning approaches using those data stand in direct correlation: Even the best algorithms are not able to compensate low-quality training data, making the use of high-quality training data essential. However, generating high-quality training data is not trivial, especially as these data are required in large quantities. A common approach is the use of paid crowdsourcing, where a single large task is split into many small tasks, called “microtasks”, which are then outsourced to a heterogeneous group of people. Resulting data quality is contingent upon two key factors: the performance of the workers executing the microtasks and the intrinsic quality of the initial data set utilized for these tasks. If the data basis is of poor quality, so are the tasks performed by the crowd. In the context of 2D imagery, where a typical task lies in the segmentation or collection of geometries using polygons. Limiting factors, such as poor radiometry that leads to low-quality images, must be taken into consideration when evaluating data acquired through crowdsourcing

We examine the relationship between image quality and the output performance of crowdsourcing tasks. We evaluate over 100 RGB image pairs, consisting of the raw drone imagery as well as of the processed orthoimages. Each image pair contains a single tree and surrounding areas, taken in an orchard in southern Germany. We compare different image quality assessment metrics e.g. BRISQUE score, SNR, edge score, contrast score and blur effect score to their usability with drone images. Following a comprehensive correlation analysis that integrates these measures, we establish an absolute quality ranking. Subsequently, we process all orthoimages via crowdsourcing, by collecting the geometry of all tree outlines by multiple crowdworkers each. We then evaluate the distribution and spread of all acquired crowd acquisitions for each image individually, resulting in a quality metric for assessing the deviation of acquisitions.

First experiments show the highest correlation between SNR and edge score and SNR and contrast score. At the same time, the scores differ between the raw and orthoimages significantly according to a T-test. For images with easily recognizable shapes, less deviations in different crowd acquisitions are measurable, while the opposite is the case for images of poorer quality. We compare this deviation metric to the previously calculated measures describing the image quality in order to evaluate relationships and correlations between the two. This enables the validation of image-analysis approaches by comparing human-based quality metrics acquired through crowdsourcing to data-based quality metrics acquired through image analysis. Using these insights not only enriches the quality evaluation of crowdsourced data by including quality information about underlying imagery but also provides a way to generally validate the subjective human-based assessments obtained via crowdsourcing with quantifiable data.



Simulation based analysis of high precision UAV tracking with robotic total stations

L. Dammert1, D. Monetti2, T. Thalmann1, H.-B. Neuner1, G. Mandlburger1

1Technische Universität Wien, Österreich; 2Skyability GmbH

Measurements from kinematic platforms such as UAVs are an integral part of modern mapping systems and require trajectory information to georeference the acquired data of onboard sensors often limiting the overall accuracy of the acquired data. Therefore, the desire for reliable and more accurate trajectory data of these kinematic platforms is present in a wide range of applications, ranging from infrastructure monitoring to robotics to photogrammetry. Improving the trajectory accuracy is the central goal of the TrackDrone research project, which uses a decentralized multi-sensor approach, where the involved sensors are spatially separated in a ground segment and a kinematic segment. This enables new possibilities for determining the position and orientation of the measurement platform by combining Robotic Total Stations (RTS), Image Assisted Total Stations (IATS), inertial measurement units, and imaging sensors like cameras or laser scanners.

RTS are often selected to measure trajectories of kinematic platforms, either to assess the accuracy of an IMU/GNSS-based navigation solution or as a measuring instrument for determining the trajectories themselves. However, there is a scarcity of comprehensive research on the capabilities of RTS in such scenarios, especially when high velocities and distances of these platforms relative to the RTS are taken into account.

The above mentioned issues are tackled in the TrackDrone project which among other things aims to accurately determine the achievable performance of modern RTS to track airborne kinematic platforms. Providing a more accurate solution than traditional GNSS based trajectories and enabling absolute trajectory determination in GNSS denied environments. To achieve this with the highest possible accuracy, all sensors mounted on the kinematic segment are utilized and combined with the RTS data from the ground segment, resulting in an integrated trajectory estimate.

Being in its first year, the project already yields results regarding the occurring effects and their magnitudes. Additionally, correction methodologies are developed and thus first theoretical assessments based on Monte Carlo simulations can be performed to identify optimal configurations as well as limitations. Serving as the foundation for advanced research and experiments, these simulations are to be validated and extended in-situ using a geodetic reference field suitable for leveraging observations of RTS, IATS, airborne laser scanners and airborne photogrammetry to achieve highest accuracy in the trajectory determination of an airborne kinematic segment.

Within the framework of TrackDrone, existing methods for the correction of the intrinsic and extrinsic synchronization of the RTS for kinematic measurements as well as for the evaluation of images taken by the internal camera of the RTS to derive the orientation of a tracked object have been combined and implemented. For the direction-independent position determination of the platform, 360°-prisms offer reliable tracking characteristics but exhibit systematic errors due to their design; a correction model to minimize these effects has also been developed.

Uncertainties in the determination of these calibration parameters and thus in the corrected solution when applying these calibrations can be modeled using Monte Carlo simulation, allowing a reliable estimation of the achievable accuracy. In this contribution we show simulation results for measurement configuration as well as kinematic platform characteristics.



Extraction of Kenya's Historical Road Network from Topographic Maps using Deep Learning Techniques

T. Kramm1, N. Nyamari2, V. Moseti3, D. M. Anderson4, C. Bogner2, G. Bareth1

1Universität zu Köln, Geographisches Institut, AG GIS & Fernerkundung, Deutschland; 2Universität zu Köln, Geographisches Institut, AG Ökosystemforschung, Deutschland; 3Universität Bonn, Zentrum für Entwicklungsforschung, Deutschland; 4University of Warwick, Department of History, UK

Roads in Kenya are an important driver of many environmental and socio-economic issues. Understanding how road infrastructure affects land use change, biodiversity, economic aspects, livelihoods, migration and many other factors positively or negatively over time is essential to keep balance between developing aspects and conservation. To study these multifaceted impacts of roads, consistent road datasets of high accuracy and completeness from the present and the past are essential. A poor data quality can severely impact analyses and carry the risk of misinterpretation of research results. This is particularly challenging for sub-Saharan countries such as Kenya, where digital road network data is typically scarce, especially for the periods before Open Street Map and other publicly created datasets became available. This is due to the high costs of data acquisition for national authorities. To overcome this issue of data scarcity for the country of Kenya, our goal was to extract the road network of the entire country from historical topographic maps using modern deep learning techniques.

For this purpose, more than 500 historical topographic maps at scales of 1:50,000 and 1:100,000 were acquired from different archives. As a first step, all available maps were digitised, georeferenced and sorted into different groups based on their appearance and symbolism. As the roads are depicted in different ways across all maps, more than 20 different road symbols were identified and had to be trained and classified separately. For each road symbol, an individual training dataset was generated manually by generating image chips and corresponding footprint layer. A model was trained on each training dataset and subsequently used to classify the corresponding roads on all map sheets that contained this specific road type. A python script was developed to train and classify all the maps, mainly using the ArcGIS Pro deep learning-based tool Multi-Task Road Extractor to classify the roads on each map. After classification, all results were converted from raster to vector data and merged to create a seamless road network.

Using this method, we were able to produce for the first time a highly detailed dataset representing the historic road network of Kenya between the 1950s and 1970s. However, although the proposed method generally produced good results, several issues caused by inconsistencies within the digitised maps themselves could result in parts of the roads not being detected and identified as roads by the classifier. This led to the omission of some parts of roads and the misclassification of other elements on the map that had a similar symbology to the roads. These problems had to be corrected manually after classification. Nevertheless, our preliminary results demonstrate the suitability of delineating roads from historical topographic map data at a national scale level. The proposed method could also be transferred to maps of other countries to automatically extract historic road data.



Entwicklung eines neuartigen, räumlich hochauflösenden, flugzeuggestützten multispektralen Umweltmesssystems zur Erfassung von Landoberflächen

M. Gabler, J. Palmer, S. Prokoph, U. Knauer, M. Pause, L. Bannehr

Hochschule Anhalt, Deutschland

Die Auswirkungen des Klimawandels und der damit verbundene Bedarf an innovativen Geo-Informationsprodukten für i) das Monitoring regionaler Auswirkungen und ii) die Entwicklung und Bereitstellung integrativer Planungsgrundlagen für die Klimaanpassung von Landschaften ist ein zentrales Handlungsfeld im Bereich Geoinformation und Fernerkundung.

Die flächendeckende Datenbereitstellung über Zustand und Veränderungen der Landoberfläche mittels Fernerkundung hat in den vergangenen zwei Dekaden enorme Fortschritte erzielt. Zahlreiche satellitenbasierte Erdbeobachtungsmissionen wurden realisiert oder befinden sich in der Planung für die Bereitstellung eines satellitenbasierten Langzeitmonitoring. Limitierend dabei ist die oftmals mangelnde räumliche Auflösung und zeitliche Unflexibilität (z.B. zu Extremereignissen). Seit einigen Jahren sind durch rapide technologische Fortschritte verstärkt UAVs auf dem Markt verfügbar, die speziell konzipierte RGB-, Thermal- bzw. Multispektralkameras tragen können. Diese sind jedoch aufgrund der Akkuleistung, Traglast, Datenqualität und behördlichen Vorschriften nur kleinräumig einsetzbar. Andererseits sind flugzeuggetragene Hyperspektralscanner für viele Anwendungen spektral „überdimensioniert“, da ein Großteil von Anwendungen im Umweltmonitoring in der Regel nur wenige spektrale Kanäle erfordert, um spezifische Merkmale mittels Spektraloperatoren, Indizes oder Klassifikation herauszuarbeiten.

An diesen Kriterien (große Befliegungsgebiet, spektrale und räumliche Auflösung) haben flugzeuggestützte multispektrale Messsysteme ihre Stärken und sind Entwicklung- und Forschungsgegenstand am Institut für Vermessung und Geoinformation (IGV) der Hochschule Anhalt.

Im Rahmen eines ZIM-Projektes wird aktuell am Institut für Geoinformation und Vermessung (IGV) ein flugzeuggestütztes, räumlich hochauflösendes multispektrales Umweltmesssystem
„AMC-6“ (Airborne Multispectral Camera – 6) entwickelt. Der AMC-6 Prototyp besteht aus fünf monochromen hochauflösenden Kameras und einer hochauflösenden RGB-Kamera mit jeweils 31 Mpix, die mit verschiedenen Schmal- oder Breitbandinterferenzfiltern ausgestattet werden können. Durch die Auswahl individueller Filtersatz-Konstellationen und die somit entstehenden multispektralen Bänder ist das Kamerasystem in einer Vielzahl von unterschiedlichen Anwendungsbereichen einsetzbar.

Für die Spezifikation der anwendungsorientierten Spektralfiltersets erfolgen Befliegungen über verschiedene Land- und Wasseroberflächen. Als Trägerplattform für die Entwicklung und Validierung des Systems wird der hochschuleigene Forschungsgyrocopter „D-MHSA“ vom Typ Cavalon genutzt. Der an der Hochschule Anhalt betriebene Hyperspektralscanner HySpex VNIR 1600 dient dabei als spektrale Referenz für die Ermittlung der zentralen Wellenlängen und Bandbreiten der Filter. Diese empirisch bestimmten Kanäle werden durch theoretische Strahlungstransportrechnungen mit dem Strahlungstransportmodell MODTRAN 5 untermauert bzw. optimiert. Die Spezifikation der Filtersätze erfolgt für die Ableitung von urbanen Parametern, sowie für Anwendungsbereiche in der Landwirtschaft, der Forstwirtschaft und dem Gewässermonitoring.

Der Konferenzbeitrag soll die technische und softwareseitige Umsetzung der Sensorentwicklung des „AMC-6“ sowie die ersten Ergebnisse von Versuchskampagnen präsentieren.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DGPF 2024
Conference Software: ConfTool Pro 2.8.101
© 2001–2024 by Dr. H. Weinreich, Hamburg, Germany