Veranstaltungsprogramm
| Sitzung | |
KI in der O3D-Messtechnik
| |
| Präsentationen | |
11:00 - 11:30
From Classical Photogrammetry to Deep Learning: Benchmarking 3D Neural Reconstruction Models for Environmental Applications 1Dresden University of Technology, Germany; 2Universitat Politècnica de Catalunya, Spain Image-based 3D reconstruction is a fundamental task in numerous environmental applications, such as surface mapping, topography and bathymetry. Moreover, 3D models can be used to track change in objects and surfaces (e.g. erosion and deposition, rockfall and glacier movement). Traditionally, this task has been accomplished using visual-geometry methods, primarily Structure from Motion (SfM) and Multi-View Stereo (MVS). To ensure tractability, the standard SfM/MVS workflow requires solving a series of minimal problems, such as matching tie points between image pairs, estimating the epipolar geometry, and performing point triangulation, determining camera poses, and executing dense reconstruction. Each of these minimal problems is interdependent and usually solved sequentially; consequently, an inadequate solution at any stage can propagate errors and introduce noise into the final 3D reconstruction. Given that these problems, and the overall reconstruction pipeline, are differentiable, they can be directly approached using data-driven techniques, particularly deep neural networks. Deep learning has been successfully employed to enhance various components of the SfM pipeline, with notable improvements in feature extraction, image matching, and feature refinement. As deep learning architectures have become increasingly sophisticated, several models have emerged as end-to-end trainable solutions for 3D reconstruction, addressing the full problem through unified, feed-forward frameworks. Models such as DUSt3R and MASt3R directly estimate interior camera parameters, poses, geometry, and aligned dense point clouds from image pairs. More advanced architectures, including MV-DUSt3R and VGGT, extend these capabilities to multi-view inference, enabling multi-view reconstruction within a single framework. Although these models can perform unconstrained multi-view inference, they typically rely only on images and simple pinhole camera models. Recent approaches, such as MapAnything, overcome some of these limitations by supporting multimodal inputs (e.g., images, camera intrinsics, poses, and depth) and accommodating diverse camera models. However, these models are generally developed and trained on benchmark computer vision datasets, and their geometric accuracy in challenging real-world scenarios, such as environmental applications, remains to be thoroughly evaluated. The primary objective of this study is to benchmark deep learning-based 3D reconstruction models across a range of environmental applications. This work represents an initial step toward understanding the potential of deep learning methods as viable alternatives to traditional SfM/MVS pipelines in environmental contexts, highlighting their capabilities, limitations, and avenues for future advancement. 11:30 - 12:00
Realistische 3D-Viewer durch Gaussian Splatting – Neue Möglichkeiten in der 3D-Visualisierung Laserscanning Europe GmbH Gaussian Splatting ist ein neuartiger Ansatz zur Erstellung hochrealistischer 3D-Visualisierungen, der aus der Forschung im Bereich der neuronalen Renderingverfahren hervorgegangen ist. Im Gegensatz zu klassischen Punktwolken oder Mesh-Modellen nutzt Gaussian Splatting eine kontinuierliche, probabilistische Darstellung der Szene, wodurch sich beeindruckend flüssige und fotorealistische Echtzeit-Viewer erzeugen lassen. In diesem Vortrag wird gezeigt, wie sich diese Technologie in der Praxis des Laserscannings einsetzen lässt – von der Datenerfassung über die Verarbeitung bis hin zur interaktiven Präsentation. Anhand konkreter Beispiele wird demonstriert, wie sich aus realen Scans mittels Gaussian Splatting immersive 3D-Viewer erstellen lassen, die sowohl für Kundenpräsentationen als auch für technische Analysen neue Maßstäbe setzen. Außerdem werden die verwendeten Geräte und Workflows vorgestellt, mit denen Laserscanning Europe diese Technologie bereits erfolgreich in die Anwendung bringt. 12:00 - 12:30
Nahechtzeit Change Detection Tool für die photogrammetrische Hochwasservorsorge Institut für Wasserbau und Wasserwirtschaft, Technische Hochschule Nürnberg Georg Simon Ohm, Deutschland Hochwasserereignisse können eine Gefahr für Menschenleben und Infrastruktur darstellen. Die Ereignisse können kurzfristig und schnell (sturzflutartig) mit relativ wenig Vorwarnzeit stattfinden oder sich bereits lange im Voraus durch Niederschlagsprognosen ankündigen und sich über mehrere Tage bis Wochen hinweg ausbilden. Insbesondere zur Vorsorge zuletzt genannter Hochwasserereignisse ist eine verlässliche Wechselwirkung zwischen Hochwasserprognose und Hochwasservorsorge unerlässlich. Das Schadenspotenzial von beweglichen Materialien, welche aufgrund von Hochwasserereignissen mobilisiert werden und zu Verklausungen und infrastrukturellen Schäden führen können, findet in der derzeitigen Risikobewertung kaum Berücksichtigung. In den Kartenmaterialien (HWGK und HWRK), welche zur Bewertung des Hochwasserrisikos Anwendung finden, wird die Infrastruktur lediglich anhand ihrer „festen“ Strukturen zum Zeitpunkt der Kartenerstellung abgebildet. Kurzfristig umgesetzte Veränderungen sowie bewegliche Materialien, welche während des Hochwasserereignisses mobilisiert werden und zu Schäden führen können, werden in diesen Betrachtungen nicht berücksichtigt. Daher gilt es neue Ansätze zu entwickeln, durch die vor einem Hochwasserereignis eine genaue und schnelle Analyse von vulnerablen Bereichen mit hohem Überflutungsrisiko möglich ist. Zu diesem Zweck wurde ein Change Detection Tool (CDT) entwickelt, das der Erfassung und der Analyse von Veränderungen in nahezu Echtzeit in potenziellen Hochwassergebieten dient. Das Tool ermöglicht, auf Basis von Luftbilddaten mögliche Gefahren durch mobilisierbare Objekte, etwa Fahrzeuge, Container oder Baumaterialien, frühzeitig zu erkennen und damit einen Beitrag zur Hochwasservorsorge und Gefahrenabschätzung zu leistet. Die rein optische Analyse mittels semantischer Segmentierung, wie sie in vielen KI-Anwendungen durchgeführt wird, ist mit einem hohen zeitlichen Vorbereitungsaufwand und einem hohen Bedarf an Trainingsdaten verbunden. Um die Gefahrenabschätzung für eine Vielzahl von Untersuchungsgebieten mit minimalem Vorbereitungsaufwand und zeitwirtschaftlichen Berechnungs- und Aufnahmedauern durchführen zu können, basiert die Analyse des CDT auf den Vergleich geometrischer Attribute, wobei die Differenz anhand von photogrammetrisch erzeugten Punktwolken ermittelt wird. Durch die geometrische Identifikation von Veränderungen ist eine hohe Übertragbarkeit auf unterschiedliche Untersuchungsgebiete und Messsysteme gegeben, wodurch sich vielfältige Einsatzmöglichkeiten für das CDT ergeben. | |