Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
S15: Geoinformatik II
Zeit:
Freitag, 09.03.2018:
11:15 - 12:45

Chair der Sitzung: Bettina Petzold
Chair der Sitzung: Ekkehard Matthias
Ort: Hörsaal 2760
96 PLÄTZE

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen
11:15 - 11:35

Ein Konzept zur integrierten Modellierung von Detailstufen für 3D-Gebäudemodelle

I. Karut, A. Wichmann, Y. Filippovska, M. Kada

TU Berlin, Deutschland

Die Nachfrage nach 3D-Stadtmodellen ist in den letzten Jahren deutlich gestiegen und sie werden mittlerweile in vielfältigen Anwendungsfeldern wie der Stadt- und Raumplanung, Umweltanalyse und Navigation eingesetzt. Obgleich die darin enthaltenen Gebäude mit einer immer höheren Detaillierung erzeugt werden können, haben Simulationen, Analysen und Visualisierungen häufig unterschiedliche Anforderungen diesbezüglich. Datenmodelle wie CityGML tragen diesem Umstand Rechnung, indem sie es ermöglichen mehrere Detailstufen von ein und demselben Objekt vorzuhalten. Die Speicherung von verschiedenen geometrischen Ausprägungen beinhaltet, sofern diese einen geometrischen Bezug zueinander aufweisen, jedoch zwangsläufig Redundanzen, welche infolge von Aktualisierungsvorgängen zu Inkonsistenzen führen können. Diese Problematik wird insbesondere in solchen Fällen noch weiter verschärft, in denen sehr viele Detailstufen eines Objekts mit jeweils nur geringfügigen Änderungen vorgehalten werden müssen. Aus diesem Grund ist die Entwicklung hin zu einem neuen Detailstufenkonzept von großer Relevanz, welches über die reine Erweiterung der fünf Detailstufen von CityGML um weitere Stufen hinausgeht.

In diesem Artikel wird ein Konzept zur 3D-Modellierung von Gebäuden vorgestellt, welches mehrere Detailstufen eines Objekts integriert, um die o.g. Redundanzen in der Datenhaltung zu vermeiden. Dies wird mittels Zellenzerlegung realisiert, welche den Raum in mehrere disjunkte Zellen aufteilt, wobei jede Zelle mit einer oder mehreren Detailstufen assoziiert ist. Da die Detailstufen als topologische Räume definiert sind, können Boolesche Mengenoperatoren zu deren Erzeugung angewendet werden. Die Schnittmenge aller Detailstufen eines Gebäudemodells ergibt die Basiskomponente und beschreibt damit den Gebäudeteil, der in allen Detailstufen enthalten ist. Zusätzlich dazu benötigt es weiterer Detailstufenkomponenten, die zur Basiskomponente hinzugefügt werden, um die einzelnen Detailstufen wiederherzustellen. Auch hier werden die Gebäudeteile, die in mehreren Detailstufen vorkommen, als einzelne disjunkte Zellen repräsentiert. Hierzu wird für jede Kombination von Detailstufen deren Schnittmenge gebildet, von der jeweils die Vereinigungsmenge aller Detailstufen, die nicht in die Schnittmenge eingegangen sind, abzuziehen ist. Die Differenzbildung ist notwendig, um die Überlappungsfreiheit der Zellen sicherzustellen. Obwohl die Anzahl an Kombinationen exponentiell mit der Anzahl der Detailstufen wächst, ergibt sich für einen großen Anteil dieser Kombinationen die leere Menge, so dass diese nicht weiter berücksichtig werden müssen. Die Rückgewinnung einer Detailstufe erfolgt durch das Zusammenfügen sämtlicher Zellen, die mit der entsprechenden Detailstufe assoziiert bzw. aus dieser entstanden ist. Da die Komponenten in keinerlei Bezug zueinanderstehen, können die Detailstufen direkt erzeugt werden ohne dass andere Stufen zuvor generiert werden müssen.

In der Praxis sind die Anforderungen von Anwendungsseite aus im Hinblick auf die Ausprägung von 3D‑Gebäudemodellen oftmals sehr unterschiedlich, weshalb nicht immer eine entsprechend passende Detailstufe existiert. Um diesem Aspekt gerecht zu werden, wird das vorgestellte Verfahren zur Rückgewinnung von Detailstufen um eine Methode zur Erzeugung gemischter Detailstufen ergänzt. Für geometrisch getriebene Mischformen wird eine Raumaufteilung vorgeschlagen, die jedem Teilraum je nach Anforderung eine Detailstufe zuordnet und diese mengentheoretisch kombiniert. Da die Detailstufenkomponenten als Volumenkörper vorliegen, kann die Validität der resultierenden Mischformen dabei immer gewährleistet werden.

Die Gültigkeit dieses Konzepts wird exemplarisch anhand von 3D-Gebäudemodellen demonstriert, deren vier Detailstufen mit dem vorgestellten Konzept kompakt und redundanzfrei abgespeichert, wieder rückgewonnen, sowie, gesteuert durch eine gegebene Raumaufteilung, zu geometrisch gemischten Detailstufen zusammengesetzt werden.


11:35 - 11:55

Servicebasierte On-Demand-Synthetisierung Von 3D-Raummodellen – Problemaufriss Und Lösungsansätze

A. Fricke, H. Asche, J. Döllner

Hasso-Plattner-Institut, Digital Engineering Fakultät, Universität Potsdam

Bei aktuellen raumbezogenen IT-Lösungen (SOA, SOC) spielen klassische monolithische Geoinformationssysteme (GIS) als Softwareplattform kaum noch eine Rolle, da sie die spezifischen, kleinteiligen Bedürfnisse heterogener Zielsetzungen häufig weder effizient noch effektiv bedienen können. Gleichzeitig erfordern raumbezogene Massendaten (Geospatial Big Data) modular aufbaubare, übertragbare und einfach beherrschbare Prozesse. Diese müssen auf raumbezogene Problemstellungen angewendet werden können, die häufig von Akteuren ohne georäumliche Expertise definiert werden. Die bestehende Kluft bedeutet eine Herausforderung für Planung, Konstruktion und Betrieb geodatenbasierter Anwendungen, Systeme und Services.

Vor diesem Hintergrund befasst sich der Beitrag mit Methoden und Konzepten für die servicebasierte Synthetisierung virtueller 3D-Raummodelle aus heterogenen 2D/3D-Geodatenquellen und darauf operierenden Prozessierungsservices. Das vorgestellte Vorgehen besitzt insofern eine Alleinstellung, als die Synthetisierung zu keinem Zeitpunkt für einen gesamten Raumausschnitt vorgenommen wird. Vielmehr erfolgt die Synthetisierung eines anfragespezifischen 3D-Raummodells je nach Anfrageregion situativ und parametrisiert (z.B. Auflösung und Genauigkeit eines DTM, Inklusion oder Exklusion bestimmter Attribute oder Objektkategorien). Mit GIS ist eine solche konfigurierbare, zustandsfreie Generierung kaum effizient lösbar, da sie auf sequentielle, versionsbehaftete komplexe Geodaten-Produkte ausgerichtet sind. Der Beitrag diskutiert anhand von Szenarien, welche Möglichkeiten einer Strukturierung der erforderlichen Services bestehen. Er stellt ferner einen Ansatz vor, wie mit einer kleinen Zahl generischer Services (modularer Service-Baukasten) virtuelle 3D-Raummodelle teilautomatisch generiert werden können.

Der vorgestellte Ansatz ordnet sich methodisch in den Bereich Servicification ein, der entscheidend für die digitale Transformation von Workflows in nahezu allen Anwendungsdomänen ist. Dementsprechend liegt der Fokus auf der Entwicklung einer Prozesskette, die modulare Dienste verfügbar macht (vergleichbar einer Rendering-Pipeline in der 3D-Computergrafik). Diese Dienste ermöglichen, heterogene multisensorale 2D/3D-Geodaten, deren einzige Gemeinsamkeit die räumliche Referenz ist, bei spezifizierten Anwendungen zur Synthese virtueller 3D-Raummodelle zu verwenden. Um ein integriertes 3D-Raummodell zu erstellen, werden beispielsweise fusionierte Sensordaten in einem synthetisierten Datensatz betrachtet. Dieser repräsentiert einerseits einen erhöhten Informationsgehalt und ermöglicht andererseits eine Validitäts- und Konsistenzprüfung zur Prozessoptimierung und Qualitätssicherung.

Grundsätzlich erfordert die requestbasierte, möglichst echtzeitfähige Erzeugung eines komplexen Geodatenprodukts generische Filteroperationen, die als Services entworfen, implementiert und betrieben werden. Dies gilt insbesondere für die Datenaufbereitung. Dabei definiert der Request die Granularität der einzusetzenden Services. Einzelne Prozessbausteine, wie beispielsweise die Integration und Harmonisierung, werden mit Methoden des Data Engineering bis auf die Ebene von Mikroservices zerlegt. Es entstehen elementare, generische Primitive. Diese können dann anwendungsunspezifisch (quantitativ/qualitativ/temporal) komponiert, verkettet oder sequenziert werden. Dieser feingranulare Ansatz ist skalen- und regionsunabhängig.

Damit ergeben sich völlig neue Einsatzgebiete, weil für verschiedene Anwendungsdomänen definierte Pattern hinterlegt werden können. Diese initiieren einen adaptierten, teilautomatischen Prozess und erzeugen so ein spezifisches, generalisiertes oder detailliertes virtuelles 3D-Raummodell mit definiertem Inhalt sowie Gestaltung. Derartige Raummodelle werden für eine angefragte Region/Anwendung on-demand komponiert und konfektioniert.

Methodik und Konzepte werden an einem Fallbeispiel aus der Polarforschung untersucht. Hierfür lagen regionale Geodaten über das Permafrostrelief vor. Als initiale Services wurden Referenzierung, Inventarisierung und Change Detection identifiziert. Die wesentlichen Implementierungsprobleme lagen in der Masse der Daten und Komplexität des Workflows. Als Anwendungsfall wurde ein Verfahren entwickelt, das es erlaubt, das Ausmaß raumzeitlicher Reliefveränderungen zu bestimmen.


11:55 - 12:15

Mixed Reality Anwendungen mit 3D-Stadtmodellen

M. Christen, U. Clement, A. Meyer

FHNW Fachhochschule Nordwestschweiz, Schweiz

Mit einer Augmented Reality App soll der Bevölkerung der Stadt Basel einen neuen Einblick geboten werden. In vier Modulen wird der offizielle Stadtplan mit interaktiven Grafiken bereichert. Zunächst kann das komplette 3D-Stadtmodell überlagert werden, dabei können unterschiedliche Layer wie beispielsweise Fahrradrouten oder Müllabfuhrzonen aktiviert werden. Auch die Visualisierung von Untergrunddaten, wie beispielsweise der Abwasserentsorgung, kann eingeblendet werden.

Das zweite Modul beinhaltet die Adresssuche, verbunden mit Informationen zu Quartieren und Sehenswürdigkeiten.

Ein weiteres Modul beinhaltet die Verkehrssimulation, bei der Züge, Trams und Schiffe auf der Karte überblendet werden können.

Im letzten Modul werden aktuelle Wetterinformationen augmentiert. Dabei werden unter anderem auch Wolken und Regen mit volumetrischen Ansätzen visualisiert, dessen Datengrundlagen von Live-Wetterdaten stammen.

In diesem Beitrag wird auch gezeigt, wie eine solche Applikation entwickelt wird und wie die Qualität der 3D-Visualisierung durch globale Beleuchtungsansätze verbessert werden kann.


12:15 - 12:35

Eine voxelbasierte Metadatenstruktur zur Änderungsdetektion in Punktwolken großflächiger urbaner Gebiete

J. Gehrung1,2, M. Hebel1, M. Arens1, U. Stilla2

1Fraunhofer IOSB, Deutschland; 2Technische Universität München, Deutschland

Mobiles Laserscanning (MLS) ist in Sachen Flexibilität und Qualität zwischen stationärem terrestrischem und luftgebundenem Laserscanning einzuordnen. Es stellt einen Mittelweg in Sachen Mobilität, Messgeschwindigkeit und räumlicher Auflösung dar und ist so in der Lage, hochauflösende 3D-Repräsentationen des Straßenraums urbaner Umgebungen zu erzeugen. Aufgrund dieser Eigenschaften bietet sich MLS zur automatischen Detektion von Änderungen in einem sich ständig ändernden Stadtbild an. Diese kann neben einer Dokumentation der Stadtentwicklung auch für die schritthaltende Aktualisierung von 3D-Stadtmodellen oder das automatische Ermitteln von beschädigten bzw. fehlenden Stadtmöbeln eingesetzt werden. Zur Planung von Schwerlasttransporten können auf Grundlage entsprechender 3D-Messdaten Durchfahrbarkeitsanalysen erstellt werden. Die automatische Änderungsdetektion eines vorausfahrenden Fahrzeugs kann in der Zwischenzeit aufgetretene Hindernisse ermitteln und so kostspielige Verzögerungen vermeiden, bevor sie auftreten.

Automatische Änderungsdetektion setzt Informationen über den gleichen Raumbereich für Messdaten aus mindestens zwei unterschiedlichen Epochen voraus. Die Messungen müssen ausreichend gut zueinander registriert sein, sodass ein automatischer Vergleich problemlos möglich ist. Weiterhin müssen für die anstehende Aufgabe irrelevante Objekte entfernt werden. Dies umfasst in erster Linie bewegte Objekte, da diese in den Messdaten schweifartige Artefakte erzeugen. Vorangegangene Arbeiten der Autoren haben die Eignung von voxelbasierten Datenstrukturen für die Verwaltung großer Messdatenmengen sowie für die Detektion bewegter Objekte gezeigt. Die Nachteile des Ansatzes in Bezug auf Änderungsdetektion bestehen jedoch in einer Reduktion der räumlichen Auflösung sowie in hohen Laufzeitanforderungen. Auch ist eine solche Art der Repräsentation für Diskretisierungsartefakte an den Voxelrändern anfällig.

In dieser Arbeit wird eine neue Methode zur Änderungsdetektion vorgestellt, welche den oben erwähnten voxelbasierten Ansatz derart modifiziert, dass die zuvor genannten Nachteile nicht mehr vorliegen. Statt als eigentliche Repräsentation werden Voxel als Metadatenstruktur zur Ergänzung der eigentlichen Punktwolke eingesetzt. So bleibt die räumliche Auflösung erhalten und eine anwendungsspezifische Weiterverarbeitung der Messdaten wird ermöglicht. Jedes Voxel verwaltet eine Reihe von Meta-Informationen in Form von statistischen Kennzahlen, welche sich aus den beobachteten Belegungszuständen des Voxels sowie der diesbezüglichen Zeitreihe ergeben. Da die ursprünglichen Messdaten nicht verworfen werden, kann die Größe der Voxel so gewählt werden, dass die Laufzeit auf einem akzeptablen Niveau bleibt. Auf Basis der so abgeleiteten Zusatzinformationen wird bestimmt, ob das Voxel ein bewegtes Objekt, eine statische Struktur oder eine andere Klasse von Objekt wie beispielsweise Vegetation enthält. Entsprechende Klassen werden im Rahmen dieser Arbeit ermittelt. Das hier beschriebene Vorgehen wird für verschiedene Messfahrten desselben Gebietes durchgeführt. Anhand der auf diesem Weg semantisch angereicherten Belegungskarten mehrerer Epochen wird dann durch Vergleich auf Voxelebene eine Änderungsdetektion durchgeführt. Der Grad der Änderung pro Voxel wird anhand klassenspezifischer Änderungsregeln bestimmt.

Die Evaluation der vorgeschlagenen Methode erfolgt anhand mehrerer MLS-Datensätze, welche 2016 und 2017 in einem kleinstädtischen Wohngebiet aufgenommen wurden. Untersucht wird, in welchem Ausmaß sich Gebiete identifizieren lassen, in denen es in besagtem Zeitraum zu Änderungen gekommen ist. Die Grundlage zur Verfahrensbewertung sind von Hand markierte großflächige Gebiete, in denen es zu nennenswerten Änderungen gekommen ist. Weiterhin wird das Laufzeitverhalten sowie die Robustheit des Verfahrens gegenüber Registrierungsfehlern und Diskretisierungsartefakten ermittelt. Kernpunkt der Auswertung ist es, die Anwendbarkeit des Verfahrens zur Änderungsdetektion in großflächigen urbanen Gebieten zu bewerten.



 
Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.115
© 2001 - 2018 by H. Weinreich, Hamburg, Germany