Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen.
Wählen Sie eine Sitzung aus, um die darin gehaltenen Vorträge anzuzeigen.

 
Sitzungsübersicht
Sitzung
Punktwolkenverarbeitung
Zeit:
Donnerstag, 06.02.2020:
13:30 - 15:00

Chair der Sitzung: Heinz-Jürgen Przybilla, Hochschule Bochum
Ort: Raum E7

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

3D object recognition through a process based on semantics and consideration of the context

Jean-Jacques Ponciano1, Frank Boochs1, Alain Tremeau2

1Hochschule Mainz, Deutschland; 2Université Jean Monnet

In the domain of computer vision, object recognition aims at detecting and classifying objects in data sets. Model-driven approaches are typically constrained through their focus on either a specific type of data, a context (indoor, outdoor) or a set of objects. Machine learning-based approaches are more flexible but also constrained as they need annotated data sets to train the learning process. That leads to problems when this data is not available through the specialty of the application field, like archaeology, for example. In order to overcome such constraints, we present a fully semantic-guided approach. The role of semantics is to express all relevant knowledge of the representation of the objects inside the data sets and of the algorithms which address this representation. In addition, the approach contains a learning stage since it adapts the processing according to the diversity of the objects and data characteristics. The semantic is expressed via an ontological model and uses standard web technology like SPARQL queries, providing great flexibility. The ontological model describes the object, the data and the algorithms. It allows the selection and execution of algorithms adapted to the data and objects dynamically. Similarly, processing results are dynamically classified and allow for enriching the ontological model using SPARQL construct queries. The semantic formulated through SPARQL also acts as a bridge between the knowledge contained within the ontological model and the processing branch, which executes algorithms. It provides the capability to adapt the sequence of algorithms to an individual state of the processing chain and makes the solution robust and flexible. The comparison of this approach with others on the same use case shows the efficiency and improvement this approach brings.

Ponciano-3D object recognition through a process based on semantics and consideration_b.pdf


Klassifikation von 3D-Punktwolken unter Anwendung der Open-Source-Software CloudCompare

Alexander Schubert, Volker Platen

denkmal3D GmbH & Co. KG, Deutschland

Im Gegensatz zur Klassifikation im Bereich der zweidimensionalen digitalen Bildverarbeitung auf Rasterdaten stellt die Klassifikation von 3D-Punktwolken durch die zusätzliche Dimension zum einen und die variierende Punktdichte zum anderen eine erweiterte Herausforderung dar. Prinzipiell könnten Punktwolken auch gerastert und mit bekannten 2D-Ansätzen klassifiziert werden, wobei zusätzlich z. B. eine Einbeziehung der Höheninformationen aus dem Laserscanning möglich wäre. Allerdings arbeitet dieser Ansatz quasi im „2,5D“-Bereich und erlaubt keine vollständige und direkte Klassifikation des gesamten 3D-Datensatzes. Letzteres ist jedoch unumgänglich, wenn eine dreidimensionale Erhebung beispielsweise eines Gebäudebestandes im urbanen Raum oder eines natürlichen Geländes angestrebt wird, aus der direkt in der Quellform der Punktwolke Informationen abgeleitet oder Objekte im 3D-Raum extrahiert werden sollen.

Denkbare Szenarien sind beispielsweise die Klassifikation urbaner Gebiete, z. B. für Anwendungen aus dem Bereich des Gebäudemanagements (BIM, Bestandspflege, Vegetationskataster etc.) oder die gezielte Filterung von Objekten (Bäume, Büsche, niedrige Vegetation, Felsen etc.) im natürlichen Bereich, um z. B. das Volumen einer Senke genauer zu bestimmen. Die überwachte Klassifikation von 3D-Punktwolken wurde in dieser Ausarbeitung anhand des in der Open-Source-Software CloudCompare implementierten Klassifikationsalgorithmus CANUPO (CAractérisation de NUages de POints) durchgeführt und evaluiert. Der für die Klassifikation genutzte Workflow arbeitet darüber hinaus mit den ebenfalls in CloudCompare verfügbaren Algorithmen Cloth Simulation Filter von Zhang et al. sowie dem aus der Computergrafik stammenden Connected Component Labeling. Da die Autoren von CANUPO sich in ihrem Paper mit der Anwendung im natürlichen Bereich auseinandersetzten, wurde bei dieser Ausarbeitung der urbane Raum thematisiert. Damit sollte untersucht werden, inwiefern sich eine Übertragung auf völlig anders strukturierte Gebiete durchführen lässt.

Es existieren einige kommerzielle Softwarelösungen, die eine Klassifikation von 3D-Punktwolken ermöglichen. Wie immer in einem solchen Zusammenhang ist deren Nutzung jedoch mit zum Teil sehr hohen Kosten und / oder längerfristigen Abonnements verbunden, die gerade für Forschungszwecke oder einzelne Projekte eine hohe Nutzungshürde darstellen. Aus diesem Grund sollte in der vorliegenden Ausarbeitung ganz bewusst ein Open-Source-Ansatz hinsichtlich seiner Praxistauglichkeit evaluiert werden.

Schubert-Klassifikation von 3D-Punktwolken unter Anwendung der Open-Source-Software CloudCompare_b.pptx


Modellierung von TLS-Punktwolken mit lokalen Verfeinerungsstrategien: eine Brücke unter Belastung

Gael Kermarrec, Jan Hartmann, Hannes Faust, Knut Hartmann

Leibniz University Hanover, Deutschland, Geodetic Institut

Das terrestrische Laserscannen wird in vielen Ingenieurdisziplinen eingesetzt. Beispiele hierfür sind Mobile Mapping, Architekturvermessung, Archäologie sowie Überwachungs- und Überwachungsmessungen. Eine Möglichkeit zur Verarbeitung von Punktwolken mit dem terrestrischen Laserscanner besteht in der Verwendung kommerzieller Software wie CloudCompare (www.cloudcompare.org/), 3DReshaper (Hexagon Metrology) oder Geomagic Studio (3DSystems). Eine zweite Möglichkeit ist die Approximation der Punktwolken mit vordefinierten geometrischen Objekten oder allgemeineren mathematischen Kurven / Flächen unter Verwendung von B-Splines-Funktionen. Letztere bieten einen sehr flexiblen Rahmen und haben in der Ingenieurgeodäsie zunehmender Beliebtheit. Die Näherung basiert auf der Bestimmung von sogenannten Kontrollpunkten, die eine grobe Skizze der Punktwolken definieren. Wenn ein normaler Ansatz mit der Methode der kleinsten Quadrate verwendet wird, wird der Abstand zwischen den verstreuten und verrauschten Punktwolken global minimiert. Diese Strategie erlaubt es nicht, kleine Details auf der Oberfläche zu erfassen, und beeinträchtigt die Erfassung und Prüfung der Verformung mit der mathematischen Approximation. Eine Möglichkeit, diesen Nachteil zu überwinden, besteht in der Verwendung der hierarchischen B-Splines. In unserem Beitrag werden wir das Konzept der lokalen „mesh refinement“ vorstellen und anhand von Beobachtungen von einer historischen gemauerten Bogenbrücke über den Fluss Aller bei Verden in Deutschland zeigen, wie hierarchische B-Splines für reale Daten verwendet werden können. Wir werden das Potenzial der hierarchischen Approximation hervorheben was den Weg für breitere Anwendungen öffnet.

Kermarrec-Modellierung von TLS-Punktwolken mit lokalen Verfeinerungsstrategien_b.pptx


Automatische Ableitung verformungstreuer Liniengeometrie aus terrestrischen Scans

Frank Gielsdorf, Daniel Wujanz

technet GmbH, Deutschland

Trotz des Mehrwerts den 3D-Punkwolken liefern, werden im Bauwesen verformungstreue 2D-Schnittdarstellungen immer noch sehr häufig verwendet. Zur Ableitung dieser Schnitte werden im Allgemeinen aus registrierten Punktwolken „Scheiben“ extrahiert, welche anschließend zumeist manuell zur Linienbildung verwendet werden. Algorithmen, welche diesen Prozess automatisieren, setzen häufig eine sogenannte Manhattan-Geometrie voraus und erfüllen damit nicht den Anspruch der Verformungstreue.

In diesem Beitrag wird ein grundlegend anderer Ansatz vorgestellt. Nach einer ebenen-basierten Registrierung der Scans liegen für alle extrahierten Ebenen Parameter im übergeordneten Koordinatensystem vor. Mit Hilfe von Matching-Algorithmen und statistischen Tests werden komplanare Ebenen gefunden. Diese werden anschließend einer Ausgleichung nach dem Gauß-Helmert-Modell zugeführt, deren Ergebnis vereinigte Ebenen sind, welche die Information aller sie bildenden Punkte enthalten. Die Verschneidung dieser Ebenen mit vordefinierten Schnittebenen liefert eine verformungstreue 2D-Liniengeometrie. Diese Liniengeometrie kann unmittelbar über gebräuchliche CAD-Schnittstellen an Folgeprozesse weitergegeben werden.

Gielsdorf-Automatische Ableitung verformungstreuer Liniengeometrie aus terrestrischen Scans_b.pdf


 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: 19. Oldenburger 3D-Tage
Conference Software - ConfTool Pro 2.6.130
© 2001 - 2020 by Dr. H. Weinreich, Hamburg, Germany