Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Datum: Dienstag, 06.03.2018
12:00 - 17:00A0: Tagungsbüro
Raum 1778 
13:00 - 16:30Ex1: Exkursion DLR: Führung durch das Galileo-Kontrollzentrum
- Fahrt mit Bus zum DLR in Oberpfaffenhofen
- Führung durch das Galileo-Kontrollzentrum
- Fahrt mit Bus zurück zur TU München

Treffpunkt der Teilnehmer: 13:00 Uhr im Tagungsbüro
Geplante Rückkehr zur TUM: 16:30 Uhr
Raum 1778 
13:45 - 16:45DGfK-VR: Sitzung DGfK Vorstandsrat
Chair der Sitzung: Dietrich Diez
Chair der Sitzung: Thomas Chudy
Nur für Mitglieder des Vorstandsrats der DGfK.
Besprechungsraum 0714 
14:00 - 14:15SF0: Studentenforum - Eröffnung
Chair der Sitzung: Uwe Sörgel
Chair der Sitzung: Uwe Stilla
Hörsaal 2770 
14:15 - 15:15SF1: Studentenforum - Einblick in die berufliche Praxis...
Chair der Sitzung: Uwe Sörgel

...bei einer international tätigen Ingenieurfirma im Bereich Navigationssysteme und Photogrammetrie.
Herr MSc. Philipp Grimm, Geschäftsführer der IGI mbH, Kreuztal

...bei einem international tätigen Hersteller optischer 3D-Messsysteme für industrielle Anwendungen.
Herr Dipl.-Ing. Robert Godding, Geschäftsführer / CTO der AICON 3D Systems GmbH

Hörsaal 2770 
15:15 - 15:30P01: Pause mit Erfrischungen
Für Teilnehmer Studenten- und Weiterbildungsforum
Hörsaal 2770 
15:30 - 16:30SF2: Studentenforum - Einblick in die berufliche Praxis...
Chair der Sitzung: Uwe Sörgel

…bei einem Start-up-Unternehmen im Bereich Photogrammetrie, SLAM und GIS.
Herr Dr.-Ing. Georg Schroth, Co-Founder und Managing Director der Firma NavVis, München

...in der Kataster- und Landesvermessung
Herr Dipl.-Ing. Florian Socher, Amt für Digitalisierung, Breitband und Vermessung (ADBV) in München; Vorsitzender des DVW Bayern

Hörsaal 2770 
16:30 - 16:45P02: Pause mit Erfrischungen
Für Teilnehmer Studenten- und Weiterbildungsforum
Vor Seminarraum 0120 
16:45 - 17:45SF3: Studentenforum - Einblick in die berufliche Praxis...
Chair der Sitzung: Uwe Sörgel

…als wissenschaftlicher Mitarbeiter an einem Institut einer Universität.
Prof. Dr. Uwe Sörgel, Direktor des Instituts für Photogrammetrie, Universität Stuttgart

Diskussion: Dieser Teil soll abgerundet werden durch eine Diskussion der Erwartungen der Absolventen in spe an ihre künftigen Arbeitgeber:
Aufgaben, Eigenverantwortung, Gehalt, Aufstiegsmöglichkeiten, Weiterbildung, Familienfreundlichkeit, internationale Einsätze…

Hörsaal 2770 
16:45 - 18:30DGfK-MV: Mitgliederversammlung DGfK
Chair der Sitzung: Manfred Weisensee
Chair der Sitzung: Jochen Schiewe
Nur für Mitglieder der DGfK.
Hörsaal 2760 
17:45 - 21:00AV1: Networking Studentenforum
Chair der Sitzung: Uwe Stilla
Chair der Sitzung: Uwe Sörgel
Für Teilnehmer und Referenten Studenten- und Weiterbildungsforum
Raum 0790 
18:00 - 23:00AV11: Icebreaker Tagungsteilnehmer
Im Nebenraum des "Wirtshaus Maxvorstadt", Augustenstr. 53, 80333 München, sind Plätze vorreserviert.

Die Teilnehmer zahlen ihren Verzehr selbst.
Wirtshaus Maxvorstadt 
18:30 - 20:00AV12: Besichtigung: Landschaftsgemälde "Alexanderschlacht" von Albrecht Altdorfer
Chair der Sitzung: Manfred Buchroithner
Albrecht Altdorfer gilt als Hauptmeister der sogenannten Donauschule, einer Stilbewegung entlang der Donau in Bayern und Österreich, und als einer der Begründer und Hauptvertreter der Landschaftsmalerei. Ab 1522 entstanden seine ersten reinen Landschaftsgemälde und -zeichnungen.
Altdorfer hat in der europäischen Malerei erstmals die Landschaft zum eigentlichen und selbständigen Bildthema gemacht. In sein berühmtestes Gemälde „Alexanderschlacht“ (Schlacht bei Issus, 333 n. Chr.) hat Altdorfer eine bemerkenswerte topographische Darstellung des östlichen Mittelmeers eingearbeitet. Hierzu werden bei der Besichtigung kartographische Erläuterungen gegeben.

Treffpunkt am Tagungsbüro um 18:30 Uhr, gemeinsamer Spaziergang (ca. 5 Minuten) zur Alten Pinakothek.
Kosten: 4 Euro Eintritt (berechtigt zur Besichtigung der gesamten Kunstsammlung) werden individuell an der Kasse der Alten Pinakothek entrichtet.
Alte Pinakothek München 
Datum: Mittwoch, 07.03.2018
8:00 - 18:00A1: Tagungsbüro
Foyer-Audimax 
8:15 - 10:30Ex2: Exkursion Steinkeller beim Landesamt für Digitalisierung, Breitband und Vermessung, München
Exkursion zum Landesamt für Digitalisierung, Breitband und Vermessung, München
Führung durch den "Steinkeller", das größte Lithographiesteinlager der Welt
Treffpunkte der Teilnehmer:
- Um 08:15 Uhr: Im Tagungsbüro, anschließend Fahrt mit ÖPNV zum Landesamt.
- Um 08:55 Uhr vor dem Haupteingang des Landesamtes, Alexandrastraße 4, 80538 München.
Nach Ende der Führung Rückfahrt zur TU München.

Die Tickets für den ÖPNV sind im Unkostenbeitrag enthalten.
Foyer-Audimax 
8:30 - 9:30SF4: Studenten- und Weiterbildungsforum 1 - Dr. Martin Weinmann: Einführung in die semantische Interpretation von 3D-Punktwolken: von gemessenen Punkten über Merkmale zu Objekten
Chair der Sitzung: Uwe Sörgel
Hörsaal 0602 
9:15 - 18:00FA1: Fachfirmenausstellung
Wir danken den ausstellenden Fachfirmen für die Unterstützung der PFGK18-Tagung durch ihre Teilnahme und die Präsentation ihrer neuen Produkte und Lösungsansätze:

- AED-SYNERGIS GmbH / AED-SICAD AG, Bonn (1), (2)
- AllTerra Deutschland GmbH, Dettelbach (1), (2)
- CADdy Geomatics GmbH, München (2)
- con terra - Gesellschaft für Angewandte Informationstechnologie mbH, Münster (1), (2)
- Dezernat Studium und Lehre, Universität Tübingen (1), (2)
- Esri Deutschland GmbH, Kranzberg (1), (2)
- European Space Imaging, GAF AG, München (1), (2)
- GEOSYSTEMS GmbH, Germering (1), (2)
- Harris Geospatial Solutions GmbH, Gilching (1), (2)
- Hochschule Anhalt, Dessau (2)
- IABG - Industrieanlagen-Betriebsgesellschaft mbH, Ottobrunn (1), (2)
- IGI mbH, Kreuztal (1), (2)
- IP SYSCON GmbH / GI Geoinformatik GmbH, Hannover (1), (2)
- Leica Geosystems Technologies GmbH, Aalen (1), (2)
- Malvern Panalytical GmbH, Kassel (1), (2)
- MILAN Geoservice GmbH, Spremberg (1), (2)
- M.O.S.S. Computer Grafik Systeme GmbH, Taufkirchen (1), (2)
- OCAG AG, Baar (1), (2)
- PHASE ONE INDUSTRIAL, Köln (1), (2)
- PPM GmbH, Penzberg (2)
- schneider digital, Miesbach (1), (2)
- Springer Verlag, Dordrecht (2)
- Terra Messflug GmbH, Imst (2)
- UNIGIS Salzburg, Salzburg
- VDE VERLAG GmbH/Wichmann Verlag, Berlin (2)
- Vexcel Imaging GmbH, Graz (1), (2)
- virtualcitySYSTEMS GmbH, Berlin (1), (2)
- Zoller + Fröhlich GmbH, Wangen (1), (2)


(1) Diese Fachfirmen und Organisationen berichten in den Anwenderforen am Mittwoch Nachmittag über ihre neuesten Produkte und ihre Lösungsansätze
(2) Diese Fachfirmen stellen im Innovationsforum 1 (Donnerstag Vormittag) in einem Kurzvortrag ihre Produkte und Lösungsansätze vor.
Foyer-Audimax 
9:30 - 9:45P03: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
9:45 - 10:45SF5: Studenten- und Weiterbildungsforum 2 - Dr. Uwe Weidner: Copernicus - Die Erde im Fokus
Chair der Sitzung: Uwe Sörgel
Hörsaal 0602 
10:45 - 11:00P04: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
11:00 - 12:30PS1: Plenarsitzung: Eröffnung der PFGK18-Tagung und Key-Note-Vortrag von Prof. Dr. Michael Goodchild
Chair der Sitzung: Uwe Stilla
Chair der Sitzung: Thomas H. Kolbe
Chair der Sitzung: Manfred Weisensee

- Eröffnung der Tagung und Begrüßung
- Grußworte
- Verleihung des Hansa-Luftbild-Preises
- Keynote Prof. Dr. Michael Goodchild
Audimax 
 

The science of where

M. Goodchild

University of California, Santa Barbara

This phrase has recently been advanced as a comprehensive description of the various fields represented at this meeting and this community, but what exactly does it mean (and how should it be translated?) There are two distinct meanings in English: adding to the body of scientific knowledge using the tools of our trade, and the body of scientific knowledge that makes those tools possible. After a few examples of the former, the presentation focuses on the latter: on the empirical principles that are observed to govern the geographic world; on the uncertainties inherent in representing that world; and on the approaches that a cautious and informed user should take in navigating the relationship between that world and its representations.

 
12:30 - 13:00FE: Ausstellungseröffnung durch die Vorstände der Gesellschaften
Chair der Sitzung: Thomas H. Kolbe
Chair der Sitzung: Uwe Stilla
Chair der Sitzung: Manfred Weisensee
Foyer-Audimax 
12:30 - 13:30P05: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
13:30 - 14:00AF 1.1: Anwenderforum Dezernat Studium und Lehre, Universität Tübingen
Chair der Sitzung: Heinz-Jürgen Przybilla
Prof. Dr. V. Hochschild, J. Knödler:
Berufliche Weiterbildung zwischen Forschung und Praxis am Beispiel "Geodatenmanager/in" in Tübingen
Hörsaal 0602 
13:30 - 14:00AF 1.2: Anwenderforum Vexcel Imaging GmbH, Graz
Chair der Sitzung: Klaus-Ulrich Komp
E. Breg:
UltraCam Mustang und UltraCam Panther - Vexcel Imaging's terrestrische Systeme
Hörsaal 0606 
13:30 - 14:00AF 1.3: Anwenderforum AED-SYNERGIS GmbH / AED SICAD AG, Bonn
Chair der Sitzung: Ekkehard Matthias
A. Wagner:
Digitalisierung mit LEFIS zur Förderung des ländlichen Raumes
Hörsaal 2770 
13:30 - 15:00S01: Geoportale
Chair der Sitzung: Anja Hopfstock
Audimax 
 
13:30 - 14:00

Aktuelle Entwicklungen im Fachinformationsdienst Kartographie und Geobasisdaten

W. Crom

Staatsbibliothek zu Berlin, Deutschland

Das erste Projektjahr war vom Aufbau der neu zu implementierenden Services gepägt.Im Bereich der Erweiterung der Bibliographia Cartographica konnte das Angebot der online verfügbaren Aufsätze und Bücher zu Kartographie, Geoinformatik und Geschichte der Kartographie wesentlich erweitert werden. Insbesondere open access verfügbare Fachartikel sind nun über die Bibliographie recherchierbar und durch die Verlinkung aus der Recherche heraus aufzurufen. Die Neuausrichtung der Bibliographie wurde an den Aufbau des Fachrepositoriums angekoppelt. Hierbei handelt es sich um eine Neuentwicklung der Staatsbibliothek für das Fach Kartographie, die sich qualitativ an den Vorgaben der Deutschen Initiative für Netzwerkinformationen orientiert und künftig elektronische Publikationen zur Kartographie archiviert.

Im Bereich des Segments Geodaten des Fachinformationsdienstes war zunächst eine Abfrage bei den potentiellen Nutzern des Angebots erfolgt, dessen Ergebnisse auf der Intergeo präsentiert werden konnten. In Kooperation mit dem Bundesamt für Kartographie und Geobasisdaten wird ein gemeinsames Vorgehen für die Bereitstellung von Geodaten für Verwaltung und Wissenschaft konzipiert.


14:00 - 14:30

Kartographische Herausforderungen bei der Herstellung der TopPlus-Web-Open

P. Kunz

Bundesamt für Kartographie und Geodäsie, Deutschland

Mit dem Produkt TopPlus-Web-Open geht das Bundesamt für Kartographie und Geodäsie (BKG) neue Wege und stellt erstmals eine frei zugängliche Webkarte bereit, welche komplett auf offenen bzw. freien Datenquellen basiert. Hierzu wurden verschiedenste Datenquellen aufbereitet und miteinander kombiniert, um eine bestmögliche Kartendarstellung zu erzielen. Die Dienste der TopPlus-Web-Open des BKG wurden am 26. September 2017 auf der INTERGEO freigeschaltet. Das Produkt konnte sehr schnell einen großen Zuspruch aus dem öffentlichen, privaten und wissenschaftlichen Sektor verzeichnen und wird bereits in vielen Portalen (Geoportal RLP, LANIS, openrouteservice, ArcGIS Online) als Hintergrundkarte eingesetzt. Als besonders positiv werden hier vor allem der freie Zugang und die grenzübergreifende Kartendarstellung hervorgehoben.
Die Webkarte TopPlus-Web-Open verfügt über 18 vordefinierte Detaillierungsstufen von der weltweiten Übersichtskarte bis hin zur detaillierten Stadtkarte in Deutschland. Das Produkt liegt standardmäßig in der weitverbreiteten Web Mercator Projektion (EPSG:3857) vor. Über die WMS-Schnittstelle kann die Webkarte auch in weiteren gängigen Projektionen abgerufen werden.
Die Webkarte ist in drei unterschiedliche Darstellungsbereiche unterteilt:
• Welt (kleiner Maßstab)
• Europa (mittlerer Maßstab)
• Deutschland und angrenzendes Ausland (großer Maßstab)
Außerhalb der genannten Darstellungsbereiche ist im Dienst derzeit kein weiteres Kartenmaterial verfügbar.
In dem Produkt werden immer dann amtliche Datenquellen verwendet, wenn diese als offene Geodaten bereitstehen. In allen anderen Fällen wurde auf freie Daten und hier insbesondere auf OpenStreetMap-Daten zurückgegriffen.
Für das Aufbereiten vieler Ausgangsdaten und insbesondere für die Ableitung der Kartengrafiken – das Rendern der Karten – wird weitgehend auf freie Software (Open-Source-Software) zurückgegriffen. Zusätzlich kommt aber auch die kommerzielle Software FME für die Prozessierung der GIS-Daten zum Einsatz. Die Datenhaltung erfolgt in einer PostGIS-Datenbank. Mit der Programmbibliothek GDAL (Geospatial Data Abstraction Library) werden aus Digitalen Geländemodellen Höhenlinien und Schummerungen abgeleitet.
Die zentrale Komponente zur Herstellung von Karten im Verfahren TopPlus ist die Software Mapnik – eine Sammlung von Bibliotheken für das Rendern von Karten. Die Software gehört zu den bekanntesten Tools für die Herstellung von Karten aus OSM-Daten. Beim Verfahren TopPlus wird mit Mapnik ein komplettes Kachelarchiv (ein Tile-Cache) vorprozessiert. Ein Darstellungsdienst kann anschließend diese Kacheln performant bereitstellen. Man spricht von einem Web-Map-Tile-Service (WMTS), welcher auf einen Tile-Server mit vorprozessierten Tiles (einem Cache) zugreift. Dieses Kachelarchiv kann aber ebenso als Datenquelle für einen herkömmlichen Web-Map-Service (WMS) dienen. Das Kartenbild für die verschiedenen Zoomstufen/Maßstäbe wird mithilfe von umfangreichen Formatierungsangaben in XML-basierten Konfigurationsdateien beschrieben. Unter anderem werden hier die Datenquellen festgelegt und die Signaturen beschrieben, mit denen die Objekte gezeichnet werden.
Für die Verfahrensentwicklung und die hochperformante Durchführung des Renderns wurden Tools auf der Basis des Microsoft.NET Framework implementiert. Diese erlauben die benutzerfreundliche Auswahl des zu erzeugenden Gebietes, der gewünschten Produktart, Zoomstufe und weiterer Parameter des Herstellungsprozesses. Mit der Skriptsprache Python wird Mapnik gesteuert und der Prozess des Renderns zur Erstellung eines kompletten Kachelarchives gestartet.
Es wurde angestrebt, eine möglichst gut lesbare Kartengrafik für die verschiedenen Zoomstufen zu erzeugen. In dem Vortrag soll insbesondere auf die kartographischen Gestaltungsmöglichkeiten der Software Mapnik eingegangen werden und es soll anhand von Kartenbespielen gezeigt werden, wie diese Herausforderungen auch mit freier Software gelöst werden können.

Die TopPlus-Web-Open kannn unter
http://sg.geodatenzentrum.de/web_bkg_webmap/applications/bkgmaps/minimal.html?CRS=EPSG:3857
ausführlich begutachtet werden.


14:30 - 15:00

ETRS89/UTM Umstellungsstrategie in Bayern für das Liegenschaftskataster - Umformungsverfahren und Möglichkeiten der Umsetzung

C. Glock1, H. Birkenbeul2

1Landesamt für Digitalisierung, Breitband und Vermessung Bayern; 2con terra GmbH

Nach der flächendeckenden Einführung von ALKIS steht für das Liegenschaftskataster die Einführung des einheitlichen europäischen Bezugssystems ETRS89/UTM bevor.

Mit Einführung von ETRS89/UTM im Liegenschaftskataster wird vorauss. zeitgleich der amtliche Bezugssystemwechsel nach ETRS89/UTM bei der Bayer. Vermessungsverwaltung vollzogen. Das Projekt KanU (Kataster nach UTM) schafft die Grundlage, dass die Produkte des Liegenschaftskatasters in dem neuen amtlichen Bezugssystem ETRS89/UTM abgegeben werden können. Es wurden verschiedene Umformungsmethoden für die unterschiedlichen Objektbereiche entwickelt und implementiert. Als wichtigstes Überführungsverfahren wurde im Projekt KanU das neuartige Verfahren „Umformung durch Ausgleichung nach dem Ortra-Ansatz“ entwickelt. Dieses rechentechnisch aufwändige Verfahren, bei der Unbekannte in einer Größenordnung von 800 Millionen berechnet werden, ist Grundlage, um in hoher Transformationsqualität die GK-Koordinaten der Objektbereiche Flurstücke, Gebäude und Bauwerke nach ETRS89/UTM zu überführen.

Mit der Umstellung auf das neue europäische Bezugssystem ETRS89/UTM stehen somit Fachanwender von Geodaten vor der Herausforderung, große Datenmengen unterschiedlichster Datenformate zu transformieren. Der Kundentransformationsansatz NTv2 KanU zur Überführung von Geofachdaten mit Katasterbezug wurde dafür herstellerneutral entwickelt. Sowohl in ArcGIS- als auch in FME-Technologie ist der NTv2-Transformationsansatz „KanU“ der bayrischen Vermessungsverwaltung einfach und reibungslos integrierbar. Dadurch ist eine datenquellenunabhängige und effiziente Verarbeitung raumbezogener Informationen gegeben. Für mehr als 300 Datenquellen (z. B. CAD- und GIS-Formate) lässt sich der Umstellungsprozess des Raumbezugssystems sehr effizient und flexibel sowohl in FME als auch in ArcGIS über die FME Extension für ArcGIS realisieren, was erste Testumsetzungen mit Anwendern zeigen.

 
13:30 - 15:00WF1: Wissenschaftsforum 1 - RT GIS: Topmodels für die Geoinformatik
Chair der Sitzung: Thomas H. Kolbe
Hörsaal 2760 
 

Reconciling Explanatory and Constructive Modes of Modeling through Deep Modeling

C. Atkinson

Universität Mannheim, Deutschland


A new Approach to Model Transformation using Graph Transformation System

Z. Yao

Technical University of Munich, Deutschland


CityGML 3.0: Sneak Preview

T. Kutzner, T. H. Kolbe

Technische Universität München, Deutschland

 
14:00 - 14:30AF 2.1: Anwenderforum AllTerra Deutschland GmbH, Dettelbach
Chair der Sitzung: Klaus-Ulrich Komp
K. Haupt:
Automatisierte Objekterkennung aus Punktwolken und Panoramen
Hörsaal 0606 
14:00 - 14:30AF 2.2: Anwenderforum M.O.S.S. Computer Grafik Systeme GmbH, Taufkirchen
Chair der Sitzung: Ekkehard Matthias
D. Holweg:
Nutzung landesweiter 3D Daten - was ist zu beachten?
Hörsaal 2770 
14:00 - 14:30AF 2.3: Anwenderforum Zoller + Fröhlich GmbH, Wangen
Chair der Sitzung: Heinz-Jürgen Przybilla
C. Held:
Neue Workflows zur TLS Dokumentation von Cultural Heritageam Beispiel weltweiter Projekte
Hörsaal 0602 
14:30 - 15:00AF 3.1: Anwenderforum schneider digital, Miesbach
Chair der Sitzung: Klaus-Ulrich Komp
N. Mostofi:
Ideale Hardware-Lösungen für die Geo-Informatik - Arbeiten in 3D-Stereo mit dem 3D-PluraView Monitor
Hörsaal 0606 
14:30 - 15:00AF 3.2: Anwenderforum ESRI Deutschland GmbH, Kranzberg
Chair der Sitzung: Ekkehard Matthias
M. Sohlbach:
ArcGIS – Die offene Plattform für Innovation und Fortschritt
Hörsaal 2770 
14:30 - 15:00AF 3.3: Anwenderforum IP SYSCON GmbH, Hannover / GI Geoinformatik GmbH, Augsburg
Chair der Sitzung: Heinz-Jürgen Przybilla
C. Treutwein:
Anforderungen an zukunftssichere mobile Datenerfassung – Positionsqualität, Geotools und Betriebssteuerung
Hörsaal 0602 
15:00 - 15:30P06: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
15:30 - 16:00AF 4.1: Anwenderforum con terra GmbH, Münster
Chair der Sitzung: Andreas Illert
C. Uhlenküken:
map.apps – Die Plattform zum Aufbau innovativer Apps
Hörsaal 2770 
15:30 - 16:00AF 4.2: Anwenderforum MILAN Geoservice GmbH, Spremberg
Chair der Sitzung: Philipp Willkomm
S. Jany:
Geomonitoring im Tagebau
Hörsaal 2760 
15:30 - 16:00AF 4.3: Anwenderforum IABG - Industrieanlagen-Betriebsgesellschaft mbH, Ottobrunn
Chair der Sitzung: Jukka Krisp
J. Ullrich:
Near Real Time Monitoring in Forst- und Landwirtschaft mit der Planet-Konstellation
Hörsaal 0602 
15:30 - 16:00AF 4.4: Anwenderforum PHASE ONE INDUSTRIAL, Köln
Chair der Sitzung: Hans-Gerd Maas
C. Wieser:
Phase One Industrial Luftbildkameras, das neue Phase One Aerial System 190MP
Hörsaal 0606 
15:30 - 17:00S02: Fernerkundung I
Chair der Sitzung: Volker Hochschild
Audimax 
 
15:30 - 15:45

Modeling Subsurface Soil Moisture Based On Hyperspectral Data - First Results Of A Multilateral Field Campaign

S. Keller1, F. M. Riese1, N. Allroggen2, C. Jackisch3, S. Hinz1

1Karlsruhe Institute of Technology (KIT), Institute of Photogrammetry and Remote Sensing; 2University of Potsdam (UP), Institute of Earth and Environmental Science; 3Karlsruhe Institute of Technology (KIT), Institute of Water and River Basin Management

Ecological and hydrological processes such as vegetation monitoring or soil property analysis depend, inter alia, on soil moisture dynamics in the subsurface. One of the most important aspects in this context is the precise modeling of these dynamics. Thus, modern remote sensing techniques become increasingly important for in-situ soil moisture measurements, since they provide information on the spatial and temporal distribution of subsurface soil moisture. Current approaches focus on measuring hyperspectral and hydrological data in a laboratory setup by aggregating and, eventually, combining them in a hydrological model. However, these laboratory measurements are limited for instance to a certain number of soil moisture levels.

In this paper, we present a large and multilateral dataset which was measured during a three-day field campaign in August 2017 employing a diverse set of different sensors. As remote sensing technique, we installed a hyperspectral snapshot camera (VIS-NIR), a hyperspectral spectrometer (VNIR-SWIR), and an infrared camera (LWIR) on a rack. The soil moisture was measured in situ by several time-domain reflectometry sensors (TDR) and tensiometers which were installed in different soil depths in the measurement field. Additionally, we applied a ground-penetrating radar (GPR) to investigate the subsurface water flow. In order to broaden the range of expected soil moisture levels, the field was irrigated following a controlled irrigation schema. The conducted field campaign mainly arises out of the idea to link spatially and temporally variable hyperspectral data to subsurface soil moisture by combining the measured dataset in a non-linear regression model.

After briefly summarizing the theoretical background and the related work, we describe the field campaign including the irrigation processes as well as the multi-sensor system and the measured data. The complex sensor composition requires several preprocessing steps, e.g. calibration methods, application of filters and masks, which we elaborate in detail in the following section. Moreover, we focus on machine learning (ML) methods to estimate subsurface soil moisture based on hyperspectral data and TDR data as ground-truth. We present first results of two standard ML regressors – Random Forest and Support Vector Machines. Most current research studies select specific wavelengths, calculate a ratio index, and then predict subsurface soil moisture. In contrast, we developed a generic approach including all features. The Random Forest regressor, in this context, reveals information on the feature importance. We discuss the correlation between the results of the different soil moisture measurements of TDR and GPR and the regression outcome of the hyperspectral data. In a prospective step, we will improve the developed approach by combining supervised and unsupervised machine learning regression approaches.


15:45 - 16:00

Estimation of Chlorophyll a, Diatoms and Green Algae Based on Hyperspectral Data with Machine Learning Approaches

P. M. Maier, S. Hinz, S. Keller

Karlsruhe Institute of Technology (KIT), Institute of Photogrammetry and Remote Sensing

During the last decades, monitoring of inland waters has become a topic of major interest in terms of water quality and environmental issues. Considering the monitoring of area-wide water bodies, a lot of data is necessary. However, far less reliable of this information exists. Most of the currently available datasets for evaluating the quality of inland waters consist of sampled point data. This data can be unreliable when it comes to derive information for the entire water body. Recent attempts towards such an area-wide coverage of water quality monitoring have included the application of hyperspectral sensors to gather image-based data. Chlorophyll-a and turbidity function as indicators of algae existences in turn characterize water quality and nutrition supply.

In this contribution, we present a machine learning approach to investigate the chlorophyll-a concentration of a water body. Therefore, we involve techniques of hyperspectral remote sensing that enable the distinction of specific chlorophyll-a concentration by continuous measurements. Most current research studies select specific wavelengths, calculate a ratio index, and predict chlorophyll-a concentrations. In contrast, we focus on the development of a generic approach including all features (wavelengths). It offers the opportunity to transfer the developed methodology to further inland waters using machine learning.

The contribution is based on data which was sampled by a hyperspectral sensor mounted on a research ship and monitoring the river Elbe in the area from Bad Schandau to Geesthacht in Germany. Almost 500 kilometres were monitored sequentially which results in a large set of 1.500 data points. The data collection was embedded in the scope of the “Elbschwimmstaffel”, which took place in summer 2017 in Germany and was funded by the Federal Ministry of Education and Research (BMBF). The applied hyperspectral sensor was a Cubert-UHD 285 characterized by an amount of 125 bands in the range from 450 nm to 950 nm. Additionally, in situ underwater data was measured with a multi-sensor system – the PhycoSens – invented by the company BBE Moldaenke. Concentration of chlorophyll-a, diatoms, and green algae as well as turbidity represent the target variables. We (1) describe the measured dataset of the river Elbe, (2) exploit machine learning regression approach to predict in a first step the chlorophyll-a concentration, (3) evaluate the importance of spectral bands, and (4) evaluate the performance of the selected regression approach.

This study demonstrates that the chlorophyll-a concentration of the Elbe can be predicted by machine learning regression with a coefficient of determination R² better than 0.8. Hereby, merely 30% of the data was used as training data while the remaining part was used for evaluation.

In a prospective step, we will transfer the developed approach to distinguish between further algae species of inland waters as well as include additional machine learning regression approaches. The latter involves to fragment spectral information of hyperspectral data into parts, which characterize the specific water body, and the spectral features representing algae information. As database, we then will include hyperspectral data measured via UAV.


16:00 - 16:15

Multitemporale Landbedeckungsklassifikation durch neuronale rekurrente Faltungsnetze

M. Rußwurm, M. Körner

Technische Universität München, Deutschland

Erdbeobachtungssensoren liefern heute Daten mit wöchentlicher bis täglicher Abdeckung.
Meist basieren Methoden zur Auswertung dieser Daten allerdings auf mono-temporalen und wolkenfreien Beobachtungen.
Die steigende Beobachtungsfrequenz heutiger Sensoren eröffnet dagegen die Möglichkeit neben spektralen auch temporale Merkmale zu extrahieren.
Um multispetrale und temporale Daten verarbeiten zu können Bedarf es Methoden, die zeitliche, spetrale, und räumliche Merkmale von Klassen berücksichtigen.
Disziplinen anderer Fachrichtungen, wie Spracherkennung und Textübersetzung arbeiten mit inherent temporalen Daten und erreichen heute sehr gute Genauigkeiten mit Sequenz-zu-Sequenz Enkodierungs-/Dekodierungsstrukturen.
Diese Strulturen basieren auf Gated Rekurrenten Neuronalen Zellen (Gated Recurrent Neural Networks), wie Gradient Rectified Unit (GRU) oder Long Short-Term Memory (LSTM), welche kurzzeitliche und langzeitliche Informationen aus einer Datensequenz extrahieren können.
In dem Kodierungsschritt schreiben die Zellen relevante Information sequenziell in einen 'Gedächtnisvektor' (thought vector/memory vector).
Für Übersetzung und Sprachverarbeitung wird in Sequenz-zu-Sequenz Modellen dieser Gedächtnisvektor durch einen weiteren Dekodierungsschritt in eine Ausgabesequenz transformiert.
Inspiriert von Ergebnissen aus der Natürlichen Sprachverarbeitung (Natural Language Processing) untersuchen wir die Anwendung des Enkodierungsschritts der Sequenz-zu-Sequenz Modelle für Beobachtungszeitreihen aus der Erdbeobachtung.
Wir konstruieren eine Netzarchitektur zur Landbedeckungsklassifikation, welches auf Basis von Faltungs (convolutional) und Rekurrenten (recurrent) Ebenen eine Sequenz aus Satellitenaufnahmen mittlerer Auflösung in ein Segementierungsbild aus Landbedeckungsklassen transformiert.
In dem Netzwerk verarbieten erst Faltungsebenen zu jedem Beobachtungszeitpunkt spektrale und texturelle Merkmale in einer DenseNet-inspirierten Architektur.
Wir experimentieren mit dilatierten Faltungsmasken (dilated convolutions) um das rezeptive Feld des des Netzes zu erhöhen ohne die Auflöstung der Merkmalskarten zu verringern.
Nach den rein Konvolutionalen Ebenen werden temporale Merkmale in einem rekurrenten Enkodierungsschritt, analog Sequenz-zu-Sequenz Modellen, in einem Gedächtnisvektor geschrieben.
Eine letzter Softmax-Klassifikator berechnet aus diesem Vektor Klassenkonfidernzen für jedes Pixel der gesamten Zeitreihe.
Wie zuvor eingeleitet steuern Gated Rekurrente Zellen durch Gates, welche Information geschrieben, gelöscht oder ignoriert werden soll.
Mit einer Analyse der Aktivierungen dieser Gates bei bewölkten und klaren Beobachtungen versuchen wir Rückschlüsse zu ziehen inwieweit das Netzwerk eigenständig bewölkte Beobachtungen ignorieren kann.
Wir evaluieren das Netzwerk in einem Untersuchungsgebiet von 100 x 40 Kilometern nördlich von München.
Eine Zeitreihe von etwa 90 Sentinel 2A und 2B Satellitenaufnahmen von Januar 2016 bis Dezember 2017 dienen als Rasterdatengrundlage.
Wir verzichten bewusst auf Vorprozessierung und Wolkenmasken und untersuchen wie das Netzwerk bewölkte Beobachtungen verarbeitet.
Darüber hinaus verwenden wir Satellitenproducte mit und ohne atmosphärischer Korrektur und untersuchen inwieweit eine atmosphärische Vorprozessierung die Klassifikationsgenauigkeit unseres Netzes beeinflusst.
Neben 19 Nutzpflanzenklassen, wie 'Mais' oder 'Weizen' klassifizieren wir weitere Bedeckungsklassen aus Open Street Map, wie 'Wohngebiet' oder 'Industriegebiet'.
Gesteuert durch die Phänologie von Vegetation ändern Nutzpflanzen ihre spektrale Reflektion über die Zeit, wodurch diese Klassen durch multi-temporale Merkmale auszeichnen.
Für die Bedeckungsklassen aus Open Street Map erwarten wir keine characteristische zeitliche Reflektionsänderung und Klassifikationsergebnisse sollten sich vornehmlich auf texturelle und spektrale Merkmale stützen.
Zum einen versuchen wir durch den ganzheitlichen Ansatz aller verfügbaren spektralen und temporalen Merkmale eine große Anzahl von Bedeckungsklassen zu klassifizieren.
Zum anderen hoffen wir auch, dass unsere Ergebnisse helfen die Notwendigkeit von Vorprozessierungsschritte wie atmosphärische Korrektur oder Wolkenmaskierungen für Deep Learning Methoden abzuschätzen.


16:15 - 16:30

Erste Erfahrungen mit der Nutzung von Sentinel-2 Daten zur multispektralen und multitemporalen Analyse mit verschiedenen Klassifizierungsverfahren

M. Weinmann, U. Weidner

Karlsruher Institut für Technologie (KIT), Deutschland

Die Sentinel-2 Satelliten bieten im Vergleich zu vorherigen Erdbeobachtungssystemen sowohl hinsichtlich der Auflösung als auch bezüglich der Aufnahmerate eine verbesserte Verfügbarkeit flächendeckender Multispektraldaten. Dadurch kann eine Szenenanalyse anhand von Satellitendaten deutlich begünstigt werden. Während die multispektrale Analyse einer Szene mit verbesserter geometrischer und spektraler Auflösung beispielsweise zur genaueren Kartierung und besseren Unterscheidung von diversen Landnutzungs- und Landbedeckungsklassen genutzt werden kann, erlaubt die multitemporale Analyse eine Beschreibung von dynamischen Prozessen. Jedoch kann die multitemporale Analyse auch zur Verbesserung der mit der multispektralen Analyse erzielten Ergebnisse beitragen. Dies ist insbesondere dadurch bedingt, dass das spektrale Verhalten verschiedener Objekte von zahlreichen Einflussfaktoren abhängt (z.B. von Wettergeschehen, Jahreszeit und Oberflächenbeschaffenheit von Objekten) und durch die Datenaufzeichnung über mehrere Zeitpunkte hinweg zuverlässigere Aussagen über die jeweilige Klassenzugehörigkeit möglich werden.

Im Rahmen dieses Beitrags wird die multispektrale und multitemporale Analyse von Sentinel-2 Daten genauer beleuchtet. Dabei werden Sentinel-2 Daten, welche für ein urbanes Gebiet und für verschiedene Zeitpunkte vorliegen, sowohl pro Zeitpunkt als auch für die Kombination bezüglich verschiedener Zeitpunkte analysiert. Für jeden dieser Fälle werden anhand von definierten Trainingsgebieten zunächst die internen Parameter von verschiedenen Klassifizierungsverfahren (Maximum-Likelihood Methode, Random Forest, Support Vector Machine) ermittelt. Anschließend erfolgt pro Klassifizierungsverfahren eine Klassifizierung für die gesamte verfügbare Szene sowie eine Bewertung der erzielten Ergebnisse anhand von definierten Kontrollgebieten. Die erzielten Ergebnisse zeigen das Potential einer multitemporalen Analyse deutlich auf, wobei für die betrachtete Szene eine signifikante Steigerung der Gesamtgenauigkeit mit bis zu >10% erreicht wurde.

Nach einem kurzen Abriss des aktuellen Stands der Forschung (Kapitel 2) folgt eine detaillierte Erläuterung der verwendeten Methodik (Kapitel 3). Daraufhin werden die durchgeführten Experimente beschrieben (Kapitel 4) und die erzielten Ergebnisse diskutiert (Kapitel 5). Abschließend folgen eine Zusammenfassung und ein Ausblick (Kapitel 6).


16:30 - 16:45

A Service Architecture For Processing Big Earth Data In The Cloud With Geospatial Analytics And Machine Learning

W. Glatz, T. Bahr

Harris Geospatial Solutions, Deutschland

A continually increasing, massive amount of geospatial data, i. e. Big Earth Data, from different sources (commercial satellite constellations and small satellites, drones) and modalities (Optical: Pan, RGB, MSI, HSI; SAR; LiDAR) enforces the automation of data processing. New tools and technologies are needed for hosting and managing distributed data processing in a high-performance computing environment within an enterprise or in the cloud.

The Geospatial Services Framework (GSF) brings together data, geospatial analytics, and computing power in the cloud to enable the deployment of applications, which solve problems at scale across industries.

GSF is based on the concept of service engines in a cluster. One essential feature is the adaptation to varying utilization. On demand, additional parallel engines (workers) can be added (scalability). Each engine uses multiple CPUs for parallel processing. Harris provides the ready-to-use ENVI/IDL/SARscape/Machine Learning service engines. In addition, customers may implement their own engines. GSF can be integrated in any public or internal server environments, such as Amazon Web Services (AWS), Microsoft Azure, or the Google Cloud Platform.

Developers may use GSF to easily publish custom algorithms for the hosted service engines. These processing workflows can then be shared across the enterprise or cloud. For analysis of remotely sensed data, developers can resort to the full width of ENVI software analytics.

ENVI combines image processing and analysis technology to derive detailed information from all geospatial data, i. e. optical imagery, SAR, and LiDAR. Available analytics include feature extraction, classification, object identification, change detection, and more. A specific machine learning algorithm for spectral-based land cover mapping is the Softmax Regression classifier. It can be created and trained on a reference dataset using spectral and spatial information and then applied to similar data multiple times. Implemented in a classification framework, it provides a flexible approach to customize a classification process.

All described geoprocessing tools are capable of being fully integrated with ArcGISÒ for Server from ESRI via a Python client library.

Harris machine learning contains deep learning capabilities, which are designed for the unique characteristics of space- and airborne imagery of multiple modalities, and point cloud data sets. Focus is on object recognition within scenes. Successful tests, for instance on Pan imagery, included i. a. airplanes, storage tanks, cooling towers, athletic fields, paved roads, overpasses, and tollbooths. Overall, it is a substantial contribution to spatio-temporal analytics of Big Earth Data.

 
16:00 - 16:30AF 5.1: Anwenderforum Leica Geosystems Technologies GmbH, Aalen
Chair der Sitzung: Hans-Gerd Maas
K. Neumann, F. Puls:
Hybrid Sensor Systems – Innovationen der Luftbildsensoren
Hörsaal 0606 
16:00 - 16:30AF 5.2: Anwenderforum OCAD AG, Baar
Chair der Sitzung: Jukka Krisp
T. Gloor, G. Schaad:
Multi-Repräsentation mit OCAD 2018 Mapping Solution
Hörsaal 0602 
16:00 - 16:30AF 5.3: Anwenderforum Harris Geospatial Solutions GmbH, Gilching
Chair der Sitzung: Andreas Illert
Dr. T. Bahr:
Analytics without Limits for the Sentinels
Hörsaal 2770 
16:00 - 16:30AF 5.4: Anwenderforum Malvern Panalytical GmbH, Kassel
Chair der Sitzung: Philipp Willkomm
S. Parks:
The importance of ground-truthing your remote sensing imagery
Hörsaal 2760 
16:30 - 17:00AF 6.1: Anwenderforum GEOSYSTEMS GmbH, Germering
Chair der Sitzung: Andreas Illert
T. Koukal:
Intelligentes Modell sucht Almfläche
Hörsaal 2770 
16:30 - 17:00AF 6.2: Anwenderforum IGI mbH, Kreuztal
Chair der Sitzung: Hans-Gerd Maas
P. Grimm, V. Zirn:
Multiperspektivische Photogrammetrie
Hörsaal 0606 
16:30 - 17:00AF 6.3: Anwenderforum virtualcitySYSTEMS GmbH, Berlin
Chair der Sitzung: Jukka Krisp
M. Sindram:
Simulation mit semantischen 3D-Stadtmodellen
Hörsaal 0602 
16:30 - 17:00AF 6.4: Anwenderforum European Space Imaging, München
Chair der Sitzung: Philipp Willkomm
C. Sandow:
Service-on-Demand für zeitkritische Anwendungen
Hörsaal 2760 
17:15 - 18:30DGPF-MV: Mitgliederversammlung DGPF
Chair der Sitzung: Uwe Stilla
Chair der Sitzung: Uwe Sörgel
Mitglieder DGPF
Hörsaal 2760 
19:00 - 23:00AV2: Get-Together
Im "Löwenbräukeller am Stiglmaierplatz" in der Dachauer Stube, Nymphenburger Str. 2, 80335 München sind Plätze vorreserviert.

Die Teilnehmer zahlen ihren Verzehr selbst.
Löwenbräukeller am Stiglmaierplatz, Dachauer Stube 
Datum: Donnerstag, 08.03.2018
8:00 - 17:30A2: Tagungsbüro
Foyer-Audimax 
8:00 - 18:00FA2: Fachfirmenausstellung
Wir danken den ausstellenden Fachfirmen für die Unterstützung der PFGK18-Tagung durch ihre Teilnahme und die Präsentation ihrer neuen Produkte und Lösungsansätze:

- AED-SYNERGIS GmbH / AED-SICAD AG, Bonn (1)
- AllTerra Deutschland GmbH, Dettelbach (1)
- CADdy Geomatics GmbH, München (1)
- con terra - Gesellschaft für Angewandte Informationstechnologie mbH, Münster (1)
- Dezernat Studium und Lehre, Universität Tübingen (1)
- Esri Deutschland GmbH, Kranzberg (1)
- European Space Imaging, GAF AG, München (1)
- GEOSYSTEMS GmbH, Germering (1)
- Harris Geospatial Solutions GmbH, Gilching (1)
- Hochschule Anhalt, Dessau (1)
- IABG - Industrieanlagen-Betriebsgesellschaft mbH, Ottobrunn (1)
- IGI mbH, Kreuztal (1)
- IP SYSCON GmbH / GI Geoinformatik GmbH, Hannover (1)
- Leica Geosystems Technologies GmbH, Aalen (1)
- Malvern Panalytical GmbH, Kassel (1)
- MILAN Geoservice GmbH, Spremberg (1)
- M.O.S.S. Computer Grafik Systeme GmbH, Taufkirchen (1)
- OCAG AG, Baar (1)
- PHASE ONE INDUSTRIAL, Köln (1)
- PPM GmbH, Penzberg (1)
- schneider digital, Miesbach (1)
- Springer Verlag, Dordrecht (1)
- Terra Messflug GmbH, Imst (1)
- UNIGIS Salzburg, Salzburg
- VDE VERLAG GmbH/Wichmann Verlag, Berlin (1)
- Vexcel Imaging GmbH, Graz (1)
- virtualcitySYSTEMS GmbH, Berlin (1)
- Zoller + Fröhlich GmbH, Wangen (1)


(1) Diese Fachfirmen stellen im Innovationsforum 1 (Donnerstag Vormittag) in einem Kurzvortrag ihre Produkte und Lösungsansätze vor
Foyer-Audimax 
8:30 - 9:15PS2: Key-Note-Vortrag von Prof. Dr. Christoph Stiller
Chair der Sitzung: Uwe Stilla
Audimax 
 
8:30 - 9:15

How should I drive here? Semantic Mapping for Automated Automobiles

C. Stiller

Karlsruher Institut für Technologie, Deutschland

Vehicle automation is among the most fascinating trends in automotive electronics and a huge challenge to Machine Vision. We investigate the information needed by automated vehicles and elaborate on the augmentation of sensor information by prior knowledge from digital maps. We show that cognitive and autonomous vehicles with a few close-to-market sensors are feasible when prior information is available from maps. Vision plays the dominant role in our autonomous vehicle. Methods for automated mapping based on vision are discussed that build the basis for real-time automated decision-making and motion planning.

Extensive experiments are shown in real world scenarios from our AnnieWAY and BerthaOne experimental vehicles, the winner of the 2011 and second winner of the 2016 Grand Cooperative Driving Challenge, respectively. We also discuss lesons learned from the autonomous Bertha Benz memorial tour from Mannheim to Pforzheim through a highly populated area in Germany.

 
9:15 - 9:30P07: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
9:30 - 11:00IF1a: Innovationsforum 1a
Chair der Sitzung: Klaus-Ulrich Komp
Kurzvorträge der ausstellenden Fachfirmen und Organisationen:
- J. Knödler, Uni Tübingen: Die berufliche Weiterbildung zur Geodatenmanager/in
- M. Völzke, Hochschule Anhalt: Geoinformationssysteme brauchen Expertenwissen
- A. Pöschl, AED-SYNERGIS GmbH: Hallo Europa - von 3D bis mobil
E. Schmalen, AED-SICAD AG: Alexa - ich hätte gerne eine Liegenschaftskarte
- C. Uhlenküken, con terra GmbH: Hallo map.apps…“ - Sprachassistenzsysteme für Web Mapping Anwendungen
- D. Nesic, Esri Deutschland GmbH: ArcGIS Hub – Smarte Städte und Regionen. ArcGIS vernetzt Bürger und Verwaltungen
- I. Runkel, GEOSYSTEMS GmbH: Smarte Lösungen für intelligente Workflows von GEOSYSTEMS und Hexagon Geospatial
- T. Bahr, Harris Geospatial Solutions GmbH: Harris Geospatial Solutions - New Portfolio Highlights
- J. Schäfer, IABG mbH: 10 Jahre Geodaten Factory in Dresden
- C. Treutwein, IP SYSCON GmbH / GI Geoinformatik GmbH: ArcGIS Pro – das Werkzeug für Kartographen
- I. Döring, M.O.S.S. Computer Grafik Systeme GmbH: Deutschlandweiter 3D-Gebäudeatlas für die Immobilienwirtschaft
- L. Ross, virtualcitySYSTEMS GmbH: Planen, Analysieren, Simulieren auf Basis von 3D-Stadtmodellen
- H. Wenninger, CADdy Geomatics GmbH: 3D Modellierung mit Konsumerdrohnen in der kleinräumigen Photogrammetrie
Hörsaal 0602 
9:30 - 11:00S05: Photogrammetrie I
Chair der Sitzung: Danilo Schneider
Chair der Sitzung: Eberhard Gülch
Fokus Optische 3D-Messtechnik / geometrische Aspekte inkl. Bildorientierung
Hörsaal 2760 
 
9:30 - 9:50

Zuordnung Von Verknüpfungspunkten Zu Einem Generalisierten Gebäudemodell Für Die UAV-Bildorientierung

J. Unger, F. Rottensteiner, C. Heipke

Leibniz Universität Hannover, Institut für Photogrammetrie und GeoInformation (IPI), Deutschland

Die Wahl von Sensoren für die Bestimmung von Ausrichtung und Position (Pose) von unbemannten Luftfahrtsystemen / Unmanned Aerial Vehicles (UAV) ist durch geringe Nutzlast und Kostenanforderungen beschränkt. Außerdem wird die Positionsmessung per GNSS durch Signalabschattungen erschwert, wenn ein UAV sich beispielsweise in urbanem Gebiet in Häuserschluchten bewegt. Im Ergebnis ist die direkt gemessene Pose als wichtige Eingangsgröße für viele Anwendungen zu ungenau oder nicht verfügbar.

Wir beschreiben vor diesem Hintergrund eine Methode zur Schätzung der Trajektorie eines UAVs mithilfe eines generalisierten Gebäudemodells. Obwohl ein solches Modell hinsichtlich Genauigkeit und Detaillierungsgrad begrenzt sein kann, ist die Integration dieser Information in eine Bündelausgleichung hilfreich, um Drifteffekte einer rein bildbasierten Schätzung der Pose zu kompensieren.

Anders als Ansätze, die Primitive zwischen Bild und 2D-Ansicht des Modells abgleichen, ordnen wir Verknüpfungspunkte im Objektraum den Ebenen des Modells zu. Zuordnungen werden in Form von fiktiven Beobachtungen für die Distanz eines Punktes zu einer Ebene in einer hybriden Bündelausgleichung eingeführt.

Zunächst werden die Bilder auf Basis homologer Punkte orientiert und eine robuste Bündelausgleichung ohne Berücksichtigung des Gebäudemodells durchgeführt. Dabei führen wir zur Definition des Datums direkte GNSS-Beobachtungen für das Projektionszentrum der Kamera ein oder geben anderweitig Startpose und Maßstab vor.

Die fiktiven Beobachtungen sowie direkte Beobachtungen für die unbekannten Parameter der Modellebenen werden zu den Bildbeobachtungen hinzugefügt. Die Eckpunkte des Gebäudemodells definieren die Positionen der Modellebenen im Objektraum; ihre 3D-Koordinaten werden ebenso als Unbekannte mit direkten Beobachtungen und ihre Zuordnung zu Modellebenen über fiktive Beobachtungen eingeführt. In der resultierenden hybriden Ausgleichung werden die Bildposen, Objektpunktkoordinaten und die Modellparameter verfeinert.

Im stochastischen Modell erhalten die fiktiven Beobachtungen der Eckpunkte eine hohe Genauigkeit, da sie die gegebene Topologie der Modellebenen wiedergeben. Die Genauigkeit der fiktiven Beobachtungen für Verknüpfungspunkte korrespondiert mit dem Grad der Generalisierung des Modells: Je stärker dieses generalisiert ist, desto mehr müssen die fiktiven Distanzen sich von Null unterscheiden dürfen und umso größer muss die Standardabweichung sein. Die Genauigkeit des Modells ist in der Standardabweichung der Koordinaten der Eckpunkte repräsentiert.

Für die Zuordnung von Verknüpfungspunkten zu Ebenen des Gebäudemodells untersuchen wir zwei Ansätze. Der erste basiert auf der 3D-Distanz des Punktes zu einer Ebene: Ein Punkt wird der Ebene mit der kürzesten Distanz zugeordnet, es sei denn, diese Distanz ist größer als ein Schwellwert. Der zweite Ansatz basiert auf in der rekonstruierten Punktwolke extrahierten Ebenen. Gültige Ebenen hinsichtlich Anzahl zugehöriger Punkte und ausreichend großer zusammenhängender Komponenten werden Modellebenen zugeordnet. In einer Variante dieser zweiten Zuordnung wird der Suchraum für die Ebenenextraktion durch das Gebäudemodell eingeschränkt. Verknüpfungspunkte, die Teil einer erfolgreich zugeordneten extrahierten Ebene sind, führen schließlich zu fiktiven Beobachtungen, die sie mit der korrespondierenden Modellebene verknüpfen.

Im Vergleich zu unseren vorausgegangenen Arbeiten (Unger et al., 2017) zeigen wir die Weiterentwicklung unserer Methode für längere Bildsequenzen, die eine gleitende Bündelausgleichung erfordert, und evaluieren diese auch hinsichtlich der Unterschiede zwischen den Zuordnungsansätzen.

Literaturverzeichnis

Unger, J.; Rottensteiner, F.; Heipke, C., 2017: Assigning Tie Points to a Generalised Building Model for UAS Image Orientation. In: International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-2/W6, 385-392
DOI: 10.5194/isprs-archives-XLII-2-W6-385-2017


9:50 - 10:10

Registrierung von Flugzeuggetragenen Kameraaufnahmen und UAV-Aufnahmen zur Anreicherung von 3D Daten

R. Boerner, Y. Xu, L. Hoegner, U. Stilla

Technische Universität München, Deutschland

Dieser Beitrag beschreibt ein Verfahren zur automatischen Registrierung von gemeinsam aufgenommenen ALS-Punktwolken und Luftbildern mit einer weiteren, von einem UAV nicht zeitgleich aufgenommenen Bildsequenz. Durch UAV-Befliegungen kann sowohl die räumliche als auch zeitliche Auflösung erhöht werden und so eine detailliertere Änderungsdetektion erfolgen. Vergleicht man Photogrammetrische Punktwolken erzeugt aus Bildern, die von einem UAV oder von einem Flugzeug aus aufgenommen worden sind, so zeigen diese typischerweise eine unterschiedliche Punktdichte und –verteilung. Da mit einem UAV generell tiefer geflogen wird, als mit einem Flugzeug, ist die Bodenpixelgröße der UAV Bilder geringer als bei den Luftbildern. Folglich ist die Punktdichte resultierender 3D Daten aus einer Rekonstruktion im Fall der UAV-Daten höher.

Prinzipiell kann man die Aufnahmen der unterschiedlichen Sensoren im 3D-Raum (über die Erzeugung einer Photogrammetrischen Punktwolke aus den Kameraaufnahmen) oder im 2D-Raum (Affintransformation) registrieren. Die Berechnung von Transformations- und Korrekturparametern erfolgt dann auf Grundlage korrespondierender Punkte, Geraden oder im 3D-Fall durch Ebenen oder Passpunkte.

Das Ergebnis einer Flugzeugbefliegung sind Daten des Laserscanners (3D Punktwolken), die Luftbilder der Kamera und eine Registrierung der beiden Sensoren im globalen Koordinatensystem, somit können die Kameraposition und Orientierung als bekannt angenommen werden. Eine UAV-Befliegung liefert die Luftbilder der UAV-Kamera und eine Positionierung und Orientierung des UAVs. Aufgrund einer kleineren und günstigeren GNSS-Antenne und günstigeren IMUs im UAV sind die Orientierungsparameter im Vergleich zur Flugzeugbefliegung aber ungenauer wodurch die Orientierungsparameter zwischen den unterschiedlichen Bilddaten lediglich als Initial gegeben angenommen werden können. Ein weiteres Problem stellt die Tatsache dar, dass die UAV-Befliegung nicht zeitgleich erfolgte, womit durch unterschiedliche Belichtungen die radiometrische Verteilung der Bilder stark unterschiedlich sein kann. Dies macht eine Registrierung unter Verwendung von SIFT-Features schwieriger. Daher wird in diesem Beitrag der Ansatz verfolgt, geometrische Features ohne radiometrische Information zur Koregistrierung zu verwenden. Bei dem vorgestellten Verfahren soll sowohl auf Passpunkte als auch auf manuell festgelegte Verknüpfungspunkte verzichtet werden. Als geometrische Elemente dienen Geraden. Die Geraden werden in den Luftbildern gesucht und zu Strukturen von paarweise parallelen Geraden zusammengefasst. Die Strukturen mit einem großen Ähnlichkeitswert werden als Zuordnung betrachtet. Anschließend werden basierend auf der Zuordnung die Parameter der Affintransformation zwischen den Bildern in einem Ransac-basierten Ansatz optimiert. Mittels dieser Transformationsparametern lassen sich die Informationen von Tiefenbildern der LiDAR-Daten zu dem jeweiligen Luftbild der Flugzeugkamera in das Bild der UAV-Kamera übertragen. Die übertragenen Informationen des Tiefenbildes liefern somit 3D-Informationen zu den Pixeln des Bildes der UAV-Kamera welche mittels dieser 3D Informationen im Raum neu orientiert werden kann.

Als Testdatensatz dient eine Befliegung des Mangfall Gebietes südöstlich von München vom Tegernsee zur Autobahn A8 worin Luftbilder und LiDAR Daten enthalten sind. Die UAV-Befliegung erfolgte in einem Waldgebiet südlich der Autobahn A8 wleches ebenfalls mit den Daten der Flugzeugbefliegung abgedeckt ist.


10:10 - 10:30

Smart Phone Accuracy of Multi-Camera Pedestrian Tracking in Overlapping Fields of View

S. Busch

Kartographie und Geoinformatik, Deutschland

In this paper, we analyze the suitability of event mapping via smart phones by evaluating the accuracy for pedestrian tracking. We employ a multiple view tracking and bundle adjustment and recover the scale by an alignment to reference points measured via a total station. The use of multiple perspectives by loosely time synchronized smart phones, enabled a least squares assignment of detections while improving the pose estimations of pedestrians and reducing occlusions. Finally, we used a total station to track a pedestrian to evaluate our results and show that the photogrammetric smart phone tracking accuracy of 20 cm is suitable for event mapping.

In more detail, we placed three smart phones on a camera stand to observe a complex scene from multiple perspectives. The smart phones recorded images with a rate of 8 Hz and full HD resolution. The complexity of the scene results from many occlusions which occur during the movement of the persons in the field of view. The pose of the cameras was determined by recording a short video of a round tour through the scene. Structure-from-motion was used to reconstruct the scene.The resulting local poses were transformed to a global coordinate frame by the alignment of the point cloud generated via bundle adjustment to total station measurements. This localization approach could also be used for precise localization of smart phones by using short image sequences, a highly accurate point cloud of the surroundings (e.g. from mobile mapping), and an approximate localization via GPS. The pedestrian detection in the images was performed by a number of neural network detectors [1,2,3]. We show that pedestrian pose estimation by skeleton fitting [2,3] is more accurate than the use of a bounding box [1]. To align successively arriving detections, we extended our single camera Kalman filter tracking approach to multiple perspectives by using the prediction of the filter for the alignment process. Firstly, we optimized the spatial intersection result for each possible combination of detections from different views by a least squares assignment. Secondly, we calculated a probability for each combination to find the corresponding detection by filtering all combinations with a threshold and picking the most likely combinations. Afterwards, we estimated the posterior probability for all possible assignments and aligned the most likely detections. Our tracking result is compared against a ground truth produced by a total station. One pedestrian carried a support rod mounted with a 360-degree prism at a height of about 3 meters to prevent occlusions and was tracked by a total station. The results demonstrate that our approach is capable of estimating trajectories of pedestrians in 3D real world coordinates with sufficient precision for map matching and thus is suitable for event mapping.

[1] J. Redmon and A. Farhadi. Yolo9000: Better, faster, stronger. arXiv preprint arXiv:1612.08242, 2016.

[2] S.-E. Wei, V. Ramakrishna, T. Kanade, and Y. Sheikh. Convolutional pose machines. In CVPR, 2016.

[3] Z. Cao, T. Simon, S.-E. Wei, and Y. Sheikh. Realtime multi-person 2d pose estimation using part affinity fields. arXiv preprint:1611.08050, 2016.


10:30 - 10:50

Bestimmung Der Korrespondenz Zwischen Historischen Gebäudeaufnahmen Basierend Auf Der Zuordnung Geometrischer Merkmale

F. Maiwald, D. Schneider, F. Henze

TU Dresden, Deutschland

1. Einleitung

Dieser Beitrag befasst sich mit der Verknüpfung und anschließender relativen Orientierung historischer Aufnahmen der Fotothek der SLUB (Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden). Der Schwerpunkt wird vor allem auf Gebäudeaufnahmen gelegt. Im Gegensatz zu aktuellem Bildmaterial sind bei historischen Fotografien verschiedene Faktoren ausschlaggebend, die eine automatische Bildanalyse (Merkmalssuche, Merkmalszuordnung und relative Orientierung) deutlich erschweren:

  • Die Verschlagwortung in der Bibliothek zeigt häufig nicht alle oder auch fehlerhafte Ergebnisse.
  • Einige Aufnahmen sind gar nicht oder nur mit einer geringen Auflösung digitalisiert.
  • Für die verwendeten Kameras liegen keine Kameraparameter, Kameratypen und Kamerastandpunkte vor. Geometrische Eigenschaften sind teilweise oder gänzlich unbekannt.
  • Die radiometrischen Differenzen zwischen zwei Bildern derselben Epoche sind in den meisten Fällen sehr groß.

Aufgrund dessen werden in dem hier präsentierten Ansatz ausschließlich geometrische Merkmale verwendet, um die Verknüpfung zwischen zwei oder mehreren historischen Aufnahmen zu ermöglichen. Als robuste Merkmale haben sich vor allem Rechtecke herausgestellt. Diese können zum einen relativ leicht und schnell detektiert werden und zum anderen zeigen Rechtecke bei historischen Gebäuden oft eindeutige Formationen (Lage und Anordnung von Fenstern, Steinen, Verkleidungen) und können so in anderen Bildern wiedererkannt werden. Herkömmliche Matching-Verfahren wie Brute-Force-Matching und Flann-based-Matching führten mit intensitätsbasierten Deskriptoren wie SIFT, SURF und ORB zu keinen korrekten Zuordnungen zwischen zwei Bildern.

2. Arbeitsablauf

Um die Rechtecke zu detektieren, wird auf die Bilder ein Canny-Filter mit automatisierter Schwellwerterkennung angewendet. Liniensegmente werden über ein morphologisches Closing mithilfe eines Rechteckkernels verstärkt. Anschließend können im Canny-Bild Konturen gefunden und mittels Template-Matching Rechtecke detektiert werden.

Im nächsten Schritt wird für jedes gefundene Rechteck ein Deskriptor erstellt, der ein einzelnes Rechteck möglichst eindeutig beschreibt. Dazu werden die n nächsten Nachbarn zu jedem Rechteck betrachtet und die Lage der Schwerpunkte zueinander abgespeichert. Zusätzlich werden die umliegenden Rechtecke auf affin-invariante Eigenschaften wie Parallelität, Flächenverhältnisse und Seitenverhältnisse geprüft. Die Anzahl der umliegenden Rechtecke n wird dabei bisher manuell gewählt, soll in Zukunft aber iterativ bestimmt werden. Die Deskriptoren für jedes Rechteck werden in beiden betrachteten Bildern bestimmt und anschließend mittels Brute-Force Matching verknüpft.

3. Auswertung und Ergebnisse

Der Reckteckdeskriptor erreicht bei ausgewählten Bildpaaren 70 % - 100 % korrekte Punktzuordnungen. Der Deskriptor ist zum jetzigen Zeitpunkt maßstabs- und translationsinvariant. Eine Rotationsinvarianz (die bei historischen Aufnahmen selten notwendig ist) ist bisher nur bedingt gegeben. Fehlerhafte Zuordnungen entstehen beispielsweise in Bildern, bei denen einzelne Fenster nur wenige Pixel ausfüllen (Totalaufnahmen). Diese bereiten dem Algorithmus aufgrund der erschwerten Rechteckdetektion (Rechteckgröße fällt unter einen definierten Schwellwert) noch Probleme. In der Weiterverarbeitung der durch homologe Punkte bestimmten Fundamentalmatrix bis zur relativen Orientierung kommt erschwerend hinzu, dass keine Kameraparameter bzw. Kalibrierdaten vorhanden sind und die einzelnen Kameras sich gegebenenfalls stark voneinander unterscheiden. In dieser Hinsicht kann ein Structure-from-Motion Ansatz sinnvoll sein.

4. Fazit

In diesem Beitrag wird gezeigt, wie zwischen historische Aufnahmen, die stark variierende radiometrische Eigenschaften besitzen, eine Korrespondenz über die Zuordnung geometrischer Merkmale hergestellt werden kann. In der Zukunft sollen die Reckteckdetektion sowie die Beschreibung der Rechtecke weiter optimiert werden. Im Anschluss können qualitative Aussagen über Zuordnungs- und Orientierungsgenauigkeit der Bildpaare getroffen werden.

 
9:30 - 11:00WF2: Wissenschaftsforum 2 - RT GIS: Neues zur Digitalisierung in der Landwirtschaft
Chair der Sitzung: Ralf Bill
Hörsaal 0606 
 

Einsatz von Multi- und Hyperspektralsensordaten in der Landwirtschaft

P. Noack

Hochschule Weihenstephan-Triesdorf, Deutschland


Flugroboter für Precision Farming und das Feldversuchswesen

G. Grenzdörffer

Universität Rostock, Deutschland


Neue Wege für die Zukunft? Erfahrungen aus dem Einsatz neuer Planungsgrundlagen für die Konzeption ländlicher Kernwegesysteme

T. Machl1, W. Ewald2

1Technische Universität München, Lehrstuhl für Geoinformatik; 2Bayerisches Staatsministerium für Ernährung, Landwirtschaft und Forsten, Verwaltung für Ländliche Entwicklung

 
9:30 - 11:15S04: Virtual/Augmented Reality und anschliessend Podiumsdiskussion "Wandel der Kartographie"
Chair der Sitzung: Jochen Schiewe
I. Domnick (Beuth Hochschule Berlin) und F. Harvey (Institut für Länderkunde, Leipzig): Podiumsdiskussion (10:15-11:15 Uhr)
Wandel der Kartographie: Orientierung bezüglich Nachwuchs-, Orientierungs- und Ausbildungsfragen

Mit Vertreter/-innen verschiedener Einrichtungen aus der Lehre (Hochschule und Ausbildung), der Wissenschaft und Praxis wird über den Wandel und die Zukunft der Kartographie diskutierten/philosophierten. Das Ziel der Diskussion ist gemeinsamen Berührungspunkte für die künftige Orientierung, Entwicklung und Ausbildung des Nachwuchs zu identifizieren und zu erörtern. In der Podiumsdiskussion mit eher jüngeren Kollegen und Kolleginnen greifen wir den Wandel in der Praxis, Ausbildung und Lehre auf. Es bestehen weitere Partizipationsmöglichkeiten für Teilnehmer/-innen aus dem Audienz.
Audimax 
 
9:30 - 9:50

Segeberg 1600 – Eine Stadtrekonstruktion in Virtual Reality

S. Deggim1, T. Kersten1, F. Tschirschwitz1, M. Lindstaedt1, N. Hinrichsen2

1HafenCity Universität Hamburg, Deutschland; 2Museum Alt-Segeberger Bürgerhaus, Bad Segeberg

3D-Rekonstruktionen historischer Gebäude und Städte bieten die Möglichkeit der Auseinandersetzung mit der Bau- und Entstehungsgeschichte bedeutsamer Objekte und ihrer urbanen Umgebung. Entsprechende Visualisierungen erlauben eine interaktive Erforschung der Objekte und leisten – dem museumspädagogischen Ansatz folgend – einen wichtigen Bildungsbeitrag zur Vermittlung von Baukultur und Stadtgeschichte. Neuartige Präsentationstechniken, wie z.B. die Benutzung eines Virtual Reality-Systems zur spielerischen Erkundung einer urbanen Umgebung und/oder eines einzelnen Gebäudes, erweitern das Spektrum der musealen Wissensvermittlung und fördern die Zugänglichkeit eines Themenkomplexes auch für die jüngere Generation.

Im Rahmen des Projektes Segeberg 1600 wurde die virtuelle 3D-Rekonstruktion der Stadt Segeberg in der frühen Neuzeit (um das Jahr 1600) und der damals noch eigenständigen Nachbargemeinde Gieschenhagen umgesetzt. Viele für die Stadtgeschichte Bad Segebergs und für ganz Schleswig-Holstein bedeutsame Gebäude, welche in der Vergangenheit zerstört oder mit der Zeit abgerissen wurden, konnten somit wiederauferstehen und vermitteln einen Eindruck des damaligen Stadtbildes. Der erste Schritt bestand in der 3D-Modellierung der Marienkirche aus terrestrischen Laserscanningdaten und der Rekonstruktion der nicht mehr existenten Klostergebäude aufgrund historischer Quellen in AutoCAD. Anschließend wurden weitere, in ihrem Aussehen überlieferte Gebäude, wie z.B. die Siegesburg, das Rantzau-Palais, das Stahwedder-Gebäude, einige besonders ausgefallene Bürgerhäuser, Scheunen und weitere Wirtschaftsgebäude rekonstruiert. Zusammen mit Modellen weiterer Bürgerhäuser, von denen das heutige Museum Alt-Segeberger Bürgerhaus als fast 500 Jahre altes Fachwerkgebäude das letzte erhalten gebliebene Exemplar darstellt, wurden alle Gebäude auf der Grundlage von historischen Karten und Quellen zu einem 3D-Stadtmodell zusammengefügt. Alle generierten Gebäude wurden anschließend in der Software 3ds Max texturiert, um dem Stadtbild ein realistisches Aussehen zu geben. Nach Abschluss der Modellierung und Texturierung aller 300 Gebäude wurden die erstellten Daten über das Fileformat FBX in die Game Engine Unreal importiert. Unreal erlaubt die Bearbeitung der importierten Objekte und die Programmierung der gesamten internen Logik der Anwendung, wie z.B. die Navigation im Modell und die Erstellung weiterer Interaktionen. In Unreal erfolgte die Gestaltung und Texturierung der Landschaft und Szenerie durch Platzierung vieler Detailobjekte, um der virtuellen Stadt ein entsprechendes Leben einzuhauchen. Das gesamte virtuelle 3D-Modell umfasst eine Fläche von ca. 3 km2 und stellt in diesem Umfang und Detailierungsgrad bisher ein einmaliges, digitales, historisches Stadtmodell in Deutschland dar.

Durch die Implementierung einer Virtual Reality-Steuerung lässt sich das virtuelle historische Segeberg nun mithilfe des Head-Mounted-Displays HTC Vive und einem Motion Controller als Navigationshilfe betrachten und erkunden. Die VR-Applikation Segeberg 1600 wurde bereits erfolgreich auf der INTERGEO 2017 in Berlin, der weltweit führenden Kongressmesse für Geodäsie, Geoinformation und Landmanagement, auf dem Messestand der HCU Hamburg vorgestellt. In Zukunft werden in dem virtuellen Stadtmodell weitere Funktionen und herausfordernde Interaktionen für die Nutzer in Form von Serious Games implementiert, um die Attraktivität und den Nutzen der VR-Applikation zu steigern. In diesem Beitrag werden der Workflow von der Datenerfassung, über die Modellierung und Texturierung, sowie über die Implementierung in der Game Engine bis hin zur Visualisierung mit dem VR-System HTC Vive beschrieben.


9:50 - 10:10

Virtual Reality (VR) und Open Source Software: Ein Workflow zur Konstruktion einer interaktiven kartographischen VR-Umgebung zur Erkundung urbaner Landschaften

D. Edler1, A. Husar1, J. Keil1, M. Vetter2, F. Dickmann1

1Ruhr-Universität Bochum, Deutschland; 2Hochschule Karlsruhe, Deutschland

In jüngster Zeit sind durch Innovationen in der Computer- und Videospielindustrie erschwingliche Hardware- und Softwarelösungen zur Virtual Reality (VR) entwickelt worden, die nun als Massenmedien etabliert sind. Mit aktuellen VR-Headsets, wie bspw. HTC Vive und Oculus Rift, können daheim Spiele gespielt werden, während der Spieler selbst Teil der VR-Landschaften wird, die er durch übertragene natürliche Körperbewegungen beeinflussen und steuern kann. Darüber hinaus können Nutzer freie und quelloffene Spiel-Engines downloaden und mit ihnen eigene virtuelle Landschaften erstellen. Diese Spiel-Engines sind kompatibel mit quelloffener 3D-Modellierungssoftware, die in der Kartographie eingesetzt wird. Dadurch können Kartographen eigene VR-Umgebungen schaffen, die auf freien Daten, freier Modellierungs-Software und freien Spiele-Engines beruhen. In diesem Aufsatz wird ein Projekt-Workflow vorgeschlagen, der zur Konstruktion einer urbanen VR-Landschaft, ohne Kosten für Daten und Software, eingesetzt werden kann. Das Produkt dieses Workflows ist eine VR-Applikation zum Campus der Ruhr-Universität Bochum (RUB), die perspektivisch als virtuelles Orientierungssystem für Campus-Besucher, wie bspw. neue Geomatik-Studierende, die ihre Kartographie-Dozenten suchen, angeboten werden könnte.

 
11:00 - 14:00P08: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
11:30 - 12:00KKNP-KV: Poster-KKNP - Kurzvorträge
Chair der Sitzung: Ansgar Brunn
Chair der Sitzung: Wolfgang Gold
Chair der Sitzung: Kirsten Wolff
D. Laupheimer: Deep Learning for the Classification of Building Facades
L.-M. Kralisch: Untersuchung zur Nutzung der Radarfernerkundung zur Klassifizierung von Feldfrüchten
C. Beil: Detaillierte Repräsentation des Straßenraums in 3D Stadtmodellen
O.R. Moslehi Rad: Crowdsourced Vertical Indoor Mapping
H. Gümgümcü: Hand Tracking using Kalman Filter for Safe Human-Robot Interaction
A.M. Piter: Untersuchungen zur dreidimensionalen Analyse von photogrammetrisch erfassten Betonproben
D. Holdener: Konzeption und Realisierung eines neuen portablen 360°-Stereokamerasystems
M. Schär: Einsatz Von Deep Learning Zur Aktualisierung Der Arealstatistik Der Schweiz - Erste Untersuchungen
R. Niessner: Klassifikation von Fahrzeugen aus RGB- und LiDAR-Daten mit Convolutional Neural Networks
F. Breitwieser: Simulation raumzeitlicher Effekte des Angebotes und der Nachfrage von Hackschnitzeln in Kärnten: Ein Agentenbasierter Ansatz
Immatrikulationshalle - Bereich KKN-Preis 
11:30 - 13:00FPG: Präsentationen der Finalisten des Förderpreises Geoinformatik
Chair der Sitzung: Ralf Bill
Masterarbeiten:
Entwicklung und Implementierung eines „Weather Extremity Index (WEI)“ zur Bewertung von Starkregenereignissen unter Berücksichtigung räumlicher und zeitlicher Verteilungen (Thorsten Kelm, Hochschule Bochum)
Deep Convolutional Neural Networks for Semantic Segmentation of Multispectral Sentinel-2 Satellite Imagery: An Open Data Approach to Large-Scale Land Use and Land Cover Classification (Lukas Liebl, TU München)
A semi-automatic algorithm for wetland detection using multi-temporal optical satellite data (Christina Ludwig (Universität Trier)
A Novel Approach to the Routing Problem of Overhead Transmission Lines (nadine Piveteau, ETH Zürich)
Kopplung von Verkehrssimulation und semantischen 3D-Stadtmodellen in CityGML (Roland Ruhdorfer, TU München)
Dissertationen:
Fusion of High Spatial Resolution Multispectral & Object Height Data for Urban Environmental Monitoring (Dr. Christian Berger, Friedrich-Schiller-Universität Jena)
Spatio-Temporal Data Handling for Generic Mobile Geoinformation Systems (Dr. Paul Vincent Kuper, Karlsruher Institut für Technologie)
Geospatial Data Modelling and Model-driven Transformation of Geospatial Data based on UML Profiles (Dr. Tatjana Kutzner, TU München)
Hörsaal 0606 
 

Entwicklung und Implementierung eines „Weather Extremity Index (WEI)“ zur Bewertung von Starkregenereignissen unter Berücksichtigung räumlicher und zeitlicher Verteilungen

T. Kelm1, U. Klein1, F. Netzel1, C. Mudersbach1, M. Krüger2, A. Pfister2

1Hochschule Bochum; 2Emschergenossenschaft und Lippeverband


Deep Convolutional Neural Networks for Semantic Segmentation of Multispectral Sentinel-2 Satellite Imagery: An Open Data Approach to Large-Scale Land Use and Land Cover Classification

L. Liebel

TU München, Deutschland


A Semi-Automatic Algorithm For Wetland Detection Using Multi-Temporal Optical Satellite Data

C. Ludwig1, S. Kass2, M. Riffler1

1GeoVille GmbH, Österreich; 2Université du Luxembourg, Luxemburg


A Novel Approach to the Routing Problem of Overhead Transmission Lines

N. Piveteau2, J. Schito1, M. Raubal1, R. Weibel2

1ETH Zürich, Schweiz; 2Universität Zürich, Schweiz


Kopplung von Verkehrssimulation und semantischen 3D-Stadtmodellen in CityGML

R. Ruhdorfer

TU München, Deutschland


Fusion of VHR Multispectral and Object Height Data for Urban Environmental Monitoring

C. Berger

Friedrich-Schiller-Universität Jena, Deutschland


Spatio-Temporal Data Handling for Generic Mobile Geoinformation Systems

P. V. Kuper

Karlsruher Institut für Technologie, Deutschland


Geospatial Data Modelling and Model-driven Transformation of Geospatial Data based on UML Profiles

T. Kutzner

Technische Universität München, Deutschland

 
11:30 - 13:00IF1b: Innovationsforum 1b
Chair der Sitzung: Monika Sester
Kurzvorträge der ausstellenden Fachfirmen und Einrichtungen:
- S. Fischer, European Space Imaging: Verbesserung der Bildanalyse durch 30 cm Satellitenbilddaten
- J. Kremer, IGI mbH: IGI-Integrated Geospatial Innovations
- F. Puls, Leica Geosystems Technology GmbH: Leica Geosystems Airborne Solutions – Sensor Portfolio
- M. Singer, PPM: GNSS für mobile Anwendungen
- N. Mostofi, Schneider Digital: 3D PluraView - Die Referenz der 3D-Stereo Displays
- E. Breg: Vexcel Imaging GmbH: UltraMap - innovative Software für die Bildverarbeitung
- J. Thanner, Zoller + Fröhlich GmbH: Innovative Workflows mit Z + F Technologie
- M. Leuchner, Springer Verlag: New Developments in Scientific Publishing with Springer Nature
Hörsaal 0602 
12:00 - 14:00Poster-KKNP: Poster-KKNP mit Erfrischungen
Chair der Sitzung: Ansgar Brunn
Chair der Sitzung: Kirsten Wolff
Chair der Sitzung: Wolfgang Gold
Immatrikulationshalle - Bereich KKN-Preis 
 

Deep Learning for the Classification of Building Facades

D. Laupheimer

Institut für Photogrammetrie, Universität Stuttgart, Deutschland

In recent years, 3D models containing both geometric and semantic information have become of great public interest. The geometric information of 3D models can be provided by (a combination of) photogrammetric methods, laser scanning and traditional surveying. For providing the semantic information for 3D urban models in an automated way, we established an end-to-end approach for classifying images of building facades into five different utility classes (commercial, hybrid, residential, specialUse, underConstruction) by using Convolutional Neural Networks (CNNs). We did several experiments on different data sets with various CNNs for evaluating the performance of this approach. Using Class Activation Maps (CAMs), we examined which features are learned during the training process in order to sort the facades into the considered classes.


Untersuchung zur Nutzung der Radarfernerkundung zur Klassifizierung von Feldfrüchten

L.-M. Kralisch

Beuth Hochschule für Technik Berlin, Deutschland

Die vorliegende Arbeit zeigt den Versuch einen reproduzierbaren Zusammenhang zwischen Feldfrüchten und Rückstreuungskoeffizient zu finden. Die verwendeten GRD-Radardaten stammen von Sentinel-1A. Durch die Verwendung von Referenzdaten konnte für jede Feldfruchtart der Mittelwert und die Standardabweichung berechnet werden. Folglich entstanden Spannweiten, welche in einen Entscheidungsbaum eingepflegt wurden. Diese überwachte Klassifizierung ergab eine Gesamtgenauigkeit von ca. 57%. Weiterhin wurde die Anwendbarkeit der Spannweiten in Hinsicht auf Lage und Zeit überprüft. Das Ergebnis zeigte, dass sich der Rückstreuungskoeffizient mit dem Blickwinkel zu stark verändert. Weiterhin konnten die Werte auch für die Aufnahmen drei Tage später nicht mehr verwendet werden. Diese Arbeit dient als Grundlage für weitere Studien auf dem Gebiet der Feldfruchtklassifizierung.


Detaillierte Repräsentation des Straßenraums in 3D Stadtmodellen

C. Beil

TU München, Deutschland

Dreidimensionale semantische Stadtmodelle werden immer häufiger für Simulationen und Analysen urbaner Räume verwendet. Bislang liegt der Fokus dabei jedoch stark auf Gebäudemodellen. Für zahlreiche Anwendungsfälle wären allerdings auch Modelle des Straßenraums von großem Nutzen, jedoch gibt es hierfür nur wenige Richtlinien. Relevante Standards wie GDF oder OpenDRIVE werden daher analysiert und dabei wird festgestellt, dass sich diese in erster Linie auf linienhafte oder parametrische Repräsentationen konzentrieren. Daraufhin werden 16 potentielle Anwendungen vorgestellt und der Nutzen, den diese aus einer flächenhaften Straßenraummodellierung ziehen würden diskutiert. Auf Grundlage dieser Erkenntnisse wird das Transportation Modell des momentan gültigen OGC Standards CityGML2.0 hinsichtlich Verbesserungs- und Erweiterungs-möglichkeiten untersucht. Im Zuge dessen wird ein CityGML konformes Modellierungskonzept für mehrere Detailstufen (LoD) vorgestellt. Abschließend wird dieses Konzept auf Grundlage frei verfügbarer Daten (Open Data) für ein semantisches 3D Stadtmodell von New York City implementiert. Als Ergebnis werden so über 500‘000 Straßenraumobjekte vollautomatisch erzeugt. Diese umfassen u.a. Straßenflächen, erhöhte Gehwege, Parkplatzflächen und Verkehrsinseln, welche allesamt mit einer Vielzahl thematischer Attribute angereichert sowie texturiert sind. Das Modell wird zudem mit Hilfe des Open Source „WebGL Virtual Globe Cesium“ visualisiert und so für interaktive Attributabfragen und Analysen zugänglich gemacht.


Crowdsourced Vertical Indoor Mapping

O. R. Moslehi Rad

TUM, Deutschland

In this paper, we introduce a methodology for dynamic estimation of vertical features of buildings. For this, we obtain data from built-in smart-phone sensors and use this data for altitude estimation via the barometric formula. We propose a novel approach for the identification of the reference pressure during the outdoor-to-indoor-transition of the users. We use a set of machine learning algorithms for the determination of the number of floors as well as an unsupervised clustering of each floor altitude. This is the first system capable of mapping vertical features inside buildings automatically, which is independent of any indoor infrastructure. Finally, we apply the results for enhancing a CityGML standard for generating 3D building models.


Hand Tracking using Kalman Filter for Safe Human-Robot Interaction

H. Gümgümcü

ETH Zürich, Schweiz

The goal of this bachelor thesis was to develop an algorithm to detect human activity with the use of an Intel RealSense camera and determine if the activity intrudes into a specified safety zone. The Intel RealSense is a depth camera, which means that we know the distance from the camera to the objects in the scene. The Intel RealSense camera can also deliver tracked coordinates of hand joints which can be used as a signal of human activity. In order to be able to keep the safety zone small and at the same time reduce false positives, we use a Kalman Filter with which we are able to solve two problems at once: Predict future hand movements and at the same time filter the output to realize a smooth visualization. We were able to implement an application which is able to foresee quick hand movements and signal those in direction of the camera as potentially hazardous. The filter smooths the raw coordinates as desired and gives a nice visualization of the hand. Our developed method can be a starting point for further research purposes and a potential starting base to implement a profound safety zone for a real robot.


Untersuchungen zur dreidimensionalen Analyse von photogrammetrisch erfassten Betonproben

A. M. Piter

Leibniz Universität Hannover, Deutschland

Die Bestimmung der Luftporenkennwerte am Festbeton erfolgt in der Materialprüfung manuell mit einem Stereomikroskop in kleinen Bereichen des Betontestkörpers. Im Rahmen dieser Arbeit wurde die Porendetektion, ein Verfahren zur automatisierten und flächendeckenden Bestimmung der Lage von Luftporen entwickelt. Die Oberfläche des Betontestkörpers wurde mit den Methoden der Nahbereichsphotogrammetrie dreidimensional rekonstruiert. In der Porendetektion wird das Modell gefiltert, die Punktmenge anhand eines Schwellwertes klassifiziert und die klassifizierten Punkte zu Poren gruppiert. Die Validierung des Verfahrens anhand einer manuell erstellten Referenz zeigt den Einfluss der Parameter der Porendetektion auf die Ergebnisse.


Konzeption und Realisierung eines neuen portablen 360°-Stereokamerasystems

D. Holdener

Fachhochschule Nordwestschweiz, Schweiz

Die Nachfrage nach der 3D-Vermessung von Innenräumen nimmt mit dem Trend der Digitalisierung in der Baubranche stetig zu. Eine effiziente Lösung zur Aufnahme des Innenbereichs ist das Mobile Mapping. Bildbasierte Systeme mit 360°-Panoramaabdeckung erlauben eine schnelle Datenerfassung und können zu georeferenzierten 3D-Bilddaten prozessiert und in cloudbasierte 3D-Geoinformationsservices integriert werden.

Das in dieser Arbeit entwickelte Kamerasystem erreicht eine 360°-Stereoabdeckung durch die ringförmige Anordnung von fünf horizontalen Stereobildpaaren. Die kostengünstige Realisierung basiert auf einer Kamerahalterung, welche mit dem 3D-Drucker gefertigt wurde, und aus Action-Kameras mit Fischaugen-Objektiv. Das Stereokamerasystem wurde erfolgreich kalibriert. Mit dem aufgezeigten Auswerteprozess können automatisch Tiefenkarten und Punktwolken aus den Stereobildern gerechnet werden. Ein Vergleich von 3D-Messungen mit Referenzdaten zeigt maximale Abweichungen von 3 cm auf typische Distanzen für Innenaufnahmen von 2-8 m. Trotz der kostengünstigen Implementierung kann so das Potential eines bildbasierten Aufnahmesystems aufgezeigt werden.


Einsatz Von Deep Learning Zur Aktualisierung Der Arealstatistik Der Schweiz - Erste Untersuchungen

M. Schär

Fachhochschule Nordwestschweiz, Schweiz

Das Bundesamt für Statistik (BFS) erstellt periodisch die Arealstatistik über das gesamte Gebiet der Eidgenossenschaft. Da der personelle Aufwand für dessen Erfassung sehr hoch ist, ist der Bund auf der Suche nach einer neuen teil- oder vollautomatisierten Erfassungsmethode. In dieser Arbeit wurde mit Hilfe eines Deep Learning Frameworks, einer aus dem Machine Learning stammenden Methode, die Machbarkeit einer automatisierten Erfassung evaluiert. Dies erfolgte mit Hilfe der Ausarbeitung (Konzept, Implementierung) eines Workflows, sowie erster Evaluierungen anhand von vorliegenden Daten der Arealstatistik des BFS. Untersucht wurde insbesondere der Einfluss der Architektur und der Parametrisierung der für Deep Learning eingesetzten neuronalen Netze sowie die Eignung der Luftbilder als Grundlage. Erste Ergebnisse zeigten auf, dass sich durch eine Basiskonfigurierung der verwendeten neuronalen Netze bereits gute Ergebnisse erzielen lassen, die jedoch hinsichtlich einer zuverlässigen automatisierten Erfassung auf ein Optimierungspotenzial der Methodik hinweisen.


Klassifikation von Fahrzeugen aus RGB- und LiDAR-Daten mit Convolutional Neural Networks

R. Niessner

NavVis GmbH, Deutschland

Verkehrsbezogene Daten sind das zentrale Thema für die Überwachung und das Monitoring urbaner Regionen. Daher ist die automatisierte Analyse dieser Daten, um eine eine parametrisierte Charakterisierung abzuleiten, unerlässlich. Typische Parameter sind beispielsweise die Fahrzeugpositionen, die Anzahl der Fahrzeuge, die Verkehrsdichte und der Verkehrsfluss. Um Fahrzeughypothesen abzuleiten, können in diesem Zusammenhang verschiedene Merkmale berechnet werden, indem radiometrische (optische) und geometrische (Elevations-) Daten zur Klassifizierung verwendet werden. Aktuelle Arbeiten verwenden Convolutional Neural Networks (CNN's). Diese mehrschichtigen neuronalen Netze sind so ausgelegt, dass sie optimale Eigenschaften aus Trainingsdaten für ein gegebenes Klassifikationsproblem lernen und vielversprechende Ergebnisse für Erkennungs- und Klassifikationsaufgaben zeigen.

In dieser Arbeit wird das Potential von Convolutional Neural Networks speziell für die Fahrzeugklassifikation untersucht. Daher werden drei Ansätze angegangen, um Klassifikatoren basierend auf Convolutional Neural Networks zu trainieren. Der Hauptbeitrag dieser Arbeit ist:

  • CNNs basierend auf RGB- und LiDAR-Daten führen zu Klassifikationsergebnissen mit hoher Genauigkeit
  • Merkmale, die von RGB-Daten abgeleitet werden und durch Transferlernen in LiDAR-Daten übertragen werden, führen zu besseren Klassifikationsergebnissen als die alleinige Verwendung von RGB-Daten
  • Neuronale Netzwerke mit weniger Ebenen als weit verbreitete neuronale
    Netzwerke mit vielen Ebenen führen zu den besten Klassifikationsergebnissen


Simulation raumzeitlicher Effekte des Angebotes und der Nachfrage von Hackschnitzeln in Kärnten: Ein Agentenbasierter Ansatz

F. Breitwieser

Technische Universität Graz, Österreich

Energetische Nachhaltigkeit ist ein Begriff, der in der heutigen Gesellschaft immer mehr an Bedeutung gewinnt. Aus diesem Grund untersucht die hier vorgestellte Studie das Potential von Agenten-basierter Modellierung im Zusammenhang mit der Versorgungskette von Hackschnitzeln aus den Wald zu den Fernwärmeheizwerken. Untersuchungsgebiet bildet das österreichische Bundesland Kärnten. Das umgesetzte Agentenbasierte-Modell besteht aus 3 Agententypen: dem Waldeigentümern auf der Angebotsseite, den Heizkraftwerken auf der Nachfrageseite und den intermediär agierenden “Händlern“. Die Eigentümer besitzen unterschiedliche wirtschaftliche Interessen, auf welche die Händler reagieren und Transportkosten-optimiert handeln. Das Modell geht von einer autarken Holzversorgung im Untersuchungsgebiet aus und gibt die raumzeitliche Entwicklung der Transportdistanz, Erntemuster und Ernteverteilung in jährlichen Schritten wider. Die Ergebnisse bilden 6 Simulationsszenarien, die eine differenzierte Marktentwicklung abbilden.

 
12:00 - 14:00Poster: Poster mit Erfrischungen
Chair der Sitzung: Uwe Sörgel
Immatrikulationshalle 
 

Entwicklung einer semiologischen Methodik zur Vergleichbarkeit aktueller mit historischen Geodaten

I. Schlegel

HafenCity Universität Hamburg, Deutschland

Neben räumlichen Informationen zu aktuellen Gegebenheiten ermöglichen insbesondere solche zu historischen eine Betrachtung urbaner Prozesse über lange Zeitspannen. Mittels einer Methodik zur Transformation semiologischer Eigenschaften beabsichtigt dieses Dissertationsvorhaben, die Möglichkeit eines intuitiven Vergleichs zwischen aktuellen und historischen Geodaten bzw. Karten zu schaffen. Letztere, welche in der Regel nicht digital aufbereitet sind, sondern lediglich in Papierform vorliegen, sollen für diesen Zweck analysierbar sein wie aktuelle es sind.

Bei dem hier vorgestellten Ansatz sollen kognitive Erschwernisse für den Anwender, welche im Zuge bestehender Herangehensweisen auftreten (wie Saccaden oder Informationsüberladungen), eliminiert werden.


Statistische Atlanten – umfangreiche Quelle räumlicher Informationen zu Staat und Gesellschaft

S. Kuster

Bundesamt für Statistik (BFS), Schweiz

Seit 2009 verfügt das Statistische Bundesamt (BFS) über ein zentrales Karten- und Atlasredaktionssystem «Plattform Statatlas» mit integrierter Regionaldatenbank für die Erstellung und Verbreitung von interaktiven thematischen Karten und drei Online-Atlanten. Diese Plattform basiert auf einem Content Management System (CMS), das die Verwaltung aller notwendigen Geo- und Metadaten, der gesamten kartografischen Produktion, der Strukturierung von Inhalten übernimmt und schlussendlich für eine Online-Verbreitung und andere Medien sorgt. Das CMS wurde von Anfang an crossmedial entwickelt und erlaubt die Ausgabe verschiedener Formate aus den in diesen statistischen online (Fach-)Atlanten vorgestellten Karten. Karten können im PDF-Format exportiert werden, die als Grundlage für die Print- und Digitalpublikationen dienen. Es können Kartensammlungen in «Mini-Projekte» zusammengefasst werden, welche dann in Form von HTML-iFrames exportiert werden und um dann sowohl in Webseiten als auch in digitale Publikationen für Apps und mobile Geräte integriert zu werden. Diese «Mini-Projekte» bewahren die Interaktivität von Karten und erweisen sich als nützlich, um kleine thematische «Atlanten» zu publizieren.

Der «Statistische Atlas der Schweiz» gibt einen umfangreichen Überblick aus allen Themenbereichen (wie z.B. Bevölkerung, Bildung, Gesellschaft und Politik, Gesundheit, Mobilität und Verkehr, Soziales) des BFS. Das in den Statistischen Atlas der Schweiz integrierte Kapitel «International» stellt die Schweizer Zahlen in einen internationalen Zusammenhang und ermöglicht die Analyse von Unterschieden zwischen europäischen Ländern.

Der «Politische Atlas der Schweiz» enthält in über 3000 Gemeinde-, Bezirks- und Kantonskarten die Resultate der Nationalratswahlen seit 1919 und der eidgenössischen Volksabstimmungen seit 1866.

Im «Statistische Atlas der Städte» sind verschiedene Kennzahlen der acht Städte des City Statistics Schweiz kartographisch visualisiert. Mit dem Atlas lassen sich die Lebensbedingungen im urbanen Raum der Städte, zwischen den Gemeinden und deren Agglomerationen, zeigen und analysieren.


Untersuchungen zur kartographischen Qualität touristischer Stadtpläne

N. Preuß

TU Dortmund, Deutschland

Motivation / Problemstellung

Gedruckte Stadtpläne erfreuen sich trotz Smartphone und Navigationsapps nach wie vor großer Beliebtheit. Kostenlos von Touristinformationen oder Hotels verteilt finden sie massenhaft Verbreitung. Jedoch ist die Erstellung dieses Kartenmaterials mittlerweile nicht mehr alleiniges Hoheitsgebiet von ausgebildeten Kartographen. Heutzutage versucht sich jeder einmal an der Kartographie: egal ob Marketingagentur oder Touristikfachkraft – alle wollen Karten erstellen. Es bleibt jedoch nicht aus, dass dies oftmals zur Lasten der kartographischen Qualität geschieht. Offen bleibt nur noch die Frage, wie umfangreich die Qualitätsmängel tatsächlich sind. Oder weisen diese Karten aus Laienhand gar neue innovative Ideen auf, von denen professionelle Kartographen noch lernen können?

Methode/Untersuchung

Verschiedene Stadtpläne aus der ganzen Welt, vordergründig jedoch aus Deutschland, wurden auf ihre kartographische Qualität hin analysiert. Untersuchte Faktoren hierbei waren:

- Kartenersteller: Kartograph, Marketingagentur, Touristinformation…?

- Vorhandensein von kartographischen Basiselementen (Legende, Maßstabsleiste usw.)

- Art der verwendeten Signaturen und Qualität dieser (ausreichende Größe, farbliche Abhebung zum Hintergrund usw.)

- Qualität der Beschriftung (Lesbarkeit durch ausreichende Größe, farbliche Abhebung usw.)

- Karteninhalt: Welche Informationen sind für Touristen, die die Stadt erkunden wollen, vorhanden?

- Umgang mit Werbung: Ist überhaupt Werbung auf den Karten vorhanden? Wenn ja, wie „aufdringlich“ ist sie? Beeinträchtigt sie die kartographische Aussage des Themas? Was wird überhaupt beworben?

Ergebnisse

Erste Ergebnisse der Untersuchung zeigen, dass die Stadtpläne tatsächlich oftmals von Werbeagenturen und nicht von Kartographen angefertigt werden. Dies spiegelt sich auch in der kartographischen Qualität. Kartographische Basiselemente wie eine Maßstabsleiste fehlen oft auf den Karten. Oder sie werden, wie es häufig bei der Legende der Fall ist, nur unvollständig oder falsch dargestellt. Die Signaturen dagegen sind in der Regel gut erkennbar. Auch die Lesbarkeit der Beschriftung ist meist gegeben. So gut wie alle Karten bieten auch einen richtigen Mehrwert für Touristen in Form von angegebenen Sehenswürdigkeiten und interessanten Freizeittipps und sind nicht nur ein Werbeprodukt.


Three years of operations of the Sentinel-1 and Sentinel-3-OLCI PAC at German Aerospace Center

T. Hahmann, E. Diedrich

German Remote Sensing Data Center (DFD), German Earth Observation Center (EOC), German Aerospace Center (DLR), Oberpfaffenhofen, 82234 Weßling, Germany

Copernicus is the European Earth Observation Programme, conducted jointly by the EC, ESA, EUMETSAT and the member states. The Sentinel satellites constitute the Copernicus space segment. Since 2014 already six Sentinel satellites have been launched successfully. Further Sentinel satellites will be launched in the following years. The first satellite Sentinel-1A has been launched on 3. April 2014. The Sentinel-1 mission was completed with the launch of the identical twin satellite Sentinel-1B on 25. April 2016. The Sentinel-3A satellite lifted off on 16. February 2016. The envisaged launch of Sentinel-3B is in March 2018.

The core payload data ground segment (PDGS) for the Sentinel satellites is managed by ESA and operated by national partners. In this core PDGS, DLR has been selected to install and operate Processing and Archiving Centers (PACs) for Sentinel-1 and the data from the Ocean and Land Colour Instrument (OLCI) aboard Sentinel-3. This abstract describes the first three years of operations of the S1- and S3-OLCI-PAC at DLR.

The following high-level tasks are performed at the PAC: reception of Sentinel data from the network of Core Ground Stations (CGS) via electronic link (Copernicus WAN); ingestion of these data into the Short-Term Archive (STA) and Mid-Term Archive (MTA) of the Sentinel PGDS; in addition ingestion of these data in a Long-Term Archive (LTA) for addressing future science challenges; perform consolidation and re-assembly of level-0 data received from CGS; perform systematic and request-driven processing of Sentinel data to higher-level products; host Sentinel data products within a layered architecture of on-line dissemination elements that facilitate the data access of end-users via public networks; exchange any locally processed data with a second partner PAC for the purpose of redundancy. For Sentinel-1 the second PAC is located in Newport (UK). For Sentinel-3 there exists a work share between the DLR-PAC (responsible for data over land areas) and EUMETSAT (marine areas).

After a development and commissioning phase during the years 2012 – 2014, the Sentinel-1A PAC entered into operations in March 2015. In July 2016 the operational phase began for Sentinel-1B and for Sentinel-3A OLCI data. The Sentinel-PAC is expected to be complete in March 2018 when Sentinel-3B will be launched into orbit.

With the Sentinel satellite fleet, earth observation data of a new order of magnitude are being collected, processed and archived. Daily, around 950 products are being processed based on sensor data from the OLCI instrument on Sentinel-3A, over 330 GB of associated data are stored in the LTA. Both Sentinel-1 satellites are already supplying many times that amount. Over 10,000 GB (10 TB) and more than 4000 products from the satellite pair are handled every day. In the first three years of operations the DLR-PAC has already processed and archived over 3.5 million data sets. They represent a data volume exceeding 5900 terabytes (5.7 petabytes).

Despite this enormous amount of data, the PAC is configured to additionally reprocess existing Sentinel data at any time with the latest algorithms to generate useful new geo-temporal data sets.


Partikelfilterbasierte Landmarkennavigation zur Berechnung von GPS ähnlichen Genauigkeiten

M. Wimmer1, T. Abmayr1, H. Runge2, D. Richter2

1Hochschule München, Deutschland; 2Deutsches Zentrum für Luft und Raumfahrt, Deutschland

Für Poster

Abstract

Partikelfilterbasierte Landmarkennavigation zur Berechnung von GPS ähnlichen Genauigkeiten

Motivation/Problemstellung:

Die Lokalisierung des Fahrzeugs ist beim autonomen Fahren ein wichtiger Aspekt. Um einen geraden/stabilen Fahrtweg zu garantieren, der andere Verkehrsteilnehmer nicht irritiert, sind Genauigkeiten von unter 20 cm erforderlich. Mit herkömmlichen Lokalisierungsverfahren wie GPS/GNSS sind diese Genauigkeiten nicht zu erreichen. Außerdem sind diese Verfahren anfällig gegen Störungen und Abschattungen was bei einem autonom fahrenden Auto verheerende Folgen haben kann. Daher sollte untersucht werden welche Genauigkeiten bei der landmarkenbasierten Lokalisierung mittels Partikelfilter Algorithmus möglich sind, und welches Verhalten dieser bei unterschiedlichen Sensoren und typischen Situationen im Straßenverkehr er zeigt.

Methode/Untersuchung:

Um die theoretischen Genauigkeiten zu untersuchen, wurde eine Simulationsumgebung in Matlab, mithilfe der Mapping Toolbox erstellt. Als Landmarken wurden hier Verkehrsleitpfosten im Bereich des Autobahnkreuzes München Ost (A99/A94) verwendet, welche vom Deutschen Zentrum für Luft und Raumfahrt mittels Radarfernerkundung hochpräzise in der Position bestimmt wurden.

Die Trajektorie des Fahrzeugs wurde auf Basis von Straßendaten der Open Streetmap Datenbank generiert. Für die Darstellung wurden georeferenzierte Luftbilder aus Google Maps als Hintergrundkarte verwendet.

Die Kernidee des Partikelfilter Algorithmus ist es, verschiedene Varianten des Zustandsvektors zu verteilen. Beim Problem der Lokalisierung besteht dieser aus X, Y und , also dem Ort und der Orientierung. Liegt eine Messung vor werden die Zustandsvektoren (Partikel), je nachdem wie gut sie die Messdaten erklären, bewertet. Die bestbewerteten Zustandsvektoren werden beibehalten, schlechte werden entfernt.

Der Partikelfilter wurde einerseits mit dem Sensortyp Range-Bearing, wie zum Beispiel ein LIDAR Sensor der Winkel und Strecke zu den Landmarken misst, und mit einem Bearing-only Sensor, wie zum Beispiel eine Kamera mit nachgeschalteten Bildverarbeitungsalgorithmen die nur Winkelwerte liefert getestet.

Zudem wurden Situationen betrachtet, in denen das Fahrzeug über einen längeren Zeitraum keine Messungen zu den Landmarken durchführen kann, wie es bei einem Überholvorgang von LKWs vorkommen kann. Außerdem wurden die Genauigkeiten bei unterschiedlichen Landmarkendichten betrachtet.

Ergebnisse:

Aus den Versuchen geht hervor, dass die Landmarkenbasierte Navigation mit einem Partikelfilter basierend auf Range-Bearing Sensordaten die besten Ergebnisse liefert. Die Anforderungen an die Genauigkeit, die im Bereich des autonomen Fahrens erforderlich sind, wurden umfassend erfüllt. Die Differenz zwischen der wirklichen und der berechneten Position beträgt stets wenige Zentimeter.

Die Ergebnisse, die mit einem Bearing-only Sensor erzielt werden, erreichen nicht die gleiche Genauigkeit wie mit einem Range-Bearing Sensor. Bei richtig eingestellten Parametern wurde die geforderte Genauigkeit von 20 cm in Spitzen teilweise überschritten, im Mittel blieb sie aber auch hier weit darunter.

Die Dichte der Landmarken konnte als wichtiger Aspekt für das Funktionieren des Partikelfilters ausgemacht werden. Im Idealfall wird vom Sensor zu jedem Zeitpunkt mehr als eine Landmarke aufgenommen. Ist die Dichte der Landmarken zu gering, greift der Partikelfilter nicht.

Für ein Ausbleiben der Messungen über einen gewissen Zeitraum kommt es mit der Dauer der Abschattung zu immer größeren Genauigkeitsverlusten. In diesen Phasen kann nicht auf die errechnete Position zurückgegriffen werden, da diese weit über den geforderten Werten liegt. Sobald die Abschattung verschwunden ist und wieder Messungen vorliegen, ist die geforderte Genauigkeit innerhalb sehr kurzer Zeit wieder auf dem erforderlichen Niveau.


Evaluierung der Software Drone2Map for ArcGIS zur UAV-basierten photogrammetrischen 3D Rekonstruktion

A. Zehndbauer

ESRI Deutschland, Deutschland

Die Arbeit befasst sich mit dem Testen und Analysieren von photogrammetrischer Software im Kontext der Anwenderfreundlichkeit und Qualität. Der Fokus liegt auf der seit Juni 2016 erhältlichen Software Drone2Map (D2M) des Environmental Systems Research Institute (ESRI). Anhand von Bilddaten eines Unmanned Aerial Vehicle (UAV) werden Vor- und Nachteile der Software untersucht sowie Besonderheiten und Genauigkeit der erstellten Ergebnisse geprüft. Zum Vergleich wird die Software PhotoScan der Firma Agisoft herangezogen.


Automatische Extraktion von Fenstern in 3D Punktwolken mittels einer hierarchischen Methode

S. Schneider, V. Coors

Hochschule für Technik Stuttgart, Zentrum für Geodäsie und Geoinformatik

Rund 40 % des Energiebedarfs einer Stadt entsteht durch den Gebäudesektor. Durch die Energiewende wird es immer wichtiger, dass Neubauten energieeffizient gebaut werden und Eigentümer und Vermieter Empfehlungen zur Sanierung ihrer Gebäude erhalten, um unseren CO2 Ausstoß nachhaltig zu reduzieren. Zur Simulation von Energie- und Wärmebedarf durch solche bauliche Maßnahmen, werden Simulationswerkzeuge wie z.B. SimStadt eingesetzt.

Datenbestände von Stadtmessungsämtern sind oft nicht mit allen relevanten Sachdaten und Kenngrößen gefüllt, die für solche Simulationen notwendig sind. In vielen Fällen besteht daher die Notwendigkeit zur Anreicherung von Datenbeständen mit Sachdaten aus anderen Quellen. Wichtige Sachdaten zur Simulation, wie Stockwerksanzahl oder dem Fenster-Fassaden-Verhältnis, sind oft nicht oder nur teilweise in Datenbanken erfasst; oft wird daher ein Mittelwert quartiersübergreifend angenommen. Diese Annahmen führen daher im Mittel zu akzeptablen Ergebnissen, jedoch ist die Aussagekraft für kleine Einheiten (z.B. einzelne Gebäude), mit relativ großen Unsicherheiten behaftet. Durch automatisierte Auswerteverfahren von photogrammetrisch gewonnenen Daten, beispielsweise Schrägluftbilder oder 3D Punktwolken, können relevante Sachdaten mit relativ wenig Aufwand ergänzt werden.

Zu dem Eingangs beschrieben Zweck, wird in diesem Beitrag eine hierarchische Methode zur Extraktion von Fenstern an Gebäudefassaden präsentiert. Die Methode wird in vier Schritte unterteilt.

Zuerst werden Fassadenebenen in der Punktwolke durch ein RANSAC Verfahren detektiert und anschließend extrahiert. In den Rohdaten und besonders nach der Ebenenfilterung, haben Fenster meistens keine Punktinformation, d.h. Fenster sind im Grunde durch Löcher (Absenz von Punktkoordinaten) in der Fassade gekennzeichnet.

Im zweiten Schritt wird die Punktwolke der Fassadenfläche invertiert; konzeptionell folgt dieser Ansatz dem Invertieren eines Binärbildes. Zum Invertieren wird eine gleichmäßige Struktur aus Punkten über die Fassade gelegt. Eine Nachbarschaftssuche (z.B. Kd-Baum), wird für jeden Punkt, welcher als „Querypunkt“ betrachtet wird, durchgeführt. Wird ein Nachbar, der einem Punkt aus der Fassadenpunktwolke entspricht, in der Umgebung eines Querypunktes gefunden, so wird dieser gelöscht; andernfalls, wird der Querypunkt beibehalten.

Im dritten Schritt wird die invertierte Fassade als Eingangssignal für die Detektion der konkaven Hülle genutzt, welche der Kontur eines Objektes (Fenster) entspricht. Als vierter Schritt, wird ein „Conditional Euclidean Clustering“ Algorithmus auf die detektierten Umrisse der Fenster angewendet. Dabei werden Objekte, die keine Fester darstellen weitestgehend entfernt und jedem Objekt, wird ein eindeutiges Label zugeordnet. Letztlich wird für die verbleibenden, gelabelten Umrisse die konvexe Hülle (bounding box) bestimmt. Damit lassen sich die Informationen auf vier 3D Punkte pro Fenster (Eckpunkte) reduzieren. Diese Punkte können z.B. als Polygonzug für ein CityGML Building-Part gespeichert werden.

Erste Ergebnisse zeigen, dass das Verfahren Gebäudefassaden und Fenster relative zuverlässig erkennt und es ermöglicht energiebezogene Kenngrößen abzuleiten. Als relevante Ergebnisse sind die Stockwerksanzahl und das Fenster-Fassadenverhältnis zunächste gewünscht.

Durch dieses Verfahren ist es möglich Stadtmodelle in einem niedrigen LOD (1 oder 2) zu nutzen, welche bereits flächendeckend in Deutschland und weitestgehend in Europa verfügbar sind. Gebäudemodelle können mit dem vorgestellten Verfahren schnell mit relevanten Sachdaten angereichert werden und mit wenig Aufwand für Simulationen genutzt werden.


Digital Image Analysis To Aid The Creation Of Value On Marginal Land

F. Gnädinger, M. Obermeier, P. Schröder

Helmholtz Zentrum München GmbH, Deutschland

Precision phenotyping, in particular the use of image analysis, enables us to obtain information about plant properties and the state of health of plants. Sensors and drones will contribute to improved field analysis, especially in the cultivation of marginal land. Additional data can thus be used to ensure optimized site specific management and increase economic and ecological output in the longer term.

Aerial photography with unmanned aerial vehicles (UAV) offers new opportunities of pattern recognition in modern agriculture and precision phenotyping. The number of plants not only reflects the current field emergence, but also enables a more precise assessment of the yield. The aim of this work is to further develop the use of UAV and image analysis as a possible tool for yield prediction and detection of soil quality, erosion or compaction. The use of UAVs and image processing has the potential to optimize field trials and support management decisions.

Project is embedded in the EU project INTENSE in the frame of FACCE-JPI.


Entwicklung eines Low-Cost Sensor Systems zur Erfassung hydrometeorologischer Extremereignisse

R. Krüger

TU Dresden, Deutschland

Der Klimawandel führt zu Änderungen des Wasserkreislaufs, die zukünftig ein verstärktes Auftreten von Extremereignissen wie Starkregen und den daraus resultierenden hydrologischen Extremereignissen wie Sturzfluten, Erdrutschen und Schlammlawinen, erwarten lassen. Dies führt zu einer Erhöhung der Risiken für Bevölkerung und Wirtschaft. Sturzfluten erfolgen überwiegend kleinräumig und sind dort schwierig zu beobachten, da ausreichend dichte Beobachtungsnetze (vor allem für Abfluss, Niederschlag und Bodenfeuchte) nicht vorhanden sind. Die daraus resultierende schlechte Datenlage erschwert die hydrologische Modellierung und führt somit zu hohen Ungenauigkeiten in der Vorhersage dieser Extremereignisse. Für die Schaffung von Warnsystemen für kleinere und mittlere Einzugsgebiete ist daher eine Verdichtung der bestehenden Messnetzwerke unabdingbar.

Da kommerzielle Systeme für die Erhebung räumlich hochaufgelöster Daten, durch die benötigte hohe Stückzahl zu kostenintensiv sind, wurde eine eigenes System entworfen und realisiert. Dieses setzt sich aus einer Sensorkomponente, einer Komponente zur Aufzeichnung und Übertragung der Daten, sowie einer Komponente zur Stromversorgung zusammen. Das Kernstück des Systems bildet ein Raspberry-PI Einplatinen Computer, welcher verschiedene Low-Cost Sensortypen ansteuern, deren Messwerte aufzeichnen und verarbeiten kann. Der Raspberry PI kann mit einer Low-Cost Kamera ausgerüstet werden, was in einem Kooperationsprojekt zur Pegelstandmessung genutzt wird. Damit das System autark im Feld eingesetzt werden kann, ist es mit einem Solarpanel, sowie einer Pufferbatterie ausgestattet. Um den Stromverbrauch zu minimieren wurde eine Schaltung integriert, welche die Station nur bei Bedarf, zum Beispiel beim Auftreten von Niederschlag oder periodischer Pegelstands- oder Bodenfeuchtemessungen, in Betrieb nimmt. Weiterhin wurde ein Modul zur Datenübertragung über das GSM-Netz verwendet.

Im Rahmen der Entwicklung wurden verschiedene Low-Cost Sensortypen zur Niederschlagsmessung getestet und mit professionellen Niederschlagssensoren verglichen. Die Messwerte eines Sensormodells (Fa. Davis) zeigten dabei nur geringe Abweichungen zu den professionellen Messgeräten.

Durch die geringen Baukosten von 50-200 Euro (je nach Sensortyp, und Anforderungen an die Stromversorgung) ist es möglich bestehende Sensornetzwerke zu verdichten, um räumlich und zeitlich hoch aufgelöste Umweltdaten zu erheben.


Entwicklung eines low-cost Kamerapegels zur Erfassung hydrologischer Extremereignisse

A. Eltner, H. Sardemann, M. Kröhnert, H.-G. Maas

Institut für Photogrammetrie und Fernerkundung, TU Dresden, Deutschland

Die Erfassung von Sturzfluten nach Starkregenereignissen ist aufgrund ihres lokalen Auftretens schwierig. Dies betrifft insbesondere Flüsse ohne ausreichende Pegelinfrastruktur. Fehlende Informationen über deren Einzugsgebiete erschweren Frühwarnungen sowie die Entwicklung von Vorhersagemodellen erheblich. Im Rahmen der Nachwuchsforschergruppe EXTRUSO werden kleinräumige hydro-meteorologische Extremereignisse zum Aufbau eines solchen Frühwarnsystems für Sturzfluten untersucht. Ein wesentlicher Bestandteil ist die Erarbeitung neuer Methoden zur Beobachtung unüberwachter Einzugsgebiete. Der Beitrag umfasst die Entwicklung eines kamera-basierten Fließgewässer-Pegelmesssystems auf Basis von low-cost (Raspberry Pi) Kameras.

Stationäre terrestrische Kameras bieten bei entsprechenden Bildanalysemethoden und geeigneter Georeferenzierung die Möglichkeit, Gewässerstände mit einer Genauigkeit von wenigen Zentimetern zu bestimmen. Die hohe Variabilität von Fließgewässern schränkt jedoch die automatische Ableitung von Wasserständen aus terrestrischen Einzelbild-Aufnahmen stark ein. Abhilfe kann eine Ausdehnung der Analyse der Bildtextur auf die Zeitachse schaffen. Ko-registrierte Zeitraffersequenzen beschreiben den mittleren Wasserstand in Abhängigkeit des Beobachtungszeitraums und liefern zusätzlich temporale Texturmaße. Mittels Segmentierung von dynamischen (Wasser) und statischen (Land) Bereichen in der Bildsequenz lässt sich die Wasserlinie extrahieren. Die Transformation der Bildmessung in den Objektraum erfolgt unter Nutzung eines photogrammetrisch erstellten 3D-Modells des beobachteten Gewässerabschnittes. Bei entsprechender Aufnahmekonfiguration ist eine Genauigkeit der Pegelmessung im Bereich von wenigen cm zu erwarten, welche durch erste Ergebnissen verifizier werden konnte.


Illumination Invariant Dense Image Matching Based On Sparse Features

M. Mehltretter, C. Heipke

Institute of Photogrammetry and GeoInformation, Leibniz Universität Hannover, 30167 Hannover, Germany

Reliable and up-to-date maps have received much attention in the field of mobility in recent times. Especially the sector of assisted and autonomous driving strongly depends on such maps in order to be able to accurately determine the vehicle's pose and compute a safe trajectory. With regard to the importance of the currency of the information contained in such a map, data acquisition must be done continuously.

For the purpose of data acquisition, mobile mapping using stereo cameras is well suited. In comparison to laser scanners, stereo cameras are less expensive and furthermore, they do not only provide geometric, but also radiometric information. Hence, additional information for later image segmentation and classification is provided. But, special attention has to be paid to the fusion of current information and data captured earlier to obtain a consistent, reliable and accurate result. Depending on the temporal distance between two recordings, changes in illumination can lead to significant differences in the acquired data. Not only the color of illumination or the geometric relationship between illumination, scene and sensor but also the number of light sources might have changed, making the fusion task a potentially difficult challenge.

In order to nonetheless be able to reconstruct a 3D representation of the environment, we propose an illumination invariant dense image matching approach. In this approach robust feature matching serves as a basis to gain a sparse disparity map. To densify this map several steps of interpolation are performed: First, matched features are used to create a Delauney triangulation, so the disparity values of points inside a triangle can be computed by linear interpolation of the vertex values. To avoid interpolation between fore- and background or between different objects, triangles are filtered out, if the variance of the vertex’s disparity values and the variance of the gray values inside a certain triangle are above defined thresholds. Subsequently, for all points which have no valid disparity value, cross-based support regions are computed. To get the disparity value of a certain point, all valid disparity values in a support region are used during inverse weighted distance interpolation. In order to fill areas which are still undefined in the disparity map, k-nearest-neighbor interpolation is utilized.

We evaluate our method on images from the KITTI dataset, which were modified to simulate changes in illumination. Compared to other approaches listed on the KITTI stereo 2015 leader board, ours shows promising results regarding robustness against these changes. The ratio of correctly assigned disparity values decreases rapidly when increasing the difference in illumination for most of the other tested methods, whereas ours decreases much slower. In a next step real datasets will be considered. Furthermore, we want to take semantic segmentation into account, which will allow us to incorporate class specific prior knowledge. In this way we expect an improvement in accuracy of the results, especially near object borders.


Classification of Laser Scanning Data Using Deep Learning

F. Politz, B. Kazimi, M. Sester

Leibniz Universität Hannover, Deutschland

Abstract: In the last couple of years Deep Learning has gained popularity and shown potential in many fields, especially in the field of classification. Most of its success is attributed to the availability of growing, public benchmark data sets and high computing power. Deep Learning has already outperformed traditional classification and machine learning algorithms in the processing of 2D image data as shown in several benchmark competitions like ImageNet or PASCAL VOC over the past years.

Airborne Laser Scanning data is complex and there are only a few benchmark data sets available at this time. Therefore, the focus of attention of the Deep Learning community is only moving slowly towards 3D data. In this paper, we give an overview of Deep Learning in the field of classification of laser scanning data. Thus, we want to focus on two areas of studies, specifically the semantic classification of 3D points and the object-based classification. In the first part, we focus on the semantic classification of 3D point clouds into three classes as required for the generation of digital terrain models. The data is given in terms of an irregular point cloud. The second area of studies deals with the classification of archeological objects in digital terrain models, which are derived from an airborne laser point cloud for Lower Saxony. In this project, we assume that the data is given in terms of a digital terrain model in raster format.

In the paper, we will first give a brief introduction into CNN. Then we discuss the pre-processing steps, as well as the provision of necessary labeled ground truth data, which are fundamentally different for the two areas of study. Finally, first results will be given, together with achieved classification quality measures.


Pedestrian Detection Using Stereo Images

D. X. U. Nguyen, F. Rottensteiner, C. Heipke

Institute of Photogrammetry and GeoInformation, Leibniz Universität Hannover, Deutschland

Today, pedestrian detection from images, a specific case of object detection, is one of the most vigorous research aspects in computer vision and photogrammetry, especially in applications related to autonomous driving. In our study, we address the pedestrian detection problem using stereo images. Our detector has three subsequent steps: region proposal, feature map extraction and classification, and bounding box suppression.

Firstly, to locate regions in an image, the selective search algorithm is used to make proposals for bounding boxes. Because this method treats every object and does not consider the image scale, we add geometric constraints relating to pedestrians to filter out regions. Two main assumptions are made about pedestrians: they are all on the ground and have restricted size. Using 3D information derived from stereo pairs, road and building areas are estimated using horizontal and vertical planes detected in the 3D data. Combining this information with the geometry of the generated bounding boxes, we can roughly filter out some bounding boxes not containing pedestrians. secondly, in a box to decide whether a person is present or not in a bounding box, we classify the boxes using convolutional neural networks (CNN). In particular, we use the Inception v3 network, which reportedly has a high accuracy and a small number of parameters. Instead of training the network from scratch, we take the pre-trained model and fine-tune the parameters of the network with our training database. Stereo images thus provide depth as an additional cue. Horizontal disparity, height above ground, and inclination angle of the normal vector (HHA image): horizontal disparity, height above ground, and inclination angle of the normal vector. The network and training procedure are thus applied to the HHA image. In the testing phase, both RGB and HHA boxes are fed into the CNN separately, and their findings are combined to obtain the final decision. Finally, we perform non-maximum suppression (NMS) of the bounding boxes containing the same person and condense them into a single rectangle, which covers all the pixels belonging to a pedestrian, but as few background pixels as possible. To perform the NMS efficiently, we do not consider overlapping areas as usually, but also take the 3D content into the image.

We evaluate the performance of our detector using the object detection benchmark of the KITTI dataset. The evaluation results are thus compared to other state-of-the-art detectors. This article is a copy of the CNN and NMS steps, which is to be read in full in our full paper.


Augmented Reality an Fenstern: Herausforderungen und Lösungskonzepte

M. Graf, M. Christen

FHNW Fachhochschule Nordwestschweiz, Schweiz

Die Bestimmung der Dimensionen von Objekten wie Fenstern, Wandaussparungen und Ähnlichem ist für verschiedene Anwendungen im Feld der Inneinrichtung ein wichtiger Schritt. Herkömmlich geschieht dies mittels Zollstock oder Laserdistanzmesser, was jedoch die entsprechende Ausrüstung und zudem Zugänglichkeit zum gesamten Objekt erfordert.

In diesem Beitrag wird eine Methode vorgestellt, mittels einer Smartphone-Bildaufnahme solche Distanzmessaufgaben durchzuführen. Während in der Photogrammetrie gewöhnlicherweise mit mehreren Bildern gearbeitet wird, war hier die Randbedingung gegeben, nur eine einzige Aufnahme verwenden zu können. Da zum Messen in Einzelbildern eine Grössenreferenz notwendig ist, sollte zudem ein für den Nutzer möglichst einfach erhältlicher Marker gefunden werden. Üblicherweise sind dies gedruckte Marker, die spezifische Muster zur Erkennung beinhalten. Diese Anwendung hingegen sollten auch Nutzer verwenden können, die keinen Drucker besitzen. Weiter sollte die Aufnahmeposition und -ausrichtung der Bilder bestimmt werden, sodass anschliessend mittels Augmented Reality virtuelle Objekte ins Bild gerendert werden können.

Während der Entwicklung kamen verschiedene Herausforderungen zum Vorschein. Zum einen sind Aufnahmen von Fenstern oft stark mit Gegenlicht belastet, was die Erkennung eines Markers erschwert. Eine weitere Herausforderung stellte die teils starke Verzeichnung der günstigen, sehr kleinen Smartphone-Kameras dar. Zur Lösung dieser Problematik wurden die inneren Kameraparameter der gängigsten Smartphone-Kameras mithilfe einer Kalibrierplatte ermittelt und in einer Datenbank verwaltet. Dieser Arbeitsschritt wurde zudem automatisiert, sodass der Arbeitsaufwand trotz der grossen Zahl an kalibrierten Smartphones in Grenzen gehalten werden konnte. Angesichts der Gegenlicht-Problematik wurde ein Marker gesucht, der in möglichst allen Lichtverhältnissen gut erkennbar bleibt. Fündig wurde man in einem gewöhnlichen, leeren DIN-A4-Blatt. Mit einigen Computer-Vision-Berechnungsschritten, den Kamera-Kalibrierungsdaten und des auf die Scheibe geklebten A4-Blattes konnten sowohl der Aufnahmestandort des Bildes, dessen Ausrichtung, sowie die gesuchten Dimensionen des ermittelt werden.

Anschliessend getätigte Genauigkeitsuntersuchungen zeigten auf, dass diese Dimensionen, selbst bei raumhohen Fenstern, Genauigkeiten im tiefen einstelligen Zentimeterbereich aufweisen. Um diesen Service zugänglich zu machen, wurde die gesamte Berechnung zudem in die Cloud ausgelagert und mittels einer Schnittstelle als Webservice verfügbar gemacht.


Weed detection in close-range imagery of agricultural fields using Neural Networks

A. Dutta1, J. M. Gitahi1, P. Ghimire1, R. Mink2, G. Peteinatos2, J. Engels1, M. Hahn1, R. Gerhards2

1Hochschule fuer Technik, Stuttgart, Deutschland; 2Universität Hohenheim, Institute of Phytomedicine, Deutschland

Modern day agriculture is becoming an endeavour where precision is highly desired and drones with imaging capabilities are contributors of big data to this field of research. Our focus in this paper is on precise weed control, in particular, the optimisation of yield and cost while having minimum impact on the environment. The information about in-field variability of weed patches can be exploited for sub-plot specific weed control, which leads to a restrained yet flexible use of herbicides. We use close-range imagery of weeds recorded with handheld cameras, having a resolution of only a few millimetres per pixel in their natural environment. In this paper we adapt Convolutional Neural Networks with the goal of separating weeds from the main crops in close-range imagery. We explore two ways to design the networks: pixel-wise classification and object-based detection. For both approaches, we use pre-trained networks, which are fine-tuned with the recorded weed images. The deep learning libraries used are Caffe and Tensorflow. The study demonstrates successful adaptation of pre-trained CNNs for weed classification in close-range imagery which could be extended to UAV imagery in future.


Object-Based Mobile Augmented Reality For A 3D Model

R. Sihombing, V. Coors

Hochschule für Technik Stuttgart, Deutschland

Augmented Reality (AR) is a convincing technology for manipulating user’s visual perception of the real world. As one of AR tracking techniques, a single image-based tracking approach is not sufficient to recognise a 3D object from different viewpoints. The basic issue of this approach is it can no longer recognise a 3D model when the viewing perspective is changed since the image captured by the camera is no longer match the reference image. This paper presents an object recognition approach to track markerless 3D building blocks as the AR target. This was achieved by extracting the feature points of the building blocks through a preliminary scanning process using Vuforia Object Scanner. Then a dataset of these feature points is used to recognize the building blocks so that the tracking process can be performed and virtual models can be imposed. To make the AR scene more realistic, the virtual model shadow is added using shadow mapping approach. The experiment shows the presented method is able to recognize the building blocks from side to side, which leads to a robust tracking performance, while the shadow mapping successfully adds realistic shadows to the scene. This robust performance also resulting in a stable appearance of the augmented virtual model.


Automatisierte Auswahl von Methoden zur Überlagerung von Geodaten mit unterschiedlichen Bezugsgeometrien

M. Schotten, J. Schiewe

HafenCity Universität Hamburg, Deutschland

Durch die Verknüpfung verschiedener Datensätze können oft vielfältige neue Informationen gewonnen werden. Zu dieser Überlagerung gehört nicht nur die geometrische Verschneidung, sondern auch die Neuverteilung der Attributwerte.

Da es trotz einer Reihe existierender Überlagerungsalgorithmen an einer kompakten und homogenen Bereitstellung der unterschiedlichen Methoden fehlt, werden in diesem Paper die Erstellung eines aufgabenorientierten und datenbasierten Regelapparates zur Methodenauswahl sowie die Dokumentation und Darstellung der erzielten Überlagerungs-Genauigkeiten beschrieben.


Crowdsourcing zur Informationsgewinnung von Potentialen zur Nutzung von Gebäudeintegrierter Photovoltaik

T. Wendt, R. Hecht, M. Behnisch

Leibniz-Institut für ökologische Raumentwicklung, Deutschland

Trotz wirtschaftlicher und gesellschaftlicher Bedeutung fehlt es an ausreichend detaillierten Informationen zum Gebäudebestand, dessen Struktur und räumlicher Verteilung. Im Hinblick auf die Abschätzung des Potenzials für gebäudeintegrierte Photovoltaik (Building-integrated Photovoltaic, kurz BIPV) spielen insbesondere Fassadeneigenschaften und Konstruktionsmerkmale pro Nutzungskategorie eine wichtige Rolle.

Ziel der Untersuchung war die Erprobung von Ansätzen des Crowdsourcings zur Informationsgewinnung über Gebäude und Fassadeneigenschaften im Hinblick auf die Erfassung von BIPV-Potenzialen. Besonders relevant sind dabei die Eigenschaften Fenster/Türenflächenanteil sowie Eigenschaften zum Fassadenmaterial von Nichtwohngebäuden. Diese Eigenschaften sind in einer Vielzahl geokodierter Bilder aus sozialen Medien, kommerziellen Diensten und Fotoaustauschplattformen (z.B. FlickR, GoogleStreetView, Mapillary, Wikimapia etc.) implizit gegeben und könnte über eine Crowdsourcing-basierte Bildinterpretation explizit gemacht werden.

In der experimentellen Studie wurden zwei verschiedene Crowdsourcing-Plattformen Amazon Mechanical Turk (kommerziell) und Zooniverse (nicht-kommerziell) getestet und die Qualität der abgeleiteten Information hinsichtlich der Genauigkeit an einem Testdatensatz von 743 Bildern durch Vergleich mit Referenzerhebungen bewertet.

Die Ergebnisse zeigen, dass sich Crowdsourcingverfahren zur Informationsgewinnung von Fassadeninformationen insbesondere durch den nicht-kommerziellen Ansatz von Zooniverse eignen können. Beim Vergleich mit den Referenzdaten erzielten die über Zooniverse gewonnenen Ergebnisse eine deutlich geringere Abweichung als die der kommerziellen Platfom Amazon Mechanical Turk. Über eine Nachprozessierung konnten jedoch die Annotatoren hinsichtlich ihrer Vertrauenswürdigkeit bewertet werden und mittels Filterung unter Ausschluss der Annotatoren mit der geringsten Vertrauenswürdigkeit die Qualität der Ergebnisse erhöht werden.

Der Ansatz besitzt großes Potenzial und kann auf andere Anwendungsfälle übertragen werden. Es konnten Erfahrungen und Erkenntnisse mit dem Umgang und der Datenqualität von kommerziellen und einer nicht-kommerziellen Crowdsourcing-Plattform gewonnen und Rückschlüsse für zukünftige Crowdsourcing-Anwendungen im Kontext von Gebäudeanalysen gewonnen werden.


Employing OGC’s Portrayal Service To Interoperate Hierarchical Data Structures. A Case Study On Visualizing I3S In Cesium.

A. Koukofikis, V. Coors

Hochschule für Technik Stuttgart, Deutschland

The demand of serving large 3D spatial data, mainly in urban areas, reflected the need of hierarchical 3D data structures. During the last years the OGC community standard I3S (ESRI) and 3D Tiles (Analytical Graphics), emerged in order to deal with this issue. Conceptually, hierarchical 3D structures operate in an analogous manner with web map tiles, differentiating only in the implementation. A prototype implementation focuses on the rendering of I3S in the Cesium client using the 3D Portrayal Service. As a result, the user can query a scene via the 3D Portrayal Service by specifying a spatial region, rather than a specific resource via a URI. The result can be delivered either using I3S or 3D Tiles as a data delivery format, depending on which data is available for the specified region. The Cesium client can both render both the I3S as well as the 3D Tiles content.


Digitalisierung mit LEFIS zur Förderung des ländlichen Raumes

A. Wagner

Verband für Landentwicklung und Flurneuordnung Brandenburg, Deutschland

Die Flurbereinigung als ein wichtiges Instrument der Landentwicklung dient der gesetzlichen Aufgabe, den ländlichen Raum zur nachhaltigen Verbesserung der Eigentums- und Agrarstrukturen und damit der Lebens-, Produktions- und Arbeitsbedingungen neu zu ordnen.

Als technische Unterstützung zur Lösung der hiermit verbundenen Aufgaben wurde das durch die Bund-Länder-Arbeitsgemeinschaft »Nachhaltige Landentwicklung« (ArgeLandentwicklung) initiierte Fachinformationssystem der Landentwicklung LEFIS entwickelt, welches zur umfassenden Bearbeitung von ländlichen Bodenordnungsverfahren nach dem Flurbereinigungsgesetz (FlurbG) und dem Landwirtschaftsanpassungsgesetz (LwAnpG) eingesetzt wird. Mit LEFIS wird die bisherige heterogene, nicht standardisierte Systemlandschaft sowie die redundante und teilweise inkonsistente Datenhaltung innerhalb der Länder sowie zwischen den Ländern abgelöst.

LEFIS besteht aus dem objektorientierten Datenmodell, den Arbeitsprozessen, dem fachlichen Funktionsmodell sowie den Ausgabeprodukten für die amtlichen Nachweise und Bestandteile von Verwaltungsakten im Ablauf der verschiedenen Bodenordnungsverfahren. Die einheitliche länder- und verwaltungsübergreifende Normbasierte Austauschschnittstelle (NAS) sorgt für den reibungslosen Datenaustausch mit der Kataster- und Vermessungsverwaltung sowie zukünftig mit der Grundbuchverwaltung, aber auch mit weiteren objektorientierten Systemen Dritter; gerade zwischen der Flurbereinigungsverwaltung und der Kataster- und Vermessungsverwaltung findet ein kontinuierlicher und zu bestimmten Anlässen auch umfangreicher Austausch von Geodaten (hauptsächlich ALKIS) vor, während und nach Bearbeitung eines Verfahrens statt.

LEFIS ist kein autarkes Datenmodell, sondern nutzt das AFIS-ALKIS-ATKIS-Modell der Arbeitsgemeinschaft der Vermessungsverwaltungen (AdV), welches seit 2008 sukzessive in den Kataster- und Vermessungsverwaltungen eingeführt wird, und basiert damit ebenfalls auf internationalen Normen und Standards.

Für die Entwicklung von LEFIS wurde im Jahr 2000 aufgrund des Beschlusses der ArgeLandentwicklung die bundesweite Expertengruppe LEFIS (EG LEFIS) – aktuell bestehend aus Brandenburg (Vorsitz), Hessen, Niedersachsen, Nordrhein-Westfalen und Rheinland-Pfalz – eingerichtet. Sowohl die AdV als auch verschiedene GIS-Hersteller unterstützen die EG LEFIS in Fragen der Modellierung.

Der Zusammenschluss der Implementierungsgemeinschaft LEFIS (IP LEFIS) – aktuell bestehend aus Brandenburg, Hessen, Niedersachsen, Rheinland-Pfalz, Mecklenburg-Vorpommern und Sachsen-Anhalt – per am 01.November 2009 in Kraft getretenen Verwaltungsvereinbarung verfolgt das Ziel, die Implementierung, Nutzung und Pflege der Softwarelösung LEFIS voranzubringen. Mit dem am 28. November 2011 unterschriebenen Vertrag zwischen der IP LEFIS und der Fa. AED-SICAD AG begann die Implementierungsphase der ersten Entwicklungsstufe.

Mit der Einführung des standardisierten Fachinformationssystems LEFIS werden nun neben der Vereinfachung der Systempflege, der Sicherstellung der Datenaktualität, -plausibilität und -konsistenz sowie dem einheitlichen Datenaustausch zahlreiche weitere Mehrwerte geschaffen. Dazu gehören die Erhöhung der Qualität und Wirtschaftlichkeit bei der Bearbeitung von Bodenordnungsverfahren durch die nun integrierte Verarbeitung von Sach- und Grafikdaten mit einheitlichen und neuen bisher nicht zur Verfügung stehenden Funktionen, die Verbesserung der Bereitstellung von Informationen für Entscheidungsprozesse unter Mitwirkung der Bürger/innen sowie mehr Datensicherheit sowohl für die Bürger/innen als auch für die beteiligten Kommunen und Unternehmen.

Weitere Entwicklungsstufen, wie z.B. die Erstellung des Plans über die gemeinschaftlichen und öffentlichen Anlagen nach § 41 FlurbG sowie die Nutzung von GDI-Strukturen und des E-Government, sind geplant, so dass LEFIS letztendlich das umfassende Bearbeitungs- und Informationssystem der Landentwicklung wird.

Mit der Einführung von LEFIS stehen die Bundesländer aber auch vor vielfältigen Herausforderungen, z.B. Pilotierung, Anpassung an länderspezifische Bedingungen und das Tagesgeschäft und damit verbunden an weitere Nutzeranforderungen, evtl. Migration der Altdaten und nicht zuletzt Organisation der Schulungen sowie des Supports.


Multi-layer Land Cover Data for Remote-Sensing based Vegetation Modelling for South Korea

C. Eisfelder1, H. O. Kim2, C. Kuenzer1

1German Remote Sensing Data Center (DFD), German Earth Observation Center (EOC), German Aerospace Center (DLR), Oberpfaffenhofen, 82234 Weßling, Germany; 2Korea Aerospace Research Institute (KARI), 169-84 Gwahak-ro, Yuseong-gu, Daejeon, 34133 Korea

Land cover data are important base information for modelling of vegetation productivity. They provide information about the distribution of different land cover and vegetation types on the land surface. This knowledge is essential for modelling net primary productivity (NPP). NPP modelling is commonly based on phenological and meteorological time-series data, which can be derived from remote sensing. A land cover classification is needed to define the type of vegetation to be modelled with its specific parameters for a certain location. Most often, global land cover datasets are employed for NPP modelling, but also regional land cover maps can be used. The availability of regional land cover maps may be of major advantage, as global land cover data have shown weakness in describing heterogeneity in land cover characteristics on regional scale.

Land cover maps commonly define one land cover class per pixel. However, some models, such as the Biosphere Energy Transfer Hydrology model BETHY/DLR, are able to include more than one vegetation type per pixel for NPP modelling. As the spatial resolution of regional land cover products is usually higher than the spatial resolution applied for NPP modelling, high resolution land cover data can be used to derive a set of land cover information at coarse resolution that provides information about several land cover classes per pixel and their coverage.

In this study, we derive such multi-layer coarse resolution land cover information and analyse how well a coarse resolution ~1 km land cover classification is able to represent land cover classification at higher (30 m) resolution derived from Landsat data for the study area of South Korea. We find that the primary vegetation class at 1 km spatial resolution is only able to represent higher resolution land cover heterogeneity for 14.8% of the area. Especially widely distributed agricultural areas, which were not the majority class at 1 km² were missed. Multi-layer land cover information with secondary and tertiary hierarchical classes is able to fully represent 25.8% and 46.3% of higher-resolution land cover heterogeneity. With three hierarchical layers, already a good representation of the high resolution classification can be reached, as remaining land cover proportions typically not exceed 10%.

We also compare the land cover classification to three frequently used global land cover datasets, derived from MODIS, SPOT-VEGETATION, and AVHRR data. The comparison reveals varying agreement in classes’ area coverage with the regional land cover classification for South Korea. For different areas globally, advantages and shortcomings of various global land cover datasets may vary. For regional applications, a suitable base land cover map should be chosen carefully. If possible, we recommend using information from regional land cover data, as demonstrated in this study. For models that can include more than one vegetation type per pixel, multi-layer land cover data and coverages are a major asset.


Time-series processing of AVHRR data for NDVI product generation – an example from the TIMELINE project

C. Eisfelder, S. Asam, C. Frey, C. Kuenzer, S. Dech

German Remote Sensing Data Center (DFD), German Earth Observation Center (EOC), German Aerospace Center (DLR), Oberpfaffenhofen, 82234 Weßling, Germany

The TIMELINE project at the Earth Observation Center (EOC) of the German Aerospace Center (DLR) aims to generate long and homogenized time series of the National Oceanic and Atmospheric Administration (NOAA) and Meteorological Operational Satellite (MetOp) Advanced Very High Resolution Radiometer (AVHRR) data over Europe and North Africa. The project develops an operational processing and data management environment to process 30 years of raw data into L1b, L2, and L3 products.

The objectives of TIMELINE are to develop long AVHRR time series of geo-scientific variables for Global Change research, to enable change detection analyses and the identification of geo-scientific phenomena and trends, and to answer climate-relevant research questions.

The time series is generated on the basis of 1.1 km High Resolution Picture Transmission (HRPT) and Local Area Coverage (LAC) data using the historical AVHRR data archive of the German Remote Sensing Data Center (DFD) of DLR that dates back to 1986. The long time series of 30 years of daily acquisitions and the implementation of sound operational algorithms and state of the art validation techniques ensure a unique product set that conforms to quality requirements that rise from the scientific community.

Consistency of calibrated reflectance and thermal information is required for time series analysis. Therefore, an enhanced pre-processing is performed by taking into account geometric distortions due to rotation and satellite clock errors, varying spectral responses of different AVHRR sensors, calibration drift, orbit drift, sensor degradation, atmospheric and BRDF correction.

Furthermore, enhanced cloud masks, water masks, snow masks, and land use/land cover products are developed based on accurate and continuous L1b products. Based on this data foundation, a wide range of traditional and innovative remote sensing products covering different thematic aspects and processing levels will be available. The time series will be provided to the public using a free and open data policy. The Normalized Difference Vegetation Index (NDVI) L3 product, for example, will provide daily, 10-day and monthly NDVI composites.

Within our presentation, we would like to present the ongoing TIMELINE project and inform about current developments for selected geoscientific products.


Analyzing the spatial relationship between building volumes and land surface temperature in Upper-Hill, Nairobi, Kenya.

P. Mwangi

KENYATTA UNIVERSITY, Kenia

In urban areas, temperatures are higher than rural areas at night as the impervious surfaces absorb heat during the day and release it at night. Higher energy requirements within buildings, health problems, air pollution are just a few problems associated with urban heat island effect. Increasing populations and greater demand for urban space has led to the destruction of vast vegetative cover for impervious surfaces. Remote sensing studies on surface temperatures have mainly focused on the 2 dimensional aspect of buildings, without much emphasis on 3 dimensional analyses. The main objective of this paper is to analyse the geometry of individual buildings, height, area and volume, and determine their relationship with land surface temperature. In this paper, topographical data acquired from Survey of Kenya was extracted and used to generate a 2 meter digital elevation model (DEM) to calculate building heights. DEM accuracy was carried out using ground control points (GCP) and a value of 0.24 meters was obtained. Landsat 30 meter imagery was analysed to generate land surface temperatures (LST). Temperatures of buildings within the study area had a maximum and minimum of 27.6 70C and 35.40 0C within the gridded surface. Height, area and volume regression analysis results showed they each had a negative correlation with land surface temperature with height having the highest R2 value of 0.08.


Suitability Comparison of Crop Yield Models for Remote Sensing Integration

M. P. Wagner, A. Taravat, N. Oppelt

Christian-Albrechts-Universität zu Kiel, Germany

Agricultural production is facing serious exogenous risks in the near future, both naturally and economically. Average yields in Europe increased continuously in the last half of the 20th century but there are signs of a slowdown and further global productivity decreases in future scenarios. In order to effectively monitor agricultural productivity on larger scales, new technologies are needed. Following fast progress in terms of processing power, web- and cloud-enabled development, a new generation of crop yield analysis and forecasting tools is about to emerge. Eventually, the field might be dominated by fully automatic cloud-based services retrieving, processing and analyzing data and delivering tailor-made information to the individual user in (near) real-time.

Nevertheless, this future is heavily reliant on available data. In this context, satellite remote sensing can be used as a cost- and time-efficient method that has the capacity of global coverage and detailed information down to subfield levels. Current and future missions and projects such as ESA’s Copernicus program will deliver such data. A combination with the aforementioned services such as Google Earth Engine offering processing capacity and an open distribution environment will most probably form the basis for a large-scale agricultural Big Data approach. The field of crop modeling is just about to enable more sophisticated connections to remote sensing by embracing a new model generation with a more “user-driven” application focus, including cloud-based analytics services and mobile technology.

In the context of this highly relevant and growing topic, we are offering an overview in order to provide a knowledge foundation for the merging of these topics. We compare some of the most common crop simulation models and their existing as well as potential connections to geospatial and remote sensing applications. From the standpoint of an advanced user or developer, model design, processing capabilities as well as software extensions and programming environments are of highest importance.

Following an extensive literature review, we deliver a representative selection of research studies combining both fields and a brief description of methods used for advanced remote sensing data integration into crop models. These methods range from direct integration of meteorological parameters to advanced linkage to canopy reflectance models and multi-parameter model re-calibration. By comparing study results and model performances, we provide a useful impression of capabilities and potentials of different methods as well as possible future integrations.


Smart Grassland Cutting Date Detection by Using Sentinel-1 imagery and Artificial Neural Networks

A. Taravat, M. P. Wagner, N. Oppelt

Christian-Albrechts-Universität zu Kiel, Deutschland

There are several studies for grassland biomass estimation using earth observation data, but the focuses are rarely on Synthetic Aperture Radar (SAR) remote sensing approaches for automatic grassland cutting date detection. This study attempts to examine the multilayer perceptron neural networks capabilities for automatic grassland cutting date detection using SAR imagery. For two test sites in Northern Bavaria (Germany) time series of VV/VH Sentinel-1 C-band SAR together with the second-order texture metrics parameters (homogeneity, entropy, contrast and dissimilarity) served as the model input in order to detect grassland cuttings.

The dataset consists of 50 Sentinel-1 level-1 ground range detected, interferometric wide swath mode images captured from April to October 2016. Every nine days acquisitions of the study area from three geometries defined by the relative orbit number have been used. Concurrently with the Sentinel-1 acquisitions, field surveys provided data about wet and dry above-ground biomass and grass-cutting status (uncut, cut, grazed).

Multilayer Perceptron Neural Networks algorithm is used in this study. The proposed model has been trained with a backpropagation algorithm and the same parameters were used for all the samples. 21 separate models using 22 inputs; the network with 20 nodes in hidden layer has been selected as the best topology based on its generalization and accuracy with an overall accuracy of 85.71% for the validation dataset. The generated results show that the machine learning inversion model is capable of performing the grassland cutting date detection with a good level of precision. Nevertheless, the multilayer perceptron models can be improved by enhancing diversity and size of the training/testing datasets. The proposed model, however, shows potential to optimise the mowing validation phase by the European Union.


Tree Canopy Detection In Agro-Silvo-Pastoral Systems Using Digital Surface Model And Segmentation Analysis

G. Waldhoff, A. Bolten, G. Bareth

Universität zu Köln, Deutschland

Oak woodlands cover large areas in the Mediterranean and especially on the Iberian Peninsula. In most cases they are incorporated as silvo-pastoral systems combining forestry and grazing. Especially the Cork oaks are of high economic value (due to the cork). However, these landscapes are highly endangered nowadays, due to the cork oak decline, which is characterized by a wide spread dying of individual trees. The actual cause of this decline is still unknown.

The remote sensing-based monitoring of such landscapes can help to estimate the dimension and to investigate the cause of the decline. The landscape of silvo-pastoral systems is generally of complex nature and characterized by single trees or small groups of trees, which are surrounded by grass or shrub vegetation. Thus, for the monitoring of the tree status by using remote sensing, the tree canopies and furthermore individual trees need to be identified.

A promising data basis for the derivation of this information are unmanned aerial vehicle (UAV)-borne digital surface models (DSM) created out of orthophotos using Structure from Motion (SfM). For our study, we used a dataset with a spatial resolution of 10 cm for a subset of the Dehesa San Francisco (located approximately 60 km north of Seville, Spain), which we obtained in our field campaign in March 2016. Based on the height information of the DSM, the goal of deriving individual trees can be addressed in several ways. One approach is to use the shape of the canopies by calculating slope values on a per pixel basis. Through the application of threshold values, filtering and classification methods tree canopy polygons are finally generated. Another way is to incorporate the DSM height information in a classical object-based segmentation approach, followed by a supervised classification to identify the tree canopy polygons.

Both methods have their strength and weaknesses. While the first approach enables a more direct extraction of tree canopy pixels, the derivation of tree canopy polygons can be difficult in certain terrain situations. With the second approach, the segmentation of the data to derive meaningful tree canopy image objects is (more or less) straight forward, but the automated identification (classification) of an image object as an actual tree canopy is more complex. Furthermore, to really identify individual canopies of trees standing close together, additional information taken from the orthophotos may be necessary for both approaches. This can again be addressed in different ways.

In our contribution, we want to compare the results of the two segmentation methodologies, evaluate their overall performance, and give indications to further improve the detection of single trees in silvo-pastoral systems.


Satellitengestützte Bewässerung

M. Marszalek, U. Schmidhalter

Technische Universität München, Deutschland

Die Digitalisierung der Raumfahrt und Platzierung von Nanosatelliten im LEO in Kombination mit einem automatischen Prozessieren der Daten in der Cloud revolutioniert die Erdbeobachtung und ermöglicht neue innovative Anwendungen die noch vor Kurzem nicht umsetzbar gewesen wären. Innovative Anwendungen für die Landwirtschaft verfolgen gegenwärtig zwei unterschiedliche Ansätze. Zum einen werden kostengünstige und internetfähige Sensoren entwickelt um Umweltparameter wie Bodenfeuchte, Sonnenstrahlung oder Temperatur zu bestimmen. Zum anderen erfolgt die Bestimmung im wörtlichen Sinne von oben mittels Satelliten –und Drohnendaten. Satelliten oder Drohnen stellen hochgenaue multispektrale Informationen zur Verfügung die für die gleichen Anwendungsfälle wie mit Sensoren eingesetzt werden können. Der Vorteil liegt auf der Hand, da hier keine Installation oder Wartung notwendig ist. Die unt erschiedlichen Umwelt -und Pflanzendaten dienen Algorithmen als Grundlage um relevante Informationen für Bewässerung, Pflanzengesundheit, Schädlingsbefall oder Düngeranwendung zu berechnen.

Aufgrund dieser Möglichkeiten wurde der Landwirtschaftsservice OrbitalViews (www.orbitalviews.eu) entwickelt. Hierbei werden Wetter, Drohnen –und Satellitendaten gebündelt, um den täglichen Wasserbedarf von unterschiedlichen Fruchtarten weltweit und standortbezogen zu bestimmen. Mehrere Studien haben gezeigt, dass ca. 30% des für Bewässerung eingesetzten Wassers mittels Technologien und Optimierung eingespart werden kann. Der Algorithmus von Orbitalviews bestimmt den täglichen Wasserbedarf mittels Evapotranspiration, Solarstrahlung, Albedo und Biomasse. Dadurch wird es zukünftig möglich die genaue Wassermenge zur Sicherstellung von Erträgen zu bestimmen und gleichzeitig lokale Ressourcen zu schonen. Zusätzlich werden auch weitere multispektrale Daten und Indexes wie z.B. NDVI, NDWI oder LAI über eine REST-API zur Verfügung gestellt. Die Kommunikation mittels standarisierter und maschinenlesbarer Schnittstelle verbindet einen Satelliten direkt mit einer Bewässerungsanlage auf dem Feld oder kann von App-Entwicklern eingebunden werden. OrbitalViews befindet sich derzeit in der Testphase und bündelt gegenwärtig MODIS, Landsat und Sentinel-Daten. Ein Benützer kann direkt auf Ergebnisse zugreifen und muss keine aufwendigen Berechnungen mehr durchführen.


3D-Hyperspektralpunktwolken und semantische Karten für präzise Agraranwendungen

M. Kanning, S. Pütz, J. Hertzberg, T. Jarmer

Universität Osnabrück, Deutschland

Der Einsatz von Informationstechnik in der modernen Agrarwirtschaft ist bereits weit entwickelt. Autonome und intelligente Landmaschinen sind Teil der aktuellen Forschung und fahren räumlich und zeitlich hoch präzise Anwendungsszenarien. Nachhaltigkeit in der Bodennutzung ist ein wichtiges Ziel, um die Agrarproduktion langfristig ökonomisch und ökologisch zu optimieren.
Um diese Optimierung mit Informationstechnik zu unterstützen („Smart Farming“), bedarf es einer zeitlichen und räumlichen Modellierung des Pflanzenbestands und des Bodens. Hyperspektraldaten leisten schon jetzt einen entscheidenden Beitrag zur Ableitung von Pflanzen- und Bodenparametern in der Landwirtschaft. Der drohnengestützte und terrestrische Einsatz aktueller Hyperspektraltechnik ermöglicht eine noch genauere Erfassung spektral hoch aufgelöster Daten zur Ableitung dieser Parameter. Laser Scanner werden verwendet, um räumliche Modelle der Agrarumgebung in 3D zu erstellen; diese Modelle repräsentieren räumliche Strukturen präzise im Großen (Kuppen, Senken) wie im Kleinen (Fahr-, Drillspuren).
Unter der Zielsetzung, für Agraranwendungen ein umfassendes, aussagekräftiges räumliches und zeitliches Modell landwirtschaftlicher Flächen zu schaffen, müssen terrestrische Hyperspektral- und 3D-Daten kombiniert werden. Zusätzlich erfordert das Sammeln von zeitlich und räumlich hoch aufgelösten Daten eine mobile Einheit am Boden in kurzer Entfernung zum Pflanzenbestand und zum Boden. Unter Verwendung einer mobilen Roboterplattform, ausgerüstet mit einem hochauflösenden Riegl VZ400i 3D Laser Scanner zur Aufnahme geometrischer Daten und der Resonon Pika-L Hyperspektralkamera, kann ein umfassendes Modell einer Fläche erstellt werden. Durch Kalibrierung werden die Daten beider Sensoren vom selben Aufnahmepunkt zueinander registriert; Daten von unterschiedlichen Aufnahmepunkten werden auf Basis der Georeferenzierung ihrer Aufnahmeposen mit vorhandenen Verfahren der 3D-Scanregistrierung automatisch registriert. Das Resultat ist eine 3D-Hyperspektralpunktwolke der kompletten Fläche, die geometrische und spektrale Informationen beinhaltet. Diese ist Grundlage für eine Semantische Karte, die semantische Kategorien an korrespondierende geometrische und hyperspektrale Daten bindet und räumliche und semantische Abfragen erlaubt. Die Daten werden von der Roboter-Plattform automatisch räumlich und georeferenziert aufgenommen und in der Semantischen Karte mit Hilfe einer GIS Datenbank persistent hinterlegt.

 
13:00 - 14:00KKNK: KKN Komitee
Chair der Sitzung: Ansgar Brunn
Chair der Sitzung: Kirsten Wolff
Chair der Sitzung: Wolfgang Gold
Nicht öffentliche Sitzung des Komitees für den Karl Kraus Nachwuchsförderpreis
Besprechungsraum 0128 
14:00 - 15:30PF1: Praxisforum 1 - RT GIS: Geodateninfrastrukturen - offen, sicher und nachhaltig
Chair der Sitzung: Andreas Schleyer
Hörsaal 0606 
 

BGT, The Realisation Of A Key Register Of Large Scale Topography In The Netherlands

R. Van Rossem

Ministerie van Binnenlandse Zaken en Koninkrijksrelaties, Niederlande


Sicherheitsaspekte und Best Practices in Geodateninfrastrukturen für den Einsatz in Smart Cities

A. Matheus

Secure Dimensions GmbH, Deutschland


Langzeitspeicherung von Geodaten - eine Lösung in Sicht!

D. Carstensen

Landesbetrieb Geoinformation und Vermessung Hamburg, Deutschland

 
14:00 - 15:30S06: Bildung, Standards und Recht
Chair der Sitzung: Sven Baltrusch
Chair der Sitzung: Ansgar Brunn
Audimax 
 
14:00 - 14:20

DIN18740-6 - Anforderungen an digitale Höhenmodelle - StatusQuo

S. Baltrusch

Landesamt für innere Verwaltung Mecklenburg-Vorpommern, Deutschland

Die DIN18740-6 "Anforderungen an digitale Höhenmodelle" gilt für die Ableitung von digitalen Höhenmodellen, die auf der Grundlage von flugzeug- bzw. satellitengestützter Erfassungsmethoden hergestellt werden. Die Datenerfassungsmethode ist hierbei von der Zielanwendung und somit von den anwendungsspezifischen Genauigkeitsanforderungen und der Punktdichte abhängig. Als geeignete Verfahren für die Gewinnung von Rohdaten zur Ableitung von digitalen Höhenmodellen kommen nach heutigem Stand der Technik die luftbild- und satellitengestützte Photogrammetrie, das Airborne Laserscanning sowie interferometrisches Radar (InSAR) in Betracht.

Der Normungsausschuss NA 005-03-02 AA „Photogrammetrie und Fernerkundung" hat diese Norm im Dezember 2014 erstmalig veröffentlicht.

Normen definieren den Stand der Technik, d.h. ein entwickeltes Stadium der technischen Möglichkeiten zu einem bestimmten Zeitpunkt basierend auf den gesicherten Erkenntnissen von Wissenschaft, Technik und Erfahrung. Spätestens alle 5 Jahre soll eine Norm hinsichtlich Bedarf und Aktualität geprüft werden.

Im vorliegenden Beitrag werden die technischen Festlegungen analysiert. Die Anwendung bzw. der Anpassungsbedarf sollen diskutiert werden.


14:20 - 14:40

Anforderungen an digitale Luftbildkamerasysteme

S. Baltrusch, M. Engler

Landesamt für innere Verwaltung Mecklenburg-Vorpommern, Deutschland

Die deutschen Landesvermessungsbehörden gewinnen zunehmend Geobasisdaten aus digitalen Bildflügen. Das klassische Digitale Orthophoto wird perspektivisch als qualitativ erweitertes True Orthophoto angeboten. Aufgrund technologischer und qualitativer Möglichkeiten kommen zunehmend Verfahren zur Generierung von bildbasierten Oberflächenmodellen sowie rasterbasierte Klassifizierungsansätze zum Einsatz. Die daraus gewonnenen Produkte sind wesentliche Eingangsdatensätze für regionale, überregionale und nationale Aufgabenstellungen. Dieses bedingt eine zuverlässige und reproduzierbare geometrische und radiometrische Qualität der Eingangsgrößen, d.h. der digitalen Luftbilder.

Während sich die großformatigen Kamerasysteme der DMC- und Vexcel-Sensorfamilie in den amtlichen Bildflügen etabliert haben, drängen weitere Sensoren auf den Markt. Hierbei ist die Entwicklung von Kameramodellen vielfältig. Zusammengesetzte Mittelformatkameras (Mehrkopfsysteme) und auch Obliquesysteme konkurrieren mit den etablierten Systemen und sind mittlerweile ebenfalls in der Lage effektiv und effizient großflächig Bildflüge durchzuführen. Unterschiede sind hinsichtlich der eingesetzten Sensoren (CCD, CMOS, Foveon) bzw. der multispektralen Aufnahmeverfahren (synchron, getrennt durch Einzelsensoren oder durch Bayer-Pattern-Technologie) festzustellen.

Aufgrund der vielfältigen Nachnutzungen der digitalen Luftbilddaten ist eine zuverlässige Datengewinnung und deren Qualität zwingend erforderlich, um den gesetzlich definierten Aufgabenstellungen dienen zu können. Aufgrund der sich stetig und rasant entwickelnden, komplexen Sensorsysteme sind Verfahren erforderlich, die das Potenzial eines Sensorsystems bewerten können. Der Beitrag definiert die produktorientierten Anforderungen an die geometrische und radiometrische Eingangsqualität. Vorschläge für In-Situ-Prüfverfahren werden diskutiert.


14:40 - 15:00

Sentinel-Daten für digitale und interaktive Anwendungen im Schulunterricht

C. Lindner, H. Hodam, A. Ortwein, J. Schultz, F. Selg, A. Rienow

Ruhr-Universität Bochum, Deutschland

Das Projekt Fernerkundung in Schulen (FIS) entwickelt seit 2006 interaktive Lerneinheiten zur Anwendung der Fernerkundung im Schulunterricht. FIS hat zum Ziel die satellitenbasierte Erdbeobachtung aus dem All nachhaltig und umfassend in den Schulunterricht zu integrieren. Auf Basis des moderaten Konstruktivismus werden hierzu digitale Lerneinheiten so konzipiert, dass Schülerinnen und Schüler (SuS) zum eigenständigen und reflektierten Umgang mit modernen Medien angeregt werden. Für die Fächer Mathematik, Physik und Informatik werden vor allem die physikalischen Grundlagen thematisiert, wohingegen die Analyse von Fernerkundungsdaten bei den anwendungsorientierten Fächern Geographie und Biologie im Vordergrund steht. Das FIS-Lernportal (www.fis.uni-bonn.de) stellt die Unterrichtsmaterialien online zur Verfügung und bietet über eine Klassenverwaltung Lehrern und Lehrerinnen die Möglichkeit, den Lernfortschritt ihrer SuS, nachvollziehbar zu bewerten.

Der Beitrag zeigt exemplarisch auf wie Copernicus-Daten in sequenzierte Lernanwendungen eingebunden werden. Vorgestellt werden Lernmodule zu den Themen „Braunkohle – Landschaft im Wandel“, „Oasen - von nah und fern erkundet“ (beide Geographie), „Summer in the City – Satellitenthermometer“ (Physik) und „Der Wald als Klimaretter!?“ (Biologie). Ferner werden die Ziele und Paradigmen von FIS erläutert und aufgezeigt wie die Medien- und Methodenkompetenz sowie das eigenständige Arbeiten der SuS gefördert werden sollen. In diesem Zusammenhang wird auf die Einbindung verschiedener Techniken der digitalen Bildverarbeitung eingegangen. So können die SuS z. B. im Oasen-Modul lernen verschiedene Oasentypen zu unterscheiden und unter Zuhilfenahme von interaktiven Tools thematische Karten basierend auf Sentinel-Daten zu erstellen. Im Lernmodul Braunkohle lernen die SuS die Auswirkungen des Braunkohleabbaus anhand einer Kombination aus Landsat und Sentinel-2 Zeitreihen und durch die Anwendung von Area Measurement Werkzeugen sehr anschaulich kennen. Das Wald-Modul wiederum lässt die SuS die saisonalen Reflexionseigenschaften deutscher Wälder detektieren. Neben diesen Aspekten zeigt der Beitrag wie Mini MOOCs (Massive Open Online Course) dazu verwendet werden können, SuS für naturwissenschaftliche Fragestellungen zu begeistern und gleichzeitig in die Aufgabenstellungen der Copernicus-Dienste einzuführen. Hier wird gezeigt wie verschiedene Lernmaterialien Arbeitsblätter, Lernmodule und Lerntools mit Videos sinnvoll zu einem MOOC kombiniert werden können. Abschließend werden Erfahrungen aus dem Fach „Geographie-Physik“ vorgestellt, das die Fernerkundung als Fach im Differenzierungsbereich des Gymnasiums Siegburg Alleestraße etabliert hat und die FIS-Anwendungen zum Einsatz bringt.


Ableitung von 3-D Modellen aus Daten des High Definition Earth Viewing-Experiments (ISS) –Anwendungen für den Schulunterricht

J. Schultz, H. Hodam, C. Lindner, A. Ortwein, F. Selg, A. Rienow

Geographischen Institut der Ruhr-Universität Bochum

Im Februar 2014 wurden vom kanadischen Roboterarm Kameras des NASA High Definition Earth Viewing (HDEV) Experiments am Columbus-Labor der ISS befestigt. Die Kameras beobachten die Erde Rund um die Uhr aus verschiedenen Blickwinkeln. Das vom DLR geförderte Projekt „Columbus Eye-Live Bilder von der ISS im Schulunterricht“ und das Nachfolgeprojekt KEPLER ISS verfolgen primär das Ziel die Videos des NASA HDEV-Experiments für die Bedürfnisse des Schulunterrichts aufzubereiten.

Hierzu betreiben die Arbeitsgruppe Fernerkundung der Universität Bonn und die Arbeitsgruppe Geomatik der Ruhr-Universität Bochum gemeinsam ein umfangreiches Webportal (www.columbuseye.uni-bonn.de), welches sowohl Highlights des Erdbeobachtungexperimentes, als auch interaktive Lernmodule, Apps, und Arbeitsblätter für Schülerinnen und Schüler und Lehrer zur Verfügung stellt. Hauptsächlich werden die HDEV-Videos in Materialien für die Schulfächer Geographie, Physik und Mathematik eingebunden.

Die Highlights können über ein Web-GIS sowohl thematisch kategorisiert als auch räumlich verortet werden. Als exklusiver europäischer Partner von HDEV, werden alle Aufnahmen der am Columbus Labor befestigten vier HD-Kameras archiviert und ausgewählte Sequenzen dazu verwendet um interaktive Unterrichtsmaterialien zu entwickeln. Die HDEV Videos, aber auch die von Astronauten aufgenommenen Bilder unserer Erde, ermöglichen einen faszinierenden Blick auf die natürlichen Phänomene der Erde und die auftretenden Wechselwirkungen in einem gekoppelten Mensch-Umwelt-System.

Der Beitrag stellt die technische Infrastruktur zum Empfang des HDEV-Payloads dar und erläutert Steuerung, Empfang, Speicherung, Georeferenzierung und Atmosphärenkorrektur der Daten. Ferner werden die Potenziale und Anwendungsmöglichkeiten von Videodaten insbesondere in Bezug auf die Erdbeobachtung erörtert und auf erweiterter Realität (augmented reality) basierende Lerneinheiten vorgestellt. Der Beitrag zeigt wie mit verschiedenen Methoden 3-D Modelle und Anaglyphenbilder aus HDEV Daten abgeleitet werden können. Dabei hat sich erwiesen, dass die Erstellung von größeren 3-D Modellen bzw. Panoramen aufgrund der ISS-Bahnparameter möglich aber schwierig ist. Unterschiedliche Beleuchtungssituationen, atmosphärische Einflüsse und die Tendenz der Kameras Wolken überzubelichten, sind in diesem Zusammenhang zu nennen. Insbesondere die Videos, die in Nadir aufgenommen worden sind, eigenen sich besonders für die Erstellung von 3-D Modellen. Die Randbereiche sind hier weniger verzerrt und die GSD (Ground Sampling Distance) ist geringer. Alle Berechnungen wurden mit Agisoft PhotoScan und MATLAB durchgeführt. Neben diesen rein naturwissenschaftlichen Anwendungen, die jedoch für die Schul-Curricula von Relevanz sind, wird gezeigt wie die Daten im Rahmen eines Schulwettbewerbs eingesetzt werden können. Die Schülerinnen und Schüler sollen in ihren einzureichenden Beiträgen die Schnittstellen zwischen Kunst, Naturwissenschaft und Ingenieurwesen bearbeiten.

 
14:00 - 15:30S07: Atlanten
Chair der Sitzung: Frank Dickmann
Hörsaal 2760 
 
14:00 - 14:20

Geschichten erzählen mit verlinkten Visualisierungen – ein Review des Alters-Atlas Konzepts

S. Bleisch1, A. Zanda1, S. Korkut2

1FHNW Fachhochschule Nordwestschweiz, Institut Geomatik, CH-4132 Muttenz/Basel, Schweiz; 2FHNW Fachhochschule Nordwestschweiz, Institut für Wirtschaftsinformatik, CH-4052 Basel, Schweiz

Der Alters-Atlas bereitet eine Vielzahl von Themen und Informationen rund um das Alter und Altern auf. Dafür wurde das neuartige Story-Network-Konzept von miteinander verlinkten und kurz erläuterten Visualisierungen entwickelt. Entlang der Verlinkungen im Netzwerk verlaufen sogenannte Geschichtenlinien. Die Nutzenden erkunden den Atlas frei oder navigieren entlang dieser Linien zu interessanten Atlas-Inhalten. Ziel dieses Reviews ist, das Konzept und seine Umsetzung im Alters-Atlas zu diskutieren und evaluieren. Zuerst werden das Konzept und die Inhalte des Alters-Atlas sowie die Möglichkeiten und Grenzen der Navigation und Interaktion im Atlas eingeführt. Dann erläutern wir die verwendete visuelle Sprache und wie die Visualisierungen aufgebaut und miteinander verknüpft sind. Die Evaluation der Rückmeldungen zeigt, dass die verlinkten Visualisierungen funktionieren und die Geschichtenlinien Gefallen finden. Allerdings ist das Kartenprinzip noch zu starr umgesetzt. Die Navigation wird unterschiedlich beurteilt, es bedarf noch zusätzlicher Erläuterungen.


14:20 - 14:40

Die neue Wirtschaftskarte Schweiz im «Schweizer Weltatlas»: Ein innovativer synthetischer Ansatz zur Darstellung der nationalen Wirtschaftskraft

C. Häberling, H.-R. Bär, L. Hurni

ETH Zürich, Schweiz

Im vergangenen Juni ist der «Schweizer Weltatlas» in einer vollständig überarbeiteten Neuausgabe erschienen. Dieser meistverbreitete Schulatlas in der Schweiz vermittelt den Schülerinnen und Schülern auf 256 Seiten ein umfassendes Bild der Erde. Auch wenn er sich an den bisherigen Atlasausgaben der vergangenen Jahrzehnte orientiert, so ist er doch von seiner Struktur, seinem Karteninhalt und seiner äusseren Erscheinung her komplett neugestaltet worden. Erstmals ist im «Schweizer Weltatlas» eine doppelseitige Wirtschaftskarte der Schweiz im Massstab 1:800000 enthalten. In diesem Beitrag soll eingehend auf die konzeptionellen Überlegungen, den neuartigen Inhalt sowie den Mehrwert für die Lehrpersonen und deren Schülern eingegangen werden.

Die neue Wirtschaftskarte der Schweiz enthält eine detaillierte Aufschlüsselung der Arbeitsplätze (Vollzeitäquivalente) nach einzelnen Branchen in den drei Wirtschaftssektoren, und dies aggregiert innerhalb von Agglomerationen oder Regionen. Dabei werden nur die zahlenmässig bedeutsamen Wirtschaftszweige in drei Abstufungen mittels abstrakt-geometrischen, farbigen Symbolen gezeigt. Innovativ an dieser Karte ist vor allem, dass ein Berechnungsmodell hinter diesen Symbolen steckt, welches die Symbole und ihre Grössenklasse aus datenbankgestützten wirtschaftlichen Branchenzahlen ableitet. Das vereinfacht die Nachführung enorm. Es wurde bewusst auf die Darstellung von Einzelstandorten von grösseren Unternehmen verzichtet, auch dort, wo sie eine grosse regionale Bedeutung haben. Denn gegenüber dem lokalen Gewerbe oder der Summe der kleineren Produktionsunternehmen haben sie eine geringere Bedeutung.

Als flächenhaftes Thema sind die Schweizer Gemeinden generalisiert abgebildet und eingefärbt sowie gemäss ihrer offiziellen Wirtschaftstypisierung charakterisiert worden. Damit werden den Schülerinnen und Schülern ihre eigene Wohnortgemeinde nähergebracht und ihnen aufgezeigt, welche Grundfunktion sie im Wirtschaftsgefüge der näheren Umgebung oder auf nationaler Ebene hat (z.B. «Ländliche Pendlergemeinde» oder «Suburbane Gemeinde»).

Auf die landwirtschaftliche Bodenbewirtschaftung, die in anderen Schulatlanten in solchen nationalen Wirtschaftskarten üblicherweise dargestellt wird, wird ebenfalls bewusst verzichtet. Denn meist orientiert sie sich nur an der Bodenbedeckung, die bereits in einer Übersichtskarte dargestellt ist. Der Mehrwert ist also gering. Im Übrigen wird die agrarische Bodennutzung im «Schweizer Weltatlas» in einer separaten, kleinmassstäbigen Detailkarte «Landnutzung und Pflanzenbau» präsentiert.

Einige gesamtschweizerische Diagramme und Kennzahlen zu diversen Wirtschaftsthemen vervollständigen diese nationale Gesamtsicht. Vor allem die Informationen zu Gesamtarbeitsplätzen nach Branchen sowie Anzahl Unternehmen nach Grössen und Arbeitsplätzen umrahmen diese doppelseitige Inselkarte.

Ergänzend zu dieser gesamtwirtschaftlichen Sicht durch diese neue Wirtschaftskarte Schweiz sind im Atlas zudem spezifische thematische Detailkarten zu den Themen «Landwirtschaft», «Industrie und Gewerbe», «Dienstleistungen», «Tertiäre Bildung», «Energiewirtschaft» und «Verkehr» vorhanden. Somit soll die allgemeine Wirtschaftskarte Schweiz lediglich die vernetzte Gesamtwirtschaft aufzeigen. Auf standortgebundene Details oder Informationen auf Kantonsebene wird an anderer Stelle im Atlas eingegangen.

Die neue Wirtschaftskarte Schweiz ist eine weitere Neuheit im Kartenteil des «Schweizer Weltatlas», um den heutigen gestiegenen Ansprüchen eines modernen Geografieunterrichts auf Sekundarschulstufe zu begegnen. Spätere Evaluationen bei Lehrpersonen werden sicherlich aufzeigen, dass sie diesen gerecht werden kann.


14:40 - 15:00

virtuell und/oder gedruckt – medienübergreifende Geometrien im Produktionsprozess

C. Hanewinkel, J. Moser

Leibniz-Institut für Länderkunde, Deutschland

Den Nationalatlas Bundesrepublik Deutschland haben wir als Leibniz-Institut für Länderkunde parallel sowohl in gedruckter als auch in elektronischer Form erarbeitet und herausgegeben. Bei Fragen zum kartographischen Produktionsprozess mussten wir eingestehen, dass wir mit zwei unterschiedlichen Geometrien für die jeweiligen Medienauflösungen gearbeitet haben. Diese wiederholten Fragen zeigen uns zum einen, dass es offensichtlich nur Teillösungen für die unterschiedlichen Ansprüche und Anforderungen der Medien im Hinblick auf Darstellungsqualität und Datenvolumen gibt, andererseits aber ein großes Interesse an möglichen Lösungsansätzen besteht. Mit Blick auf verfügbare Ressourcen, und im Hinblick auf die geforderte und inzwischen fast selbstverständlich scheinende Schnelligkeit, mit der auch hochwertige Karten erzeugt werden (sollen), ist es unumgänglich, mit nur einer, für beide Medien ausgelegten, Geometrie zu arbeiten.

Aufgrund dieser Ausgangslage haben wir ein Projekt begonnen, an dessen Ende die gemeinsame Nutzung einer Basisgeometrie für beide Ausgabeformen steht. Aus kartographischer Sicht lässt sich feststellen, dass trotz großer Fortschritte in der digitalen Kartographie und zahlreicher Programm(weiter)entwicklungen Kartographen weiterhin vor der Herausforderung stehen, die Ansprüche und unterschiedlichen Voraussetzungen und Bedingungen von Druck- und Bildschirmkartographie so miteinander zu vereinbaren, dass mit möglichst geringem Bearbeitungsaufwand eine hohe Qualität in verschiedenen Medien gewährleistet werden kann. Natürlich wird der Anspruch an die graphische Qualität von Projekt zu Projekt in Abhängigkeit vom Zweck, Ziel und Publikum der Karte unterschiedlich sein (müssen).

Zunächst haben wir auf der Grundlage unserer bisherigen und potentiell zukünftigen Palette an kartographischen Visualisierungen für Publikationen, Internetanwendungen, aber auch für die Forschung für die verschiedenen zu bedienenden Medien Bedingungen und Anforderungen definiert. Als Zielvorstellung für die graphische Ästhetik der neuen Basisgeometrie diente unsere für das Nationalatlasprojekt in Macromedia FreeHand entwickelte und seither durch Aktualisierungen in Adobe Illustrator weiterentwickelte Grundlagenkarte, die bisweilen durch die fehlende Datenanbindung auch als „dumme“ Grundlagenkarte bezeichnet wird. Um eine solche Datenanbindung zukünftig zu gewährleisten und aus Verfügbarkeitsgründen entschieden wir uns für die Arbeit mit ESRI ArcGIS.

In Kooperation mit dem Bundesamt für Kartographie und Geodäsie (BKG) nutzten wir deren Produktionsdatenbank des DLM 1000 aus dem Jahr 2011 als Grundlage für unsere Arbeiten. Die für die Printproduktion verwendeten und auf Papiergrößen ausgelegten Maßstäbe wurden aufgegeben. Stattdessen werden nun die Geometrien in den drei Maßstäben 1 zu 1, 2,5 und 5 Millionen entwickelt, um damit zwischen Posterdruck und Präsentation am Desktop-Monitor variabel zu sein. Zunächst wurden das Gewässernetz und die Verwaltungsgrenzen inkl. der im DLM 1000 nicht vorhandenen Gemeindegrenzen für den Maßstab 1:1.000.000 generalisiert. Die halbautomatische Generalisierung berücksichtigte die Minimaldimensionen, insbesondere der Flächen für eine Bildschirmdarstellung unter gleichzeitiger Hervorhebung unserer Ansprüche an die graphische Qualität. Auf der Grundlage der Ergebnisse des Maßstabs 1:1.000.000 wurden die weiteren Maßstäbe abgeleitet. Anschließend wurde die jährliche Fortschreibung der Geometrien mittels der Änderungsdatensätze des BKG getestet und als halbautomatisierter Workflow festgelegt. Abschließend werden weitere, in unserer Arbeit häufig genutzte Elemente, wie Siedlungsflächen, Verkehrsnetz und Waldflächen integriert.

Zukünftig wird, sofern uns entsprechend kodierte Datensätze vorliegen, die Umsetzung der Daten im ArcGIS erfolgen. Für Druckprodukte werden die Karten anschließend über das Programm MaPublisher mit Adobe Illustrator verknüpft. Dort werden unter Bewahrung der Datenanbindung die notwendigen Anpassungen und Weiterbearbeitungen (Freistellungen, Schriftsetzung usw.) vorgenommen.


15:00 - 15:20

Die Zukunft von Atlanten: Einige Überlegungen zu ihrer Weiterentwicklung

F. Harvey, E. Losang

Leibniz-Institut für Länderkunde, Deutschland

Die Anzahl der tatsächlich publizierten Atlanten der letzten fünf Jahren überrascht angesichts des über viele Jahre prognostizierten Niedergangs der Publikationsform Print-Atlas. Über Jahre beschränkte sich die Veröffentlichung gedruckter Referenzatlanten im Wesentlichen auf Schulatlanten während ihren digitalen Pendants eine blühende Zukunft zugeschrieben wurde und vor allem die Fülle an Internetkarten-Diensten eine einfachere ubiquitäre Zugänglichkeit garantierten. Im Nachhinein betrachtet scheinen diese Entwicklungen jedoch nicht das Ende der Atlanten, sondern einfach das Ende einer Ära zu sein. Wenn heute ein klassischer Referenzatlas auf dem Tisch liegt, erregt er bei den Anwesenden genauso große Aufmerksamkeit wie von 20 Jahren. Der bescheidene Schulatlas ist für viele ein kostbarer Schatz und häufig das einzige Schulbuch, das im Buchregal verblieben ist. Atlanten werden von einer breiten Leserschaft weiterhin geschätzt, sie haben sich jedoch thematisch und inhaltlich verändert. Die Aufgabe des schnell verfügbaren Karten-Nachschlagewerks haben mittlerweile GoogleMaps und ähnliche Online-Angebote für viele übernommen. Für andere eröffnen hochwertige Print-Atlanten neue Perspektiven mit Eigenschaften, die bestimmte Leserschaften ansprechen. Die anhaltende thematische Diversifizierung und eine neuerliche Rückkehr zu Printmedien hat neue Atlanten hervorgebracht: den Atlas der abgelegenen Inseln (Schalansky 2010), An Atlas of Countries That Don't Exist (Middleton 2015), oder Mapping it out: An Alternative Atlas of Contemporary Cartographies (Obrist 2014).

Wie wird sich das Konzept „Atlas“ den Herausforderungen der Entwicklung von Visualisierungsmodellen, der Verschiebung der Nutzeranforderungen und der sich verändernden Finanzierung und Verteilung stellen? Mit diesem Beitrag bieten wir eine vorläufige Analyse dieser Entwicklungen an, die sich auf die Frage konzentriert, wie Atlanten als hoch geschätztes Medium gestärkt wurden und wie die Herstellung von Atlanten in den letzten 20 Jahren eine rasche Transformation erfahren hat, die vom Verschwinden kompletter kartographischer Unternehmen bis hin zur Neuentwicklung traditioneller Produkte reicht.

Aufgrund der Vielschichtigkeit der Probleme schlagen wir vor, Überlegungen aus medienbezogenen Diskussionen aufzugreifen, um wichtige Herausforderungen wie die Rolle der Kuration, der Nutzer-/Leser-Interaktion, der Transparenz und Offenheit genutzter Daten sowie die neuerliche Diskussion um den Atlas als Narrativ zu berücksichtigen. Zum besseren Verständnis lohnt ein Blick in die Entwicklungsgeschichte des Atlaskonzeptes, um herauszufinden, wie sich die Produktionsmilieus von Atlanten verändert haben – meist angetrieben von Transformationen in der Produktion, den Wandel von Nutzung und Nutzern sowie Entwicklungen in den Medien- und Visualisierungstechniken und der Inhalte.

Hier bietet das, den Sozialwissenschaften entlehnte Milieu-Konzept einen Ansatzpunkt für die Kontextualisierung der Grundlagen und Prozesse der Atlasproduktion und -nutzung. Es ermöglicht das Verständnis der Diversifizierung von Atlanten vor dem Hintergrund des Wandels von Medien und Gesellschaft zu betrachten.

Als Fazit, halten wir in der Präsentation fest, daß Atlanten weiterhin als räumliche Referenzwerke und Wissensspeicher produziert werden – gedruckt und digital. Der Begriff jedoch wird eine Umdeutung erfahren und Produkte generieren, die es spezifischen Gruppen ermöglichen, ihr Verständnis der Welt zu entwickeln. In diesem Sinne sind wir weit entfernt vom Aussterben der Atlanten – im Gegenteil, wir konstatieren einen evolutionären Prozess, der noch viele unerwartete Arten hervorbringen wird.

 
14:00 - 15:30S08: Fernerkundung Anwendung - Forst und Agrar I
Chair der Sitzung: Peter Krzystek
Chair der Sitzung: Georg Bareth
Invited Talk Eija Honkavaara
Hörsaal 0602 
 
14:00 - 14:30

UAV-based 3D-hyperspectral remote sensing of forests

E. Honkavaara

National Land Survey of Finland, Finnish Geospatial Research Institute FGI, Finnland

UAVs equipped with miniaturized multi- and hyperspectral imaging sensors offer completely new possibilities for carrying out close-range remote sensing tasks. Using these technologies, spectral remote sensing measurements can be made cost-efficiently, with greater accuracy and detail than ever before.

Miniaturized hyperspectral cameras capturing 2D format hypercubes that are suitable for hyperspectral 3D characterization of objects have entered the markets. These technologies produce several advantages in comparison to the conventional hyperspectral sensors based on pushbroom scanning. Commercially available sensors include, for example, the Rikola Hyperspectral Camera and the Cubert UHD 185-Firefly.

This presentation focuses on using the tuneable filter hyperspectral imaging technology based on a tuneable Fabry–Pérot interferometer (FPI) in forest applications; the Rikola camera is an example of this technology. In recent studies, we have used FPI-cameras operating in the visible to near-infrared and SWIR spectral range (500–900 nm, 1100-1600 nm). To facilitate an accurate and efficient use of this novel technology, we have established a customized sensor setup and developed a processing chain considering geometric and radiometric/spectral aspects. We have investigated the use of the FPI-camera technology in various environmental remote sensing tasks, including agriculture, forestry and water quality management. This presentation considers utilization of the hyperspectral 2D frame format imaging technology in forest applications. We will describe the FGI’s hyperspectral instrumentation adopted for efficient and rigorous hyperspectral characterization of forests, methodology for processing of tunable-filter based hyperspectral imagery for forestry applications, and results from case studies related to tree species classification, forest stand variable estimation and detection of forest damage caused by bark beetle.


14:30 - 14:50

Eignungsprüfung einer UAV-basierten Forstinventur als Ersatz zu traditionellen Feldverfahren in Verjüngungsbeständen

M. Röder1, E. Gülch1, H. Latifi2

1HfT Stuttgart, Labor für Interpretation und Messung bildgebender Sensoren (LIMES), Deutschland; 2Universität Würzburg, Lehrstuhl für Fernerkundung, Deutschland

Wälder sind dynamische Ökosysteme, die von kontinuierlichen Veränderungen geprägt sind. Natürliche Störereignisse gehören zu den Hauptauslösern solcher Veränderungen. Einer der Hauptgründe für diese Ereignisse in Wäldern Mitteleuropas ist der Befall durch den Borkenkäfer (lps typographus). Um Nachforschungen zur Regeneration dieser Gebiete durchzuführen, ist in den befallenen Beständen das Monitoring der Waldstruktur von besonderer Bedeutung. Herkömmlich werden Strukturparameter in kleinmaßstäbigen Gebieten durch zeit- und personalintensive Feldinventuren erhoben. Alternativ könnte die Waldstruktur mithilfe normalisierter Oberflächenmodelle (engl.: normalized Digital Surface Model (nDSM)) durch traditionelle Fernerkundungsverfahren wie Airborne Laserscanning, photogrammetrische Luftbilder oder Satellitenbilder erfasst werden. Diese Methoden weisen in den kleinmaßstäbigen Flächen allerdings Nachteile in Bezug auf Qualität oder Wirtschaftlichkeit auf. In den letzten Jahren trat mit der Bildaufnahme mittels Unmanned Aerial Vehicle (UAV) eine neue Form der kleinmaßstäbigen forstlichen Fernerkundung in den Vordergrund. Dieses Verfahren bietet durch die zeitliche Flexibilität, die geringen Kosten und die hohe räumliche Auflösung viele Vorteile. Allerdings ist die Anwendung von UAV in der forstlichen Fernerkundung noch unzureichend untersucht. Diese Studie untersucht die Eignung von UAV-nDSM für Forstinventuren in kleinräumigen, vom Borkenkäfer befallenen Gebieten innerhalb des Nationalparks Bayerischer Wald.

Zunächst wurde mit Profilvergleichen analysiert, inwiefern sich aus flugzeuggetragenen Luftbildern und UAV-Aufnahmen erstellte nDSM unterscheiden, um die Vorteile der UAV-nDSM gegenüber herkömmlichen Fernerkundungsverfahren darzustellen. Anschließend wurde geprüft, ob sich eine mittels UAV durchgeführte Inventur als Ersatz zu traditionellen Feldverfahren eignet. Dazu wurden Referenz- und UAV-Daten hinsichtlich Qualität, Quantität und Wirtschaftlichkeit verglichen. Der Qualitätsvergleich wurde für die geometrischen Parameter Baumhöhe und Kronendurchmesser durchgeführt. Bei den Untersuchungen kam auch ein Algorithmus zur automatischen Baumerkennung zum Einsatz, um Unterschiede zur manuellen Erfassung zu erarbeiten. Im Zuge der Eignungsprüfung wurde außerdem erforscht, inwiefern sich die Ergebnisse für bestimmte Habitattypen sowie für alleinstehende und gruppierte Objekte unterscheiden.

Der Profilvergleich zeigte, dass in den UAV-nDSM durch die höhere räumliche Auflösung mehr Details als in den Luftbild-nDSM zu erkennen sind, was eine zuverlässigere Ableitung von Strukturparametern ermöglicht. Die qualitativen Ergebnisse der Eignungsprüfung ergaben Mittelwerte von RMSE = 1.56 m, R2 = 0.74 und Bias = -0.73 m für den Parameter Baumhöhe. Niedrige Totholzstämme und lebende Fichten werden qualitativ besser modelliert als hohe Totholzindividuen. Für die Ableitung des Kronendurchmessers ergaben sich mit RMSE = 0.12 m, R2 = 0.89 und Bias = 0.04 m gute Ergebnisse. Die quantitative Untersuchung zeigte, dass mit 38 % nur ein geringer Teil der Referenzdaten durch die UAV-Inventur erfasst wurde. Alleinstehende Individuen (56 %) wurden besser detektiert als solche in Baumgruppen (30 %). Grund dafür ist, dass durch das photogrammetrische Verfahren die Mehrschichtigkeit nicht erfasst wird. Der Unterwuchs konnte dadurch vor allem in Baumgruppen nicht aufgenommen werden. Das automatische Verfahren erwies sich in qualitativer Hinsicht dem manuellen Verfahren mindestens gleichauf, zeigte jedoch Nachteile in Bezug auf die Quantität. Wirtschaftlich gesehen konnten durch die UAV-Inventur drei Viertel des Zeitaufwandes und ein Drittel der Kosten gegenüber der Feldinventur gespart werden.

Zusammenfassend verdeutlichen die Ergebnisse, dass die UAV-Inventur durch die allgemeinen Nachteile von photogrammetrischen Verfahren die Feldinventur in qualitativer und quantitativer Hinsicht nicht komplett ersetzen kann. Rein wirtschaftlich gesehen überwiegen allerdings die Vorteile gegenüber dem Feldverfahren.


14:50 - 15:10

Comparison Of Different Machine-Learning Algorithms For Tree Species Classification Based On Sentinel Data

M. Wessel1, M. Brandmeier2, D. Tiede1, R. Seitz3, C. Straub3

1Universität Salzburg, Österreich; 2Esri Deutschland; 3Bayerische Landesanstalt für Wald und Forstwirtschaft

In this study we use freely available Sentinel-2 data, orthophotos (RGB and CIR) and inventory data (11 or 12m radius circles with a percentage composition of tress within) by the BaySF (Bayerische Staatsforsten) to evaluate the potential of different machine-learning approaches to classify tree species. Our study areas, the “Ebersberger Forest” and the “Freisinger Forest” are both located in Bavaria and show a homogenous intermixture of coniferous and deciduous tree patches, dominated by the spruce tree type.

Sentinel-2 satellite imagery offers new opportunities for vegetation mapping, climate change analysis or agricultural applications by monitoring the earth surface in a high temporal resolution (ideally in a five-day interval in Europe) and appropriate spectral resolution.

Using the Sen2Cor processor, atmospheric correction was applied to the level 1C data, gaining true surface reflectance values to create a bottom of atmosphere (BOA) output. Reducing atmospheric effects is especially relevant when analyzing multitemporal images. As one of the goals of this study was to deliver a semiautomatic workflow for the classification of beech and oak trees, different classification algorithms (object- and pixel-based) were evaluated and the best performing setup was implemented into a model.

A hierarchical approach was used to evaluate different band combinations and algorithms (Support Verctor Machines (SVM) and Random Trees (RT)) for the separation of deciduous vs. coniferous trees, followed by a more detailed evaluation for tree species within the respective classes. The Ebersberger Forest was the main project region of interest, the Freisinger Forest was used as a reference validation region. Training and accuracy assessment of the algorithms was based on inventory data. The validation process was conducted using an independent dataset. A confusion matrix, with a focus on User´s and Producer´s Accuracies per class, as well as Overall Accuracies (OA), were calculated for all analyses.

In total, we tested 16 different classification setups for coniferous vs. deciduous trees, achieving the best performance of 97.2% OA for an object-based multitemporal SVM approach using scenes from May, August and September by combining the infrared bands. For the separation of beech and oak trees we evaluated 55 different setups, the best result was reached by an multitemporal SVM classification based on objects with an accuracy of 90.9% (OA) using the May scene for segmentation and the August scene with its principal components as classification image.

The transferability of the model was tested for the the Freisinger Forest and showed similar results. These results point out, that S-2 has only marginally worse results than comparable commercial high-resolution satellite sensors, the less spatial resolution is compensated by the high temporal resolution, which supports well the classification of different tree types and is therefore well suited for forest analysis.


15:10 - 15:30

Virtual Laser Scanning for the Analysis of Platform-Related Effects in Urban Tree Species Classification

Z. Koma1,2, B. Höfle3, K. Koenig3, N. Lukač4, M. Hämmerle3,5, J. Kovács6, Z. Folly-Ritvay7

1Institute for Biodiversity and Ecosystem Dynamics (IBED), University of Amsterdam, Niederlande; 2Department of Geophysics and Space Science, Eötvös Loránd University, Ungarn; 3Institute of Geography, GIScience and 3D Spatial Data Processing Group, Heidelberg University, Deutschland; 4Faculty of Electronical Engineering and Computer Science, University of Maribor, Slowenien; 5Department of Geography, Research Group for Earth Observation, Heidelberg University of Education, Deutschland; 6Department of Physical and Applied Geology, Eötvös Loránd University, Ungarn; 7Budapest Közút Zrt., Ungarn

In the last decades, the established Airborne Laser Scanning (ALS) approach for urban tree species classification has been increasingly complemented by laser scanning datasets measured from further platforms such as Terrestrial Laser Scanning (TLS), Mobile Laser Scanning (MLS), and UAV-borne Laser Scanning (ULS). However, the characteristics of the different capturing platforms (e.g. point density, scan perspective, etc.) affect point cloud based feature extraction and object classification, which limits the universal usage of point cloud features.

The aim of this study is to quantify the effects on geometrical features with respect to different laser scanning platforms and measurement configurations. Geometrical features are LiDAR metrics related to the geometry of the trees (e.g. crown shape) calculated by using only the x,y,z attributes. A multi-purpose LiDAR simulation tool (HELIOS; http://uni-heidelberg.de/helios) is used to test scenarios in a simulated environment, which we call Virtual Laser Scanning (VLS). In this analysis, individual virtual 3D tree models are built based on real high point density MLS data of an urban city park in Budapest. VLS is carried out with the commonly used measurement configurations related to platforms of ALS, ULS, TLS, and MLS with in total 8 different simulation scenarios. Thereafter, the laser scanning features are analyzed with the calculation of Pearson's correlation coefficient and Combined Cluster Discrimination Analysis (CCDA). Two main most frequently published feature classes are tested: 1) subset-related features of individual trees (for example subdividing a tree object into vertically stacked slices of 10% of height in percentage and calculate pulse penetration ratio), and 2) aggregated features related to the entire tree object (for example mean height).

The correlation analysis of the subset features showed that the features of the upper 25% of tree parts correlate between the different platforms (mean r2~0.88, pair-wise correlation) in contrast to the features of the lower 25% of tree parts (mean r2~0.47). The low correlation between the subset related geometrical features can be explained by the poor representation of the stem with the airborne based laser scanning compared to TLS and MLS. The CCDA analysis shows a separation of subset features into two groups: airborne (ALS, ULS) and ground-based platforms (TLS, MLS). This separation can be explained by the effects provided by the different scanner perspectives and respective scanning geometries. The features on a tree object level indicate significantly lower influence from the applied platform.

Our results show that the frequently published subset-related features optimized for ALS data cannot be directly applied to ground-based LiDAR measurements. This indicates the demand for research on relevant and robust feature-sets that are applicable to datasets from more than one laser scanning platform. VLS allows identifying and quantifying a clear distinction in importance of features between the two perspectives, airborne and ground-based. Virtual laser scanning can evolve into a transparent and reproducible solution for the inter-comparison of laser scanning platforms and scan configurations with no costs, with pre-defined ground truth and for any point cloud classification task.

 
15:30 - 16:00P09: Fachfirmenausstellung mit Erfrischungen
Foyer-Audimax 
16:00 - 17:30PF2: Praxisforum 2 - RT GIS: 3D-Geoinformation öffnet neue Anwendungsfelder
Chair der Sitzung: Philipp Willkomm
Hörsaal 0606 
 

Leitfaden Geodäsie und BIM

A. Donaubauer, T. H. Kolbe, R. Kaden

Technische Universität München, Deutschland


Automatisierte Generierung eines digitalen Landschaftsmodells in 3D

G. Fiutak

M.O.S.S. Computer Grafik Systeme GmbH, Deutschland


Geoinformationen in der Immobilienbewertung

R. Ott

freier Sachverständiger, Deutschland

 
16:00 - 17:30S09: Geoinformatik I
Chair der Sitzung: Jan-Henrik Haunert
Chair der Sitzung: Bernhard Höfle
Audimax 
 
16:00 - 16:20

Bestimmung von Ortspositionen unter Nutzung von freien globalen Daten

T. Brinkhoff

Jade Hochschule Oldenburg, Deutschland

Die Positionierung von Orten in webbasierten Karten ist teilweise unbefriedigend: Bei einer Betrachtung beispielsweise von indischen Dörfern oder chinesischen Gemeinden (Townships) in Google Earth liegt das Ortssymbol oftmals über unbesiedelten Gebieten. Ursache sind qualitativ unzureichende offene globale Datenbasen (wie z.B. GeoNames) und vereinfachte Ansätze zur Ableitung der Position (z.B. der Verwendung des Schwerpunkts einer administrativen Fläche oder des Mittelpunkts von dem minimal umgebenden Rechteck). Daraus leitet sich die nachfolgende Fragestellung ab: Wie kann über freie, möglichst global vorliegenden Daten eine Ortsposition bestimmt werden, die möglichst zentral im Siedlungsgebiet liegt.

In (Brinkhoff 2016) wurde ein Verfahren vorgestellt, das erlaubt, aus OpenStreetMap-Daten im globalen Maßstab Siedlungsflächen abzuleiten. Dazu werden Landnutzungsflächen, eine Auswahl von Straßen und Gebäudeinformationen zusammengeführt. Eine vorläufige Evaluation hat gezeigt, dass die resultierenden Siedlungsflächen eine recht gute Qualität aufweisen, allerdings Industrieflächen oftmals fehlen. Letzteres ist allerdings für die hier verfolgte Aufgabe kein Manko, da ein Ortssymbol i.d.R. nicht über Industriegebieten positioniert werden sollte. Alternativ steht seit Anfang 2017 der „Global Urban Footprint“ zur Verfügung, der aus SAR-Daten der TanDEM-X-Mission abgeleitet worden ist (Esch et al., 2013).

Auf dieser Basis kann ein Algorithmus skizziert werden, der aus Siedlungsflächen und frei verfügbaren administrativen Grenzen von Orten die Ortspositionen ableitet:

  1. Die beiden Datensätze werden mit einander verschnitten.
  2. Die größte Schnittfläche pro Ort wird bestimmt.
  3. In diese Fläche wird zentriert die Ortsposition gelegt.

Bei diesem zunächst einfachen Ansatz stellen sich aber folgende Herausforderungen:

  • Für die Bestimmung der Ortsposition existieren Ansätze, die exakt oder approximativ das visuelle Zentrum bestimmen, u.a. unter Nutzung von Voronoi-Diagrammen, Polygon-Skeletten, Quadtrees und inversen Puffern. Allerding weisen bei beiden genannten Datenquellen die Siedlungsflächen eine Vielzahl von kleinen und größeren Löchern auf, die eine direkte Nutzung dieser Ansätze faktisch unmöglich machen.
  • Sowohl die Siedlungsflächen als auch frei verfügbare administrative Grenzen weisen Lageabweichungen von der tatsächlichen Situation auf. Dadurch kann das Resultat insbesondere bei Orten mit kleinen Siedlungsflächen, die an einen Ort grenzen, der eine große, an die Ortsgrenzen reichende Siedlungsfläche aufweist, verfälscht werden.

In diesem Beitrag wird der grundsätzliche Ansatz vorgestellt, Lösungsstrategien für die beiden genannten Probleme entwickelt und das Verfahren unter Nutzung von realen Daten evaluiert.

(Brinkhoff 2016) Brinkhoff T.: „Open Street Map Data as Source for Built-up and Urban Areas on Global Scale“, XXIII Congress of the International Society for Photogrammetry and Remote Sensing 2016, Prague, Czech Republic. In: The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XLI-B4, 2016, 557-564; doi:10.5194/isprs-archives-XLI-B4-557-2016

(Esch et al., 2013) Esch, T., Marconcini, M. et al., 2013. „Urban Footprint Processor – Fully Automated Processing Chain Generating Settlement Masks From Global Data of the TanDEM-X Mission“. IEEE Geoscience and Remote Sensing Letters, 10(6), 2013, 1617-1621.


16:20 - 16:40

Generalisierung mittels Deep Learning (CNN) am Beispiel der Straßenextraktion aus GPS-Trajektorien

F. Thiemann, S. Cakir, F. Politz

Leibniz Universität Hannover, Deutschland

Convolutional Neural Networks (faltende neuronale Netze, CNN) werden erfolgreich für die semantische Klassifikation und Objektdetektion in Bildern eingesetzt. In Form von Autoencodern können solche Netze die wesentlichen Merkmale der Eingangsdaten erlernen und diese zur Dimensionsreduktion bzw. zum Komprimieren der ursprünglichen Eingangsdaten nutzen. Dabei werden unwesentliche Merkmale unterdrückt. Diese Eigenschaft von Autoencodern legt nahe, dass sie auch zur Generalisierung im kartographischen Sinne verwendet werden können.

Simo-Serra et. al (2016) haben bereits gezeigt, dass CNN zum Vereinfachen von groben Skizzen verwendet werden können. Die Autoren nutzen ein CNN mit Autoencoder-Architektur. Anstatt die Originalbilder als Eingangs- und Zieldaten zu nutzen, verwenden sie vereinfachte Bilder als Zieldaten für das Training des Autoencoders. Das Ziel unserer Arbeit war es, diesen Ansatz für die Extraktion des Straßennetzes aus GPS-Trajektorien zu testen. Als Eingangsdaten für das CNN werden aus den Trajektorien Heatmaps erzeugt. Als Zieldaten haben wir das zugrundeliegende Straßennetz gerastert.

Für das Training des Netzes werden weitgehend fehlerfreie Zieldaten benötigt. Eine direkte Verwendung von bestehenden Straßendatensätzen wäre nur dann möglich, wenn das Straßennetz oft genug und vollständig befahren wurde. Anderenfalls müssen die nicht befahrenen Straßenteile aus den Zieldaten herausgelöscht werden. Um die Korrektheit der Trainingsdaten zu gewährleisten, haben wir zunächst Kfz-Trajektorien auf dem OSM-Straßennetz von Hannover simuliert. Später haben wir versucht Zieldaten zu realen Fahrrad-Trajektorien zu generieren, was uns jedoch nicht in der benötigten Genauigkeit gelang.

Außerdem haben wir das trainierte Modell der simulierten Kfz-Trajektorien auf reale Trajektorien von Radfahrern übertragen. Wie zu erwarten, zeigte sich, dass das trainierte Netz einige Schwierigkeiten hatte, diese korrekt abzubilden. Bei der Simulation der Trajektorien wurde nicht berücksichtigt, dass sich das Spurwahlverhalten von Radfahren und Autofahrern unterscheidet.

Weitere Untersuchungen beschränkten sich daher auf Kfz-Trajektorien. Das Generalisierungsergebnis konnte durch Lernen auf einem gemischten Datensatz aus echten und simulierten Daten verbessert werden. Weitere Verbesserungen sind durch feiner aufgelöste Raster und größere Trainingsdatensätze mit realen Trajektorien und dazu passenden Zieldaten zu erwarten.


16:40 - 17:00

Simulation von Menschenmengen im urbanen Umfeld

A. Meinert1,2, S. Hahmann1, S. Kopf2, P. Brausewetter1

1Fraunhofer IVI, Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme, Dresden; 2Hochschule für Technik und Wirtschaft Dresden

Die Simulation von Fußgängern und Menschenmengen besitzt eine große Relevanz in der Planung von Veranstaltungen und baulichen Anlangen. Typische Simulationsszenarien sind Evakuierungen und die realitätsnahe Modellierung des Verhaltens von Fußgängern in Städten als Bestandteil von Verkehrssimulationen.

Der Beitrag gibt zunächst einen Überblick über die existierenden physikalisch-mathematischen Modelle. Hierbei werden Partikel- bzw. Agenten-basierte Modelle (z.B. Helbing und Molnár 1995), fluiddynamische bzw. gaskinetische Modelle (z.B. Kormanová 2013) und zelluläre Automaten (z.B. Schadschneider et al. 2009) beschrieben und miteinander verglichen. Große Verbreitung hat das sogenannte „Social-Force Model“ (Helbing et al. 2001, Helbing et al. 2005) erlangt, das bereits teilweise empirisch validiert werden konnte (Johansson 2009). Des Weiteren werden im Beitrag aktuell existierende frei verfügbare Softwarelösungen und Programmbibliotheken für die Simulation von Fußgängern hinsichtlich deren Vor- und Nachteile für verschiedene Einsatzszenarien verglichen.

Für die Modellierung der urbanen Umgebung wird die Nutzung der offenen Daten von OpenStreetMap (OSM) untersucht. Im Fokus stehen dabei begehbare Flächen und Wege sowie Hindernisse, die aus den OSM Daten extrahiert werden können. Es wird ein Überblick gegeben, welche Features generell sinnvoll für die Nutzung in Fußgängersimulationen sind (z.B. das Punktfeature Baum als Hindernis) oder von vornerein ausgeschlossen werden können (z.B. das Linienfeature von administrativen Grenzen). Weiterhin wird untersucht, inwiefern semantische Angaben, z.B. die Breite der Straßen auf welchen sich die Fußgänger bewegen, genutzt werden können.

Aus diesen Vorbetrachtungen werden Kriterien für die Implementierung in einem Java-Programm abgeleitet, welches die gefundenen Erkenntnisse demonstriert. Zu diesen Kriterien gehören eine graphische Nutzeroberfläche, Möglichkeiten zur Interaktion (z.B. Import von Daten im WKT/Shape-Format), die Visualisierung der Simulation, Manipulierung von Simulationsparametern, die Anzeige von Simulationsinformationen sowie eine geeignete Schnittstelle, um die Ergebnisse in einem GIS anzeigen zu können.

In der Implementierung werden die Fußgänger vereinfacht als Quadrate visualisiert, welche sich entlang von (individuellen) Zielpunkten durch das urbane Umfeld bewegen. Die simulierten Fußgänger besitzen einen Eigenantrieb, sich mit einer spezifischen Geschwindigkeit in die Richtung der Ihnen zugewiesenen Ziele zu bewegen. Außerdem bestehen abstoßende Kräfte zwischen Fußgängern und Hindernissen, sowie zwischen den Fußgängern untereinander.

Ein weiterer Bestandteil des Beitrags ist ein Plausibilitätstest der Simulationsergebnisse unter Verwendung einer bestehenden Bibliothek für die Fußgängersimulation. Des Weiteren wird die Performance der Simulation, welche Rechenzeiten und Speicherbedarf in Abhängigkeit der Anzahl an modellierten Fußgängern umfasst, untersucht. Die Anwendung soll quelloffen verfügbar gemacht werden.


17:00 - 17:20

Prediction of Feed-in Power from Photovoltaics in Local Distribution Networks

M. Elfouly, A. Donaubauer, T. H. Kolbe

Technische Universität München, Deutschland

Due to the shift of power production from highly centralised power plants to decentralised power production with renewable energy, such as photovoltaics, the role of local distribution networks has changed. Originally, these networks were designed to distribute electric power from a centralised source to consumers. However, nowadays, additional loads due to the increasing number of climate-dependent decentralised energy production systems, such as photovoltaics affect the network stability. Thus, network operators need decision support methodology, in order to cope with the network uncertainty. As central part of the decision support system, a small-scale, climate-dependent forecast for feed-in power is required.

In this contribution, a method for feed-in power prediction from photovoltaics, based on georeferenced power production and climate data has been developed.

The method takes into account that photovoltaics’ power production is influenced by various parameters. These parameters vary from geospatial factors, such as location, orientation of the solar panel (inclination angle), geographical location on earth (maximum sun elevation), shadowing caused by local topography, to panel specific parameters, such as brand model (degree of efficiency), solar panel surface area, and panel conditions (dust or dirt cover). Besides, meteorological and temporal factors, such as cloud coverage, temperature, global horizontal irradiance, diffuse horizontal irradiance, clear sky shortwave radiation, shortwave radiation, date (changing sun elevation over the year), and time (changing sun position over each day) play an important role. Within the course of this research, diverse meteorological aspects that play a role in the feed-in power, have been deeply investigated. However, it turned out that an analytical model considering all the afore-mentioned factors would not only be very complex and sophisticated, but also some of the parameters might be unknown.

As a result, an observation-based approach to tackle this issue has been developed. This approach relies on statistical analysis of georeferenced historic power production measurements from photovoltaic systems installed in a local distribution network. By learning the maximum possible power production for each station at a specific point in time, we derived specific attenuation functions for each station along the year. The attenuation accounts for all the influences and the afore-mentioned parameters and therefore makes different stations comparable. Then, statistical analysis and spatial interpolation between the stations has been built, in order to deduce attenuation fields, which show the change of attenuation throughout the day, month, and year within the entire geographical region. Hence, by analysing the historic observations and meteorological data, a correlation function between the attenuation and the various meteorological factors derived from satellite observations, such as cloud cover, solar irradiance could be determined. The resulted correlation function, allows to predict the attenuation field for a specific future point in time from weather forecast. Additionally, the attenuation field allows to predict the feed-in power for a specific station and for a specific future point in time.

The method was implemented in a project funded by the Bavarian Ministry of Economic Affairs in cooperation with the company AED-SICAD, based on a geospatial database system with data from EnBW ODR.

 
16:00 - 17:30S10: Kartographische Algorithmen
Chair der Sitzung: Dirk Burghardt
Hörsaal 2760 
 
16:00 - 16:20

Micro Diagrammen für geovisuelle Analysen – Anwendungsbeispiele

M. Gröbe, D. Brughardt

TU Dresden, Deutschland

Mit dem Aufkommen von VGI und Social-Media-Daten ist eine Vielzahl an punktbezogenen Daten verfügbar, in deren Analyse und Visualisierung ein hohes gesellschaftliches und wirtschaftliches Potential gesehen wird. Für diese Art von hochkonzentrierten Punktdaten wurden die Micro Diagramme als neue Visualisierungsmethode zu Darstellung unterschiedlicher Kategorien entwickelt. Sie ermöglichen eine überlagerungsfreie Darstellung auch in Regionen mit einer hohen Dichte an Punkten und in kleineren Maßstäben.

Bei den Micro Diagrammen handelt es sich um miniaturisierte Diagramme, die auf aggregierten Punktdaten basieren und somit das Problem der Überlagerung lösen. Dafür können verschiedene Methoden eingesetzt werden: Die Daten lassen sich mittels bekannter Clustering-Algorithmen zusammenfassen, spezielle Datenstrukturen einsetzen oder die Punkte in verschiedenartigen Bezugseinheiten von Verwaltungseinheiten bzw. regelmäßigen Flächen wie Quadrate, Dreiecke oder Hexagone auszählen.

Ziel der Anwendungsbeispiele ist herauszufinden, welche Bezugsflächen für diese Art von Visualisierung einsetzbar sind, sowie welche Arten von Diagrammen für die unterschiedlichen Aggregationsmethoden sich gut nutzen lassen. Hierzu erfolgt zunächst eine Implementierung von einigen weiteren Diagrammtypen, da nur Balken- und Kreisdiagramm im GIS bereits vorhanden waren.

Anhand ausgewählter Anwendungsfälle wurden verschiedene Typen von Diagrammen auf die Tauglichkeit für diese Visualisierungsmethode getestet. Die Beispiele lassen sich unterschiedlichen Bereichen zuordnen: VGI von OpenStreetMap, Daten aus „Location Base Social Networks“ wie Twitter und wissenschaftlichen Daten aus dem Bereich der Meteorologie. Dadurch ergaben sich jeweils andere Rangbedingungen wie Maßstab, Anzahl an Kategorien und Aggregationsmethoden. Die verschiedenen Arten von Diagrammen wurden hinsichtlich ihrer Eigenschaften und dem Anwendungsgebiet ausgewählt.

Abschließend wurden die produzierten Beispiele evaluiert und eingeschätzt welche Diagrammtypen, Aggregationsstrategien und damit u.a. Bezugsflächen sich für diese Art von Visualisierungen eignen.


16:20 - 16:40

Task-oriented Data Classification Of Choropleth Maps For Preserving Local Extreme Values

J. Chang, J. Schiewe

HafenCity Universität Hamburg, Deutschland

1. Problem definition
In thematic maps, i.e. for representing population density, the values of single regions (like states) are often categorized into classes and coloured accordingly in order to obtain a better overview. The visual impact of these choropleth maps – and with that derived interpretations and decisions – are influenced by the actual value distribution, the data classification method and the selection of colour ramps.
Conventional data classification methods (like equidistant, quantiles, or Jenks) work data-driven and do not consider a possible spatial context. If, for example, a state that contains a local extreme value is put into the same category as some of the neighbouring regions, this important information gets lost. Neglecting spatial context may also influence other patterns like hot spots or clusters classification.
Instead of the conventional data-driven approach we now pursue the reverse way, a task-oriented classification.

2.Method
For the task of preserving polygons showing local extreme values, the following procedure has been implemented and tested:

A.Identification of local extreme values
A local extreme value is defined as a polygon that shows larger (or smaller) value compared to its neighbor polygons. Neighbors are defined as polygon pairs having a common boundary or sharing a common vertex. An R-Tree spatial index is used to accelerate the search for neighboring polygons. Among all neighbors of an actual extreme value candidate, the minimum of the absolute difference values is identified and stored.

B.Sorting all local extreme value polygons according to significance

The corresponding value intervals (bounded by the values of the extreme polygon and the numerically closest neighboring polygon as derived in step A) are plotted and sorted according to interval widths (from largest to smallest).

C.Setting class breaks

A Plane Sweep Algorithm is carried out in order to retrieve optimal intersections (i.e., class boundaries). For this a vertical line is swept from left (global minimum) to right (global maximum) in order to retrieve intersection counts. Starting with the most significant extreme value polygon (rf. step B), a class break is set where the number of intersections has its maximum. After identifying the first class break, those segments which intersect this one, are excluded and then the next sweep is performed. This algorithm repeats the above steps until the total number of classes (predefined by the user) have been met or all intervals have been integrated.


16:40 - 17:00

Hot-Spot-Analyse zur Unterstützung der Datenklassifizierung – ein Versuch zur Minimierung der Subjektivität in thematischen Karten am Beispiel des Projekts AlpES (Alpine Ecosystem Services)

P. Freckmann

Hochschule Karlsruhe - Technik und Wirtschaft, Deutschland

Um Geodaten in thematischen Karten zu visualisieren, ist es häufig notwendig, die Daten zu klassifizieren, um durch quantitative Zusammenfassung räumliche Muster erkennbar zu machen. Dabei ergibt sich das Problem, aus verschiedenen Klassifizierungsmethoden die jeweils geeignetste einzusetzen, um die Realität bestmöglich abzubilden. Je nach Wahl einer Klassifizierungsmethode unterscheiden sich die erstellten thematischen Karten mehr oder weniger stark voneinander, das bedeutet, dass ein Thema auf unterschiedliche Weise visualisiert und damit interpretiert werden kann, also eine subjektive Komponente durch den Kartenersteller eine Rolle spielt (vgl. Hruby, F. (2016): 190 Jahre Choroplethenkarten – Ein Zwischenresümee. Kartographische Nachrichten, 66 (2), S. 59ff).

Mit dem Beitrag soll am Beispiel des Projekts AlpES eine Möglichkeit aufgezeigt werden, wie mit Hilfe raumbezogener Statistik die Datenklassifizierung unterstützt werden kann, um das Ergebnis objektiver zu gestalten. Diese geographische, im Gegensatz zu der herkömmlichen nicht-räumlichen Zusammenfassung der geographischen Objekte (Punkte, Linien, Flächen) eines Untersuchungsgebietes, erfolgt in zwei Schritten. Zunächst wird mit dem Moran’s I Index die räumliche Autokorrelation unter den Objekten bezogen auf ein Merkmal gemessen. Der Indexwert weist darauf hin, ob die von den Objekten gebildeten Muster zufällig verteilt oder gruppiert sind. Zeigt der Indexwert eine deutliche Tendenz zur Gruppierung, lassen sich im zweiten Schritt die Objekte über eine Clusteranalyse zu zusammenhängenden Gebieten aggregieren. Mit Hilfe der Getis-Ord Gi*-Statistik lässt sich feststellen, wo Objekte mit hohen oder niedrigen Werten zu räumlicher Clusterbildung neigen. Dabei wird jedes einzelne Objekt unter Berücksichtigung der benachbarten Objekte bewertet. Ein statistisch signifikanter Hot-Spot ist ein Objekt mit einem hohen Wert, das außerdem von anderen Objekten mit hohen Werten umgeben ist. Für die identifizierten Cold-Spots verhält es sich umgekehrt. Das Ergebnis der Analyse zeigt zum einen die für die jeweilige Forschungsfrage relevanten Gebiete. Zum anderen können die ermittelten Hot- bzw. Cold-Spots wiederum als Grundlage für die Festlegung der Klassengrenzen bei der Datenklassifizierung durch eine entsprechende Anpassung der Klassengrenzen verwendet werden. Sie machen die Klassifizierung nicht überflüssig, ergänzen sie aber dahingehend, dass die Subjektivität, die mit den nicht-räumlichen Klassifizierungsmethoden verbunden ist, reduziert werden kann.

Das beschriebene Verfahren wurde im Interreg Alpine Space Projekt AlpES getestet (http://www.alpine-space.eu/projects/alpes/en/home). Im Rahmen dieses Projekts werden Ökosystemleistungen als Hauptsäulen einer grünen Wirtschaft im Alpenraum untersucht, um Ökosysteme und ihre Leistungen für die Gesellschaft zu schützen und nachhaltig nutzbar zu machen. Ziel des Projektes ist es, ein Verständnis für Ökosystemleistungen zur Steuerung regionaler und transnationaler Umweltpolitik zu etablieren. An dem Projekt sind Partner aus allen Alpenanrainerstaaten beteiligt. Das Untersuchungsgebiet umfasst 16.785 Gemeinden, für die umweltrelevante Indikatoren ausgewertet werden. Einen wichtigen Teil des Projekts bildet das Work Package „Mapping & Assessment“. Hier werden auf Basis der Indikatoren eine Vielzahl an thematischen Karten erstellt, aus denen Handlungsempfehlungen für die Umweltpolitik abgeleitet und die in einem WebGIS der Öffentlichkeit zugänglich gemacht werden. Beides setzt thematische Karten voraus, die möglichst wenig Spielraum für Fehlinterpretationen bieten sollten. Das gilt sowohl für die Nutzung der Karten durch die Projektbeteiligten als auch für die späteren Nutzer der Projektergebnisse mit unterschiedlich fachlichen Ausrichtungen und regionalen, insbesondere grenzüberschreitenden Kenntnissen.


17:00 - 17:20

Der Einfluss audiovisuell kommunizierter Karteninformation auf die räumliche Gedächtnisleistung

N. Lammert-Siepmann, D. Edler, N. Hannemann, A.-K. Bestgen, F. Dickmann

Ruhr-Universität Bochum, Deutschland

Um räumliche Orientierungsaufgaben im alltäglichen Leben erfolgreich bewältigen zu können müssen Menschen Ortspositionen von räumlichen Objekten so genau wie möglich kennen. Die Speicherung von Ortspositionen im räumlichen Gedächtnis kann durch direkte Erfahrung in der Umwelt selbst erfolgen oder durch indirekte Erfahrung, d.h. mittels Medien, die die räumliche Realsituation wiedergeben.

Das grundlegende Medium zur Übermittlung geographischer Information ist die Karte, die traditionell aus graphischen Zeichen besteht, aber seit der Verbreitung rechnergestützter und multimedialer Animationstechniken aber auch immer häufiger akustische Gestaltungsmittel beinhaltet. Ansätze einer audiovisuellen – ursprünglich „akustischen“ – Kartographie wurden seit etwa Mitte der 1990er Jahre eingehend diskutiert. Zudem wurden zahlreiche Kartenbeispiele entwickelt, in denen Kartenakustik als abstrakte Töne bzw. Tonfolgen, Musik, realiter erfasste („audiorealistische“) Aufnahmen und v.a. Sprache eingesetzt wurde. Diese Ansätze der audiovisuellen Kartengestaltung wurden bislang nur kaum hinsichtlich ihrer kognitiven Wirkmechanismen bei der Kartennutzung untersucht.

Jüngere Ergebnisse deuten auf einen Mehrwert durch audiovisuelle Karteninformationen für die kartographische Kommunikation hin: Die Verknüpfung (object location binding) von Ortspositionen in (topographischen) Karten (object location) mit audiovisuell kommunizierten semantischen Informationen (object identity), z.B. Ortsnamen, führt zu einer signifikanten Verbesserung aus dem räumlichen Gedächtnis abgerufener Ortspositionen. Aufbauend auf diesen Ergebnissen hat eine aktuelle kartenexperimentelle Studie das Ziel, den Einfluss der akustischen Variablen „Richtung“ auf das Positionsgedächtnis zu untersuchen: Bringt Stereo-Sound, ausgerichtet an der Lage der Ortsposition, einen zusätzlichen Mehrwert für die räumliche Gedächtnisleistung?

 
16:00 - 17:30S11: Fernerkundung Anwendung - Forst und Agrar II
Chair der Sitzung: Georg Bareth
Chair der Sitzung: Peter Krzystek
Invited talk Frederic Baret
Hörsaal 0602 
 
16:00 - 16:30

The use of UAVs for high-throughput field phenotyping applications

F. Baret

French National Institute for Agricultural Research | INRA

Invited

Phenotyping consists in characterizing the structural and functional traits for helping breeders to select the genotypes the better adapted to each environment. The recent technological advances have made available new non-invasive methods allowing to monitor with high-throughput large panels of genotypes. Multicopters that may carry for 10-20 minutes a payload of few hundred grams up to few kilograms at variable altitude and speed are very well suited for field phenotyping. A range of sensors may be used including high-resolution RGB cameras, multispectral and hyperspectral cameras, thermal infrared cameras and LiDARs. Further, low altitude flights provide spatial resolution better than a fraction of mm to identify small organs or disease symptoms. A review of current accessible phenotyping traits is presented from such UAV observations. Several examples are given to illustrate the versatility of UAVs for high throughput phenotyping. The interpretation methods need to be well suited to provide estimates of canopy traits decontaminated from possible artifacts due to the variability in the environmental conditions during the measurement or due to confounding effects. Conclusions are drawn on the development and prospects of such UAV observations for high-throughput field phenotyping.


16:30 - 16:50

Multi-scale Observations For An Improved Detection Of Plant Diseases By Hyperspectral Imaging

J. Behmann1, D. Bohnenkamp1, A.-K. Mahlein1,2

1University of Bonn, INRES - Pflanzenenkrankheiten & Pflanzenschutz, Germany; 2Insitut für Zuckerrübenforschung (IFZ), Göttingen, Germany

Plant diseases are a highly relevant target for remote and proximal sensing. The interaction among a host and the specific pathogen results in specific symptoms which can be detected and identified by suitable sensor techniques. The identification of plant diseases on the leaf scale based on color images is subject to current research, mainly by deep learning methods in combination with smartphones. An early differentiation by hyperspectral imaging is applied on different scales. On the field scale first approaches emerge on a scientific basis. Given a suitable interpretation model, accurate detection, identification and quantification is possible even at a very early point in symptom development.

However, there is a discrepancy between optimal sensing and application scale. Exemplary, the spectral characteristics of symptoms of plant diseases are captured with a high accuracy in the laboratory under controlled environmental conditions. Sensing of the same symptoms in the field is much more complicated due to plant geometry, sensing distance and illumination conditions. Under such conditions the generation of a labeled set of high quality training data is nearly unfeasible.

This gap may be bridged by applying the training data from a more controlled measurement scale to derive a model that can be used to draw conclusion also under challenging conditions. Such a model has to compensate specific effects, e.g. different geometric effects in combination with diffused and directed sunlight.

In this study dealing with hyperspectral images in the visible (400-700nm) and near infrared (700-1000nm) range leaf rust on wheat was investigated. Training data on the leaf scale was used to derive a model transferred to the plant scale. Angular and distance related effects are compensated by a Standard Normal Variate (SNV) approach. It calculates a new data representation excluding additive and scale distortions. A sparse representation approach was selected to consider the increased mixed pixel effects due to blurring, reduced spatial resolution and high leaf angles. This approach performs a matrix factorization extracting the composition, meaning the ratio of symptom characteristics of each pixel.

We investigate the effects of SNV on the prediction results, also compared to the more established vegetation indices. Time series observations of infected and healthy wheat plants were used to validate the approach. Based on the potential to quantify the level of infection, an evaluation of the different approaches was performed.

Building on these investigations, we propose the idea of a multi-scale interpretation model for hyperspectral images. Such a model will realize an information flow from the single spore up to the satellite level spanning the gap between the optimal detection and application scales of phenomena like pathogenesis, in-field distribution and epidemiology.


16:50 - 17:10

Sensor Fusion As Tool For Estimating Forage Biomass In Heterogeneous Pastures

T. Möckel, T. Fricke, M. Wachendorf

Grünlandwissenschaft und Nachwachsende Rohstoffe, Universität Kassel, Deutschland

Feeding of livestock on pastures requires constant monitoring of forage quantity to ensure consistent levels of animal and milk production. Ground based remote sensing technologies have been recognized as practical means to estimate various vegetation parameter at the field scale. Real-time mobile sensors, which allow the collection of geographically referenced data, have proven to be useful for in-field monitoring of vegetation characteristics such as biomass with high spatial resolution for large areas. Mobile automated sensor measurements can provide high sampling density at a relatively low cost to generate maps representing both spatial and temporal variation of the respective vegetation characteristic. As the quality of the vegetation parameter changes over a growing period, single sensor use for the parameter estimation might not be enough. Here, mobile devices have an additional value, as they can carry different sensors, which can in combined use improve prediction accuracies of vegetation characteristics. Particularly, sensor fusion of e.g. spectral sensors and ultrasonic sensors have been shown an improvement for the prediction of vegetation biomass in heterogenous pastures.

The aim of this study was, to evaluate the applicability of ultrasonic and hyperspectral mobile measurements fusion to map spatial and temporal yield variation in pastures with different grazing intensities.

Data were sampled from a long-term pasture experiment in central Germany. Three pastures with different levels of grazing intensity (moderate, lenient, very lenient) were selected. Within each pasture a 30 m×50 m study plot was established. Field measurements were conducted at four sampling dates in 2014 for each study plot. The three paddocks we scanned using an electrically driven cycle-based four-wheel-vehicle with a track gauge of 180 cm Three ultrasonic sensors and one HandySpec spectrometer (400-1600nm) were mounted at the vehicle. The exact location of the mobile system was obtained using a differential GPS system. For calibrating the sensory model, biomass was clipped on 18 reference plots per study plot and sampling date.

The prediction accuracy for forage biomass using information from both sensor was good (R2 = 0.72) and improved the sensor calibration models based only on one sensor technique. Using variogram analysis the model was applied on ~2000 mobile measurement points covering the whole study plot and the forage biomass was interpolated to the full area. The variogram analysis revealed a decrease of the range parameter from moderate to very lenient grazing intensity, suggesting a larger small-scale variation of forage biomass in the grasslands, which corresponds to the expectations.

The results of this study indicate, that the application of novel remote sensing sensors in forage science can improve the understanding of variation in forage quantity in pastures. This knowledge can help to make grazing practices more efficient.


17:10 - 17:30

Hochdurchsatz-Phänotypisierung von Weizen unter Hitze- und Trockenstress mit Hilfe von UAVs

K. Kunz, Y. Hu, U. Schmidhalter

Techniche Universität München, Deutschland

Weizen ist weltweit eine der wichtigsten Getreidearten. Allerdings müssen sich die Weizenproduzenten großen Herausforderungen stellen: Bis zum Jahr 2050 wird mit einer Weltbevölkerung von über 9 Milliarden gerechnet, was auch eine ansteigende Nachfrage nach landwirtschaftlichen Produkten mit sich bringt. Gleichzeitig nimmt jedoch die landwirtschaftlich nutzbare Fläche für Nahrungsmittelproduktion weltweit ab. Um die Verfügbarkeit von Lebensmitteln zu sichern, müssen daher die Flächenerträge gesteigert werden. Diese sind jedoch durch externe Faktoren, wie z.B. ungünstige Umweltbedingungen, begrenzt. Klimaveränderungen, die ansteigende Frequenz von Wetterextremen und der Anstieg von Hitze- und Trockenheitsereignissen beeinflussen die landwirtschaftliche Produktion durch ein häufigeres Auftreten von physiologischem Stress für die Pflanzen. Um Lebensmittelsicherheit zu gewährleisten ist es daher notwendig, Weizensorten zu züchten, die mit extrem heißen und trockenen Bedingungen zurechtkommen. Um passende Sorten zu finden, die für die Selektion und Züchtung für zukünftige Klimaszenarien genutzt werden können, braucht es genaue Informationen über die Veränderungen, die abiotischer Stress in der Pflanzenphysiologie verursacht. Verschiedene Handgeräte wie Spektrometer oder Thermalkameras können genutzt werden, um die benötigten Daten zu erfassen. Je nach Größe der Versuchsfläche kann dies jedoch sehr zeitintensiv sein. In den letzten Jahren hat daher der Einsatz von Drohnen (Unmanned Aerial Vehicle, UAV) zur Hochdurchsatz-Phänotypisierung von Pflanzen zugenommen. UAVs können mit unterschiedlichen RGB- und Thermalkameras, sowie Spektralsensoren ausgestattet werden. Dies ermöglicht nicht nur die Erfassung der aktuellen Pflanzentemperatur, sondern auch der spektralen Reflexion, welche Informationen über den Gesundheitszustand und die Entwicklung der Pflanzen gibt. Vorteile der UAVs sind die flexiblere Anwendung verglichen zu Satelliten und die schnellere Erfassung vieler Daten im Vergleich zu Handgeräten. Information über Wasserstatus, Nährstoffgehalt und -aufnahme der Pflanzen und eine Vorhersage des zu erwartenden Kornertrages können während des Pflanzenwachstums auf nicht-destruktive Weise gesammelt werden. In einem Feldversuch in Moldawien wurden 40 Weizensorten getestet – 20 deutsche und 20 osteuropäische Sorten. Letztere sind besser an die dort herrschenden kontinentalen Bedingungen angepasst, welche durch heiße, trockene Sommer mit geringem Niederschlag gekennzeichnet sind. Während der Saison 2016/2017 wurden regelmäßig Drohnenflüge durchgeführt, um mit RGB- und Thermalbildern den physiologischen Zustand der Pflanzen zu bestimmen. Unterschiede in der Seneszenz zwischen den deutschen und osteuropäischen Sorten konnte mit Hilfe der RGB-Bilder erkannt werden. Die deutschen Sorten wurden für eine längere Vegetationsperiode gezüchtet, bleiben länger grün und neigen zu einer Notreife, wenn der abiotische Stress zu groß wird, um ihre Nachkommenschaft zu sichern. Osteuropäische Sorten beginnen früher mit der Seneszenz, zeigen weniger Anzeichen von Trockenstress und stabilere Erträge. Vorläufige Ergebnisse zeigen, dass der Grad der Bodenbedeckung und die Pflanzentemperatur mit Hilfe von UAVs erfasst werden kann.

 
17:30 - 18:00PFGeo: Kuratoriums- und Vorstandssitzung Stiftung PFGeo
Chair der Sitzung: Thomas H. Kolbe
Chair der Sitzung: Klaus-Ulrich Komp
Nicht öffentliche gemeinsame Sitzung des Kuratoriums und des Vorstands der Stiftung PFGeo.
Besprechungsraum 0128 
19:30 - 23:45AV3: Festliche Abendveranstaltung mit Preisverleihungen
Chair der Sitzung: Thomas H. Kolbe
Chair der Sitzung: Uwe Stilla
Festliche Abendveranstaltung im "Zum Franziskaner",
Residenzstr. 9, 80333 München

Preisverleihung des Förderpreises Geoinformatik
Preisverleihung Karl-Kraus Nachwuchsförderpreis 2018

Ein reichhaltiges Büffet und eine Getränkepauschale bis 22:30 Uhr sind im Preis enthalten.
Gaststätte "Zum Franziskaner", Studentensaal und Hofgarten 
Datum: Freitag, 09.03.2018
8:00 - 15:30A3: Tagungsbüro
Immatrikulationshalle 
8:30 - 10:00IF2: Innovationsforum 2
Chair der Sitzung: Bettina Petzold
Hörsaal 0602 
 
8:30 - 8:40

Space Time Cubes – digitale Geographie in Raum und Zeit

R. Schüpferling

Esri Deutschland GmbH

-


8:40 - 8:50

Nutzung der Augmented Reality Sandbox (ARS) in der Geoinformatik der Universität Augsburg

J. Krisp

Universität Augsburg, Deutschland

Jukka M. Krisp, Simon Zwick, Universität Augsburg, Angewandte Geoinformatik

Bei der AR Sandkiste handelt es sich um eine mit Sand gefüllte Holzkiste, in der dreidimensionale Landschaften modelliert werden Das Relief der bei der Modellierung entstehenden Sandlandschaft wird dabei von einem Sensor in Echtzeit erfasst und als farbiges Höhenmodell in Form von Höhenschichten bzw. -linien visualisiert und auf die Sandoberfläche projiziert. Die im Rahmen der Sandkiste benutzte Software basiert auf C++ und wurde am „KeckCAVES“ der Universität in Davis von O.Kreylos im Jahr 2012 implementiert (Kreylos 2017). In Augsburg dient die Sandkiste u.a. der Veranschaulichung von Höhenmodellen auf unterschiedlichen Veranstaltungen.


8:50 - 9:00

Der Fahrradsimulator des Lehrstuhls für Verkehrstechnik an der Technischen Universität München (TUM) – aktuelle Simulatorstudien in Projekten der Fahrradverkehrsforschung

A. Keler1, J. Kaths1,2, H. Twaddle1, G. Grigoropoulos1, S. Hoffmann1, F. Busch1

1Lehrstuhl für Verkehrstechnik, Technische Universität München (TUM), Deutschland; 2TESIS DYNAware GmbH, München, Deutschland

Der Lehrstuhl für Verkehrstechnik an der Technischen Universität München (TUM) erforscht seit Jahren schon den Fahrradverkehr und blickt zurück auf eine Vielzahl öffentlich geförderter Forschungsprojekte mit diesem Bezug. Vor diesem Hintergrund wird seit 2016 ein physischer Fahrradsimulator technisch ausgebaut. Ziel ist es in drei aktuellen Projekten verschiedene Szenarien im urbanen Raum anhand von Fahrradsimulator-Probandenstudien zu untersuchen: die Gestaltung von Radschnellwegen als effiziente und sichere Infrastruktur (BMVI-Projekt RASCH), die Wirkung von Restzeitanzeigen für Radfahrer auf den Radverkehr (BMVI-Projekt RadOnTime), oder die Interaktion zwischen Fahrzeug und schwächeren Verkehrsteilnehmern an komplexen Knotenpunkten vor dem Hintergrund des automatisierten Fahrens in der Stadt (BMWi @CITY).


9:00 - 9:08

Wertschöpfung durch Linked (Open) Data in Unternehmensprozessen

R. Figura1, A. Willner2

1CISS TDI GmbH; 2Fraunhofer-Institut für Offene Kommunikationssysteme

Offene Daten sind einer der wichtigsten Rohstoffe der digitalen Welt, mit wachsender wirtschaftlicher Bedeutung. Als eine der größten Herausforderungen unserer Zeit gilt es nun, deren volles Potential auszuschöpfen.
Hierzu ist eine einfache und qualitätsgesicherte Integration der Daten nötig, sodass diese mit unternehmenseigenen Daten kombiniert werden können.
Semantische Technologien, vom W3C standardisiert, bieten weitreichende Möglichkeiten für die Verknüpfung von Daten unterschiedlicher Quellen, dennoch sind diese Standards nur selten mit bereits etablierten Methoden kompatibel.
In dieser Arbeit wird vorgestellt, wie verlinkte Offene Daten im offenen Geodata Warehouse bereitgestellt werden können, um heterogene Daten verschiedener offener-, sowie privater Quellen miteinander zu kombinieren.


9:08 - 9:18

Der GISconnector – ArcGIS und Excel genial kombiniert!

K. Brand

GI Geoinformatik, Deutschland

...

 
8:30 - 10:00S12: Fernerkundung Anwendung - Geologie
Chair der Sitzung: Hans-Ulrich Wetzel
Chair der Sitzung: Mahdi Motagh
Hörsaal 2750 
 
8:30 - 8:50

Bestimmung der Erdoberflächenbewegung mittels Radarinterferometrie nahe der Agua Blanca Störung, Baja California

A. Riedel, B. Riedel, C. Schottmüller, W. Niemeier, M. Gerke

Institut für Geodäsie und Photogrammetrie, Deutschland

Das BMBF geförderte ECOAQUA Projekt untersucht die Folgen der bio-ökonomischen Ausbeutung von Grundwassersystemen in ariden Küstengebieten und analysiert die beteiligten Prozesse und ihre Wechselwirkung. Das Untersuchungsgebiet umfasst die Stadt Ensenada, Baja California, Mexiko mit ihren umliegenden Tälern. Die extensive Grundwasserentnahme führt zur Ausbeutung der Aquifere, zu Salzwasserintrusionen an der Pazifikküste und damit zur Verschlechterung der Wasserqualität im Grundwasserleiter.

Dieser Beitrag stellt die aus radarinterferometrischen Beobachtungen abgeleiteten Oberflächenbewegungen nahe der Agua Blanca Störung, südlich von Ensenada vor.

Das Untersuchungsgebiet hat eine Größe von 670 km² und umfasst Bergketten mit Höhen bis 1000 m, kleine Ortschaften und landwirtschaftlich genutzte Täler. Zur Auswertung wurden Radaraufnahmen des ENVISAT Satelliten im auf- und absteigenden Bahnbogen ausgewertet. Der aufsteigende Bahnbogen umfasst die Jahre 2005 bis 2010 mit 20 Aufnahmen und der absteigende Bahnbogen liefert 45 Bilder der Jahre 2003 bis 2010. Des Weiteren wird die Zeitreihe mit Sentinel 1 Daten aus drei Jahren ergänzt. Die Daten wurden mit der Persistent Scatterer Interferometry (PSI) und Small Baseline Subset (SBAS) Methode bearbeitet.

Die PSI Auswertung zeigt keine zufriedenstellenden Ergebnisse, weil die Methode in den ländlichen Gebieten zu wenige permanente Rückstreuer über die Zeit nutzen kann. Im Gegensatz zur PSI Methode zeigen die SBAS Auswertungen auf den pliozänen Konglomeraten im Maneadero Tal und am San Tomas Bach Bewegungen, die vermutlich durch Erosions- und Ablagerungsprozesse aus Starkregenereignisse in den Wintermonaten verursacht wurden. Im Maneadero Tal sind punktuelle Bewegungen, vermutlich durch den Bau von Regenrückhaltebecken und Gewächshäusern, erkennbar.

Die Bewegungen der Agua Blanca Störung werden mit 4,4 ±1,2 mm/a für den aufsteigenden Bahnbogen und 3,0 ±1,1 mm/a für den absteigenden Bahnbogen in Schrägentfernungsgeometrie berechnet. Rockwell et al. (1993) bestimmt für die letzten 28 ka Bewegungen von 4,1 mm/a an der Störung. Dixon et al. (2002) bestimmt aus relativen GPS Messungen eine Differenz über die Agua Blanca Störung von 2,5 mm/a und aus Modellrechnungen 6,2 mm/a. Die hier ermittelten Bewegungsraten stimmen in der Größenordnung mit den Literaturwerten überein. Diese Bewegungsraten dienen als ein Parametersatz für ein Vorhersagemodell, das zukünftige Veränderungen des Küstenökosystems beschreibt und mögliche Risiken abschätzt.


8:50 - 9:10

Classification of landslide activity based on advanced DInSAR datasets

A. C. Kalia1,2

1BGR, Germany; 2IPI, Germany

Landslide inventories are an important data source to enable responsible authorities to perform regional scale hazard and risk analysis. However, up-to-date information on landslide activity is often missing. Advanced differential interferometric SAR processing techniques (A-DInSAR), e.g. Persistent Scatterer Interferometry (PSI) and Small Baseline Subset (SBAS) are able to measure surface motions with a high precision, with a large spatial coverage and with a high spatial sampling density compared to terrestrial measurement techniques. The technological progress and the existence of multiple spaceborne SAR missions, ensuring long-term data availability, results in an increasing interest within the geohazard community to use this technology for updating landslide inventories.

This presentation focuses on the workflow for (semi-) automatic landslide inventory updates. The workflow consists of preparation of the PSI datasets (projection of the LOS velocity vector into slope direction), probabilistic classification of the landslide activity (using e.g. the sensitivity of the SAR acquisition geometry and a landslide susceptibility model) and an accuracy assessment. A current pilot study, based on Sentinel-1 datasets, ancillary data (landslide inventory, lithological map, DEM) and ground-truth data is used to demonstrate the workflow. The area of interest is located in the Bavarian Alps in Southwest Germany and is characterized by various landslide types, ranging from e.g. soil creep, shallow landslides, deep seated rotational landslides to rock falls. Finally, the results of the accuracy assessments are presented and the transferability of the proposed workflow is discussed.


9:10 - 9:30

Machbarkeitsstudie zur Nutzung von Sentinel-1 und Sentinel-2 Daten zur Erfassung und Veränderungsdetektion von Badlands in Spanien

A. M. Piter1, M. Motagh2, S. Foerster2

1Leibniz Universität Hannover, Deutschland; 2Geoforschungszentrum Potsdam

In den spanischen Pyrenäen gehören Badlands zum Landschaftsbild. Sie bestehen aus steilen Hängen mit geringer Vegetationsbedeckung und werden v.a. durch Regenfälle stark erodiert. Im Untersuchungsgebiet, dem Einzugsgebiet des Flusses Ésera, kommt es insbesondere im Herbst und Frühjahr zu stärkeren Regenfällen, während derer die größten Abtragungsraten erwartet werden.

Ziel dieser Studie ist die großflächige Bestimmung von Erosionsgebieten, als auch die Veränderung selbiger mit Methoden der Fernerkundung. Die gängigen Verfahren zur Veränderungsdetektion in der Fernerkundung basieren auf optischen Daten. Jedoch verhindern gegebenenfalls Wolken die Sicht auf die Erde, wodurch eine Veränderungsdetektion mit optischen Daten nicht immer möglich ist. Hingegen sind Radar-Sensoren eine von Wolken unabhängige Datenquelle.

In einem ersten Schritt wurde die Landbedeckung mit einem multispektralen Datensatz des Satelliten Sentinel-2 vom Juli 2016 mittels Maximum Likelihood Klassifizierung bestimmt. Zudem wurde untersucht, ob die Ergänzung des Datensatzes um das Intensitätsbild des Radarsatelliten Sentinel-1 aus dem gleichen Monat in Bezug auf die Badlands zu besseren Klassifizierungsergebnissen führt. Eine Verbesserung konnte nicht festgestellt werden.

Aufbauend auf der multispektralen Klassifizierung wurde in einem zweiten Schritt die Möglichkeiten der Veränderungsdetektion anhand von SAR-Intensitäts- und Kohärenzbildern verschiedener Zeitpunkte untersucht. Dazu wurden detektierte Veränderungen mit der zugehörigen klassifizierten Landbedeckung verglichen um Rückschlüsse auf die Art der Veränderung zu ziehen.

Die Landbedeckungsklassifizierung mit ausschließlich Sentinel-1 Daten führte mit multitemporalen SAR-Intensitäts- und Kohärenzbildern zu besseren Ergebnissen als unter Verwendung einzelner Zeitpunkte.


9:30 - 9:50

Sentinel-1 InSAR for local to regional scale displacement assessment in Germany

M. Haghshenas Haghighi1,2, M. Motagh1,2

1GFZ German Research Centre for Geosciences, Department of Geodesy, Section of Remote Sensing; 2Institute for Photogrammetry and GeoInformation, Leibniz Universität Hannover

Interferometric synthetic aperture radar (InSAR) has been widely used in the last three decades to measure ground deformation for a wide range of geophysical and engineering applications in different parts of the world. However, in areas like Germany where the vegetation cover is dense, the application of InSAR was limited due to poor interferometric phase quality caused by temporal and/or baseline decorrelation. Regular and dense acquisitions of SAR data provided by Sentinel-1 mission, with its short revisit time in Europe (6 days), helps overcome those limitations, providing us with unprecedented wealth of InSAR observations for deformation analysis related to various applications.

Here we use a large collection of Sentinel-1 SAR images and apply multi-temporal interferometric time-series approaches, to retrieve mm- to cm-scale deformation in local and regional scales in different areas of Germany. 3 case studies are presented. In the first one, we investigated urban stability in Berlin. Although most parts of the urban area in Berlin is stable, we detected localized subsidence features, mainly caused by settlement of old demolishing landfills. We also observed a long-term uplift of as small as 2 mm/yr with a cm-scale seasonal variation due to charge and discharge of a gas reservoir in Berlin. In the second case study we investigated anthropogenic deformation in mining areas in the federal states of Leipzig and Brandenburg. We mainly focused on lignite mining and analysed the stability of several active and abandoned mining areas. Using both ascending and descending SAR images, we detected cm-scale vertical and horizontal movements in different mining sites. In the third study, we assessed the stability of infrastructures in an area in the federal state of Mecklenburg-Vorpommern. In Spring 2017 a gradual displacement in the order of a few centimetres per day was reported along a highway in this area which resulted in the collapse and closure of the highway. By analysing Sentinel-1 InSAR time-series we studied the history of displacement on the affected highway during the last three years. Furthermore, by InSAR analysis along linear features we investigated the stability of other infrastructure like roads, bridges, and railways in this area.

 
8:30 - 10:00S13: Fernerkundung Anwendung - Forst und Agrar III
Chair der Sitzung: Georg Bareth
Chair der Sitzung: Peter Krzystek
Hörsaal 2760 
 
8:30 - 8:50

Verwendung von multitemporalen Sentinel-2 Daten für die Baumartenklassifikation im Biosphärenpark Wienerwald

M. Immitzer, M. Neuwirth, S. Böck, C. Atzberger

Universität für Bodenkultur (BOKU), Wien, Österreich

Detaillierte Kenntnisse der Baumartenzusammensetzung der Wälder sind für viele forstliche und ökologische Fragestellungen von hoher Bedeutung. Das große Potential der Auswertung von multispektralen Erdbeobachtungsdaten für die Kartierung der Baumarten wurde in zahlreichen Studien belegt. Neben der spektralen und der räumlichen Auflösung stellt die temporale Auflösung einen weiteren wesentlichen Faktor für die Unterscheidbarkeit von Arten dar. Mit dem Start des europäischen Erdbeobachtungssatelliten Sentinel-2 stehen seit 2015 Daten in einer bisher nicht bekannten Kombination aus zeitlicher, spektraler und räumlicher Auflösung zur Verfügung. Die Sentinel-2 Konstellation (zwei baugleiche Satelliten) stellt seit 2017 Daten mit einer räumlichen Auflösung von 10 bzw. 20 m in zehn Spektralkanälen und einer 10 bis 5-tägigen Wiederholrate mit globaler Abdeckung zur Verfügung. In dieser Arbeit wird der Mehrwert der hohen zeitlichen Auflösung für die Klassifikation von fünf Nadel- und sieben Laubbaumarten untersucht.

Die pixelbasierten Analysen erfolgten im 105 000 ha großen Biosphärenpark Wienerwald mit einem Waldanteil von rund 60%. Aus dem Zeitraum August 2015 bis Oktober 2017 stehen insgesamt 18 wolkenfreie Sentinel-2 Szenen zur Verfügung welche für die Klassifikation mittels Random Forests herangezogen wurden. Im ersten Schritt erfolgte die flächendeckende Trennung von sechs Landbedeckungsklassen (Nadelholz, Laubholz, Grünland, landwirtschaftliche Kulturen, Siedlung, Wasser). Anschließend wurden für Nadel- und Laubwaldarten stratenweise Klassifikationsmodelle erstellt, Klassifikationsmodelle erstellt, wobei immer alle Kombinationsmöglichkeiten der 18 Sentinel-2 Szenen getestet wurden. Für beide Baumartengruppen wurden in Summe 262 143 Random Forests Modellierungen durchgeführt. Die Modellierung umfasste dabei rekursive Variablenreduktion basierend auf dem Wichtigkeitsmaß Mean Decrease Accuracy. Die Modellbewertung erfolgte basierend auf den out-of-bag Ergebnissen. Die Landbedeckungsklassifikation erreichte eine Gesamtgenauigkeit (out-of-bag) von 96,1%. Mit monotemporalen Sentinel-2 Daten erzielte die Baumartenklassifikation Gesamtgenauigkeiten zwischen 48,1% (Jänner 2017) und 78,6% (Juni 2017). Mit Aufnahmen aus Sommer und Frühherbst wurden die besten Ergebnisse erzielt.

Die multitemporale Analyse erzielte im Vergleich zur besten mono-temporalen Aufnahme ein um 12,9 Prozentpunkte verbessertes Ergebnis (Laubholz). Für Nadelholz konnte ein um 11,0 Prozentpunkte verbessertes Gesamtklassifikationsergebnis erzielt werden. Dabei zeigte sich, dass bereits eine optimale Kombination von fünf oder sechs Sentinel-2 Szenen dieselbe Modellgüte erzielt, wie jene Modelle basierend auf allen 18 Szenen. Diese Kombinationen beinhalten vorrangig Szenen aus den Monaten April bis August. Die beste klassenspezifische Produzentengenauigkeit erreichte die Rotbuche mit 96,3% bzw. die europäische Lärche mit 95,9%. Die für die Trennung der Baumarten höchsten Variablenwichtigkeiten zeigten die Sentinel-2 Kanäle im SWIR-Bereich sowie der Rot-Kanal für die Nadelbaumarten-Modellierung.

Mit der Studie konnte das hohe Potential von multitemporalen Sentinel-2 Daten für die artenspezifische Klassifikation von Baumarten in mitteleuropäischen Wäldern belegt werden. Der nächste Schritt wird eine weitere Ausdehnung der Klassifikationsmodelle auf größere Gebiete sein. Für sehr heterogene Wälder sollte eine Kombination der multitemporalen Sentinel-2 Datensätze mit anderen, räumlich höher aufgelösten Fernerkundungsdaten (Orthophotos), analysiert werden.


8:50 - 9:10

Validierung einer UAV-basierten Multispektralkamera zur Erfassung von Bestandesmerkmalen in Weizen

L. Prey, M. Weigel, U. Schmidhalter

TU München, Deutschland

Die Etablierung drohnenbasierter Fernerkundungssysteme ist ein bedeutender Schritt in der landwirtschaftlichen Anwendung erprobter spektraler und bildgebender Methoden auf Feldebene. In den letzten Jahren gab es eine deutliche Steigerung der verfügbaren Drohnensysteme. Eine gezielte Anwendung durch Landwirte und das Feldversuchswesen verlangt aber eine zielorientierte Entwicklung und Validierung der Systeme. Ziel der Arbeit ist es, eine drohnenbasierte Multispektralkamera mit drei aktiv messenden Bestandessensoren und einem passiven Hyperspektralsensor bezüglich der Erfassung von Biomasse und Stickstoffaufnahme in Weizenbeständen zu vergleichen. Der Sensorvergleich wurde an drei Winterweizen-Versuchen am Standort Dürnast/Freising im Frühjahr 2017 durchgeführt. Dabei wurde ein Versuch mit Doppelhaploid-Zuchtlinien (V1), ein Sortenversuch mit 2 Stickstoffdüngestufen (60 und 120 kg N/ha) (V2) sowie ein Stickstoffdüngeversuch mit 8 Stufen (V3) berücksichtigt. Die Starrflügler-Drohne eBee (senseFly, Cheseaux-Lausanne, Schweiz) wurde als Plattform für eine Sequoia-Multispektralkamera mit einer Auflösung von 1.2 MP eingesetzt. Mit der Kamera wurden Bilder in 4 Banden aufgenommen: Grün (530-570 nm), Rot (640-680 nm), Red Edge (730-740 nm) und NIR (770-810 nm). Als Vergleich wurden Spektralmessungen mit den drei aktiv messenden Sensoren Greenseeker, CropCircle und Active Light Sensor (ALS) sowie einem passiv messenden Hyperspektralsensor (tec 5, Oberursel, Deutschland) durchgeführt. Die Sensoren waren auf der mobilen Multi-Sensorplattform Phenotrac 4 montiert, mit der mittels RTK georeferenziert in 5 Hz-Taktung gemessen wurde. Die Messungen fanden an drei Terminen in den EC-Stadien 32-65 statt. Begleitend wurde als Referenz aus einer Auswahl an Parzellen der Biomasseaufwuchs und die Stickstoffaufnahme bestimmt. Die Sensordaten wurden auf Parzellenebene aggregiert und zu verschiedenen Vegetationsindizes verrechnet. Zusätzlich wurden Beziehungen zum Kornertrag getestet. In V1 wurden nur mäßig gute Beziehungen zwischen Kornertrag und Drohnenindizes gefunden (max. R² = 0.29***, Red-Edge/NIR). In V2 (max. R² = 0.45***, Rot/Red Ege) und V3 (max. R² = 0.65***, Rot/NIR) konnte der Ertrag besser abgebildet werden. Die Korrelationen waren bereits zu EC 32 am besten. Dabei übertrafen die Korrelationen der Drohnenindizes die der anderen Sensoren in V2. Ähnlich gut konnte der Kornstickstoffertrag erfasst werden. An Termin 2 und 3 wurden gute Beziehungen zwischen Indexwerten der Drohne und ähnlichen Indizes der Hyperspektralsensoren gefunden (max. R² = 0.69*** ). Für die Abschätzung der Bestandesmerkmale vor der Blüte waren die bodenbasierten Sensoren der Multispektralkamera überlegen (max. R² von 0.39, 0.57 und 0.51 mit Biomasse, Stickstoffkonzentration bzw. Stickstoffaufnahme).Insgesamt zeigen sich Potentiale des Einsatzes von Drohnen in der Phänotypisierung von Feldversuchen, die hier durch vergleichbare Bezüge mit dem Endertrag bestätigt werden. Deutliche Vorteile im Vergleich zu bodenbasierten Sensoren ergeben sich aus der schnelleren Erfassung der Bestände. So dauerte die Messung der 1,5 ha Versuchsfläche mit der Drohne ca. 15 Minuten, mit dem Sensorfahrzeug jedoch 2 Stunden. Ebenso kann damit auf Fahrspuren und mögliche Fahrschäden verzichtet werden. Der Sensorvergleich kann dazu beitragen, Algorithmen im Präzisionspflanzenbau für Düngeanwendungen und Schlagkartierungen auch drohnenbasiert einzusetzen.


9:10 - 9:30

Quantifizierung der Ährenanzahl von Gerste mittels UAV-gestützter Bildaufnahmen

N. Wilke1, A. Burkart2, B. Siegmann1, U. Rascher1, L. Klingbeil3

1Forschungszentrum Jülich, Deutschland; 2JB Hyperspectral Devices UG, Deutschland; 3Institut für Geodäsy und Geoinformation

Die Erfassung von Vegetationsparametern in landwirtschaftlichen Beständen gewinnt zunehmend an Bedeutung. Moderne Verfahren der Bildverarbeitung in Kombination mit neuen Sensoren und autonom agierenden Kleinflugzeugen werden in den kommenden Jahren eine Revolution in der landwirtschaftlichen Pflanzenzüchtung und in der Nutzpflanzenproduktion nach sich ziehen.

Als Bestandteil dieser Entwicklung wird in der vorliegenden Studie die Ährenanzahl mit Hilfe eines Multikopters (RGB Kamera) und unter Anwendung verschiedener Bildvorverarbeitungsschritte (z. B. Structure from Motion) multitemporal erfasst. Zur Validierung des UAV-Ergebnisses wurden die Ähren im Feld innerhalb eines definierten Quadratmeters gezählt. Um den optimalen Beobachtungszeitpunkt für die Erfassung der Ähren mittels Fernerkundung identifizieren zu können, wurde im wöchentlichen Abstand die Ährenanzahl an einer Versuchsparzelle im UAV-Einzelbild bestimmt.

Verglichen mit der Referenzmessung im Feld konnten in den UAV-Einzelbildern etwa jede zweite Ähre innerhalb des vordefinierten Quadratmeters erfasst werden. Mit den UAV-Aufnahmen können somit größtenteils nur die Ähren im oberen Kronendach bonitiert werden und nur eingeschränkt Ähren, die sich in weiter untenliegenden Schichten des Bestandes befinden.

Bei der Analyse der Diskrepanz zwischen Referenzmessung und Einzelbild ist auffällig, dass die Werte über verschiedene Sorten und Saatdichten hinweg konstant zwischen 50% und 56% abweichen und die Standardabweichung gering ist. Wird dieser Wert von zukünftigen Untersuchungen bestätigt, könnte die aus den UAV-Bildern ermittelte Ährenanzahl mit einem entsprechenden Faktor multipliziert werden, um eine genauere Erfassung der Ährenanzahl zu ermöglichen.

Weiterhin zeigen die Ergebnisse, dass der Termin direkt zu Beginn der Ährenentwicklung (BBCH 61) der beste Zeitpunkt für die Bonitur mittels UAV-Bildaufnahme ist. Beeinflusst wurde dies durch den hohen Farbkontrast in diesem Entwicklungsstadium, in dem sich die Ähre deutlich vom Rest der Pflanze abhebt. Mit fortlaufender Entwicklung (Abreifung der Pflanze inklusive Ähre) vermindert sich dieser farbliche Kontrast und die Identifizierung der Ähren wird deutlich schwieriger. Zusätzlich eignet sich ebenfalls ein späteres Entwicklungsstadium (BBCH 85) um die Ähren zu identifizieren. In diesem Entwicklungsstadium sind die oberen Ähren bereits abgereift und beginnen sich zu senken. Nachzügler dich sich in den unteren Schichten des Bestandes befanden und noch grün waren wurden sichtbar und konnten ebenfalls erfasst werden.

Resümierend besteht das Potential, die Ähre durch den deutlichen Farbkontrast zu Beginn der Ährenentwicklung automatisiert zu erfassen. Dementsprechend könnte zukünftig die Ährenanzahl zur Phänotypisierung, zur Pflanzenzüchtung oder zur Ertragsabschätzung verwendet werden.


9:30 - 9:50

Introducing a New Concept for Grassland Monitoring: the Multi-temporal Grassland Index (MtGI)

U. Lussem, G. Bareth

University of Cologne, Institute of Geography, GIS & RS Group, Germany

The monitoring of forage mass in managed grasslands is of key importance because it equals yield. The spatially explicit determination of removed forage mass in multi-cut grasslands is a non-solved problem and the knowledge would enable improved fertilizer management. Therefore, the objective of this contribution is the development of a remote sensing-based method to derive forage mass after grassland is cut. For this purpose, we propose a new concept for vegetation monitoring which is based on the multi-temporal acquisition of super high resolution UAV-based RGB-imagery. From the acquired data it is possible to derive the RGB-Vegetation Index (RGBVI) (Bendig et al. 2015) and sward height (Bareth et al. 2015). The latter is based on the concept of Crop Surface Models (CSMs) which is based on multiple UAV campaigns during phenology (Hoffmeister et al. 2010). The study was carried out at the long-term Rengen Grassland Experiment (RGE) in Germany in 2014. The RGE is conducted by the INRES (Institute of Crop Science and Resource Conservation) of the University of Bonn, Germany (Schellberg et al. 1999). From the combination of the UAV-derived data sets, sward height and RGBVI, the computation of the Grassland Index (GrassI) is possible (Bareth et al. 2015). In contrast, the newly proposed concept for grassland monitoring is based on two UAV-campaigns per growth: direct before (t1) and direct after (t2) cut. From the two time windows, the Multi-temporal Grassland Index (MtGI) is calculated. The MtGI is a NDVI-like vegetation index but includes temporal change in its equation. Applied on remote sensing data, it can be considered as a spatio-temporal vegetation index. The MtGI is highly correlated (R2 = 0.74) to destructively measured forage mass and therefore, bears a promising potential for non-destructive and automated forage mass mapping in managed grasslands with low-cost UAVs.

Literature:

BARETH, G., BOLTEN, A. HOLLBERG, J., AASEN, H., BURKART, A., and SCHELLBERG, J. (2015): Feasibility study of using non-calibrated UAV-based RGB imagery for grassland monitoring: Case study at the Rengen Long-term Grassland Experiment (RGE), Germany. DGPF Annual Conference'15, DGPF-Proceedings 24, pp.55-62 (http://www.dgpf.de/src/tagung/jt2015/start.html).

BENDIG, J., YU, K., AASEN, H., BOLTEN, A., BENNERTZ, S., BROSCHEIT, J., GNYP, M.L., and BARETH, G. (2015): Combining UAV-based Crop Surface Models, Visible and Near Infrared Vegetation Indices for Biomass Monitoring in Barley. Int. J. Appl. Earth Obs. Geoinf. 39, 79-87. doi:10.1016/j.jag.2015.02.012

HOFFMEISTER, D., BOLTEN, A., CURDT, C., WALDHOFF, G. and BARETH, G. (2010): High resolution Crop Surface Models (CSM) and Crop Volume Models (CVM) on field level by terrestrial laserscanning. In: Proc. SPIE, Vol. 7840, 78400E: 6 p. doi: 10.1117/12.872315

SCHELLBERG, J., MÖSELER, B.M., KÜHBAUCH, W., and RADEMACHER, I. (1999): Long-term effects of fertilizer on soil nutrient concentration, yield, forage quality and floristic composition of a hay meadow in the Eifel Mountains, Germany. Grass and Forage Science 54, S. 195-207. DOI: 10.1046/j.1365-2494.1999.00166.x

 
8:30 - 10:00WF3: Wissenschaftsforum 3 - RT GIS: Geoinformation zum Mitmachen - Crowdsourcing und Citizen Science
Chair der Sitzung: Thomas H. Kolbe
Hörsaal 0606 
 

Volunteered Geographic Information: Interpretation, Visualisierung und Social Computing

D. Burghardt

TU Dresden, Deutschland


Kollaborative Analyse und Entscheidungsfindung an Tangible User Interfaces – Herausforderungen für die Modellierung und Visualisierung von Geodaten

J. Schiewe

HafenCity Universität Hamburg, Deutschland


sensebox - ein CitizenScience Toolkit

T. Bartoschek

Universität Münster, Deutschland

 
10:00 - 10:15P10: Pause mit Erfrischungen
Immatrikulationshalle 
10:15 - 11:00PS3: Plenarsitzung: Key-Note-Vortrag von Thomas Reiter
Chair der Sitzung: Liqiu Meng
Hörsaal 2750 
 
10:15 - 11:00

Faszination Raumfahrt – Perspektiven der robotischen und astronautischen Raumfahrt in Europa

T. Reiter

ESA, Deutschland

Was macht die Europäische Weltraumorganisation ESA und welche Staaten gehören ihr an? Welche Satelliten werden derzeit von der ESA kontrolliert? Was forschen Astronauten im All an Bord der internationalen Raumstation ISS?

Herr Reiter wird einen Blick in die Zukunft der astronautischen und robotischen Raumfahrt geben und wird die allgemeinen ESA-Trends aufzeigen, darunter die laufenden sowie geplanten Satellitenmissionen, auch die Nutzung und Versorgung der Internationalen Raumstation wird Thema sein.

Insgesamt 5600 mal hat Thomas Reiter bei seinen beiden Missionen an Bord der russischen Raumstation MIR und der internationalen Raumstation ISS die Erde umrundet, 350 Tage im Weltraum verbracht und drei Außenbordeinsätze mit insgesamt 14 Stunden und 16 Minuten im freien Weltraum absolviert.

Thomas Reiter war der achte Deutsche im All und unternahm den ersten ESA-Langzeitflug überhaupt. Dabei unternahm er als erster Deutscher einen Weltraumausstieg. Heute ist Thomas Reiter ESA Koordinator internationale Agenturen und Berater des Generaldirektors.

 
11:00 - 11:15P11: Pause mit Erfrischungen
Immatrikulationshalle 
11:15 - 12:45PF3: Praxisforum 3 - RT: Geodateneinsatz für ein nachhaltiges Straßenmanagement
Chair der Sitzung: Klaus Brand
Hörsaal 0606 
 

Community Mapping im kommerziellen Umfeld am Beispiel der HERE Basiskarten

G. Herrig

HERE Germany, Deutschland


Wie die Elektromobilität unsere Infrastrukturplanung verändert

F. Steinbacher

eLoaded GmbH / Steinbacher-Consult Ingenieurgesellschaft mbH&Co. KG, Deutschland


Softwaregestützte Fortführung Der Straßenbestandsdaten Im GIS

R. Behrens

IP SYSCON GmbH, Deutschland


Einsatz von Real-Time Daten zur Optimierung des Winterdienstes in Bayern

M. Kleemann

con terra GmbH, Deutschland

 
11:15 - 12:45S14: Webkartographie
Chair der Sitzung: Dennis Edler
Hörsaal 2750 
 
11:15 - 11:35

Datenhandling vs. Visualisierung: was Prosumer bei der Erstellung partizipativer Webkarten beschäftigt

J. Moser

Leibniz-Institut für Länderkunde, Deutschland

Das World Wide Web öffnete in den vergangenen Jahren zunehmend Möglichkeiten, mit einfachen Mitteln Webkarten für eigene Ziele zu erstellen und zu verbreiten. Schnell wurde aus wissenschaftlicher Perspektive die Schnittmenge des sogenannten Prosumers ausgemacht, und immer wieder stand die Demokratisierungsthese im Raum: Praktisch jeder sei heute in der Lage, leicht zugängliche Kartierungstools zu nutzen und die Welt mit seinen kartographischen Beiträgen zu bereichern.

Daraus entstanden in der letzten Dekade auch zahlreiche partizipative Karten. Manche von ihnen können als Citizen-Science Projekte angesprochen werden, die wertvolles Material für wissenschaftliche raumbezogene Erhebungen und Auswertungen verfügbar machen. Vor allem Projekte aus dem Bereich der Biodiversitätsentwicklung, aber auch bürgerorientierte Kartierungen von Stadt- und Umweltaspekten sowie Mensch-Natur-Beziehungen haben das Medium Karte für sich entdeckt. Jenseits von OSM sind gerade hier sind Veränderungen der Rolle der kartographischen Darstellung im Vergleich zum traditionellen Verständnis von Karte zu erkennen. Statt der traditionellen Funktion einer Karte, analytische oder gar synthetische Aussagen bzw. Auswertungen einer Thematik visuell aufzubereiten sind in Webkarten vorwiegend bis ausschließlich koordinatengenaue Verortungen (Punktbezug) zu beobachten.

Auf der Grundlage qualitativer leitfadengestützter Interviews wurden Produzenten von partizipativen und interaktiven Webkarten befragt, welche Produktionsbedingungen bei der Erarbeitung eines solchen Projekts bestehen, welche personellen, technischen und finanziellen Ressourcen zur Verfügung stehen und welche Verantwortlichkeiten bestehen. Besonders interessant war zu erfahren, welcher Stellenwert dem Datenhandling im Vergleich zur graphischen Umsetzung der Daten beigemessen wird. Dabei wurde deutlich, dass Aspekte der visuellen Kommunikation, also der graphischen Darstellung bestimmter Sachverhalte mit bestimmten graphischen Variablen kaum berücksichtigt werden.

Der Vortrag nimmt eine systematische Auswertung der Interviews vor. Die Ergebnisse werden in einerseits Bezug gesetzt zu Möglichkeiten und Herausforderungen im Umgang mit den Verantwortlichen von Webkarten und andererseits im Hinblick auf weitere Forschungen im Bereich partizipativer Webkartographie bewertet.


11:35 - 11:55

Inklusive Web-Kartographie: Ausgewählte Methoden und Ansätze zur Erfüllung (gesetzlicher) Forderungen nach Barrierefreiheit

S. Hennig

Uni Salzburg, Deutschland

Seit jeher spielen Karten für Kommunikations- und Informationszwecke eine wichtige Rolle: Karten unterstützen bei Orientierung und Navigation, bei der Routenplanungen, beim Erwerb räumlichen Wissens und der Entwicklung eigener mentaler Karten. Heute werden vermehrt Online-Karten genutzt. Sie sind allgegenwärtigen im Internet. In vielen Webanwendungen sind sie ein wesentliches Element. Ein Beispiel hierfür ist die Integration von Google Maps in zahlreichen Websites.

Für jeden in unserer Gesellschaft sollte es möglich sein, (Online-)Karten zu nutzen. Dabei ist weithin akzeptiert, dass Informations- und Kommunikationstechnologien (IKT) inkl. Online-Karten von besonderer Bedeutung für Menschen mit Behinderung sind. IKT kann dazu beitragen, Barrieren, die diesen die Teilhabe am alltäglichen Leben verwehren, abzubauen. So eröffnet IKT die Möglichkeit für mehr Unabhängigkeit und bessere Lebensqualität. Unbestritten ist jedoch, dass IKT Menschen mit Behinderung nicht per se Vorteile bieten. Dafür müssen digitale/ web-basierte Lösungen (inkl. Online-Karten) den Anforderungen dieser Nutzergruppe entsprechend, d.h. vor allem barrierefrei (accessible), gestaltet sein.

Web Accessibility bezieht sich auf die Beseitigung technischer Hindernisse, um Menschen mit Behinderung den Zugang zu Webinhalten zu ermöglichen. Andere Aspekte, die damit im Zusammenhang stehen und ebenso wichtig sind, werden durch Web Accessibility nicht adressiert. Ein Beispiel ist Usability: Auch wenn Usability und Accessibility verschiedene Punkte fokussieren, überschneiden sich ihre Zielsetzungen, Ansätze und Empfehlungen vielfach. Es gilt, ein Produkt ist nicht nutzbar, wenn es nicht auch zugänglich ist. Des Weiteren gilt, dass Webseiten/ -applikationen nicht nur zugänglich und über eine entsprechende Usability verfügen müssen, sondern sie müssen auch Utility-Aspekte beachten. Inhalte und Funktionalitäten sowie Zugang zu Ein-/ Ausgabegeräten und Assistiven Technologien müssen den Anforderungen der Nutzer gerecht werden. So verlangen Menschen mit Behinderung bspw. zusätzlich zu Informationen, die in Online-Karten generell verfügbar sind (z.B. Straßen, Gebäude, Grünflächen), auch Angaben zu speziellen Infrastrukturen (z.B. Leitsysteme, barrierefreie Parkplätze). Infolge greift Web Accessibility (im engeren Sinn) zu kurz: Das Konzept muss in einem weiteren Kontext bzw. Sinn gesehen werden: Außer Accessibility- sind Usability- und Utility-Kriterien zu berücksichtigen.

Grundsätzlich werden im Kontext dieser Konzepte, d.h. Web Accessibility i.w.S., Kriterien bereitgestellt, die als Rahmen für die Entwicklung von Anwendungen dienen können, die es ermöglichen, die Bedürfnisse von Menschen mit Behinderungen zu berücksichtigen. Für die Umsetzung barrierefreier Online-Karten ist dies bedeutsam, da hierfür spezielle Richtlinien und Empfehlungen noch weitgehend fehlen.

Doch wie kann die Entwicklung barrierefreier Online-Karten konkret unterstützt werden? Hier bietet der Einsatz von Methoden der nutzerzentrierten Anforderungserhebung (inkl. partizipativen Ansätzen), die Berücksichtigung relevanter Standards und Guidelines (bzgl. Web Accessibility i.w.S.), und (3) die Erstellung und Verwendung von Design Patterns (inkl. Best-Practice-Beispielen) entsprechendes Potential. Die Berücksichtigung dieser Methoden und Ansätze ist jedoch mit einer Reihe von Herausforderungen verbunden.

Die Bereitstellung von barrierefreien Lösungen mit Online-Karten ist insbesondere wichtig, da neben gesellschaftlichen und ökonomischen Gründen v.a. Gesetze und Richtlinien (u.a. Behindertengleichstellungsgesetz, EU Web Accessibility Richtlinie) die digitale Inklusion aller Bürger verlangen. Die genannten Methoden und Ansätze können einen Beitrag zu einer inklusiven Internetkartographie leiten, d.h. zur Erarbeitung von Grundlagen für die Entwicklung generell barrierefreier Online-Karten. Die vorgestellten Ergebnisse beruhen auf Arbeiten in einer Reihe von Projekten (AccessibleMap, senTour, Geomedia 55-PLUS), deren Ziel die Entwicklung barrierefreier Online-Karten war.


11:55 - 12:15

Supporting Community Oriented Primary Care (COPC) in the City of Tshwane (South Africa) with a web mapping application for gaining spatio-temporal insight into localised health care needs

L. Friesen1,2, G. Schaab1, V. Rautenbach2, S. Coetzee2

1Hochschule Karlsruhe - Technik und Wirtschaft, Deutschland; 2University of Pretoria, South Africa

The rapid rise in the South African population combined with the worldwide trend of moving to urban areas in hope of a better life has resulted in an increasing number of people in poor living conditions. Poverty is a major barrier to accessing health care when needed. In response, Community Oriented Primary Care (COPC) was re-introduced in the Tshwane health district. COPC is an internationally recognised approach for providing comprehensive health care services to people in defined geographical spaces. Health information is collected from individuals and families and analysed so that services can be tailored to equitably address the specific needs in different geographical spaces. To implement COPC, one needs to know where and when is what kind of health care service required.

On their daily visits to households, the Tshwane community health workers use AitaHealthTM, a mobile application, to record not only the condition of individuals, but also of their homes and the environment. Direct health care service providers at health posts review this information on maps for planning and managing the work of COPC teams in their wards. For overall COPC management, web reports provide aggregated information for the entire district in the form of graphs and tables. Spatio-temporal analysis of the continuously growing dataset would help to understand, review and improve the provision of COPC services. However, (web) maps for this are not yet available.

Consequently, a web mapping application was developed for COPC managers to visually compare the health care needs with conditions recorded by community health workers, to analyse spatial patterns in these, and to interrogate the efficiency of health care provision. The user interface allows flexible data aggregation and data privacy protection. The web application was developed using JavaScript (i.e. Leaflet JS and JQuery) and PHP with GeoServer. Scripts were written to regularly add data collected by health workers to a database in PostgreSQL with PostGIS, and to prepare the data for visualisation by time period, by administrative area and by grid cell.

To reveal spatio-temporal patterns and correlations in the data, the user can choose between choropleth maps, segmented proportional circle maps, or a combination of these. The data is aggregated by administrative unit or by regular grid cell, and as the user zooms in, the aggregation level automatically changes to smaller aggregation units. Spider diagrams reveal the distances between health posts and households visited by community health workers during a user specified period. These are valuable for improving the efficiency of COPC teams. In order to assist users with understanding the thematic maps, the application is rather flexible in supporting the user with base map content.

The proof of concept web application has already demonstrated that it facilitates spatio-temporal understanding of the localised health care needs and associated COPC service delivery in Tshwane. As such it is a valuable addition to the mobile applications and web reports, and could effectively support COPC management and teams in providing health care services that more efficiently address specific localised health care needs.


12:15 - 12:35

NLGA-Map: Web-gestützte thematische Karten mit JavaScript und Leaflet

T. Hurtig, H. Scharlach

Niedersächsisches Landesgesundheitsamt, Deutschland

Am Niedersächsischen Landesgesundheitsamt (NLGA) sind in den vergangenen 15 Jahren verschiedene interaktive webbasierte teils datenbankgestützte Anwendungen zur Darstellung raumbezogener Gesundheitsdaten entwickelt worden. Technisch wurden die Anwendungen mit Adobe (ursprünglich Macromedia) Flash unter Einsatz der softwareeigenen Scriptsprache ActionScript umgesetzt.

Da der Flash-Player in den letzten Jahren zunehmend Sicherheitsprobleme verursachte und die Einstellung von Flash absehbar wurde, mussten die Anwendungen auf eine neue Technik portiert werden. Das Ziel lag darin, eine zukunftsorientierte offene Lösung in Form eines Baukastensystems zu schaffen, das eine Grundfunktionalität bereitstellt, aber individuell auf die Bedürfnisse der jeweiligen Anwendung zugeschnitten ist und flexibel erweitert werden kann.

Die Entscheidung fiel zugunsten einer Open Source-Lösung unter Verwendung von JavaScript-Bibliotheken. Für die Erstellung interaktiver thematischer Karten wurde mit NLGAMap eine eigene Bibliothek auf Basis der JavaScript-Bibliothek Leaflet sowie weiterer Bibliotheken entwickelt. Leaflet ist eine sehr schlanke Bibliothek für interaktive Karten im Web und auf mobilen Geräten, die im Hinblick auf thematische Karten jedoch nur eine begrenzte Funktionalität bereitstellt.

NLGAMap versucht diese Lücke zu schließen, indem verschiedene thematische Darstellungsmethoden (Flächenkartogramm, Diagrammsignaturen, Punktsignaturen) zur Verfügung stehen. Durch die Konfiguration verschiedener Optionen kann jede Kartendarstellung den individuellen Bedürfnissen angepasst werden. Beispielsweise kann ein topographischer Layer eingeblendet, das Farbschema, die Klassifizierungsmethode und Anzahl der Klassen festgelegt und Diagramme hinzugefügt werden. Auch die Darstellung von Zeitverläufen durch animierte Karten ist über die Einbindung einer Zeitleiste möglich.

Das in Leaflet implementierte Ebenenkonzept erlaubt die flexible Einbindung von Basiskarten wie OpenStreetMap. Durch Nutzung der Geodatenformate GeoJSON bzw. TopoJSON lassen sich auch alternative Darstellungsmöglichkeiten wie Tile-Maps sehr einfach umsetzen.
Der Vorteil von NLGAMap liegt in der Bereitstellung einer Basisfunktionalität. Damit wird der Programmieraufwand für die einzelnen Anwendungen, die eine ähnliche Funktionalität nutzen, deutlich reduziert. Dennoch erlaubt der offene Quelltext individuelle Anpassungen, z.B. ob die Daten über eine JavaScript-Datei oder direkt aus einer Datenbank eingelesen werden sollen.

Anhand der Beispiele "Gesundheitsindikatoren", "Interaktiver Impfreport" und "Interaktiver ARE-Report" werden die Funktionalität von NLGAMap vorgestellt, die Vor- bzw. Nachteile dieser Lösung diskutiert und ein Ausblick zur weiteren Entwicklung gegeben.

 
11:15 - 12:45S15: Geoinformatik II
Chair der Sitzung: Bettina Petzold
Chair der Sitzung: Ekkehard Matthias
Hörsaal 2760 
 
11:15 - 11:35

Ein Konzept zur integrierten Modellierung von Detailstufen für 3D-Gebäudemodelle

I. Karut, A. Wichmann, Y. Filippovska, M. Kada

TU Berlin, Deutschland

Die Nachfrage nach 3D-Stadtmodellen ist in den letzten Jahren deutlich gestiegen und sie werden mittlerweile in vielfältigen Anwendungsfeldern wie der Stadt- und Raumplanung, Umweltanalyse und Navigation eingesetzt. Obgleich die darin enthaltenen Gebäude mit einer immer höheren Detaillierung erzeugt werden können, haben Simulationen, Analysen und Visualisierungen häufig unterschiedliche Anforderungen diesbezüglich. Datenmodelle wie CityGML tragen diesem Umstand Rechnung, indem sie es ermöglichen mehrere Detailstufen von ein und demselben Objekt vorzuhalten. Die Speicherung von verschiedenen geometrischen Ausprägungen beinhaltet, sofern diese einen geometrischen Bezug zueinander aufweisen, jedoch zwangsläufig Redundanzen, welche infolge von Aktualisierungsvorgängen zu Inkonsistenzen führen können. Diese Problematik wird insbesondere in solchen Fällen noch weiter verschärft, in denen sehr viele Detailstufen eines Objekts mit jeweils nur geringfügigen Änderungen vorgehalten werden müssen. Aus diesem Grund ist die Entwicklung hin zu einem neuen Detailstufenkonzept von großer Relevanz, welches über die reine Erweiterung der fünf Detailstufen von CityGML um weitere Stufen hinausgeht.

In diesem Artikel wird ein Konzept zur 3D-Modellierung von Gebäuden vorgestellt, welches mehrere Detailstufen eines Objekts integriert, um die o.g. Redundanzen in der Datenhaltung zu vermeiden. Dies wird mittels Zellenzerlegung realisiert, welche den Raum in mehrere disjunkte Zellen aufteilt, wobei jede Zelle mit einer oder mehreren Detailstufen assoziiert ist. Da die Detailstufen als topologische Räume definiert sind, können Boolesche Mengenoperatoren zu deren Erzeugung angewendet werden. Die Schnittmenge aller Detailstufen eines Gebäudemodells ergibt die Basiskomponente und beschreibt damit den Gebäudeteil, der in allen Detailstufen enthalten ist. Zusätzlich dazu benötigt es weiterer Detailstufenkomponenten, die zur Basiskomponente hinzugefügt werden, um die einzelnen Detailstufen wiederherzustellen. Auch hier werden die Gebäudeteile, die in mehreren Detailstufen vorkommen, als einzelne disjunkte Zellen repräsentiert. Hierzu wird für jede Kombination von Detailstufen deren Schnittmenge gebildet, von der jeweils die Vereinigungsmenge aller Detailstufen, die nicht in die Schnittmenge eingegangen sind, abzuziehen ist. Die Differenzbildung ist notwendig, um die Überlappungsfreiheit der Zellen sicherzustellen. Obwohl die Anzahl an Kombinationen exponentiell mit der Anzahl der Detailstufen wächst, ergibt sich für einen großen Anteil dieser Kombinationen die leere Menge, so dass diese nicht weiter berücksichtig werden müssen. Die Rückgewinnung einer Detailstufe erfolgt durch das Zusammenfügen sämtlicher Zellen, die mit der entsprechenden Detailstufe assoziiert bzw. aus dieser entstanden ist. Da die Komponenten in keinerlei Bezug zueinanderstehen, können die Detailstufen direkt erzeugt werden ohne dass andere Stufen zuvor generiert werden müssen.

In der Praxis sind die Anforderungen von Anwendungsseite aus im Hinblick auf die Ausprägung von 3D‑Gebäudemodellen oftmals sehr unterschiedlich, weshalb nicht immer eine entsprechend passende Detailstufe existiert. Um diesem Aspekt gerecht zu werden, wird das vorgestellte Verfahren zur Rückgewinnung von Detailstufen um eine Methode zur Erzeugung gemischter Detailstufen ergänzt. Für geometrisch getriebene Mischformen wird eine Raumaufteilung vorgeschlagen, die jedem Teilraum je nach Anforderung eine Detailstufe zuordnet und diese mengentheoretisch kombiniert. Da die Detailstufenkomponenten als Volumenkörper vorliegen, kann die Validität der resultierenden Mischformen dabei immer gewährleistet werden.

Die Gültigkeit dieses Konzepts wird exemplarisch anhand von 3D-Gebäudemodellen demonstriert, deren vier Detailstufen mit dem vorgestellten Konzept kompakt und redundanzfrei abgespeichert, wieder rückgewonnen, sowie, gesteuert durch eine gegebene Raumaufteilung, zu geometrisch gemischten Detailstufen zusammengesetzt werden.


11:35 - 11:55

Servicebasierte On-Demand-Synthetisierung Von 3D-Raummodellen – Problemaufriss Und Lösungsansätze

A. Fricke, H. Asche, J. Döllner

Hasso-Plattner-Institut, Digital Engineering Fakultät, Universität Potsdam

Bei aktuellen raumbezogenen IT-Lösungen (SOA, SOC) spielen klassische monolithische Geoinformationssysteme (GIS) als Softwareplattform kaum noch eine Rolle, da sie die spezifischen, kleinteiligen Bedürfnisse heterogener Zielsetzungen häufig weder effizient noch effektiv bedienen können. Gleichzeitig erfordern raumbezogene Massendaten (Geospatial Big Data) modular aufbaubare, übertragbare und einfach beherrschbare Prozesse. Diese müssen auf raumbezogene Problemstellungen angewendet werden können, die häufig von Akteuren ohne georäumliche Expertise definiert werden. Die bestehende Kluft bedeutet eine Herausforderung für Planung, Konstruktion und Betrieb geodatenbasierter Anwendungen, Systeme und Services.

Vor diesem Hintergrund befasst sich der Beitrag mit Methoden und Konzepten für die servicebasierte Synthetisierung virtueller 3D-Raummodelle aus heterogenen 2D/3D-Geodatenquellen und darauf operierenden Prozessierungsservices. Das vorgestellte Vorgehen besitzt insofern eine Alleinstellung, als die Synthetisierung zu keinem Zeitpunkt für einen gesamten Raumausschnitt vorgenommen wird. Vielmehr erfolgt die Synthetisierung eines anfragespezifischen 3D-Raummodells je nach Anfrageregion situativ und parametrisiert (z.B. Auflösung und Genauigkeit eines DTM, Inklusion oder Exklusion bestimmter Attribute oder Objektkategorien). Mit GIS ist eine solche konfigurierbare, zustandsfreie Generierung kaum effizient lösbar, da sie auf sequentielle, versionsbehaftete komplexe Geodaten-Produkte ausgerichtet sind. Der Beitrag diskutiert anhand von Szenarien, welche Möglichkeiten einer Strukturierung der erforderlichen Services bestehen. Er stellt ferner einen Ansatz vor, wie mit einer kleinen Zahl generischer Services (modularer Service-Baukasten) virtuelle 3D-Raummodelle teilautomatisch generiert werden können.

Der vorgestellte Ansatz ordnet sich methodisch in den Bereich Servicification ein, der entscheidend für die digitale Transformation von Workflows in nahezu allen Anwendungsdomänen ist. Dementsprechend liegt der Fokus auf der Entwicklung einer Prozesskette, die modulare Dienste verfügbar macht (vergleichbar einer Rendering-Pipeline in der 3D-Computergrafik). Diese Dienste ermöglichen, heterogene multisensorale 2D/3D-Geodaten, deren einzige Gemeinsamkeit die räumliche Referenz ist, bei spezifizierten Anwendungen zur Synthese virtueller 3D-Raummodelle zu verwenden. Um ein integriertes 3D-Raummodell zu erstellen, werden beispielsweise fusionierte Sensordaten in einem synthetisierten Datensatz betrachtet. Dieser repräsentiert einerseits einen erhöhten Informationsgehalt und ermöglicht andererseits eine Validitäts- und Konsistenzprüfung zur Prozessoptimierung und Qualitätssicherung.

Grundsätzlich erfordert die requestbasierte, möglichst echtzeitfähige Erzeugung eines komplexen Geodatenprodukts generische Filteroperationen, die als Services entworfen, implementiert und betrieben werden. Dies gilt insbesondere für die Datenaufbereitung. Dabei definiert der Request die Granularität der einzusetzenden Services. Einzelne Prozessbausteine, wie beispielsweise die Integration und Harmonisierung, werden mit Methoden des Data Engineering bis auf die Ebene von Mikroservices zerlegt. Es entstehen elementare, generische Primitive. Diese können dann anwendungsunspezifisch (quantitativ/qualitativ/temporal) komponiert, verkettet oder sequenziert werden. Dieser feingranulare Ansatz ist skalen- und regionsunabhängig.

Damit ergeben sich völlig neue Einsatzgebiete, weil für verschiedene Anwendungsdomänen definierte Pattern hinterlegt werden können. Diese initiieren einen adaptierten, teilautomatischen Prozess und erzeugen so ein spezifisches, generalisiertes oder detailliertes virtuelles 3D-Raummodell mit definiertem Inhalt sowie Gestaltung. Derartige Raummodelle werden für eine angefragte Region/Anwendung on-demand komponiert und konfektioniert.

Methodik und Konzepte werden an einem Fallbeispiel aus der Polarforschung untersucht. Hierfür lagen regionale Geodaten über das Permafrostrelief vor. Als initiale Services wurden Referenzierung, Inventarisierung und Change Detection identifiziert. Die wesentlichen Implementierungsprobleme lagen in der Masse der Daten und Komplexität des Workflows. Als Anwendungsfall wurde ein Verfahren entwickelt, das es erlaubt, das Ausmaß raumzeitlicher Reliefveränderungen zu bestimmen.


11:55 - 12:15

Mixed Reality Anwendungen mit 3D-Stadtmodellen

M. Christen, U. Clement, A. Meyer

FHNW Fachhochschule Nordwestschweiz, Schweiz

Mit einer Augmented Reality App soll der Bevölkerung der Stadt Basel einen neuen Einblick geboten werden. In vier Modulen wird der offizielle Stadtplan mit interaktiven Grafiken bereichert. Zunächst kann das komplette 3D-Stadtmodell überlagert werden, dabei können unterschiedliche Layer wie beispielsweise Fahrradrouten oder Müllabfuhrzonen aktiviert werden. Auch die Visualisierung von Untergrunddaten, wie beispielsweise der Abwasserentsorgung, kann eingeblendet werden.

Das zweite Modul beinhaltet die Adresssuche, verbunden mit Informationen zu Quartieren und Sehenswürdigkeiten.

Ein weiteres Modul beinhaltet die Verkehrssimulation, bei der Züge, Trams und Schiffe auf der Karte überblendet werden können.

Im letzten Modul werden aktuelle Wetterinformationen augmentiert. Dabei werden unter anderem auch Wolken und Regen mit volumetrischen Ansätzen visualisiert, dessen Datengrundlagen von Live-Wetterdaten stammen.

In diesem Beitrag wird auch gezeigt, wie eine solche Applikation entwickelt wird und wie die Qualität der 3D-Visualisierung durch globale Beleuchtungsansätze verbessert werden kann.


12:15 - 12:35

Eine voxelbasierte Metadatenstruktur zur Änderungsdetektion in Punktwolken großflächiger urbaner Gebiete

J. Gehrung1,2, M. Hebel1, M. Arens1, U. Stilla2

1Fraunhofer IOSB, Deutschland; 2Technische Universität München, Deutschland

Mobiles Laserscanning (MLS) ist in Sachen Flexibilität und Qualität zwischen stationärem terrestrischem und luftgebundenem Laserscanning einzuordnen. Es stellt einen Mittelweg in Sachen Mobilität, Messgeschwindigkeit und räumlicher Auflösung dar und ist so in der Lage, hochauflösende 3D-Repräsentationen des Straßenraums urbaner Umgebungen zu erzeugen. Aufgrund dieser Eigenschaften bietet sich MLS zur automatischen Detektion von Änderungen in einem sich ständig ändernden Stadtbild an. Diese kann neben einer Dokumentation der Stadtentwicklung auch für die schritthaltende Aktualisierung von 3D-Stadtmodellen oder das automatische Ermitteln von beschädigten bzw. fehlenden Stadtmöbeln eingesetzt werden. Zur Planung von Schwerlasttransporten können auf Grundlage entsprechender 3D-Messdaten Durchfahrbarkeitsanalysen erstellt werden. Die automatische Änderungsdetektion eines vorausfahrenden Fahrzeugs kann in der Zwischenzeit aufgetretene Hindernisse ermitteln und so kostspielige Verzögerungen vermeiden, bevor sie auftreten.

Automatische Änderungsdetektion setzt Informationen über den gleichen Raumbereich für Messdaten aus mindestens zwei unterschiedlichen Epochen voraus. Die Messungen müssen ausreichend gut zueinander registriert sein, sodass ein automatischer Vergleich problemlos möglich ist. Weiterhin müssen für die anstehende Aufgabe irrelevante Objekte entfernt werden. Dies umfasst in erster Linie bewegte Objekte, da diese in den Messdaten schweifartige Artefakte erzeugen. Vorangegangene Arbeiten der Autoren haben die Eignung von voxelbasierten Datenstrukturen für die Verwaltung großer Messdatenmengen sowie für die Detektion bewegter Objekte gezeigt. Die Nachteile des Ansatzes in Bezug auf Änderungsdetektion bestehen jedoch in einer Reduktion der räumlichen Auflösung sowie in hohen Laufzeitanforderungen. Auch ist eine solche Art der Repräsentation für Diskretisierungsartefakte an den Voxelrändern anfällig.

In dieser Arbeit wird eine neue Methode zur Änderungsdetektion vorgestellt, welche den oben erwähnten voxelbasierten Ansatz derart modifiziert, dass die zuvor genannten Nachteile nicht mehr vorliegen. Statt als eigentliche Repräsentation werden Voxel als Metadatenstruktur zur Ergänzung der eigentlichen Punktwolke eingesetzt. So bleibt die räumliche Auflösung erhalten und eine anwendungsspezifische Weiterverarbeitung der Messdaten wird ermöglicht. Jedes Voxel verwaltet eine Reihe von Meta-Informationen in Form von statistischen Kennzahlen, welche sich aus den beobachteten Belegungszuständen des Voxels sowie der diesbezüglichen Zeitreihe ergeben. Da die ursprünglichen Messdaten nicht verworfen werden, kann die Größe der Voxel so gewählt werden, dass die Laufzeit auf einem akzeptablen Niveau bleibt. Auf Basis der so abgeleiteten Zusatzinformationen wird bestimmt, ob das Voxel ein bewegtes Objekt, eine statische Struktur oder eine andere Klasse von Objekt wie beispielsweise Vegetation enthält. Entsprechende Klassen werden im Rahmen dieser Arbeit ermittelt. Das hier beschriebene Vorgehen wird für verschiedene Messfahrten desselben Gebietes durchgeführt. Anhand der auf diesem Weg semantisch angereicherten Belegungskarten mehrerer Epochen wird dann durch Vergleich auf Voxelebene eine Änderungsdetektion durchgeführt. Der Grad der Änderung pro Voxel wird anhand klassenspezifischer Änderungsregeln bestimmt.

Die Evaluation der vorgeschlagenen Methode erfolgt anhand mehrerer MLS-Datensätze, welche 2016 und 2017 in einem kleinstädtischen Wohngebiet aufgenommen wurden. Untersucht wird, in welchem Ausmaß sich Gebiete identifizieren lassen, in denen es in besagtem Zeitraum zu Änderungen gekommen ist. Die Grundlage zur Verfahrensbewertung sind von Hand markierte großflächige Gebiete, in denen es zu nennenswerten Änderungen gekommen ist. Weiterhin wird das Laufzeitverhalten sowie die Robustheit des Verfahrens gegenüber Registrierungsfehlern und Diskretisierungsartefakten ermittelt. Kernpunkt der Auswertung ist es, die Anwendbarkeit des Verfahrens zur Änderungsdetektion in großflächigen urbanen Gebieten zu bewerten.

 
11:15 - 12:45S16: Sensoren und Plattformen
Chair der Sitzung: Norbert Haala
Chair der Sitzung: Stephan Nebiker
Fokus boden- und wassergestütze Plattformen und Anwendungen (inkl. Verkehr und Mobile Mapping)
Hörsaal 0602 
 
11:15 - 11:35

Verkehrszeichendetektion und -erkennung in Bildern mittels faltenden neuronalen Netzen

A. Hanel, U. Stilla

Technische Universität München, Deutschland

Moderne Fahrerassistenzsysteme dienen unter Anderem der Verbesserung der Verkehrssicherheit. So kann ein System zur Erkennung von Verkehrszeichen den Fahrer zum Beispiel auf eine Geschwindigkeitsbeschränkung durch optische Warnung hinweisen. Wie der Fahrer müssen solche Systeme Informationen aus der Umgebung um das Fahrzeug wahrnehmen und extrahieren. Deswegen sind moderne Fahrzeuge zur Umgebungswahrnehmung mit Sensoren ausgestattet. Da der kommende Fahrweg und die dafür geltenden Verkehrszeichen im Bereich vor dem Fahrzeug liegen, sind nach vorne gerichtete Sensoren von besonderer Bedeutung. Aufgrund der geringen Kosten wird dafür häufig eine im Bereich des Innenspiegels montierte optische Kamera verwendet. Zum Hinweisen des Fahrers auf Verkehrszeichen müssen deren Position im Bild der Fahrzeugkamera detektiert sowie deren Bedeutung erkannt werden. Für diese Aufgabe soll im Folgenden die Eignung von neuartigen Ansätzen des maschinellen Lernens mit faltenden neuronalen Netzen (engl. convolutional neural networks) untersucht werden.

In diesem Beitrag wird ein Verfahren zur Detektion und Erkennung von Verkehrszeichen in Bildern beschrieben. Zur Detektion werden nach der Sliding-Window-Methode schrittweise Bildausschnitte aus einer Bildpyramide ausgewählt und klassifiziert. Als Klassifikator wird ein Deep-Learning-Verfahren basierend auf einem faltenden neuronalen Netz verwendet. Dabei werden aus einem Bildausschnitt als Eingangsdatum durch eine Kaskade von Faltungen mit verschiedenen Filterkerneln Merkmale extrahiert und anschließend danach ausgewertet, ob im Bildausschnitt ein Verkehrszeichen vorliegt oder nicht. Daraus resultierende Mehrfachdetektionen desselben Verkehrszeichens in mehreren Bildausschnitten leicht veränderter Position und Größe werden anschließend mit Hilfe des Mean-Shift-Clusterings auf eine Detektion je Verkehrszeichen reduziert. Dabei werden die Mehrfachdetektionen in Cluster eingeteilt und der Schwerpunkt jedes Clusters bestimmt. Es liegt die Annahme zugrunde, dass die Mehrfachdetektionen jedes Verkehrszeichens in einem separaten Cluster abgebildet werden. In einem lokalen Suchraum um jeden Schwerpunkt wird die exakte Position des Verkehrszeichens durch Formanpassung gesucht. Dazu werden im Konturbild des Suchraums mittels RANSAC-Algorithmus typische Abbildungsformen von Verkehrszeichen, wie zum Beispiel Ellipsen, robust angepasst. Unter der Annahme, dass um Schwerpunkte von falsch positiven Detektionen eine Anpassung solcher Formen nur mit großen Fehlern möglich ist, können diese Schwerpunkte verworfen werden. Für Schwerpunkte mit geringen Fehlern wird um die gefundene Position zentriert ein Bildausschnitt aus dem Farbbild erzeugt. Für die verbleibenden Bildausschnitte wird die Bedeutung des abgebildeten Verkehrszeichens mittels weiterer Klassifikation bestimmt. Als Klassifikator wird erneut ein faltendes neuronales Netz wie oben beschrieben verwendet, der aus einer Liste möglicher Verkehrszeichenbedeutungen die Wahrscheinlichste auswählt.

Zum Training und Validierung des Erkennungs-Klassifikators werden über 50.000 gelabelte Bildausschnitte von Verkehrszeichen verwendet (German Traffic Sign Benchmark-Datensatz der Ruhr-Universität Bochum). Zum Training und zur Validierung des Detektions-Klassifikators werden zusätzlich Bilder sowie Bildausschnitte mit beliebigem Bildinhalt, wie zum Beispiel Gebäuden, Vegetation, verwendet. Beide Klassifikatoren werden mit 80 % der Daten überwacht angelernt und mit 20 % der Daten anschließend ausgewertet.

Es hat sich gezeigt, dass mit der beschriebenen Methode und dem genannten Datensatz Verkehrszeichen in Bildern mit einer Klassifikationsgenauigkeit von 75 % detektiert werden können. Die bei einer hohen Toleranz gegenüber falsch positiven Detektionen häufig auftretenden Mehrfachdetektionen desselben Verkehrszeichens können durch den Mean-Shift-Algorithmus reduziert und die exakte Lage des Verkehrszeichens durch Formanpassung bestimmt werden. Bei der anschließenden Erkennung der Bedeutung der Verkehrszeichen kann eine Klassifikationsgenauigkeit von 98 % erreicht werden.


11:35 - 11:55

Fußgängerbezogene Informationsgewinnung zur Situationsanalyse mit einem mobilen Multisensorsystem

B. Borgmann1,2, M. Hebel1, M. Arens1, U. Stilla2

1Fraunhofer IOSB, Deutschland; 2Technische Universität München, Deutschland

Fußgänger sind eine bedeutende Gruppe von Verkehrsteilnehmern im städtischen Umfeld. Sie zeichnen sich außerdem dadurch aus, dass sie aufgrund ihrer Größe schwerer wahrzunehmen, in ihrem Verhalten oft weniger gut vorhersagbar und zudem verwundbarer sind als die meisten anderen Akteure im Straßenverkehr. Fahrerassistenzsysteme, autonome Fahrzeuge aber auch andere technische Systeme im Verkehrssraum sind daher gefordert, diese nicht nur zu detektieren und zu verfolgen sondern möglichst auch ihr weiteres Verhalten vorherzusagen. Mögliche Anhaltspunkte dafür liefert z.B. die Blickrichtung: So wird ein Fußgänger, der demnächst die Straße überqueren möchte, sich meist zunächst umschauen.

Der vorliegende Beitrag beschäftigt sich damit, mit einem mobilen System eine möglichst umfassende Erfassung und Informationsgewinnung über Fußgänger im Umfeld des Systems durchzuführen. Das System soll dafür über unterschiedliche Sensoren verfügen, welche LiDAR-Sensoren, Kameras und sowie IR-Kameras umfassen. Die gesammelten Informationen sollen die Basis für eine spätere Situationsanalsyse bilden.

Der Schwerpunkt des Beitrags liegt im Bereich der Auswertung der Daten mehrerer parallel eingesetzter LiDAR-Sensoren. Für diese erfolgt zunächst jeweils eine mehrstufige Vorverarbeitung. Anschließend werden Fußgänger mithilfe eines auf Implicit Shape Models (ISM) basierenden Verfahrens detektiert. Hierbei werden zunächst Punktmerkmale für die einzelnen Punkte in den Punktwolken der Sensoren bestimmt. Anschließend werden in einem „Wörterbuch“ zu den Merkmalen passende Wörter gesucht, welche dann für mögliche Objektpositionen stimmen. Mithilfe einer Suche von Schwerpunkten in den abgegebenen Stimmen erfolgt dann die eigentliche Detektion von Fußgängern. In unserem Verfahren erfolgt eine Datenfusion für die verschiedenen LiDAR-Sensoren zwischen der Stimmenabgabe und der Suche nach den Schwerpunkten: Während also die Bestimmung von Punktmerkmalen noch für jeden der eingesetzten LiDAR-Sensoren einzeln erfolgt, findet die Suche nach Schwerpunkten im Stimmenraum für alle LiDAR-Sensoren gemeinsam statt. Dies erlaubt es unter anderem, gut mit dem unvermeidlichen kleinen zeitlichen Versatz zwischen den einzelnen LiDAR-Sensoren umzugehen.

Detektierte Fußgänger werden in den LiDAR-Daten mithilfe eines Tracking-Verfahrens verfolgt, wodurch Informationen über das Bewegungsverhalten der Fußgänger gesammelt werden. In einem zweiten Schritt werden eine Kamera und eine IR-Kamera, welche auf einem Schwenk-Neigekopf montiert sind, auf detektierte Fußgänger gerichtet. Hierdurch sollen einerseits die Detektionen bestätigt werden und andererseits erlaubt dies die Gewinnung von Informationen, welche sich nur schwer aus LiDAR-Daten ermitteln lassen. Zu diesen gehört z.B. die Blickrichtung eines Fußgängers. Die Verwendung der IR-Kamera erlaubt dabei zusammen mit den LiDAR-Sensoren den Einsatz des Gesamtsystems auch bei schlechten Lichtverhältnissen. Für die Detektion von Personen in den Bilddaten wird auf ein bekanntes Verfahren zurückgegriffen.

Im Beitrag werden Ergebnisse präsentiert, in denen die Daten eines konkreten Multsensorfahrzeugs ausgewertet werden. Um insbesondere auch die beschriebenen Aspekte des Ausrichtens zusätzlicher Sensoren untersuchen zu erkönnen, erfolgt die Auswertung in einem dem Live-Betrieb entsprechendem Szenario. Der Schwerpunkt der Untersuchungen liegt hierbei darauf, die Detektionen in den LiDAR-Sensoren zunächst mithilfe der Kameras zu bestätigen. Hierbei wird unter anderem untersucht, in welchem Umfang Fehldetektionen durch eine solche Sensorfusion reduziert werden können.


11:55 - 12:15

High Definition Mapping Using LiDAR Traced Trajectories

S. Busch1, J. Quehl2, C. Brenner1

1Institut für Kartographie und Geoinformatik, Leibniz Universität Hannover, Deutschland; 2Institut für Mess- und Regelungstechnik, Karlsruher Institut für Technologie, Deutschland

In this paper, we automatically reconstruct a high definition (HD), lane accurate map by trajectory analysis. The fundamental idea behind our approach is that in the future, many, if not all, of the vehicles will carry sensors which can be used to keep HD maps up to date. In order to explore this idea, we used a static 3D laser scanner, placed at an intersection. In the continuously generated scans, we tracked objects and obtained their trajectories. From these, a map was derived based on trajectory clustering and Markov chain Monte Carlo optimization. We evaluate the results by comparing them with a ground truth map measured manually from a mobile mapping LiDAR point cloud.

In more detail, we placed a Velodyne HDL-64 S2 3D laser scanner at a complex junction to track vehicles with a scan frame frequency of 10Hz. We focused on trajectory analysis because trajectories provide more detailed and dynamic information of the actual traffic behavior than static infrastructure. Moreover, tracking of dynamic objects suffers less from occlusion at rush hours in contrast to lane markings for example. We used a neuronal network to detect vehicles in the depth images of the laser scanner and track them using a Kalman filter. The resulting trajectories were clustered in order to find the lanes. In a first step, the lanes were estimated with a cubic polynomial by least squares adjustment. Afterwards, the lanes were adjusted via the intersection points of polynomials and finally optimized by a Markov chain Monte Carlo method. After a lane accurate map is created, the information about stop lanes are derived by a clustering of the trajectory points using ST-DBSCAN. We accomplished the georeferencing by aligning poles, automatically detected in the laser scans, to a reference pole map obtained using a total station. The georeferenced HD map was evaluated by a manually generated lane model, based on Riegl VMX-250 mobile mapping system measurements.


12:15 - 12:35

Erfassung von Geometriedaten kleiner Flüsse mit einem unbemannten Wasserfahrzeug als Multisensor-Plattform

H. Sardemann, A. Eltner, H.-G. Maas

TU Dresden, Deutschland

In den letzten Jahren treten an Flüssen mit kleinen und mittleren Einzugsgebieten vermehrt Sturzfluten auf. In dem interdisziplinären Forschungsprojekt EXTRUSO werden hydrologische Modelle entwickelt, mit denen diese starkregeninduzierten Hochwasserereignisse besser modelliert und vorhergesagt werden können. Dafür werden hochaufgelöste Geländemodelle der Uferbereiche und des Flussprofils benötigt. Des Weiteren kann durch eine Analyse der landschaftlichen Veränderungen der Uferbereiche im Anschluss an ein Hochwasserereignis das Verständnis über das aufgetretene Hochwasserereignis verbessert und daraus Vorsorgemaßnahmen abgeleitet werden.

Für die Aufnahme von Geländemodellen im Flussbereich wird dabei neben der Befliegung mit einem UAV das Gewässer mit einem unbemannten Wasserfahrzeug (unmanned water vehicle – UWV) befahren. Das UWV dient als Multisensorplattform und digitalisiert sein Umfeld über Wasser mit einer 360°-Kamera und einem mobilen Laserscanner. Die vom Laserscanner aufgenommene Punktwolke der Ufer wird mit den Panoramabildern der 360°-Kamera koloriert. Unter Wasser wird das Gerinne punktuell mit einem Echolot und profilweise mit einem Unterwasser-Lasertriangulationsmesssystem aufgenommen. Das UWV ist außerdem mit einer Positionierungseinheit aus GNSS-gestützter IMU ausgestattet.

Im Beitrag wird das Konzept des Multisensor-UAV vorgestellt, und es werden Resultate aus ersten Pilotstudien gezeigt.

 
12:45 - 13:15P12: Pause mit Erfrischungen
Immatrikulationshalle 
13:15 - 14:45S17: Kartographische Visualisierung
Chair der Sitzung: Jana Moser
Hörsaal 2750 
 
13:15 - 13:45

SNmultimodal – a Pilot Study for Semantically Enriched and User-Oriented Multimodal Navigation

E. Bogucka, C. Murphy

Technische Universität München, Deutschland

Within the mFUND research initiative, the Federal Ministry of Transport and Infrastructure (BMVI) has been funding research and development proposals for digital data-driven applications for Mobility 4.0. Among them is SNmultimodal, a project executed at the Chair of Cartography of the Technische Universität München (TUM). This pilot study demonstrates the feasibility of enriching individually tailored mobility routes with the information on different user’s needs, modes of transport and event data from Volunteered Geographic Information (VGI) and social networks.

Case studies of the urban areas in Berlin and Munich are implemented for this preliminary project. The proposed methodology covers the acquisition of geo- and semantic data from public domain repositories (i.e. mCLOUD), VGI (i.e. OpenStreetMap ) and social networks (i.e. Twitter), as well as processes of data transformation, harmonisation and map matching. As a base for multimodal networks, public transportation services (e.g. buses, trains, trams) and modern urban modes of mobility (car- and bike sharing) were chosen. Traffic network datasets were converted into network graphs of the individual modes of transport and merged to a multimodal dataset using the switch point concept. These switch points act as connecters at places where a change of the travel modality is possible. The upcoming work will concentrate on extending routing schemes by integrating context-aware information such as landmarks, city lights and negative traffic events detected from social media.

The visual techniques and tools for conveying multimodal navigation options will be tested within a web-based prototype application. In order to represent the routing possibilities, easy to grasp cartographic representations are created for individual travels. User-oriented routing suggestions will be displayed according to different map zoom levels, in order to assist users in their choice and provide step-by-step movement instructions. The proposed approach has the potential to extend currently available route planning systems and to improve personalized routing visualizations in the real-time navigation applications. In the final step of this project it is planned to develop a mobile app that runs the extended multimodal navigation for the two pilot cities and offers user-oriented routing enhanced by visualisation of event-based traffic events.


13:45 - 14:15

Modeling and visualizing the spatial uncertainty of moving transport hubs in urban spaces - a case study in NYC with taxi and boro taxi trip data

A. Keler

Technische Universität München (TUM), Deutschland

1 Introduction

Urban human mobility relies on the presence of transport hubs, which connect different modes of transport, public and private. This paper proposes a technique for relating taxi trip origins and destination hotspots for gaining knowledge on the spatial uncertainties of transport hubs, more precisely their movements within specific times. The outcomes of applying the techniques are matter of further investigation of spatial uncertainty perception, representation, and visualization. In the stages of the approach, the outcomes of transport hub movements are related with more general functional transport regions resulting from NYC public transport services.

2 Motivation

Urban environments are characterized by complex and dynamically changing human mobility. Vehicle movement trajectories of urban vehicle fleets, as taxi fleets, can help extracting this knowledge. Taxi trip data is usable in many different applications of different research domains.

Due to often-immense sizes of the data extracts, many applications make only use of taxi trip origin and destination points. In an aggregated view, these points may be clustered into origin and destination hotspots, which are connectable, especially, when there are different taxi fleets with specific operational restrictions. This promotes the automated deduction of local knowledge on smaller scales of investigation.

Understanding time-dependencies and dynamics of moving transport hubs is beneficial for planning, decision-making, and various ongoing research in connection with smart cities and intelligent transportation systems (ITS).

3 Methods

The methods of the proposed technique include density-based point clustering, convex hull estimations, polygon matching, and intersection. The components are part of an extendible workflow. The aim of the mentioned polygonization of point clusters is, besides providing visibility at certain map scales, representing positional accuracies together with uncertainties in density-based connectivity of trip origins and destinations.

Matching between different types of areal polygons relies on the Dimensionally Extended nine-Intersection Model (DE-9IM) as introduced by Clementini et al. (1994).

4 Results

The outcomes of applying the techniques are matter of further inspections and visual analysis. The visualization of the polygon matching results aims to show the spatial uncertainty of boro taxi trip destination hotspots for at least four successive time windows.

Besides the resulting boro taxi trip destination hotspots, there are also extractable yellow taxi trip origin hotspots and functional transport regions resulting from public transport stations of subway and bus lines. This has a semantic connection to the restricted yellow zone and specific commuting patterns between Manhattan and the outer boroughs of NYC. The further steps include matching these spatiotemporal hotspots with characteristic transport hubs, and testing a specific visualization scheme for representing spatial and spatiotemporal uncertainties of the mentioned transport hubs.

5 References

Clementini, E.; Sharma, J. & Egenhofer, M. J., 1994: Modelling topological spatial relations: Strategies for query processing. Computers & Graphics, 18 (6), 815-822.


14:15 - 14:45

Visualising Spatial Uncertainty of Social Media Documents

C. E. Murphy

Lehrstuhl für Kartographie, Technische Universität München

Uncertainty Visualisation is one the current great challenges in cartographic research. The awareness of Cartographers to communicate various kinds of uncertainty has become considerably higher with the emergence of big data. There is no all-embracing methodology to display the nature of uncertainty, as a useful visualisation depends strongly on the type of uncertainty, the spatial data feature type as well as the source of uncertainty. This work tackles two location uncertainty problems within case studies that commonly appear when mapping geo-tagged microblogs of social media; (1) the communication of multiple uncertainty levels of georeferenced microblogs; and (2) the indication of spatial uncertainty caused by generalising distributions. While the latter case study empowers the user to intuitively depict the centres of gravity and the major orientation of multiple geo-tagged text document sets, both visualisation proposals allow a coincident visualisation that indicate positional uncertainty and semantic information such as keywords on one map face, which is particularly suitable for laymen.

In the past years, many related works address to analyse real world events and to reveal spatial patterns from social media such as Twitter. However, users publish tweets in different locational accuracy levels. Geo-tagged tweets are associated either directly with coordinates by a GPS enabled device, or, in a more inaccurate level, with a place (e.g. city) that is defined by a regional bounding box polygon. When geo-tagged tweets of contrasting accuracy levels are mixed in processing and display the need for indicating the uncertainty level becomes necessary. In this work, symbolisation strategies are to be presented for single depiction and aggregated sets of tweets that enable the user to understand the contrasting locational accuracy levels.

Furthermore, the uncertainty following generalisation processes is described. Large quantities of geo-tagged text documents have to be generalised within the visualisation process in order to keep a visualisation understandable and free from clutter. Commonly used spatial temporal clustering algorithms are extended by a semantic dimension that express the text similarity between tweets. The results are presented in form of the error ellipse, a well-known statistical graphic tool, which visually encodes statistics as a compact distributional summary. Each cluster is represented by one error ellipse. The form of the drawn ellipse shows the cluster´s centre of gravity, the major orientation of the distribution as well as indicates the extent of the geo-tagged text documents occurrence. The ellipse´s surface is graphically encoded with high incidence text keywords. These strategies of displaying the positional uncertainty of social media documents are presented by analysing Twitter microblogs during the Munich Oktoberfest.

 
13:15 - 14:45S18: Photogrammetrie II
Chair der Sitzung: Martin Weinmann
Chair der Sitzung: Thomas Abmayr
Fokus Bildanalyse / Classification und Dense Matching
Hörsaal 2760 
 
13:15 - 13:45

Investigations on the Potential of Binary and Multi-class Classification for Object Extraction from Airborne Laser Scanning Point Clouds

M. Weinmann1, R. Blomley1, M. Weinmann2, B. Jutzi1

1Karlsruher Institut für Technologie (KIT), Deutschland; 2Universität Bonn, Deutschland

Nowadays, the semantic interpretation of airborne laser scanning (ALS) point cloud data still commonly relies on supervised classification. However, the small amount of training data which is typically available for this task not only hinders the use of modern deep learning techniques, but also the use of standard contextual classification techniques such as Conditional Random Fields (CRFs). The latter can cope with the irregular point sampling, while providing a theoretically well-founded approach for point cloud classification. However, CRFs require a sufficient number of training examples to 1) relate the data representations derived for individual 3D points and the defined classes to obtain an initial labeling and then 2) robustly infer relations among neighboring 3D points to improve the initial labeling by imposing spatial regularity. Thereby, the initial labeling is often achieved by using a classifier with probabilistic output, and this output in turn is used to define the unary potential also known as association potential of a CRF. In most cases, the unary potentials are obtained via classic supervised classification techniques like Support Vector Machines (SVMs) or Random Forests (RFs).

When analyzing the performance of classic supervised classification techniques for point cloud classification, one can observe that it depends on different influencing factors. The most prominent ones are represented by the number and similarity of the defined classes, the set of involved features and the classification strategy itself. The latter becomes particularly important for applications which focus on object extraction in terms of detecting only objects corresponding to a specific class (e.g. “cars”, “roads”, “buildings” or “trees”), while all remaining classes could also be merged to a common class “background”.

In this paper, we investigate the potential of different classification strategies for object extraction from ALS data. As baseline, we take into account the standard strategy of multi-class classification using SVM or RF classifiers. In addition, we focus on the strategy of a binary classification with respect to different objects of interest as e.g. contained in the semantic classes “cars”, “roads”, “buildings” and “trees”. For each classification strategy, the classification itself is based on a set of geometric features that has recently been proven to be appropriate for classifying ALS data. To derive objective conclusions, we perform extensive tests on two publicly available ALS datasets for which corresponding semantic labelings are provided.

After briefly summarizing related work (Section 2), we explain the involved strategies for the semantic classification of ALS data in detail (Section 3). Subsequently, we present and discuss the derived experimental results with a specific focus on binary and multi-class classification of ALS data given user-defined class labels such as “cars”, “roads”, “buildings” and “trees” (Sections 4 and 5). Finally, we provide concluding remarks and suggestions for future work (Section 6).


13:45 - 14:15

Dense Matching mit WorldView-4 und Kompsat-3 Bildern

K. Jacobsen1, U. Sefercik2

1Leibniz Universität Hannover, Deutschland; 2Bülent Ecevit University Zonguldak, Türkei

Mit dem Start von WorldView-4 im November 2016 steht nach WorldView-3 ein zweiter zivil verfügbarer optischer Satellit mit einer Bodenauflösung von 31cm zur Verfügung, der eine Konkurrenz für Luftbilder darstellt. Im Bereich von Istanbul wurde neben einem WorldView-4 Stereomodell auch ein Kompsat-3 Stereomodell, mit 70cm Objektpixelgröße, mit flächenbasierter Bildzuordnung nach der Methode der kleinsten Quadrate und Semi Global Matching (SGM) ausgewertet. Die Kompsat-3 Bilder liegen als level 1R (basic) und level 1G vor. Level 1G Bilder sind genäherte Ortho-Bilder, die auf das SRTM Oberflächenmodell mit 3 Bogensekunden Punktabstand projiziert sind. Trotz akzeptabler Widersprüche an 71 Passpunkten von SX=0.82m und SY=0.90m zeigen sich auch unter Berücksichtigung des Referenzhöhenmodells in dem erzeugten Höhenmodell lokale systematische Höhenabweichungen, so dass die Kompsat level 1G-Bilder, trotz der einfach zu erzeugenden Epipolarbilder, für präzise Auswertungen nicht zu empfehlen sind. Die nicht beeinflusste relative Genauigkeit erlaubt allerdings eine Erstellung eines 3D-Stadtmodells.

Die WorldView-4 Aufnahmen sind, entsprechend der von GeoEye bevorzugten Bildgeometrie, auf eine Objektebene konstanter Höhe projiziert und damit geometrisch unproblematisch auszuwerten. Mit SX=0.15m, SY=0.07m und SZ=0.26m entsprechen die Widersprüche an den Passpunkten den an 31cm Objektpixelgröße gestellten Erwartungen.

Die Bildzuordnung nach der Methode der Kleinsten Quadrate weisen die in dem dicht bebauten Auswertegebiet zu erwartenden Probleme der flächenbasierten Zuordnung auf, die nur die Geometrie größerer Gebäude einigermaßen richtig wiedergeben, wobei in Basisrichtung die Verdeckungen durch das Basis-Höhen-Verhältnis beider Datensätze von 1:1,2 deutliche Verwischungen erzeugt. Semi Global Matching hat zwar die gleichen Probleme mit den Verdeckungen, gibt die Dachformen aber entsprechend der Objektpixelgröße wieder soweit die Dächer nicht durch Bäume überragt werden.

Ein Vergleich mit einem Laserscanner Referenz Oberflächenmodell ist im Bereich der Gebäudekanten und der Vegetation schwierig. Die Laserscannerpunkte können auf überstehenden Dächern oder der Fassade liegen und im Bereich der Vegetation ist die Oberfläche nicht mit der Oberflächendefinition von optischen Bildern vergleichbar. Mit einem Vegetationsfilter können diese Bereiche allerdings aus dem Höhenmodell entfernt werden.

Besonders die mit WorldView-4 erzeugten Ergebnisse sind vergleichbar mit denen von Luftbildern mit entsprechender Auflösung. Sowohl die Genauigkeit als auch die Details sind gleichwertig.


14:15 - 14:45

Ein systematischer Vergleich verschiedener Multi-View Stereo-Lösungen für die luftbildgestützte dreidimensionale Infrastrukturkartierung

P. Schär1, S. Cavegn1,3, D. Novak2, B. Loesch2, H. Eugster1,2, S. Nebiker1

1Fachhochschule Nordwestschweiz, Institut Geomatik, Gründenstrasse 40, 4132 Muttenz, Schweiz; 2iNovitas AG, Oberrohrdorferstrasse 1c, 5405 Baden-Dättwil, Schweiz; 3Universität Stuttgart, Institut für Photogrammetrie, Geschwister-Scholl-Str. 24D, 70174 Stuttgart

Seit einigen Jahren werden Infrastruktur-Inspektionen und 3D-Kartierungen zunehmend nicht mehr vor Ort sondern anhand von Webdiensten effizient am Arbeitsplatz vorgenommen. Die vorausgehende Datenerfassung erfolgt in der Regel entlang von Strassen- und Schienenkorridore aus der Fahrzeugperspektive. Ergänzend dazu können Bilddaten aus der Vogelperspektive einen entscheidenden Mehrwert bieten, bergen aber auch neue Herausforderungen. Aufgrund der deutlich vergrösserten Aufnahmedistanz zu den abzubildenden Infrastrukturen sind physische Stereomesssysteme unvorteilhaft, was die Bestimmung von virtuellen Stereobasen mittels bildbasierter Georeferenzierung erfordert. Für die anschliessende robuste und effiziente 3D-Bildextraktion, welche verschiedene Befliegungsmuster und Bildaufnahmekonfigurationen unterstützen soll, sind neue Ansätze gefragt. Zudem ist die effiziente Handhabung deutlich grösserer Bildformate mit der Möglichkeit zur massiven Skalierung bzw. Parallelisierung sämtlicher Prozessschritte nicht trivial.

In diesem Beitrag wird ein für beliebige Luftbildaufnahmen entwickelter Ablauf vorgestellt und systematische Untersuchungen zur Bestimmung der 3D-Information präsentiert. Dabei wird die Leistungsfähigkeit folgender drei Lösungen für die dichte Bildkorrelation (Dense Image Matching, DIM) verglichen: COLMAP, CMVS/ PMVS und SURE. Während CMVS/ PMVS direkt eine Punktwolke erzeugt, erfolgt die Punktwolkengenerierung bei COLMAP und SURE aufgrund von fusionierten Tiefenkarten. Von diesen Punktwolken werden mit den bekannten Kamerastandorten Bild-Ansichten gerendert. Diese ermöglichen einen pragmatischen und effektiven visuellen Vergleich der DIM-Resultate und erlauben die Beurteilung von Vollständigkeit und Dichte der jeweiligen Punktwolken. Vergleiche zur Detailtreue und Streuung konnten anhand von Profilen in Bereichen mit grösseren Abweichungen vorgenommen werden. Unter anderem zeigt sich, dass die Punktwolkenergebnisse mit COLMAP um ca. Faktor 30 dichter sind als jene von CMVS/PMVS. Jedoch ist auch die Rechenzeit um ein vielfaches länger.

Die vier untersuchten Anwendungsfälle zeichnen sich durch verschiedenartige Infrastrukturtypen, Befliegungsmuster und Aufnahmesensoren aus: lineare Befliegung einer Autobahn, Objektbefliegung eines Strommasts, grossflächige Befliegung einer Baustelle sowie eines Industrieareals mit Solardächern. Um die Vergleichbarkeit der Ergebnisse zu ermöglichen, dienten die mit COLMAP bestimmten äusseren Orientierungsparameter für alle DIM-Lösungen als identische Grundlage. Der implementierte automatisierte Workflow erlaubte nicht nur systematische Untersuchungen, sondern liess auch die effiziente Ermittlung von adäquaten DIM-Parametern für jeden Anwendungsfall zu.

 
13:15 - 14:45S19: Aus- und Weiterbildung
Chair der Sitzung: Ansgar Brunn
Hörsaal 0602 
 
13:15 - 13:30

Schweizer Geomatikausbildung im Bundesamt für Statistik

S. Wondrak

Bundesamt für Statistik, Schweiz

Die Berufsausbildung Geomatik EFZ (Eidgenössisches Fähigkeitszeugnis) dauert in der Schweiz vier Jahre. Sie ist aufgeteilt in die Praxisausbildung im Lehrbetrieb, die schulische Bildung (Berufsfachschule Zürich, Unterrichtssprache Deutsch, Blockunterricht während 10 Wochen pro Jahr), und überbetriebliche Kurse (1 Woche pro Jahr, wechselnde Veranstaltungsorte). Es gibt drei Ausbildungsschwerpunkte: Amtliche Vermessung, Geoinformatik, und Kartografie. Das Bundesamt für Landestopografie swisstopo (in Bern) bietet die Ausbildungsschwerpunkte Kartografie (max. 4 Lernende pro Lehrjahr) und Geoinformatik (1 Lernender pro Lehrjahr) an. Das Bundesamt für Statistik (BFS) in Neuchâtel ist seit 2012 ebenfalls Ausbildungsbetrieb mit dem Schwerpunkt Kartografie (z.Zt. 1 Lernender pro Lehrjahr). Wegen der Zweisprachigkeit (Deutsch und Französisch) und dem längeren Arbeitsweg nach Neuchâtel bewerben sich die meisten Kartografie-Interessierten bei swisstopo in Bern. Bei Informationsveranstaltungen von swisstopo ist auch das BFS präsent und stellt seine Ausbildung vor. Das BFS bietet ausserdem sog. Schnuppertage an, an denen die Interessierten während zwei Tagen Einblick in die Arbeitswelt der Kartografen beim BFS erhalten. Um die Eignung für die Ausbildung beurteilen zu können, werden Übungen durchgeführt und Aufgaben gestellt, die selbständig gelöst werden müssen. Die betriebliche Ausbildung ist modular aufgebaut und besteht im BFS aus 25 Lernmodulen, in denen jeweils fundiertes Fachwissen zu einem bestimmten Themenbereich vermittelt wird. Für die Durchführung der Lernmodule sind die Praxisausbildner verantwortlich. Die Lernmodule bestehen aus einer theoretischen Einführung, praktischen Übungen und einer Dokumentation. Die Lernenden führen während der gesamten Ausbildungszeit ein wöchentliches Arbeitsjournal und ein Lerntagebuch, in dem sie alle wesentlichen Arbeiten, sowie die erworbenen Fähigkeiten und ihre gemachten Erfahrungen dokumentieren. Die durchgeführten Arbeiten und Übungen werden, neben der zeitlichen Erfassung, auch selbstkritisch bewertet. Im Bildungsplan sind Handlungskompetenzen festgelegt (Fach-, Methoden, Selbst- und Sozialkompetenzen), die die Lernenden während ihrer Ausbildungszeit erwerben. Darüber hinaus machen sie im Arbeitsalltag eines Bundesamtes die unterschiedlichsten Erfahrungen, welche die Ausbildung über die definierten Leistungs- und Richtziele hinaus bereichern. Die Konfrontation mit ganz praktischen Problemen des Alltags (z.B. in der Informatik) und deren Lösung gehört auch zum persönlichen Reifungsprozess. Den letzten Teil der Ausbildungszeit bildet das Qualifikationsverfahren, welches insgesamt etwa vier Monate dauert. Es besteht aus einer individuellen praktischen Abschlussarbeit (IPA, zeitlicher Umfang bis 120 Stunden), die von den Praxisausbildnern anhand eines vorgegebenen Kriterienkatalogs bewertet wird. Anschliessend präsentieren die angehenden Geomatiker/innen ihre Abschlussarbeit vor einem Expertengremium. Die Berufskenntnisprüfung, die Allgemeinbildungsprüfung, sowie eine schulische Erfahrungsnote (Durchschnittsnote aus den Zeugnissen während der Ausbildung) sind die weiteren Teile des Qualifikationsverfahrens. Bei sehr guten schulischen Leistungen können die Geomatik-Lernenden bereits während der vierjährigen Ausbildungszeit, oder anschliessend, mit einem Jahr Vollzeitschule, die Berufsmaturität erlangen. Damit können sie dann, nach bestandener Aufnahmeprüfung, an einer Fachhochschule studieren. 2016 haben beim BFS die ersten zwei Kartografie-Lernenden ihre Berufsausbildung zum Geomatiker erfolgreich abgeschlossen.


13:30 - 13:45

Blended Learning in Photogrammetrie und Bildverarbeitung für regionale KMUs – Ein Erfahrungsbericht

A. Brunn

Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt, Deutschland

Die Methoden der Vermessungsingenieure und Geomatiker haben in den letzten Jahren einen rasanten Wandel erfahren. Nach dem Umbruch durch die Einführung digitaler Vermessungsgeräte in den 1990er Jahren vollzieht sich momentan ein Übergang zur berührungslosen Vermessung mit bildgebenden Flächensensoren, der bei der Integration der neuen Verfahren in die bisherigen Vorgehensweisen große Herausforderungen an die in der Praxis stehenden Vermessungsingenieure und Geomatiker stellt.

Zu den neuen Messgeräten gehören sowohl kleine fliegende mit Kameras bestückte Sensorplattformen (Kleinflugzeuge, Kleinhelikopter, Unmanned Aerial Vehicles (UAV) mit montierten Digitalkameras) als auch Tachymeter mit integrierten digitalen Kameras und Multikamera‐Rover, die durch Tachymeter getrackt und koordiniert werden.

Die neuen Verfahren erfordern grundlegende Kenntnisse in der digitalen Photogrammetrie und Bildverarbeitung, die bisher nur am Rande der Ausbildung standen und deren Techniken selbst in den letzten Jahren rasanten Entwicklungen unterworfen war. Die verlustfreie Einbindung der neuen Verfahren in die bisherigen Messprozesse der Unternehmen steht erst am Anfang. Gerade KMU stehen hier vor großen Aufgaben, die aufgrund der Personalstruktur und der geringen Mitarbeiteranzahl nur schwer zu lösen sind.

Innerhalb des Projekts „Digitale Photogrammetrie und Bildverarbeitung für kleine und mittlere Unternehmen (DiPhoBi4KMU)“ wurde KMU der Zugang zu auf den Praktiker abgestimmten Lernmaterialen in den Bereichen digitale Photogrammetrie und Bildverarbeitung ermöglicht, die innerhalb des Projekts entwickelt und in einem e‐learning‐Angebot den Teilnehmern zur Verfügung gestellt werden. Das Informationsangebot an die KMU reicht von der aufbereiteten Darstellung der theoretischen Grundlagen bis hin zu erläuterten Praxisbeispielen. Die digitalen Angebote werden durch Teile der eigenen Wissenskontrolle ergänzt werden. Auf dieser Basis werden im Projekt Handlungsabläufe entwickelt, die eine Integration der neuen Techniken in die tägliche Arbeit reibungsfrei ermöglichen. Nach dem Ende des Projekts stehen Ergebnisse unterschiedlicher Betrachtungsebenen zur Verfügung:

  • ein E-Learning-Kurs mit Themengebieten aus Photogrammetrie und Bildverarbeitung
  • Unterrichtsmaterialien für Präsenzveranstaltungen,
  • praktische Versuchsreihen und -ergebnisse zum Einsatz von Multikamera-Rovern und UAV-Coptern,
  • ein Netzwerk der teilnehmenden Unternehmen und
  • Erfahrungen in der Durchführung eines Blended-Learning-Angebots.

Die Erfahrungen in der Projektdurchführung und der Kommunikation mit den Teilnehmern stehen in diesem Beitrag im Vordergrund. Im Rahmen der Digitalisierungsstrategien auf verschiedenen Ebenen der Gebietskörperschaften, des Bundes, der Länder und Kommunen, den Hochschulen und in der Industrie konnten wertvolle Erkenntnisse für zukünftige Angebote gesammelt, u.a., dass die Kombination von E-Learning-Angeboten und von Präsenzangeboten richtig und wichtig ist und dass die Netzwerkbildung gerade durch die Präsenzveranstaltungen entsteht. Um die Teilnahme an Präsenzveranstaltungen überhaupt möglich zu machen, sind daher eher regionale als national oder internationale Gruppen für Blended-Learning-Angebote zu wählen, da Präsenszeiten auch zunächst verfügbare Produktivzeit reduzieren und so im Konflikt zum Tagesgeschäft stehen.


13:45 - 14:00

Impulse aus der Praxis – Bereicherung von Forschung und Lehre aus berufsbegleitenden GI-Bildungsangeboten

C. Traun

Universität Salzburg, Österreich

Der Interfakultäre Fachbereich Geoinformatik an der Universität Salzburg bietet neben einem umfassenden Ausbildungsangebot in der Präsenzlehre seit bald 25 Jahren international akkreditierte berufsbegleitende Geoinformatik-Fernstudien unter der Marke UNIGIS an. Dieser Beitrag geht der Frage nach, wie die damit adressierte, für die Universität noch weniger geläufige Zielgruppe die akademische Forschung und Lehre bereichert.

Studierende im UNIGIS Master- oder Zertifikatsprogramm haben häufig bereits ein Studium in einer Anwendungsdomäne abgeschlossen und sind in der Regel direkt in geoinformatische Arbeitskontexte eingebunden. Vielfach können sie auf mehrjährige GI-Erfahrung zurückblicken, die sektoral durchaus tief und häufig sehr praxisorientiert ausfällt. Damit unterscheiden sie sich wesentlich von typischen Vollzeitstudierenden, die lebenszyklusbedingt kaum facheinschlägige Erfahrung in das Studium mit einbringen. Basierend auf mittlerweile 2500 AbsolventInnen (davon über 1500 im deutschen Sprachraum) der Salzburger UNIGIS Fernstudien lassen sich rückblickend folgende positive Rücklauf-Aspekte für den Fachbereich festmachen:

  • Sicherung von Qualität und Marktkonformität der Lehre: UNIGIS Studierende sind in der Regel hochgradig motiviert. Das liegt nicht nur an den Kosten und Mühen, die für ein berufsbegleitendes Studium in Kauf genommen werden, sondern auch an der sich bald einstellenden Erfahrung Gelerntes unmittelbar im Arbeitskontext einsetzen zu können. Gleichzeitig beobachten wir eine erhöhte Erwartungshaltung an die Qualität der Lehre und eine kritische Auseinandersetzung mit Inhalten, nicht zuletzt hinsichtlich Aktualität und Praxiskonformität. Die kontinuierliche Evaluation sämtlicher Kompetenzen und Inhalte durch die Zielgruppe ist neben einer internen und externen Begutachtung durch FachkollegInnen eine der wichtigsten Säulen im Qualitätsmanagement.
  • Beiträge zur Weiterführung universitärer Forschungsthemen: aus der vorwiegend drittmittelfinanzierten Forschung am Fachbereich resultieren immer wieder wichtige Fragestellungen, die in eigenen Projekten nicht weiterverfolgt werden können. Im Blog https://zgis-theses.blogspot.comwerden derartige Fragestellungen an Studierende kommuniziert bzw. als Abschlussarbeitsthemen angeboten. Das diesbezügliche Interesse von UNIGIS Studierenden übersteigt das von Präsenzstudierenden bei weitem. Ein oft breiterer Horizont gepaart mit Erfahrung im eigenständigen (auch wissenschaftlichen) Arbeiten führt dabei durchwegs zu sehr guten Ergebnissen, eine über das Studium hinausgehende Zusammenarbeit stellt keine Seltenheit dar.
  • Verbesserte Vernetzung mit Wirtschaft und Verwaltung: Universitäten erkennen immer mehr, dass die Beziehungspflege zu AbsolventInnen abgesehen von fallweiser Projektkooperation vor allem auch laufende Kontakte zu Wirtschaft und Verwaltung etabliert und so das Netz-Werken, Rückmeldungen aus der Praxis und die Sichtbarkeit des Faches außerhalb der Wissenschaftscommunity fördert. Alumni-Veranstaltungen zielen darauf ab, dass erfolgreiche Studierende mit ihren akademischen Wurzeln verbunden bleiben. Im berufsbegleitenden Studienkontext sind derartige, oft beschränkt erfolgreiche Aktionen weniger erforderlich, da die Mehrzahl der Studierenden bereits während des Studiums in Wirtschaft und Verwaltung eingebettet ist und damit von Beginn an ein aktives Netzwerk bilden. UNIGIS verschränkt vom ersten Studientag an aktive Studierende mit Alumni und dem Fachbereich und etabliert so langfristig tragfähige Beziehungen, die in vielen Fällen auch bestehen bleiben.

Der gesellschaftliche Wandel bzw. die damit einhergehende Forderung zu lebenslangem Lernen bietet den Universitäten nicht nur die Chance die Weiterbildung zu betonen, sondern insbesondere auch Kontakt mit praxisrelevanten Zielgruppen zu halten. Als Akteure in einer Querschnittsmaterie verfügen viele GI-Fachvertreter über eine hohe Vernetzungskompetenz. Damit bisher ungenutzte Potentiale zu heben, sollte also nicht schwerfallen.


14:00 - 14:15

E-Learning und Learning Analytics in der universitären Ausbildung der Geowissenschaften - Blended Learning mit ESRI ArcGIS Online im Masterstudium

M. Teucher, C. Gläßer, V. Schreiner

Martin-Luther-Universität Halle-Wittenberg, Institut für Geowissenschaften und Geographie, Fachgruppe Geofernerkundung & Thematische Kartographie

1 Motivation

Das Angebot digitaler Lehre an deutschen Hochschulen wächst seit den 1990er Jahren stetig. Auch der Stellenwert digitaler Lehre an Hochschulen wird überdurchschnittlich eingestuft, weshalb E-Learning-Systeme zunehmend an Bedeutung für Bildungseinrichtungen und Unternehmen gewinnen. Die Fachgruppe weist mit den Projekten WEBGEO und GEOVLEX im Bereich Blended Learning seit mehr als 10 Jahren Erfahrungen auf.

Als konsequente Weiterentwicklung der bestehenden Konzepte, untersucht die Fachgruppe im Projekt „Prolearn“ den Einsatz von prototypischen E-Learning und E-Teaching Instrumenten in der geowissenschaftlichen Hochschullehre. Dabei stehen Lernmodule und Learning Analytics Methoden im Fokus, welche detaillierte Informationen über das Lernerlebnis von Studierenden, u.a. beim Übergang vom Bachelor- zum Masterstudium liefern. Ziel ist es das studentische Vorwissen zu analysieren, Wissenslücken zu identifizieren und neue Lernwege aufzuzeigen.

2 Methode

In einer ersten Phase wird aktuell für eine ausgewählte Veranstaltung im 1. Fachsemester des Masterstudiums, die durch eine sehr heterogene Zusammensetzung hinsichtlich der Studiengänge und des Vorwissens charakterisiert ist, die Präsenzlehre durch interaktive E-Learning Module ergänzt, bei denen die Studierenden das theoretische Wissen der Vorlesung in modularen Online Lerneinheiten vertiefen können. Voraussetzung für die Erstellung dieser ist die Erfassung des Wissenstandes der Teilnehmer zu Beginn des Semesters. Hierfür wurden in 2 Vorab-Befragungen allgemeine Angaben über die Teilnehmer (u.a. Bachelorstudiengang, besuchte themenverwandte Veranstaltungen, EDV-technische Ausstattung und Zugangsmöglichkeiten) erfasst und eine Überprüfung der fachlichen Kenntnisse in den Bereichen Geoinformationssysteme, Fernerkundung und Kartographie durchgeführt.

Für die Erstellung der jeweiligen Online Lerneinheiten, die parallel zur Vorlesung angeboten werden, wird ein System aus 3 Komponenten eingesetzt. Für die thematische Bearbeitung der Inhalte wird zum Großteil die Plattform ArcGIS Online der Firma ESRI, als Teil des Campus Systems der Universität genutzt. Für die Präsentation der Inhalte dient ein projekteigenes Content Management System (CMS), auf dem alle Inhalte zentral vernetzt sind. Um im Laufe des Projektes den individuellen Lernerfolg/-fortschritt der Teilnehmer entsprechend des ECLASS Ansatzes erfassen zu können, wird jede Lerneinheit durch quiz-artige Tests abgeschlossen. Dieses Testsystem wird im universitätseigenen Learning-Management-System ILIAS betrieben. Durch kurze Tests zum Ende einer jeden Lerneinheit, kombiniert mit zweimaligen übergeordneten Erhebungen im Laufe des Semesters wird der Lernerfolg für die Dozierenden sicht- und durch die direkte Rückmeldung der Lernerfolg für die Teilnehmer quantifizierbar.

3 Ergebnisse

Erste Ergebnisse wurden bereits durch die Vorab-Befragung generiert, die wichtige Informationen über den aktuellen Wissensstand der Teilnehmer und die Bereitschaft zur Nutzung der Online-Lerneinheiten liefern. 74% der Befragten sind an einer Evaluation des eigenen Lernerfolgs/-fortschritts während der Veranstaltung interessiert und 64% der Befragten sind der Ansicht, dass eine Online-Lernumgebung den Austausch von Erfahrungen und Ideen unter den Studierenden fördert. Des Weiteren sehen 32% keine erhöhte Arbeitsbelastung durch die Verwendung einer Online-Lernumgebung. Weitere Ergebnisse werden zum Ende des Semesters erwartet. Diese werden dann im Rahmen der PFGK18: Photogrammetrie - Fernerkundung - Geoinformatik - Kartographie – 2018 Tagung präsentiert. Zugleich soll mit diesem Beitrag eine Diskussion über die Bündelung bestehender Online Angebote von Mitgliedern der DGPF angeregt werden.


14:15 - 14:30

Immersive 3D-Visualisierung von Bauwerken mit Virtual Reality in der Hochschulausbildung

F. Tschirschwitz, M. Lindstaedt, T. Kersten

HafenCity Universität Hamburg, Labor für Photogrammetrie & Laserscanning, Überseeallee 16, Hamburg, Deutschland

Virtual Reality (VR) ist vermutlich das Thema der letzten drei Jahre. Auch wenn VR, als Teilgebiet der Informatik, eine lange Tradition hat, so sind die Erkenntnisse und Anwendbarkeit erst durch die Entwicklung der erforderlichen Hardware im Low-Cost-Bereich stark verbreitet worden, haben den Endkundenmarkt erreicht und sind für die Geodäsie interessant geworden. Sei es in Form der Google CardBoard als extrem günstige Handyhalterung oder durch die Investition von Facebook in Hardwarehersteller Occulus sowie VR für Soziale Netzwerke, Virtual Reality steht kurz vor dem Eintreten in den Alltag.

Immer stärker werden dabei Geodaten mit dem neuen Medium VR verknüpft und aufbereitet. Diese Kompetenz soll auch von Absolventen der Geodäsie und Geoinformatik getragen werden, die explizit für den Raumbezug ausgebildet werden. Die Vermittlung dieser Kompetenz in einem sich rasant entwickelnden Wissensgebiet führt auch zu neuen Lehr- und Lernmustern, wobei die Quellen sich stark geändert haben. Wurden früher Lehrbücher und Fachartikel zum Verständnis hauptsächlich eingesetzt, so wird in der zunehmend vernetzten Welt die Bedeutung von Blogs, YouTube und anderen Wissensaustauchformen als auch das Studium von entwickelten Produkten für von vielen Bereichen eingesetzte Technologien immer wichtiger.

Am Beispiel der Veranstaltung 3D-Visualisierung im Masterstudienprogramm Geomatik der HafenCity Universität Hamburg wird aufgezeigt, wie selbstorganisierte Gruppenarbeit zur praktischen Kompetenzfindung eingesetzt werden kann und welche interessanten Inhalte entstehen, wenn Studierende kreativ Lösungen verfolgen können und unterschiedliche Vorkenntnisse zusammen geführt werden. Der Ausgangspunkt der Lehrveranstaltung waren Grundlagenvorlesungen zum Thema VR, die Präsentation zu Vorarbeiten sowie eine fordernde Aufgabenstellung, die aus der Praxis inspiriert ist. Gegeben waren ein Datensatz und das Ziel einer interaktiven, immersiven und intuitiven Visualisierung auf Basis der Virtual Reality Systeme HTC Vive. Als Grundlage wurden die Daten verschiedener Gebäudemodelle mit Innen- und Außenbereich zur Verfügung gestellt, die teilweise reale und vermessene historische Gebäude abbilden, aber auch Rekonstruktionen zerstörter Architektur mit begrenzt gesichertem Wissen.

Die Studierenden haben anhand unterschiedlicher Quellen, die Szenen aufbereitet, anschließend mit fotorealistischen Texturen in 3ds Max versehen und begehbar gemacht. Dabei wurden die isoliert bereit gestellten Modelle in die reale bzw. eine stimmige Umgebung eingebettet, interaktive Elemente, etwa bewegliche Türen, mit der Spiele Engine Unreal in die Szenen eingebaut, um die Modelle als Nutzer immersiv erkunden zu können. Höhepunkte der Ergebnisse waren die Umsetzungen von realen Szenarien, die in den Objekten stattgefunden haben, wie die Visualisierung unterschiedlicher, historischer Einrichtungen in den Gebäuden, der Darstellung der damaligen Nutzung als auch der Einbettung von semantisch-inhaltlichen Informationen als Vorstufe virtueller Museen, die auf Basis solcher historischer Gebäude entstehen können.

 
13:15 - 14:45S20: Fernerkundung II
Chair der Sitzung: Volker Hochschild
Hörsaal 0606 
 
13:15 - 13:30

Comparison of Power Law Tropospheric Correction for Time Series InSAR Application

N. H. Isya1,2, A. Riedel1, W. Niemeier1, B. Riedel1

1Institut für Geodäsie und Photogrammetrie, Technische Universität Braunschweig, Deutschland; 2Department of Geomatics Engineering, Institut Teknologi Sepuluh Nopember, Indonesia

Radar interferometric technology is nowadays considered as one geodetic methods to observe earth surface changes. The use of time series analysis in SAR imageries could figure out slow periodical displacement rates on natural hazard phenomena such as mass movement in landslide prone areas and crustal deformation in tectonic areas. However, this multi-temporal SAR results could be bias due to effect of atmospheric phase screen (APS) when microwave signals are going through tropospheric layer. Power law tropospheric correction is a method that recently used on InSAR application to minimize atmospheric noise both spatially and temporally. The method attempts to find a correlation of phase delay to hydrostatic and wet components in troposphere properties. Thus, we try to estimate the tropospheric delay on individual interferograms and apply Small Baseline Subset (SBAS) on InSAR in different regions. The case study of a small region case is represented in Ciloto, West Java, Indonesia and for a large region, we chose an area located along the Aqua Blanca fault, Mexico. 33 Sentinel-1A/B Ascending SAR Imageries has been proceed in Ciloto Landslide prone area from October 2014 to January 2017 with the minimum coherence based on maximum of 200 days temporal and 75 m perpendicular baselines. In term of detecting crustal deformation around Aqua Blanca fault, we tested 44 Envisat Descending data from February 2003 to October 2010. Sounding data are needed to calculate tropospheric delay at different altitudes. They are taken from International Upper Air network data which provide variables of atmospheric pressure, temperature and relative humidity. We find the estimation of phase delay using topography correlated by a power law and reference height could improve the displacement's accuracy value. Nevertheless, the attention either under or over estimation due to band-filtering performance should be watched out for every interferogram. We then conduct general assessment before and after power law tropospheric correction for SBAS results and compare them to measurements from Extensometer installed in Ciloto. For the large area in northern Baja California, Mexico, the phase-based power law correction is compared to atmospheric delay maps generated by MERIS, a spectrometer instrument on board Envisat, in condition to daily cloud cover < 10% at the study area.


13:30 - 13:45

Methoden zur automatisierten Suche von Bodendenkmälern in LiDAR-Daten – neues aus Westfalen

M. F. Meyer1, I. Pfeffer2, C. Jürgens1

1Ruhr-Universität Bochum; 2LWL-Archäologie für Westfalen

1 Einleitung & Problemstellung

Die LiDAR-Technologie hat in den letzten Jahren einige Probleme der archäologischen Prospektion gelöst und es wurden verschiedene Visualisierungen entwickelt, um die Sichtbarkeit von Strukturen zu erhöhen. Bei der systematischen und effizienten Auswertung der LiDAR-Daten besteht jedoch noch immer Forschungsbedarf.

Das Geographische Institut der Ruhr-Universität Bochum sucht daher in Kooperation mit der LWL-Archäologie für Westfalen seit Mitte 2015 nach Möglichkeiten, die großen LiDAR-Datenmengen möglichst effizient auszuwerten und potentielle Bodendenkmäler weitestgehend automatisiert zu erfassen. Bislang wurden Motten,[1] Grabhügel und Wölbäcker[2] betrachtet. Seit 2017 stehen hingegen celtic fields[3] im Fokus, da diese kürzlich erstmals in Westfalen gefunden wurden.

2016 wurde im Rahmen einer Masterarbeit ein Workflow entwickelt, dessen Kern die Software eCognition bildet. Diese sucht mit dem Konzept der objektbasierten Bildanalyse (object-based image analysis, OBIA) in speziellen Geländemodellen automatisch nach Bodendenkmälern.

Für die Suche nach Celtic Fields wird hingegen ein template matching-Verfahren getestet. Diese Technik stellt in der Archäologie zwar kein Novum dar, wurde allerdings lange nur im Kontext von einfachen Strukturen wie z.B. Grabhügeln verwendet. Aktuelle Forschungen zeigen jedoch, dass auch komplexere Strukturen wie Fundamentüberreste in GPR-Daten gefunden werden können. Eine Übertragung auf Celtic Fields und LiDAR erscheint daher spannend.

2 Automatisierte Erfassung von Bodendenkmälern

Der 2016 entwickelte Workflow besteht aus drei Schritten, die jeweils vollautomatisch ablaufen. Als erstes werden die Rohdaten so vorbereitet, dass ein eigens angefertigtes ArcGIS-Tool im zweiten Schritt die benötigten Geländemodelle berechnen kann. Im dritten Schritt findet schließlich die eigentliche Erfassung statt. Dafür kommt die Software eCognition zum Einsatz, die mit dem Konzept der objektorientierten Klassifikation automatisch nach Bodendenkmälern sucht.

Der Workflow von eCognition ist in Form eines rulesets gespeichert, das sich in neuen Gebieten mit wenig Aufwand anwenden lässt. Dies ermöglicht schnelle Analysen.

Da die Suche nach Celtic Fields ohne eCognition abläuft, sind die DGM-Berechnung, die Erfassung mittels template matching und weitere Funktionen mit Python in ein (neues) GIS-Tool eingebunden, was einige Vorteile mit sich bringt. Umfangreiche Ergebnisse liegen bislang nicht vor, erste Tests verliefen allerdings vielversprechend.

Am Ende der Erfassung liegen GIS-kompatible Verdachtsflächen vor, die der Interpretation bedürfen. Zwar ist diese auf absehbare Zeit nicht automatisierbar, doch wird sie dadurch erleichtert und beschleunigt, dass die Verdachtsflächen danach sortiert sind, wie sehr sie ihrem jeweiligen Idealtyp entsprechen bzw. wie gut sie erhalten sind. Auf diese Weise können die interessantesten Flächen zuerst begutachtet und uninteressante zunächst zurückgestellt werden.

3 Ergebnisse

Die Ergebnisse zeigen, dass alle bisher getesteten Bodendenkmaltypen grundsätzlich erfassbar und Trefferquoten von 75-90% möglich sind. Darüber hinaus wurden bereits neue Denkmäler gefunden. Die Qualität der Klassifikation hängt von mehreren Faktoren ab, insbesondere dem Erosionsgrad der Strukturen, der Überprägung eines Gebietes durch den Menschen, den Klassifikationseinstellungen in eCognition und schließlich der Datenqualität. Auch die Anzahl identisch aussehender Strukturen natürlichen und anthropogenen Ursprungs spielt eine Rolle.


[1] Motten sind mittelalterliche Burganlagen, die aus einem Hügel und einem umlaufenden Graben bestehen.

[2] Wölbäcker sind historische Ackerfluren, die aus parallel verlaufenen Wällen bestehen.

[3] Celtic Fields sind historische, rechteckige Ackerfluren, die von Wällen umgeben sind.


13:45 - 14:00

Klassifikation von Vegetationstypen auf Moorstandorten unter Verwendung von multisensoralen Drohnendaten

F. Beyer, G. Grenzdörffer

Universität Rostock, Deutschland

UAS liefern sehr hochaufgelöste multisensorale Daten, mit deren Hilfe und unter Verwendung moderner Klassifikatoren eine präzise Vegetationsklassifikation eines Moores möglich wird. Der im Rahmen einer UAS-Befliegung aufgenommene multisensorale Datensatz (14 Bänder), einer ca. 8 ha großen Moorfläche, besteht aus RGB-Daten, multispektralen Informationen, Thermaldaten, einem digitalen Oberflächenmodell (DOM) und mehreren Vegetationsindizes. Die Klassifikation mit einem Random Forest Ansatz lieferte bei 11 Klassen eine Gesamtgenauigkeit von ca. 89 %. Die vier relevantesten Variablen für die Klassifikation waren das DOM, die Thermaldaten, der normalisierte Vegetationsindex aus Rot und Red-Edge und der NDVI. Somit ermöglichen UAS auf der Skalenebene zwischen Blatt- und Bestandsebene neue erklärende Daten, die herkömmlichen Satelliten- und Flugzeug-basierten Untersuchungen überlegen sind.


14:00 - 14:15

Bilanzierung von Landnutzungsdaten 2007 und 2017 – Ist ein Vergleich möglich?

D. Günther-Diringer

Hochschule Karlsruhe – Technik und Wirtschaft, Deutschland

Im Auftrag des Bundesamtes für Naturschutz hatte die Hochschule Karlsruhe 2006 – 2009 eine deutschlandweite Auenbilanzierung durchgeführt. In einem dreijährigen F+E-Projekt (2016 – 2019) werden die Daten derzeit aktualisiert und sollen im Auenzustandsbericht der Bundesregierung 2020 Verwendung finden.

Aufgrund genauerer und neu verfügbarer Datensätze (wie DGM10, LBM-DE, Ergebnisse der EU-Hochwasserrisikomanagement-Richtlinie) werden sich die vor ca. 10 Jahren erfassten Auenabgrenzungen verändern. Hinzu kommen natürlich die anthropogen beeinflussten Landschaftsveränderungen, die dokumentiert und ausgewertet werden sollen.

Neben der Erfassung der Auenflächen an Flüssen in Deutschland von ca. 10.000 km, stand vor allem die Bilanzierung der Landnutzung im Vordergrund. Basierend auf dem damals zur Verfügung stehenden BasisDLM mussten die zahlreichen, sich zum Teil überlagernden bzw. nicht flächendeckend abschließenden Objektarten zunächst aufwändig vorbereitet und dann nach sieben Hauptlandnutzungsklassen ausgewertet werden. Die Ergebnisse sind in der BfN-Schriftenreihe Naturschutz und Biologische Vielfalt (Brunotte et al. 2009) dokumentiert.

Seit 2009 steht von Seiten des BKG der für solche Bilanzierungsfragen hervorragend geeignete Datensatz des LBM-DE (Landschaftsbedeckungsmodell) zur Verfügung. Dabei handelt es sich um einen flächendeckenden Datensatz u.a. mit den CORINE-Landcover-Klassen, der auf den BasisDLM-Daten basiert, aber vor allem auf Grundlage von Satellitenbildauswertungen aktualisiert und verfeinert wurde.

Es stellt sich die entscheidende Frage für das Projekt, ob ein Vergleich der bilanzierten Landnutzungsdaten der beiden Auendatensätze (2007 und 2017) auf Basis der unterschiedlichen Landnutzungsdatensätze überhaupt belastbare Ergebnisse erzielen kann, d.h. kann dadurch die tatsächliche Änderung in der Landnutzung bilanziert und dokumentiert werden oder sind die methodischen Unterschiede in den Daten so groß (Detaillierungsgrad, unterschiedliche Landnutzungsklassen, etc), dass sie die tatsächlichen Änderungen in der Landnutzung wesentlich überlagern.

Im Rahmen einer Bachelor-Thesis wird eine Landnutzungsbilanzierung mit den aktuellen LBM-DE-Daten auf Basis der alten Auenabgrenzung durchgeführt. Anschließend werden die Unterschiede pro vorhandenem KM-Flussauensegment prozentual miteinander verglichen. Auf Basis von aktuellen und historischen Satelliten- bzw. Luftbildern (2006 und früher, verfügbar in GoogleEarth) werden die Landnutzungsdaten in einzelnen KM-Segmenten stichprobenartig miteinander verglichen und dahingehend klassifiziert, ob eine tatsächliche Landnutzungsänderung stattgefunden hat oder die unveränderte Landnutzung nur detaillierter bzw. unterschiedlich interpretiert wurde.

Die Ergebnisse der Thesis sind von großer Bedeutung für die Aussagekraft über die Entwicklung der Landnutzung in den untersuchten Auengebieten in den letzten 10 Jahren.

Litaratur:

Brunotte, E., Dister, E., Günther-Diringer, D., Koenzen, U., Mehl, D. (2009): Flussauen in Deutschland. Erfassung und Bewertung des Auenzustands. Naturschutz und Biologische Vielfalt Heft 87. Bonn. 243 S.


14:15 - 14:30

Remote sensing classification accuracy: a case study along the urban-rural gradient in the megacity of Bangalore, India

N. Nölke1, K. Awuah2

1Georg-August-Universität Göttingen, Deutschland; 2Swedish University of Agricultural Sciences, Southern Swedish Forest Research Center, Sweden

Along the rural-urban gradient in megacities, the extent and material composition of impervious surfaces are changing. Those various surface materials lead to varying spectral signatures and, as a consequence, possibly also to different degrees of misinterpretations in remote sensing image classification, thus creating a challenge in choosing suitable classification algorithms and image processing techniques.

In this study, we examine how the accuracy of land-cover classification as a function of spatial resolution, spectral and spatial heterogeneity changes along a rural-urban gradient, in the megacity of Bangalore in Southern India. A 50 x 5 km transect in the northern part of Bangalore was defined in the framework of a larger study investigating social-ecological transition processes in the rural-urban interface. This transect contains different land use categories in rural, urban and suburban areas. For the analyses, the transect was divided into 5x5 km subsets to analyse the relationship between classification accuracy, land-cover spectral and spatial heterogeneity along the gradient. Landsat 8, Sentinel-2 and WorldView-3 imagery acquired in November 2016 were used as remote sensing datasets.

Our findings indicate that classification accuracy along the urban-rural gradient is inversely related to Patch Density (PD), Landscape Shape Index (LSI) and Shannon’s Diversity Index (SHDI), and, directly related to Contagion Index (CONTAG). Specifically, as the degree of fragmentation and spatial diversity within a landscape increases, classification accuracy decreases. Overall, the findings from the study suggest that spatially heterogeneous landscapes exhibit high spectral variability, signaling the need to integrate spatial landscape characteristics in the accuracy assessment of land-cover maps.

 
14:50 - 15:20PS4: Plenarsitzung: Schlusssitzung der PFGK18-Tagung
Chair der Sitzung: Manfred Weisensee
Chair der Sitzung: Thomas H. Kolbe
Chair der Sitzung: Uwe Stilla
- Resumé der PFGK18-Tagung
- Ausblick auf die Veranstaltungen der drei Gesellschaften in 2018 und 2019
- Verabschiedung
Hörsaal 2750 
15:00 - 17:30GAF: CODE-DE Einführung und Training parallel zur PFGK2018 bei GAF
https://code-de.org/de/news

CODE-DE Einführung und Training parallel zur PFGK2018 bei GAF
Das CODE-DE Team führt am Freitag, 9.3.2018 um 15:00h bis ca. 17:30h ein Einführungstraining zu CODE-DE durch.
Ort: GAF AG (Besprechungsraum: Kirk 3.Stock), Arnulfstraße 199, 80634 München (mit den Trambahnlinien 16 und 17 vom Hauptbahnhof Nord in ca. 10 min zu erreichen.) Trainingsraum: Kirk 3.Stock
Es wird ein kurzer Überblick über die wichtigsten Funktionen (insbesondere im Bereich „Processing") von CODE-DE gegeben, sowie über die verfügbaren Sentinel-, Copernicus- und Zusatzdaten.
Bei Interesse melden Sie sich bitte bis Mittwoch, 28.2.2018 unter code-de@gaf.de an.
GAF AG 

 
Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.118
© 2001 - 2018 by Dr. H. Weinreich, Hamburg, Germany