Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
Poster: Poster mit Erfrischungen
Zeit:
Donnerstag, 08.03.2018:
12:00 - 14:00

Chair der Sitzung: Uwe Sörgel
Ort: Immatrikulationshalle

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Entwicklung einer semiologischen Methodik zur Vergleichbarkeit aktueller mit historischen Geodaten

I. Schlegel

HafenCity Universität Hamburg, Deutschland

Neben räumlichen Informationen zu aktuellen Gegebenheiten ermöglichen insbesondere solche zu historischen eine Betrachtung urbaner Prozesse über lange Zeitspannen. Mittels einer Methodik zur Transformation semiologischer Eigenschaften beabsichtigt dieses Dissertationsvorhaben, die Möglichkeit eines intuitiven Vergleichs zwischen aktuellen und historischen Geodaten bzw. Karten zu schaffen. Letztere, welche in der Regel nicht digital aufbereitet sind, sondern lediglich in Papierform vorliegen, sollen für diesen Zweck analysierbar sein wie aktuelle es sind.

Bei dem hier vorgestellten Ansatz sollen kognitive Erschwernisse für den Anwender, welche im Zuge bestehender Herangehensweisen auftreten (wie Saccaden oder Informationsüberladungen), eliminiert werden.


Statistische Atlanten – umfangreiche Quelle räumlicher Informationen zu Staat und Gesellschaft

S. Kuster

Bundesamt für Statistik (BFS), Schweiz

Seit 2009 verfügt das Statistische Bundesamt (BFS) über ein zentrales Karten- und Atlasredaktionssystem «Plattform Statatlas» mit integrierter Regionaldatenbank für die Erstellung und Verbreitung von interaktiven thematischen Karten und drei Online-Atlanten. Diese Plattform basiert auf einem Content Management System (CMS), das die Verwaltung aller notwendigen Geo- und Metadaten, der gesamten kartografischen Produktion, der Strukturierung von Inhalten übernimmt und schlussendlich für eine Online-Verbreitung und andere Medien sorgt. Das CMS wurde von Anfang an crossmedial entwickelt und erlaubt die Ausgabe verschiedener Formate aus den in diesen statistischen online (Fach-)Atlanten vorgestellten Karten. Karten können im PDF-Format exportiert werden, die als Grundlage für die Print- und Digitalpublikationen dienen. Es können Kartensammlungen in «Mini-Projekte» zusammengefasst werden, welche dann in Form von HTML-iFrames exportiert werden und um dann sowohl in Webseiten als auch in digitale Publikationen für Apps und mobile Geräte integriert zu werden. Diese «Mini-Projekte» bewahren die Interaktivität von Karten und erweisen sich als nützlich, um kleine thematische «Atlanten» zu publizieren.

Der «Statistische Atlas der Schweiz» gibt einen umfangreichen Überblick aus allen Themenbereichen (wie z.B. Bevölkerung, Bildung, Gesellschaft und Politik, Gesundheit, Mobilität und Verkehr, Soziales) des BFS. Das in den Statistischen Atlas der Schweiz integrierte Kapitel «International» stellt die Schweizer Zahlen in einen internationalen Zusammenhang und ermöglicht die Analyse von Unterschieden zwischen europäischen Ländern.

Der «Politische Atlas der Schweiz» enthält in über 3000 Gemeinde-, Bezirks- und Kantonskarten die Resultate der Nationalratswahlen seit 1919 und der eidgenössischen Volksabstimmungen seit 1866.

Im «Statistische Atlas der Städte» sind verschiedene Kennzahlen der acht Städte des City Statistics Schweiz kartographisch visualisiert. Mit dem Atlas lassen sich die Lebensbedingungen im urbanen Raum der Städte, zwischen den Gemeinden und deren Agglomerationen, zeigen und analysieren.


Untersuchungen zur kartographischen Qualität touristischer Stadtpläne

N. Preuß

TU Dortmund, Deutschland

Motivation / Problemstellung

Gedruckte Stadtpläne erfreuen sich trotz Smartphone und Navigationsapps nach wie vor großer Beliebtheit. Kostenlos von Touristinformationen oder Hotels verteilt finden sie massenhaft Verbreitung. Jedoch ist die Erstellung dieses Kartenmaterials mittlerweile nicht mehr alleiniges Hoheitsgebiet von ausgebildeten Kartographen. Heutzutage versucht sich jeder einmal an der Kartographie: egal ob Marketingagentur oder Touristikfachkraft – alle wollen Karten erstellen. Es bleibt jedoch nicht aus, dass dies oftmals zur Lasten der kartographischen Qualität geschieht. Offen bleibt nur noch die Frage, wie umfangreich die Qualitätsmängel tatsächlich sind. Oder weisen diese Karten aus Laienhand gar neue innovative Ideen auf, von denen professionelle Kartographen noch lernen können?

Methode/Untersuchung

Verschiedene Stadtpläne aus der ganzen Welt, vordergründig jedoch aus Deutschland, wurden auf ihre kartographische Qualität hin analysiert. Untersuchte Faktoren hierbei waren:

- Kartenersteller: Kartograph, Marketingagentur, Touristinformation…?

- Vorhandensein von kartographischen Basiselementen (Legende, Maßstabsleiste usw.)

- Art der verwendeten Signaturen und Qualität dieser (ausreichende Größe, farbliche Abhebung zum Hintergrund usw.)

- Qualität der Beschriftung (Lesbarkeit durch ausreichende Größe, farbliche Abhebung usw.)

- Karteninhalt: Welche Informationen sind für Touristen, die die Stadt erkunden wollen, vorhanden?

- Umgang mit Werbung: Ist überhaupt Werbung auf den Karten vorhanden? Wenn ja, wie „aufdringlich“ ist sie? Beeinträchtigt sie die kartographische Aussage des Themas? Was wird überhaupt beworben?

Ergebnisse

Erste Ergebnisse der Untersuchung zeigen, dass die Stadtpläne tatsächlich oftmals von Werbeagenturen und nicht von Kartographen angefertigt werden. Dies spiegelt sich auch in der kartographischen Qualität. Kartographische Basiselemente wie eine Maßstabsleiste fehlen oft auf den Karten. Oder sie werden, wie es häufig bei der Legende der Fall ist, nur unvollständig oder falsch dargestellt. Die Signaturen dagegen sind in der Regel gut erkennbar. Auch die Lesbarkeit der Beschriftung ist meist gegeben. So gut wie alle Karten bieten auch einen richtigen Mehrwert für Touristen in Form von angegebenen Sehenswürdigkeiten und interessanten Freizeittipps und sind nicht nur ein Werbeprodukt.


Three years of operations of the Sentinel-1 and Sentinel-3-OLCI PAC at German Aerospace Center

T. Hahmann, E. Diedrich

German Remote Sensing Data Center (DFD), German Earth Observation Center (EOC), German Aerospace Center (DLR), Oberpfaffenhofen, 82234 Weßling, Germany

Copernicus is the European Earth Observation Programme, conducted jointly by the EC, ESA, EUMETSAT and the member states. The Sentinel satellites constitute the Copernicus space segment. Since 2014 already six Sentinel satellites have been launched successfully. Further Sentinel satellites will be launched in the following years. The first satellite Sentinel-1A has been launched on 3. April 2014. The Sentinel-1 mission was completed with the launch of the identical twin satellite Sentinel-1B on 25. April 2016. The Sentinel-3A satellite lifted off on 16. February 2016. The envisaged launch of Sentinel-3B is in March 2018.

The core payload data ground segment (PDGS) for the Sentinel satellites is managed by ESA and operated by national partners. In this core PDGS, DLR has been selected to install and operate Processing and Archiving Centers (PACs) for Sentinel-1 and the data from the Ocean and Land Colour Instrument (OLCI) aboard Sentinel-3. This abstract describes the first three years of operations of the S1- and S3-OLCI-PAC at DLR.

The following high-level tasks are performed at the PAC: reception of Sentinel data from the network of Core Ground Stations (CGS) via electronic link (Copernicus WAN); ingestion of these data into the Short-Term Archive (STA) and Mid-Term Archive (MTA) of the Sentinel PGDS; in addition ingestion of these data in a Long-Term Archive (LTA) for addressing future science challenges; perform consolidation and re-assembly of level-0 data received from CGS; perform systematic and request-driven processing of Sentinel data to higher-level products; host Sentinel data products within a layered architecture of on-line dissemination elements that facilitate the data access of end-users via public networks; exchange any locally processed data with a second partner PAC for the purpose of redundancy. For Sentinel-1 the second PAC is located in Newport (UK). For Sentinel-3 there exists a work share between the DLR-PAC (responsible for data over land areas) and EUMETSAT (marine areas).

After a development and commissioning phase during the years 2012 – 2014, the Sentinel-1A PAC entered into operations in March 2015. In July 2016 the operational phase began for Sentinel-1B and for Sentinel-3A OLCI data. The Sentinel-PAC is expected to be complete in March 2018 when Sentinel-3B will be launched into orbit.

With the Sentinel satellite fleet, earth observation data of a new order of magnitude are being collected, processed and archived. Daily, around 950 products are being processed based on sensor data from the OLCI instrument on Sentinel-3A, over 330 GB of associated data are stored in the LTA. Both Sentinel-1 satellites are already supplying many times that amount. Over 10,000 GB (10 TB) and more than 4000 products from the satellite pair are handled every day. In the first three years of operations the DLR-PAC has already processed and archived over 3.5 million data sets. They represent a data volume exceeding 5900 terabytes (5.7 petabytes).

Despite this enormous amount of data, the PAC is configured to additionally reprocess existing Sentinel data at any time with the latest algorithms to generate useful new geo-temporal data sets.


Partikelfilterbasierte Landmarkennavigation zur Berechnung von GPS ähnlichen Genauigkeiten

M. Wimmer1, T. Abmayr1, H. Runge2, D. Richter2

1Hochschule München, Deutschland; 2Deutsches Zentrum für Luft und Raumfahrt, Deutschland

Für Poster

Abstract

Partikelfilterbasierte Landmarkennavigation zur Berechnung von GPS ähnlichen Genauigkeiten

Motivation/Problemstellung:

Die Lokalisierung des Fahrzeugs ist beim autonomen Fahren ein wichtiger Aspekt. Um einen geraden/stabilen Fahrtweg zu garantieren, der andere Verkehrsteilnehmer nicht irritiert, sind Genauigkeiten von unter 20 cm erforderlich. Mit herkömmlichen Lokalisierungsverfahren wie GPS/GNSS sind diese Genauigkeiten nicht zu erreichen. Außerdem sind diese Verfahren anfällig gegen Störungen und Abschattungen was bei einem autonom fahrenden Auto verheerende Folgen haben kann. Daher sollte untersucht werden welche Genauigkeiten bei der landmarkenbasierten Lokalisierung mittels Partikelfilter Algorithmus möglich sind, und welches Verhalten dieser bei unterschiedlichen Sensoren und typischen Situationen im Straßenverkehr er zeigt.

Methode/Untersuchung:

Um die theoretischen Genauigkeiten zu untersuchen, wurde eine Simulationsumgebung in Matlab, mithilfe der Mapping Toolbox erstellt. Als Landmarken wurden hier Verkehrsleitpfosten im Bereich des Autobahnkreuzes München Ost (A99/A94) verwendet, welche vom Deutschen Zentrum für Luft und Raumfahrt mittels Radarfernerkundung hochpräzise in der Position bestimmt wurden.

Die Trajektorie des Fahrzeugs wurde auf Basis von Straßendaten der Open Streetmap Datenbank generiert. Für die Darstellung wurden georeferenzierte Luftbilder aus Google Maps als Hintergrundkarte verwendet.

Die Kernidee des Partikelfilter Algorithmus ist es, verschiedene Varianten des Zustandsvektors zu verteilen. Beim Problem der Lokalisierung besteht dieser aus X, Y und , also dem Ort und der Orientierung. Liegt eine Messung vor werden die Zustandsvektoren (Partikel), je nachdem wie gut sie die Messdaten erklären, bewertet. Die bestbewerteten Zustandsvektoren werden beibehalten, schlechte werden entfernt.

Der Partikelfilter wurde einerseits mit dem Sensortyp Range-Bearing, wie zum Beispiel ein LIDAR Sensor der Winkel und Strecke zu den Landmarken misst, und mit einem Bearing-only Sensor, wie zum Beispiel eine Kamera mit nachgeschalteten Bildverarbeitungsalgorithmen die nur Winkelwerte liefert getestet.

Zudem wurden Situationen betrachtet, in denen das Fahrzeug über einen längeren Zeitraum keine Messungen zu den Landmarken durchführen kann, wie es bei einem Überholvorgang von LKWs vorkommen kann. Außerdem wurden die Genauigkeiten bei unterschiedlichen Landmarkendichten betrachtet.

Ergebnisse:

Aus den Versuchen geht hervor, dass die Landmarkenbasierte Navigation mit einem Partikelfilter basierend auf Range-Bearing Sensordaten die besten Ergebnisse liefert. Die Anforderungen an die Genauigkeit, die im Bereich des autonomen Fahrens erforderlich sind, wurden umfassend erfüllt. Die Differenz zwischen der wirklichen und der berechneten Position beträgt stets wenige Zentimeter.

Die Ergebnisse, die mit einem Bearing-only Sensor erzielt werden, erreichen nicht die gleiche Genauigkeit wie mit einem Range-Bearing Sensor. Bei richtig eingestellten Parametern wurde die geforderte Genauigkeit von 20 cm in Spitzen teilweise überschritten, im Mittel blieb sie aber auch hier weit darunter.

Die Dichte der Landmarken konnte als wichtiger Aspekt für das Funktionieren des Partikelfilters ausgemacht werden. Im Idealfall wird vom Sensor zu jedem Zeitpunkt mehr als eine Landmarke aufgenommen. Ist die Dichte der Landmarken zu gering, greift der Partikelfilter nicht.

Für ein Ausbleiben der Messungen über einen gewissen Zeitraum kommt es mit der Dauer der Abschattung zu immer größeren Genauigkeitsverlusten. In diesen Phasen kann nicht auf die errechnete Position zurückgegriffen werden, da diese weit über den geforderten Werten liegt. Sobald die Abschattung verschwunden ist und wieder Messungen vorliegen, ist die geforderte Genauigkeit innerhalb sehr kurzer Zeit wieder auf dem erforderlichen Niveau.


Evaluierung der Software Drone2Map for ArcGIS zur UAV-basierten photogrammetrischen 3D Rekonstruktion

A. Zehndbauer

ESRI Deutschland, Deutschland

Die Arbeit befasst sich mit dem Testen und Analysieren von photogrammetrischer Software im Kontext der Anwenderfreundlichkeit und Qualität. Der Fokus liegt auf der seit Juni 2016 erhältlichen Software Drone2Map (D2M) des Environmental Systems Research Institute (ESRI). Anhand von Bilddaten eines Unmanned Aerial Vehicle (UAV) werden Vor- und Nachteile der Software untersucht sowie Besonderheiten und Genauigkeit der erstellten Ergebnisse geprüft. Zum Vergleich wird die Software PhotoScan der Firma Agisoft herangezogen.


Automatische Extraktion von Fenstern in 3D Punktwolken mittels einer hierarchischen Methode

S. Schneider, V. Coors

Hochschule für Technik Stuttgart, Zentrum für Geodäsie und Geoinformatik

Rund 40 % des Energiebedarfs einer Stadt entsteht durch den Gebäudesektor. Durch die Energiewende wird es immer wichtiger, dass Neubauten energieeffizient gebaut werden und Eigentümer und Vermieter Empfehlungen zur Sanierung ihrer Gebäude erhalten, um unseren CO2 Ausstoß nachhaltig zu reduzieren. Zur Simulation von Energie- und Wärmebedarf durch solche bauliche Maßnahmen, werden Simulationswerkzeuge wie z.B. SimStadt eingesetzt.

Datenbestände von Stadtmessungsämtern sind oft nicht mit allen relevanten Sachdaten und Kenngrößen gefüllt, die für solche Simulationen notwendig sind. In vielen Fällen besteht daher die Notwendigkeit zur Anreicherung von Datenbeständen mit Sachdaten aus anderen Quellen. Wichtige Sachdaten zur Simulation, wie Stockwerksanzahl oder dem Fenster-Fassaden-Verhältnis, sind oft nicht oder nur teilweise in Datenbanken erfasst; oft wird daher ein Mittelwert quartiersübergreifend angenommen. Diese Annahmen führen daher im Mittel zu akzeptablen Ergebnissen, jedoch ist die Aussagekraft für kleine Einheiten (z.B. einzelne Gebäude), mit relativ großen Unsicherheiten behaftet. Durch automatisierte Auswerteverfahren von photogrammetrisch gewonnenen Daten, beispielsweise Schrägluftbilder oder 3D Punktwolken, können relevante Sachdaten mit relativ wenig Aufwand ergänzt werden.

Zu dem Eingangs beschrieben Zweck, wird in diesem Beitrag eine hierarchische Methode zur Extraktion von Fenstern an Gebäudefassaden präsentiert. Die Methode wird in vier Schritte unterteilt.

Zuerst werden Fassadenebenen in der Punktwolke durch ein RANSAC Verfahren detektiert und anschließend extrahiert. In den Rohdaten und besonders nach der Ebenenfilterung, haben Fenster meistens keine Punktinformation, d.h. Fenster sind im Grunde durch Löcher (Absenz von Punktkoordinaten) in der Fassade gekennzeichnet.

Im zweiten Schritt wird die Punktwolke der Fassadenfläche invertiert; konzeptionell folgt dieser Ansatz dem Invertieren eines Binärbildes. Zum Invertieren wird eine gleichmäßige Struktur aus Punkten über die Fassade gelegt. Eine Nachbarschaftssuche (z.B. Kd-Baum), wird für jeden Punkt, welcher als „Querypunkt“ betrachtet wird, durchgeführt. Wird ein Nachbar, der einem Punkt aus der Fassadenpunktwolke entspricht, in der Umgebung eines Querypunktes gefunden, so wird dieser gelöscht; andernfalls, wird der Querypunkt beibehalten.

Im dritten Schritt wird die invertierte Fassade als Eingangssignal für die Detektion der konkaven Hülle genutzt, welche der Kontur eines Objektes (Fenster) entspricht. Als vierter Schritt, wird ein „Conditional Euclidean Clustering“ Algorithmus auf die detektierten Umrisse der Fenster angewendet. Dabei werden Objekte, die keine Fester darstellen weitestgehend entfernt und jedem Objekt, wird ein eindeutiges Label zugeordnet. Letztlich wird für die verbleibenden, gelabelten Umrisse die konvexe Hülle (bounding box) bestimmt. Damit lassen sich die Informationen auf vier 3D Punkte pro Fenster (Eckpunkte) reduzieren. Diese Punkte können z.B. als Polygonzug für ein CityGML Building-Part gespeichert werden.

Erste Ergebnisse zeigen, dass das Verfahren Gebäudefassaden und Fenster relative zuverlässig erkennt und es ermöglicht energiebezogene Kenngrößen abzuleiten. Als relevante Ergebnisse sind die Stockwerksanzahl und das Fenster-Fassadenverhältnis zunächste gewünscht.

Durch dieses Verfahren ist es möglich Stadtmodelle in einem niedrigen LOD (1 oder 2) zu nutzen, welche bereits flächendeckend in Deutschland und weitestgehend in Europa verfügbar sind. Gebäudemodelle können mit dem vorgestellten Verfahren schnell mit relevanten Sachdaten angereichert werden und mit wenig Aufwand für Simulationen genutzt werden.


Digital Image Analysis To Aid The Creation Of Value On Marginal Land

F. Gnädinger, M. Obermeier, P. Schröder

Helmholtz Zentrum München GmbH, Deutschland

Precision phenotyping, in particular the use of image analysis, enables us to obtain information about plant properties and the state of health of plants. Sensors and drones will contribute to improved field analysis, especially in the cultivation of marginal land. Additional data can thus be used to ensure optimized site specific management and increase economic and ecological output in the longer term.

Aerial photography with unmanned aerial vehicles (UAV) offers new opportunities of pattern recognition in modern agriculture and precision phenotyping. The number of plants not only reflects the current field emergence, but also enables a more precise assessment of the yield. The aim of this work is to further develop the use of UAV and image analysis as a possible tool for yield prediction and detection of soil quality, erosion or compaction. The use of UAVs and image processing has the potential to optimize field trials and support management decisions.

Project is embedded in the EU project INTENSE in the frame of FACCE-JPI.


Entwicklung eines Low-Cost Sensor Systems zur Erfassung hydrometeorologischer Extremereignisse

R. Krüger

TU Dresden, Deutschland

Der Klimawandel führt zu Änderungen des Wasserkreislaufs, die zukünftig ein verstärktes Auftreten von Extremereignissen wie Starkregen und den daraus resultierenden hydrologischen Extremereignissen wie Sturzfluten, Erdrutschen und Schlammlawinen, erwarten lassen. Dies führt zu einer Erhöhung der Risiken für Bevölkerung und Wirtschaft. Sturzfluten erfolgen überwiegend kleinräumig und sind dort schwierig zu beobachten, da ausreichend dichte Beobachtungsnetze (vor allem für Abfluss, Niederschlag und Bodenfeuchte) nicht vorhanden sind. Die daraus resultierende schlechte Datenlage erschwert die hydrologische Modellierung und führt somit zu hohen Ungenauigkeiten in der Vorhersage dieser Extremereignisse. Für die Schaffung von Warnsystemen für kleinere und mittlere Einzugsgebiete ist daher eine Verdichtung der bestehenden Messnetzwerke unabdingbar.

Da kommerzielle Systeme für die Erhebung räumlich hochaufgelöster Daten, durch die benötigte hohe Stückzahl zu kostenintensiv sind, wurde eine eigenes System entworfen und realisiert. Dieses setzt sich aus einer Sensorkomponente, einer Komponente zur Aufzeichnung und Übertragung der Daten, sowie einer Komponente zur Stromversorgung zusammen. Das Kernstück des Systems bildet ein Raspberry-PI Einplatinen Computer, welcher verschiedene Low-Cost Sensortypen ansteuern, deren Messwerte aufzeichnen und verarbeiten kann. Der Raspberry PI kann mit einer Low-Cost Kamera ausgerüstet werden, was in einem Kooperationsprojekt zur Pegelstandmessung genutzt wird. Damit das System autark im Feld eingesetzt werden kann, ist es mit einem Solarpanel, sowie einer Pufferbatterie ausgestattet. Um den Stromverbrauch zu minimieren wurde eine Schaltung integriert, welche die Station nur bei Bedarf, zum Beispiel beim Auftreten von Niederschlag oder periodischer Pegelstands- oder Bodenfeuchtemessungen, in Betrieb nimmt. Weiterhin wurde ein Modul zur Datenübertragung über das GSM-Netz verwendet.

Im Rahmen der Entwicklung wurden verschiedene Low-Cost Sensortypen zur Niederschlagsmessung getestet und mit professionellen Niederschlagssensoren verglichen. Die Messwerte eines Sensormodells (Fa. Davis) zeigten dabei nur geringe Abweichungen zu den professionellen Messgeräten.

Durch die geringen Baukosten von 50-200 Euro (je nach Sensortyp, und Anforderungen an die Stromversorgung) ist es möglich bestehende Sensornetzwerke zu verdichten, um räumlich und zeitlich hoch aufgelöste Umweltdaten zu erheben.


Entwicklung eines low-cost Kamerapegels zur Erfassung hydrologischer Extremereignisse

A. Eltner, H. Sardemann, M. Kröhnert, H.-G. Maas

Institut für Photogrammetrie und Fernerkundung, TU Dresden, Deutschland

Die Erfassung von Sturzfluten nach Starkregenereignissen ist aufgrund ihres lokalen Auftretens schwierig. Dies betrifft insbesondere Flüsse ohne ausreichende Pegelinfrastruktur. Fehlende Informationen über deren Einzugsgebiete erschweren Frühwarnungen sowie die Entwicklung von Vorhersagemodellen erheblich. Im Rahmen der Nachwuchsforschergruppe EXTRUSO werden kleinräumige hydro-meteorologische Extremereignisse zum Aufbau eines solchen Frühwarnsystems für Sturzfluten untersucht. Ein wesentlicher Bestandteil ist die Erarbeitung neuer Methoden zur Beobachtung unüberwachter Einzugsgebiete. Der Beitrag umfasst die Entwicklung eines kamera-basierten Fließgewässer-Pegelmesssystems auf Basis von low-cost (Raspberry Pi) Kameras.

Stationäre terrestrische Kameras bieten bei entsprechenden Bildanalysemethoden und geeigneter Georeferenzierung die Möglichkeit, Gewässerstände mit einer Genauigkeit von wenigen Zentimetern zu bestimmen. Die hohe Variabilität von Fließgewässern schränkt jedoch die automatische Ableitung von Wasserständen aus terrestrischen Einzelbild-Aufnahmen stark ein. Abhilfe kann eine Ausdehnung der Analyse der Bildtextur auf die Zeitachse schaffen. Ko-registrierte Zeitraffersequenzen beschreiben den mittleren Wasserstand in Abhängigkeit des Beobachtungszeitraums und liefern zusätzlich temporale Texturmaße. Mittels Segmentierung von dynamischen (Wasser) und statischen (Land) Bereichen in der Bildsequenz lässt sich die Wasserlinie extrahieren. Die Transformation der Bildmessung in den Objektraum erfolgt unter Nutzung eines photogrammetrisch erstellten 3D-Modells des beobachteten Gewässerabschnittes. Bei entsprechender Aufnahmekonfiguration ist eine Genauigkeit der Pegelmessung im Bereich von wenigen cm zu erwarten, welche durch erste Ergebnissen verifizier werden konnte.


Illumination Invariant Dense Image Matching Based On Sparse Features

M. Mehltretter, C. Heipke

Institute of Photogrammetry and GeoInformation, Leibniz Universität Hannover, 30167 Hannover, Germany

Reliable and up-to-date maps have received much attention in the field of mobility in recent times. Especially the sector of assisted and autonomous driving strongly depends on such maps in order to be able to accurately determine the vehicle's pose and compute a safe trajectory. With regard to the importance of the currency of the information contained in such a map, data acquisition must be done continuously.

For the purpose of data acquisition, mobile mapping using stereo cameras is well suited. In comparison to laser scanners, stereo cameras are less expensive and furthermore, they do not only provide geometric, but also radiometric information. Hence, additional information for later image segmentation and classification is provided. But, special attention has to be paid to the fusion of current information and data captured earlier to obtain a consistent, reliable and accurate result. Depending on the temporal distance between two recordings, changes in illumination can lead to significant differences in the acquired data. Not only the color of illumination or the geometric relationship between illumination, scene and sensor but also the number of light sources might have changed, making the fusion task a potentially difficult challenge.

In order to nonetheless be able to reconstruct a 3D representation of the environment, we propose an illumination invariant dense image matching approach. In this approach robust feature matching serves as a basis to gain a sparse disparity map. To densify this map several steps of interpolation are performed: First, matched features are used to create a Delauney triangulation, so the disparity values of points inside a triangle can be computed by linear interpolation of the vertex values. To avoid interpolation between fore- and background or between different objects, triangles are filtered out, if the variance of the vertex’s disparity values and the variance of the gray values inside a certain triangle are above defined thresholds. Subsequently, for all points which have no valid disparity value, cross-based support regions are computed. To get the disparity value of a certain point, all valid disparity values in a support region are used during inverse weighted distance interpolation. In order to fill areas which are still undefined in the disparity map, k-nearest-neighbor interpolation is utilized.

We evaluate our method on images from the KITTI dataset, which were modified to simulate changes in illumination. Compared to other approaches listed on the KITTI stereo 2015 leader board, ours shows promising results regarding robustness against these changes. The ratio of correctly assigned disparity values decreases rapidly when increasing the difference in illumination for most of the other tested methods, whereas ours decreases much slower. In a next step real datasets will be considered. Furthermore, we want to take semantic segmentation into account, which will allow us to incorporate class specific prior knowledge. In this way we expect an improvement in accuracy of the results, especially near object borders.


Classification of Laser Scanning Data Using Deep Learning

F. Politz, B. Kazimi, M. Sester

Leibniz Universität Hannover, Deutschland

Abstract: In the last couple of years Deep Learning has gained popularity and shown potential in many fields, especially in the field of classification. Most of its success is attributed to the availability of growing, public benchmark data sets and high computing power. Deep Learning has already outperformed traditional classification and machine learning algorithms in the processing of 2D image data as shown in several benchmark competitions like ImageNet or PASCAL VOC over the past years.

Airborne Laser Scanning data is complex and there are only a few benchmark data sets available at this time. Therefore, the focus of attention of the Deep Learning community is only moving slowly towards 3D data. In this paper, we give an overview of Deep Learning in the field of classification of laser scanning data. Thus, we want to focus on two areas of studies, specifically the semantic classification of 3D points and the object-based classification. In the first part, we focus on the semantic classification of 3D point clouds into three classes as required for the generation of digital terrain models. The data is given in terms of an irregular point cloud. The second area of studies deals with the classification of archeological objects in digital terrain models, which are derived from an airborne laser point cloud for Lower Saxony. In this project, we assume that the data is given in terms of a digital terrain model in raster format.

In the paper, we will first give a brief introduction into CNN. Then we discuss the pre-processing steps, as well as the provision of necessary labeled ground truth data, which are fundamentally different for the two areas of study. Finally, first results will be given, together with achieved classification quality measures.


Pedestrian Detection Using Stereo Images

D. X. U. Nguyen, F. Rottensteiner, C. Heipke

Institute of Photogrammetry and GeoInformation, Leibniz Universität Hannover, Deutschland

Today, pedestrian detection from images, a specific case of object detection, is one of the most vigorous research aspects in computer vision and photogrammetry, especially in applications related to autonomous driving. In our study, we address the pedestrian detection problem using stereo images. Our detector has three subsequent steps: region proposal, feature map extraction and classification, and bounding box suppression.

Firstly, to locate regions in an image, the selective search algorithm is used to make proposals for bounding boxes. Because this method treats every object and does not consider the image scale, we add geometric constraints relating to pedestrians to filter out regions. Two main assumptions are made about pedestrians: they are all on the ground and have restricted size. Using 3D information derived from stereo pairs, road and building areas are estimated using horizontal and vertical planes detected in the 3D data. Combining this information with the geometry of the generated bounding boxes, we can roughly filter out some bounding boxes not containing pedestrians. secondly, in a box to decide whether a person is present or not in a bounding box, we classify the boxes using convolutional neural networks (CNN). In particular, we use the Inception v3 network, which reportedly has a high accuracy and a small number of parameters. Instead of training the network from scratch, we take the pre-trained model and fine-tune the parameters of the network with our training database. Stereo images thus provide depth as an additional cue. Horizontal disparity, height above ground, and inclination angle of the normal vector (HHA image): horizontal disparity, height above ground, and inclination angle of the normal vector. The network and training procedure are thus applied to the HHA image. In the testing phase, both RGB and HHA boxes are fed into the CNN separately, and their findings are combined to obtain the final decision. Finally, we perform non-maximum suppression (NMS) of the bounding boxes containing the same person and condense them into a single rectangle, which covers all the pixels belonging to a pedestrian, but as few background pixels as possible. To perform the NMS efficiently, we do not consider overlapping areas as usually, but also take the 3D content into the image.

We evaluate the performance of our detector using the object detection benchmark of the KITTI dataset. The evaluation results are thus compared to other state-of-the-art detectors. This article is a copy of the CNN and NMS steps, which is to be read in full in our full paper.


Augmented Reality an Fenstern: Herausforderungen und Lösungskonzepte

M. Graf, M. Christen

FHNW Fachhochschule Nordwestschweiz, Schweiz

Die Bestimmung der Dimensionen von Objekten wie Fenstern, Wandaussparungen und Ähnlichem ist für verschiedene Anwendungen im Feld der Inneinrichtung ein wichtiger Schritt. Herkömmlich geschieht dies mittels Zollstock oder Laserdistanzmesser, was jedoch die entsprechende Ausrüstung und zudem Zugänglichkeit zum gesamten Objekt erfordert.

In diesem Beitrag wird eine Methode vorgestellt, mittels einer Smartphone-Bildaufnahme solche Distanzmessaufgaben durchzuführen. Während in der Photogrammetrie gewöhnlicherweise mit mehreren Bildern gearbeitet wird, war hier die Randbedingung gegeben, nur eine einzige Aufnahme verwenden zu können. Da zum Messen in Einzelbildern eine Grössenreferenz notwendig ist, sollte zudem ein für den Nutzer möglichst einfach erhältlicher Marker gefunden werden. Üblicherweise sind dies gedruckte Marker, die spezifische Muster zur Erkennung beinhalten. Diese Anwendung hingegen sollten auch Nutzer verwenden können, die keinen Drucker besitzen. Weiter sollte die Aufnahmeposition und -ausrichtung der Bilder bestimmt werden, sodass anschliessend mittels Augmented Reality virtuelle Objekte ins Bild gerendert werden können.

Während der Entwicklung kamen verschiedene Herausforderungen zum Vorschein. Zum einen sind Aufnahmen von Fenstern oft stark mit Gegenlicht belastet, was die Erkennung eines Markers erschwert. Eine weitere Herausforderung stellte die teils starke Verzeichnung der günstigen, sehr kleinen Smartphone-Kameras dar. Zur Lösung dieser Problematik wurden die inneren Kameraparameter der gängigsten Smartphone-Kameras mithilfe einer Kalibrierplatte ermittelt und in einer Datenbank verwaltet. Dieser Arbeitsschritt wurde zudem automatisiert, sodass der Arbeitsaufwand trotz der grossen Zahl an kalibrierten Smartphones in Grenzen gehalten werden konnte. Angesichts der Gegenlicht-Problematik wurde ein Marker gesucht, der in möglichst allen Lichtverhältnissen gut erkennbar bleibt. Fündig wurde man in einem gewöhnlichen, leeren DIN-A4-Blatt. Mit einigen Computer-Vision-Berechnungsschritten, den Kamera-Kalibrierungsdaten und des auf die Scheibe geklebten A4-Blattes konnten sowohl der Aufnahmestandort des Bildes, dessen Ausrichtung, sowie die gesuchten Dimensionen des ermittelt werden.

Anschliessend getätigte Genauigkeitsuntersuchungen zeigten auf, dass diese Dimensionen, selbst bei raumhohen Fenstern, Genauigkeiten im tiefen einstelligen Zentimeterbereich aufweisen. Um diesen Service zugänglich zu machen, wurde die gesamte Berechnung zudem in die Cloud ausgelagert und mittels einer Schnittstelle als Webservice verfügbar gemacht.


Weed detection in close-range imagery of agricultural fields using Neural Networks

A. Dutta1, J. M. Gitahi1, P. Ghimire1, R. Mink2, G. Peteinatos2, J. Engels1, M. Hahn1, R. Gerhards2

1Hochschule fuer Technik, Stuttgart, Deutschland; 2Universität Hohenheim, Institute of Phytomedicine, Deutschland

Modern day agriculture is becoming an endeavour where precision is highly desired and drones with imaging capabilities are contributors of big data to this field of research. Our focus in this paper is on precise weed control, in particular, the optimisation of yield and cost while having minimum impact on the environment. The information about in-field variability of weed patches can be exploited for sub-plot specific weed control, which leads to a restrained yet flexible use of herbicides. We use close-range imagery of weeds recorded with handheld cameras, having a resolution of only a few millimetres per pixel in their natural environment. In this paper we adapt Convolutional Neural Networks with the goal of separating weeds from the main crops in close-range imagery. We explore two ways to design the networks: pixel-wise classification and object-based detection. For both approaches, we use pre-trained networks, which are fine-tuned with the recorded weed images. The deep learning libraries used are Caffe and Tensorflow. The study demonstrates successful adaptation of pre-trained CNNs for weed classification in close-range imagery which could be extended to UAV imagery in future.


Object-Based Mobile Augmented Reality For A 3D Model

R. Sihombing, V. Coors

Hochschule für Technik Stuttgart, Deutschland

Augmented Reality (AR) is a convincing technology for manipulating user’s visual perception of the real world. As one of AR tracking techniques, a single image-based tracking approach is not sufficient to recognise a 3D object from different viewpoints. The basic issue of this approach is it can no longer recognise a 3D model when the viewing perspective is changed since the image captured by the camera is no longer match the reference image. This paper presents an object recognition approach to track markerless 3D building blocks as the AR target. This was achieved by extracting the feature points of the building blocks through a preliminary scanning process using Vuforia Object Scanner. Then a dataset of these feature points is used to recognize the building blocks so that the tracking process can be performed and virtual models can be imposed. To make the AR scene more realistic, the virtual model shadow is added using shadow mapping approach. The experiment shows the presented method is able to recognize the building blocks from side to side, which leads to a robust tracking performance, while the shadow mapping successfully adds realistic shadows to the scene. This robust performance also resulting in a stable appearance of the augmented virtual model.


Automatisierte Auswahl von Methoden zur Überlagerung von Geodaten mit unterschiedlichen Bezugsgeometrien

M. Schotten, J. Schiewe

HafenCity Universität Hamburg, Deutschland

Durch die Verknüpfung verschiedener Datensätze können oft vielfältige neue Informationen gewonnen werden. Zu dieser Überlagerung gehört nicht nur die geometrische Verschneidung, sondern auch die Neuverteilung der Attributwerte.

Da es trotz einer Reihe existierender Überlagerungsalgorithmen an einer kompakten und homogenen Bereitstellung der unterschiedlichen Methoden fehlt, werden in diesem Paper die Erstellung eines aufgabenorientierten und datenbasierten Regelapparates zur Methodenauswahl sowie die Dokumentation und Darstellung der erzielten Überlagerungs-Genauigkeiten beschrieben.


Crowdsourcing zur Informationsgewinnung von Potentialen zur Nutzung von Gebäudeintegrierter Photovoltaik

T. Wendt, R. Hecht, M. Behnisch

Leibniz-Institut für ökologische Raumentwicklung, Deutschland

Trotz wirtschaftlicher und gesellschaftlicher Bedeutung fehlt es an ausreichend detaillierten Informationen zum Gebäudebestand, dessen Struktur und räumlicher Verteilung. Im Hinblick auf die Abschätzung des Potenzials für gebäudeintegrierte Photovoltaik (Building-integrated Photovoltaic, kurz BIPV) spielen insbesondere Fassadeneigenschaften und Konstruktionsmerkmale pro Nutzungskategorie eine wichtige Rolle.

Ziel der Untersuchung war die Erprobung von Ansätzen des Crowdsourcings zur Informationsgewinnung über Gebäude und Fassadeneigenschaften im Hinblick auf die Erfassung von BIPV-Potenzialen. Besonders relevant sind dabei die Eigenschaften Fenster/Türenflächenanteil sowie Eigenschaften zum Fassadenmaterial von Nichtwohngebäuden. Diese Eigenschaften sind in einer Vielzahl geokodierter Bilder aus sozialen Medien, kommerziellen Diensten und Fotoaustauschplattformen (z.B. FlickR, GoogleStreetView, Mapillary, Wikimapia etc.) implizit gegeben und könnte über eine Crowdsourcing-basierte Bildinterpretation explizit gemacht werden.

In der experimentellen Studie wurden zwei verschiedene Crowdsourcing-Plattformen Amazon Mechanical Turk (kommerziell) und Zooniverse (nicht-kommerziell) getestet und die Qualität der abgeleiteten Information hinsichtlich der Genauigkeit an einem Testdatensatz von 743 Bildern durch Vergleich mit Referenzerhebungen bewertet.

Die Ergebnisse zeigen, dass sich Crowdsourcingverfahren zur Informationsgewinnung von Fassadeninformationen insbesondere durch den nicht-kommerziellen Ansatz von Zooniverse eignen können. Beim Vergleich mit den Referenzdaten erzielten die über Zooniverse gewonnenen Ergebnisse eine deutlich geringere Abweichung als die der kommerziellen Platfom Amazon Mechanical Turk. Über eine Nachprozessierung konnten jedoch die Annotatoren hinsichtlich ihrer Vertrauenswürdigkeit bewertet werden und mittels Filterung unter Ausschluss der Annotatoren mit der geringsten Vertrauenswürdigkeit die Qualität der Ergebnisse erhöht werden.

Der Ansatz besitzt großes Potenzial und kann auf andere Anwendungsfälle übertragen werden. Es konnten Erfahrungen und Erkenntnisse mit dem Umgang und der Datenqualität von kommerziellen und einer nicht-kommerziellen Crowdsourcing-Plattform gewonnen und Rückschlüsse für zukünftige Crowdsourcing-Anwendungen im Kontext von Gebäudeanalysen gewonnen werden.


Employing OGC’s Portrayal Service To Interoperate Hierarchical Data Structures. A Case Study On Visualizing I3S In Cesium.

A. Koukofikis, V. Coors

Hochschule für Technik Stuttgart, Deutschland

The demand of serving large 3D spatial data, mainly in urban areas, reflected the need of hierarchical 3D data structures. During the last years the OGC community standard I3S (ESRI) and 3D Tiles (Analytical Graphics), emerged in order to deal with this issue. Conceptually, hierarchical 3D structures operate in an analogous manner with web map tiles, differentiating only in the implementation. A prototype implementation focuses on the rendering of I3S in the Cesium client using the 3D Portrayal Service. As a result, the user can query a scene via the 3D Portrayal Service by specifying a spatial region, rather than a specific resource via a URI. The result can be delivered either using I3S or 3D Tiles as a data delivery format, depending on which data is available for the specified region. The Cesium client can both render both the I3S as well as the 3D Tiles content.


Digitalisierung mit LEFIS zur Förderung des ländlichen Raumes

A. Wagner

Verband für Landentwicklung und Flurneuordnung Brandenburg, Deutschland

Die Flurbereinigung als ein wichtiges Instrument der Landentwicklung dient der gesetzlichen Aufgabe, den ländlichen Raum zur nachhaltigen Verbesserung der Eigentums- und Agrarstrukturen und damit der Lebens-, Produktions- und Arbeitsbedingungen neu zu ordnen.

Als technische Unterstützung zur Lösung der hiermit verbundenen Aufgaben wurde das durch die Bund-Länder-Arbeitsgemeinschaft »Nachhaltige Landentwicklung« (ArgeLandentwicklung) initiierte Fachinformationssystem der Landentwicklung LEFIS entwickelt, welches zur umfassenden Bearbeitung von ländlichen Bodenordnungsverfahren nach dem Flurbereinigungsgesetz (FlurbG) und dem Landwirtschaftsanpassungsgesetz (LwAnpG) eingesetzt wird. Mit LEFIS wird die bisherige heterogene, nicht standardisierte Systemlandschaft sowie die redundante und teilweise inkonsistente Datenhaltung innerhalb der Länder sowie zwischen den Ländern abgelöst.

LEFIS besteht aus dem objektorientierten Datenmodell, den Arbeitsprozessen, dem fachlichen Funktionsmodell sowie den Ausgabeprodukten für die amtlichen Nachweise und Bestandteile von Verwaltungsakten im Ablauf der verschiedenen Bodenordnungsverfahren. Die einheitliche länder- und verwaltungsübergreifende Normbasierte Austauschschnittstelle (NAS) sorgt für den reibungslosen Datenaustausch mit der Kataster- und Vermessungsverwaltung sowie zukünftig mit der Grundbuchverwaltung, aber auch mit weiteren objektorientierten Systemen Dritter; gerade zwischen der Flurbereinigungsverwaltung und der Kataster- und Vermessungsverwaltung findet ein kontinuierlicher und zu bestimmten Anlässen auch umfangreicher Austausch von Geodaten (hauptsächlich ALKIS) vor, während und nach Bearbeitung eines Verfahrens statt.

LEFIS ist kein autarkes Datenmodell, sondern nutzt das AFIS-ALKIS-ATKIS-Modell der Arbeitsgemeinschaft der Vermessungsverwaltungen (AdV), welches seit 2008 sukzessive in den Kataster- und Vermessungsverwaltungen eingeführt wird, und basiert damit ebenfalls auf internationalen Normen und Standards.

Für die Entwicklung von LEFIS wurde im Jahr 2000 aufgrund des Beschlusses der ArgeLandentwicklung die bundesweite Expertengruppe LEFIS (EG LEFIS) – aktuell bestehend aus Brandenburg (Vorsitz), Hessen, Niedersachsen, Nordrhein-Westfalen und Rheinland-Pfalz – eingerichtet. Sowohl die AdV als auch verschiedene GIS-Hersteller unterstützen die EG LEFIS in Fragen der Modellierung.

Der Zusammenschluss der Implementierungsgemeinschaft LEFIS (IP LEFIS) – aktuell bestehend aus Brandenburg, Hessen, Niedersachsen, Rheinland-Pfalz, Mecklenburg-Vorpommern und Sachsen-Anhalt – per am 01.November 2009 in Kraft getretenen Verwaltungsvereinbarung verfolgt das Ziel, die Implementierung, Nutzung und Pflege der Softwarelösung LEFIS voranzubringen. Mit dem am 28. November 2011 unterschriebenen Vertrag zwischen der IP LEFIS und der Fa. AED-SICAD AG begann die Implementierungsphase der ersten Entwicklungsstufe.

Mit der Einführung des standardisierten Fachinformationssystems LEFIS werden nun neben der Vereinfachung der Systempflege, der Sicherstellung der Datenaktualität, -plausibilität und -konsistenz sowie dem einheitlichen Datenaustausch zahlreiche weitere Mehrwerte geschaffen. Dazu gehören die Erhöhung der Qualität und Wirtschaftlichkeit bei der Bearbeitung von Bodenordnungsverfahren durch die nun integrierte Verarbeitung von Sach- und Grafikdaten mit einheitlichen und neuen bisher nicht zur Verfügung stehenden Funktionen, die Verbesserung der Bereitstellung von Informationen für Entscheidungsprozesse unter Mitwirkung der Bürger/innen sowie mehr Datensicherheit sowohl für die Bürger/innen als auch für die beteiligten Kommunen und Unternehmen.

Weitere Entwicklungsstufen, wie z.B. die Erstellung des Plans über die gemeinschaftlichen und öffentlichen Anlagen nach § 41 FlurbG sowie die Nutzung von GDI-Strukturen und des E-Government, sind geplant, so dass LEFIS letztendlich das umfassende Bearbeitungs- und Informationssystem der Landentwicklung wird.

Mit der Einführung von LEFIS stehen die Bundesländer aber auch vor vielfältigen Herausforderungen, z.B. Pilotierung, Anpassung an länderspezifische Bedingungen und das Tagesgeschäft und damit verbunden an weitere Nutzeranforderungen, evtl. Migration der Altdaten und nicht zuletzt Organisation der Schulungen sowie des Supports.


Multi-layer Land Cover Data for Remote-Sensing based Vegetation Modelling for South Korea

C. Eisfelder1, H. O. Kim2, C. Kuenzer1

1German Remote Sensing Data Center (DFD), German Earth Observation Center (EOC), German Aerospace Center (DLR), Oberpfaffenhofen, 82234 Weßling, Germany; 2Korea Aerospace Research Institute (KARI), 169-84 Gwahak-ro, Yuseong-gu, Daejeon, 34133 Korea

Land cover data are important base information for modelling of vegetation productivity. They provide information about the distribution of different land cover and vegetation types on the land surface. This knowledge is essential for modelling net primary productivity (NPP). NPP modelling is commonly based on phenological and meteorological time-series data, which can be derived from remote sensing. A land cover classification is needed to define the type of vegetation to be modelled with its specific parameters for a certain location. Most often, global land cover datasets are employed for NPP modelling, but also regional land cover maps can be used. The availability of regional land cover maps may be of major advantage, as global land cover data have shown weakness in describing heterogeneity in land cover characteristics on regional scale.

Land cover maps commonly define one land cover class per pixel. However, some models, such as the Biosphere Energy Transfer Hydrology model BETHY/DLR, are able to include more than one vegetation type per pixel for NPP modelling. As the spatial resolution of regional land cover products is usually higher than the spatial resolution applied for NPP modelling, high resolution land cover data can be used to derive a set of land cover information at coarse resolution that provides information about several land cover classes per pixel and their coverage.

In this study, we derive such multi-layer coarse resolution land cover information and analyse how well a coarse resolution ~1 km land cover classification is able to represent land cover classification at higher (30 m) resolution derived from Landsat data for the study area of South Korea. We find that the primary vegetation class at 1 km spatial resolution is only able to represent higher resolution land cover heterogeneity for 14.8% of the area. Especially widely distributed agricultural areas, which were not the majority class at 1 km² were missed. Multi-layer land cover information with secondary and tertiary hierarchical classes is able to fully represent 25.8% and 46.3% of higher-resolution land cover heterogeneity. With three hierarchical layers, already a good representation of the high resolution classification can be reached, as remaining land cover proportions typically not exceed 10%.

We also compare the land cover classification to three frequently used global land cover datasets, derived from MODIS, SPOT-VEGETATION, and AVHRR data. The comparison reveals varying agreement in classes’ area coverage with the regional land cover classification for South Korea. For different areas globally, advantages and shortcomings of various global land cover datasets may vary. For regional applications, a suitable base land cover map should be chosen carefully. If possible, we recommend using information from regional land cover data, as demonstrated in this study. For models that can include more than one vegetation type per pixel, multi-layer land cover data and coverages are a major asset.


Time-series processing of AVHRR data for NDVI product generation – an example from the TIMELINE project

C. Eisfelder, S. Asam, C. Frey, C. Kuenzer, S. Dech

German Remote Sensing Data Center (DFD), German Earth Observation Center (EOC), German Aerospace Center (DLR), Oberpfaffenhofen, 82234 Weßling, Germany

The TIMELINE project at the Earth Observation Center (EOC) of the German Aerospace Center (DLR) aims to generate long and homogenized time series of the National Oceanic and Atmospheric Administration (NOAA) and Meteorological Operational Satellite (MetOp) Advanced Very High Resolution Radiometer (AVHRR) data over Europe and North Africa. The project develops an operational processing and data management environment to process 30 years of raw data into L1b, L2, and L3 products.

The objectives of TIMELINE are to develop long AVHRR time series of geo-scientific variables for Global Change research, to enable change detection analyses and the identification of geo-scientific phenomena and trends, and to answer climate-relevant research questions.

The time series is generated on the basis of 1.1 km High Resolution Picture Transmission (HRPT) and Local Area Coverage (LAC) data using the historical AVHRR data archive of the German Remote Sensing Data Center (DFD) of DLR that dates back to 1986. The long time series of 30 years of daily acquisitions and the implementation of sound operational algorithms and state of the art validation techniques ensure a unique product set that conforms to quality requirements that rise from the scientific community.

Consistency of calibrated reflectance and thermal information is required for time series analysis. Therefore, an enhanced pre-processing is performed by taking into account geometric distortions due to rotation and satellite clock errors, varying spectral responses of different AVHRR sensors, calibration drift, orbit drift, sensor degradation, atmospheric and BRDF correction.

Furthermore, enhanced cloud masks, water masks, snow masks, and land use/land cover products are developed based on accurate and continuous L1b products. Based on this data foundation, a wide range of traditional and innovative remote sensing products covering different thematic aspects and processing levels will be available. The time series will be provided to the public using a free and open data policy. The Normalized Difference Vegetation Index (NDVI) L3 product, for example, will provide daily, 10-day and monthly NDVI composites.

Within our presentation, we would like to present the ongoing TIMELINE project and inform about current developments for selected geoscientific products.


Analyzing the spatial relationship between building volumes and land surface temperature in Upper-Hill, Nairobi, Kenya.

P. Mwangi

KENYATTA UNIVERSITY, Kenia

In urban areas, temperatures are higher than rural areas at night as the impervious surfaces absorb heat during the day and release it at night. Higher energy requirements within buildings, health problems, air pollution are just a few problems associated with urban heat island effect. Increasing populations and greater demand for urban space has led to the destruction of vast vegetative cover for impervious surfaces. Remote sensing studies on surface temperatures have mainly focused on the 2 dimensional aspect of buildings, without much emphasis on 3 dimensional analyses. The main objective of this paper is to analyse the geometry of individual buildings, height, area and volume, and determine their relationship with land surface temperature. In this paper, topographical data acquired from Survey of Kenya was extracted and used to generate a 2 meter digital elevation model (DEM) to calculate building heights. DEM accuracy was carried out using ground control points (GCP) and a value of 0.24 meters was obtained. Landsat 30 meter imagery was analysed to generate land surface temperatures (LST). Temperatures of buildings within the study area had a maximum and minimum of 27.6 70C and 35.40 0C within the gridded surface. Height, area and volume regression analysis results showed they each had a negative correlation with land surface temperature with height having the highest R2 value of 0.08.


Suitability Comparison of Crop Yield Models for Remote Sensing Integration

M. P. Wagner, A. Taravat, N. Oppelt

Christian-Albrechts-Universität zu Kiel, Germany

Agricultural production is facing serious exogenous risks in the near future, both naturally and economically. Average yields in Europe increased continuously in the last half of the 20th century but there are signs of a slowdown and further global productivity decreases in future scenarios. In order to effectively monitor agricultural productivity on larger scales, new technologies are needed. Following fast progress in terms of processing power, web- and cloud-enabled development, a new generation of crop yield analysis and forecasting tools is about to emerge. Eventually, the field might be dominated by fully automatic cloud-based services retrieving, processing and analyzing data and delivering tailor-made information to the individual user in (near) real-time.

Nevertheless, this future is heavily reliant on available data. In this context, satellite remote sensing can be used as a cost- and time-efficient method that has the capacity of global coverage and detailed information down to subfield levels. Current and future missions and projects such as ESA’s Copernicus program will deliver such data. A combination with the aforementioned services such as Google Earth Engine offering processing capacity and an open distribution environment will most probably form the basis for a large-scale agricultural Big Data approach. The field of crop modeling is just about to enable more sophisticated connections to remote sensing by embracing a new model generation with a more “user-driven” application focus, including cloud-based analytics services and mobile technology.

In the context of this highly relevant and growing topic, we are offering an overview in order to provide a knowledge foundation for the merging of these topics. We compare some of the most common crop simulation models and their existing as well as potential connections to geospatial and remote sensing applications. From the standpoint of an advanced user or developer, model design, processing capabilities as well as software extensions and programming environments are of highest importance.

Following an extensive literature review, we deliver a representative selection of research studies combining both fields and a brief description of methods used for advanced remote sensing data integration into crop models. These methods range from direct integration of meteorological parameters to advanced linkage to canopy reflectance models and multi-parameter model re-calibration. By comparing study results and model performances, we provide a useful impression of capabilities and potentials of different methods as well as possible future integrations.


Smart Grassland Cutting Date Detection by Using Sentinel-1 imagery and Artificial Neural Networks

A. Taravat, M. P. Wagner, N. Oppelt

Christian-Albrechts-Universität zu Kiel, Deutschland

There are several studies for grassland biomass estimation using earth observation data, but the focuses are rarely on Synthetic Aperture Radar (SAR) remote sensing approaches for automatic grassland cutting date detection. This study attempts to examine the multilayer perceptron neural networks capabilities for automatic grassland cutting date detection using SAR imagery. For two test sites in Northern Bavaria (Germany) time series of VV/VH Sentinel-1 C-band SAR together with the second-order texture metrics parameters (homogeneity, entropy, contrast and dissimilarity) served as the model input in order to detect grassland cuttings.

The dataset consists of 50 Sentinel-1 level-1 ground range detected, interferometric wide swath mode images captured from April to October 2016. Every nine days acquisitions of the study area from three geometries defined by the relative orbit number have been used. Concurrently with the Sentinel-1 acquisitions, field surveys provided data about wet and dry above-ground biomass and grass-cutting status (uncut, cut, grazed).

Multilayer Perceptron Neural Networks algorithm is used in this study. The proposed model has been trained with a backpropagation algorithm and the same parameters were used for all the samples. 21 separate models using 22 inputs; the network with 20 nodes in hidden layer has been selected as the best topology based on its generalization and accuracy with an overall accuracy of 85.71% for the validation dataset. The generated results show that the machine learning inversion model is capable of performing the grassland cutting date detection with a good level of precision. Nevertheless, the multilayer perceptron models can be improved by enhancing diversity and size of the training/testing datasets. The proposed model, however, shows potential to optimise the mowing validation phase by the European Union.


Tree Canopy Detection In Agro-Silvo-Pastoral Systems Using Digital Surface Model And Segmentation Analysis

G. Waldhoff, A. Bolten, G. Bareth

Universität zu Köln, Deutschland

Oak woodlands cover large areas in the Mediterranean and especially on the Iberian Peninsula. In most cases they are incorporated as silvo-pastoral systems combining forestry and grazing. Especially the Cork oaks are of high economic value (due to the cork). However, these landscapes are highly endangered nowadays, due to the cork oak decline, which is characterized by a wide spread dying of individual trees. The actual cause of this decline is still unknown.

The remote sensing-based monitoring of such landscapes can help to estimate the dimension and to investigate the cause of the decline. The landscape of silvo-pastoral systems is generally of complex nature and characterized by single trees or small groups of trees, which are surrounded by grass or shrub vegetation. Thus, for the monitoring of the tree status by using remote sensing, the tree canopies and furthermore individual trees need to be identified.

A promising data basis for the derivation of this information are unmanned aerial vehicle (UAV)-borne digital surface models (DSM) created out of orthophotos using Structure from Motion (SfM). For our study, we used a dataset with a spatial resolution of 10 cm for a subset of the Dehesa San Francisco (located approximately 60 km north of Seville, Spain), which we obtained in our field campaign in March 2016. Based on the height information of the DSM, the goal of deriving individual trees can be addressed in several ways. One approach is to use the shape of the canopies by calculating slope values on a per pixel basis. Through the application of threshold values, filtering and classification methods tree canopy polygons are finally generated. Another way is to incorporate the DSM height information in a classical object-based segmentation approach, followed by a supervised classification to identify the tree canopy polygons.

Both methods have their strength and weaknesses. While the first approach enables a more direct extraction of tree canopy pixels, the derivation of tree canopy polygons can be difficult in certain terrain situations. With the second approach, the segmentation of the data to derive meaningful tree canopy image objects is (more or less) straight forward, but the automated identification (classification) of an image object as an actual tree canopy is more complex. Furthermore, to really identify individual canopies of trees standing close together, additional information taken from the orthophotos may be necessary for both approaches. This can again be addressed in different ways.

In our contribution, we want to compare the results of the two segmentation methodologies, evaluate their overall performance, and give indications to further improve the detection of single trees in silvo-pastoral systems.


Satellitengestützte Bewässerung

M. Marszalek, U. Schmidhalter

Technische Universität München, Deutschland

Die Digitalisierung der Raumfahrt und Platzierung von Nanosatelliten im LEO in Kombination mit einem automatischen Prozessieren der Daten in der Cloud revolutioniert die Erdbeobachtung und ermöglicht neue innovative Anwendungen die noch vor Kurzem nicht umsetzbar gewesen wären. Innovative Anwendungen für die Landwirtschaft verfolgen gegenwärtig zwei unterschiedliche Ansätze. Zum einen werden kostengünstige und internetfähige Sensoren entwickelt um Umweltparameter wie Bodenfeuchte, Sonnenstrahlung oder Temperatur zu bestimmen. Zum anderen erfolgt die Bestimmung im wörtlichen Sinne von oben mittels Satelliten –und Drohnendaten. Satelliten oder Drohnen stellen hochgenaue multispektrale Informationen zur Verfügung die für die gleichen Anwendungsfälle wie mit Sensoren eingesetzt werden können. Der Vorteil liegt auf der Hand, da hier keine Installation oder Wartung notwendig ist. Die unt erschiedlichen Umwelt -und Pflanzendaten dienen Algorithmen als Grundlage um relevante Informationen für Bewässerung, Pflanzengesundheit, Schädlingsbefall oder Düngeranwendung zu berechnen.

Aufgrund dieser Möglichkeiten wurde der Landwirtschaftsservice OrbitalViews (www.orbitalviews.eu) entwickelt. Hierbei werden Wetter, Drohnen –und Satellitendaten gebündelt, um den täglichen Wasserbedarf von unterschiedlichen Fruchtarten weltweit und standortbezogen zu bestimmen. Mehrere Studien haben gezeigt, dass ca. 30% des für Bewässerung eingesetzten Wassers mittels Technologien und Optimierung eingespart werden kann. Der Algorithmus von Orbitalviews bestimmt den täglichen Wasserbedarf mittels Evapotranspiration, Solarstrahlung, Albedo und Biomasse. Dadurch wird es zukünftig möglich die genaue Wassermenge zur Sicherstellung von Erträgen zu bestimmen und gleichzeitig lokale Ressourcen zu schonen. Zusätzlich werden auch weitere multispektrale Daten und Indexes wie z.B. NDVI, NDWI oder LAI über eine REST-API zur Verfügung gestellt. Die Kommunikation mittels standarisierter und maschinenlesbarer Schnittstelle verbindet einen Satelliten direkt mit einer Bewässerungsanlage auf dem Feld oder kann von App-Entwicklern eingebunden werden. OrbitalViews befindet sich derzeit in der Testphase und bündelt gegenwärtig MODIS, Landsat und Sentinel-Daten. Ein Benützer kann direkt auf Ergebnisse zugreifen und muss keine aufwendigen Berechnungen mehr durchführen.


3D-Hyperspektralpunktwolken und semantische Karten für präzise Agraranwendungen

M. Kanning, S. Pütz, J. Hertzberg, T. Jarmer

Universität Osnabrück, Deutschland

Der Einsatz von Informationstechnik in der modernen Agrarwirtschaft ist bereits weit entwickelt. Autonome und intelligente Landmaschinen sind Teil der aktuellen Forschung und fahren räumlich und zeitlich hoch präzise Anwendungsszenarien. Nachhaltigkeit in der Bodennutzung ist ein wichtiges Ziel, um die Agrarproduktion langfristig ökonomisch und ökologisch zu optimieren.
Um diese Optimierung mit Informationstechnik zu unterstützen („Smart Farming“), bedarf es einer zeitlichen und räumlichen Modellierung des Pflanzenbestands und des Bodens. Hyperspektraldaten leisten schon jetzt einen entscheidenden Beitrag zur Ableitung von Pflanzen- und Bodenparametern in der Landwirtschaft. Der drohnengestützte und terrestrische Einsatz aktueller Hyperspektraltechnik ermöglicht eine noch genauere Erfassung spektral hoch aufgelöster Daten zur Ableitung dieser Parameter. Laser Scanner werden verwendet, um räumliche Modelle der Agrarumgebung in 3D zu erstellen; diese Modelle repräsentieren räumliche Strukturen präzise im Großen (Kuppen, Senken) wie im Kleinen (Fahr-, Drillspuren).
Unter der Zielsetzung, für Agraranwendungen ein umfassendes, aussagekräftiges räumliches und zeitliches Modell landwirtschaftlicher Flächen zu schaffen, müssen terrestrische Hyperspektral- und 3D-Daten kombiniert werden. Zusätzlich erfordert das Sammeln von zeitlich und räumlich hoch aufgelösten Daten eine mobile Einheit am Boden in kurzer Entfernung zum Pflanzenbestand und zum Boden. Unter Verwendung einer mobilen Roboterplattform, ausgerüstet mit einem hochauflösenden Riegl VZ400i 3D Laser Scanner zur Aufnahme geometrischer Daten und der Resonon Pika-L Hyperspektralkamera, kann ein umfassendes Modell einer Fläche erstellt werden. Durch Kalibrierung werden die Daten beider Sensoren vom selben Aufnahmepunkt zueinander registriert; Daten von unterschiedlichen Aufnahmepunkten werden auf Basis der Georeferenzierung ihrer Aufnahmeposen mit vorhandenen Verfahren der 3D-Scanregistrierung automatisch registriert. Das Resultat ist eine 3D-Hyperspektralpunktwolke der kompletten Fläche, die geometrische und spektrale Informationen beinhaltet. Diese ist Grundlage für eine Semantische Karte, die semantische Kategorien an korrespondierende geometrische und hyperspektrale Daten bindet und räumliche und semantische Abfragen erlaubt. Die Daten werden von der Roboter-Plattform automatisch räumlich und georeferenziert aufgenommen und in der Semantischen Karte mit Hilfe einer GIS Datenbank persistent hinterlegt.



 
Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.122
© 2001 - 2018 by Dr. H. Weinreich, Hamburg, Germany