Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

S02: Fernerkundung I
Mittwoch, 07.03.2018:
15:30 - 17:00

Chair der Sitzung: Volker Hochschild
Chair der Sitzung: Birgit Kleinschmit
Ort: Audimax

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an

Modeling Subsurface Soil Moisture Based On Hyperspectral Data - First Results Of A Multilateral Field Campaign

S. Keller1, F. M. Riese1, N. Allroggen2, C. Jackisch3, S. Hinz1

1Karlsruhe Institute of Technology (KIT), Institute of Photogrammetry and Remote Sensing; 2University of Potsdam (UP), Institute of Earth and Environmental Science; 3Karlsruhe Institute of Technology (KIT), Institute of Water and River Basin Management

Ecological and hydrological processes such as vegetation monitoring or soil property analysis depend, inter alia, on soil moisture dynamics in the subsurface. One of the most important aspects in this context is the precise modeling of these dynamics. Thus, modern remote sensing techniques become increasingly important for in-situ soil moisture measurements, since they provide information on the spatial and temporal distribution of subsurface soil moisture. Current approaches focus on measuring hyperspectral and hydrological data in a laboratory setup by aggregating and, eventually, combining them in a hydrological model. However, these laboratory measurements are limited for instance to a certain number of soil moisture levels.

In this paper, we present a large and multilateral dataset which was measured during a three-day field campaign in August 2017 employing a diverse set of different sensors. As remote sensing technique, we installed a hyperspectral snapshot camera (VIS-NIR), a hyperspectral spectrometer (VNIR-SWIR), and an infrared camera (LWIR) on a rack. The soil moisture was measured in situ by several time-domain reflectometry sensors (TDR) and tensiometers which were installed in different soil depths in the measurement field. Additionally, we applied a ground-penetrating radar (GPR) to investigate the subsurface water flow. In order to broaden the range of expected soil moisture levels, the field was irrigated following a controlled irrigation schema. The conducted field campaign mainly arises out of the idea to link spatially and temporally variable hyperspectral data to subsurface soil moisture by combining the measured dataset in a non-linear regression model.

After briefly summarizing the theoretical background and the related work, we describe the field campaign including the irrigation processes as well as the multi-sensor system and the measured data. The complex sensor composition requires several preprocessing steps, e.g. calibration methods, application of filters and masks, which we elaborate in detail in the following section. Moreover, we focus on machine learning (ML) methods to estimate subsurface soil moisture based on hyperspectral data and TDR data as ground-truth. We present first results of two standard ML regressors – Random Forest and Support Vector Machines. Most current research studies select specific wavelengths, calculate a ratio index, and then predict subsurface soil moisture. In contrast, we developed a generic approach including all features. The Random Forest regressor, in this context, reveals information on the feature importance. We discuss the correlation between the results of the different soil moisture measurements of TDR and GPR and the regression outcome of the hyperspectral data. In a prospective step, we will improve the developed approach by combining supervised and unsupervised machine learning regression approaches.

Machine Learning Regression For Chlorophyll-a Retrieval Based On Hyperspectral Data

P. M. Maier, S. Hinz, S. Keller

Karlsruhe Institute of Technology (KIT), Institute of Photogrammetry and Remote Sensing

During the last decades, monitoring of inland waters has become a topic of major interest in terms of water quality and environmental issues. Considering the monitoring of area-wide water bodies, a lot of data is necessary. However, far less reliable of this information exists. Most of the currently available datasets for evaluating the quality of inland waters consist of sampled point data. This data can be unreliable when it comes to derive information for the entire water body. Recent attempts towards such an area-wide coverage of water quality monitoring have included the application of hyperspectral sensors to gather image-based data. Chlorophyll-a and turbidity function as indicators of algae existences in turn characterize water quality and nutrition supply.

In this contribution, we present a machine learning approach to investigate the chlorophyll-a concentration of a water body. Therefore, we involve techniques of hyperspectral remote sensing that enable the distinction of specific chlorophyll-a concentration by continuous measurements. Most current research studies select specific wavelengths, calculate a ratio index, and predict chlorophyll-a concentrations. In contrast, we focus on the development of a generic approach including all features (wavelengths). It offers the opportunity to transfer the developed methodology to further inland waters using machine learning.

The contribution is based on data which was sampled by a hyperspectral sensor mounted on a research ship and monitoring the river Elbe in the area from Bad Schandau to Geesthacht in Germany. Almost 500 kilometres were monitored sequentially which results in a large set of 1.500 data points. The data collection was embedded in the scope of the “Elbschwimmstaffel”, which took place in summer 2017 in Germany and was funded by the Federal Ministry of Education and Research (BMBF). The applied hyperspectral sensor was a Cubert-UHD 285 characterized by an amount of 125 bands in the range from 450 nm to 950 nm. Additionally, in situ underwater data was measured with a multi-sensor system – the PhycoSens – invented by the company BBE Moldaenke. Concentration of chlorophyll-a, diatoms, and green algae as well as turbidity represent the target variables. We (1) describe the measured dataset of the river Elbe, (2) exploit machine learning regression approach to predict in a first step the chlorophyll-a concentration, (3) evaluate the importance of spectral bands, and (4) evaluate the performance of the selected regression approach.

This study demonstrates that the chlorophyll-a concentration of the Elbe can be predicted by machine learning regression with a coefficient of determination R² better than 0.8. Hereby, merely 30% of the data was used as training data while the remaining part was used for evaluation.

In a prospective step, we will transfer the developed approach to distinguish between further algae species of inland waters as well as include additional machine learning regression approaches. The latter involves to fragment spectral information of hyperspectral data into parts, which characterize the specific water body, and the spectral features representing algae information. As database, we then will include hyperspectral data measured via UAV.

Multitemporale Landbedeckungsklassifikation durch Konvolutional-Rekurrente Neurale Netze

M. Rußwurm, M. Körner

Technische Universität München, Deutschland

Erdbeobachtungssensoren liefern heute Daten mit wöchentlicher bis täglicher Abdeckung.
Meist basieren Methoden zur Auswertung dieser Daten allerdings auf mono-temporalen und wolkenfreien Beobachtungen.
Die steigende Beobachtungsfrequenz heutiger Sensoren eröffnet dagegen die Möglichkeit neben spektralen auch temporale Merkmale zu extrahieren.
Um multispetrale und temporale Daten verarbeiten zu können Bedarf es Methoden, die zeitliche, spetrale, und räumliche Merkmale von Klassen berücksichtigen.
Disziplinen anderer Fachrichtungen, wie Spracherkennung und Textübersetzung arbeiten mit inherent temporalen Daten und erreichen heute sehr gute Genauigkeiten mit Sequenz-zu-Sequenz Enkodierungs-/Dekodierungsstrukturen.
Diese Strulturen basieren auf Gated Rekurrenten Neuronalen Zellen (Gated Recurrent Neural Networks), wie Gradient Rectified Unit (GRU) oder Long Short-Term Memory (LSTM), welche kurzzeitliche und langzeitliche Informationen aus einer Datensequenz extrahieren können.
In dem Kodierungsschritt schreiben die Zellen relevante Information sequenziell in einen 'Gedächtnisvektor' (thought vector/memory vector).
Für Übersetzung und Sprachverarbeitung wird in Sequenz-zu-Sequenz Modellen dieser Gedächtnisvektor durch einen weiteren Dekodierungsschritt in eine Ausgabesequenz transformiert.
Inspiriert von Ergebnissen aus der Natürlichen Sprachverarbeitung (Natural Language Processing) untersuchen wir die Anwendung des Enkodierungsschritts der Sequenz-zu-Sequenz Modelle für Beobachtungszeitreihen aus der Erdbeobachtung.
Wir konstruieren eine Netzarchitektur zur Landbedeckungsklassifikation, welches auf Basis von Faltungs (convolutional) und Rekurrenten (recurrent) Ebenen eine Sequenz aus Satellitenaufnahmen mittlerer Auflösung in ein Segementierungsbild aus Landbedeckungsklassen transformiert.
In dem Netzwerk verarbieten erst Faltungsebenen zu jedem Beobachtungszeitpunkt spektrale und texturelle Merkmale in einer DenseNet-inspirierten Architektur.
Wir experimentieren mit dilatierten Faltungsmasken (dilated convolutions) um das rezeptive Feld des des Netzes zu erhöhen ohne die Auflöstung der Merkmalskarten zu verringern.
Nach den rein Konvolutionalen Ebenen werden temporale Merkmale in einem Konvolutional-Rekurrenten Enkodierungsschritt, analog Sequenz-zu-Sequenz Modellen, in einem Gedächtnisvektor geschrieben.
Eine letzter Softmax-Klassifikator berechnet aus diesem Vektor Klassenkonfidernzen für jedes Pixel der gesamten Zeitreihe.
Wie zuvor eingeleitet steuern Gated Rekurrente Zellen durch Gates, welche Information geschrieben, gelöscht oder ignoriert werden soll.
Mit einer Analyse der Aktivierungen dieser Gates bei bewölkten und klaren Beobachtungen versuchen wir Rückschlüsse zu ziehen inwieweit das Netzwerk eigenständig bewölkte Beobachtungen ignorieren kann.
Wir evaluieren das Netzwerk in einem Untersuchungsgebiet von 100 x 40 Kilometern nördlich von München.
Eine Zeitreihe von etwa 90 Sentinel 2A und 2B Satellitenaufnahmen von Januar 2016 bis Dezember 2017 dienen als Rasterdatengrundlage.
Wir verzichten bewusst auf Vorprozessierung und Wolkenmasken und untersuchen wie das Netzwerk bewölkte Beobachtungen verarbeitet.
Darüber hinaus verwenden wir Satellitenproducte mit und ohne atmosphärischer Korrektur und untersuchen inwieweit eine atmosphärische Vorprozessierung die Klassifikationsgenauigkeit unseres Netzes beeinflusst.
Neben 19 Nutzpflanzenklassen, wie 'Mais' oder 'Weizen' klassifizieren wir weitere Bedeckungsklassen aus Open Street Map, wie 'Wohngebiet' oder 'Industriegebiet'.
Gesteuert durch die Phänologie von Vegetation ändern Nutzpflanzen ihre spektrale Reflektion über die Zeit, wodurch diese Klassen durch multi-temporale Merkmale auszeichnen.
Für die Bedeckungsklassen aus Open Street Map erwarten wir keine characteristische zeitliche Reflektionsänderung und Klassifikationsergebnisse sollten sich vornehmlich auf texturelle und spektrale Merkmale stützen.
Zum einen versuchen wir durch den ganzheitlichen Ansatz aller verfügbaren spektralen und temporalen Merkmale eine große Anzahl von Bedeckungsklassen zu klassifizieren.
Zum anderen hoffen wir auch, dass unsere Ergebnisse helfen die Notwendigkeit von Vorprozessierungsschritte wie atmosphärische Korrektur oder Wolkenmaskierungen für Deep Learning Methoden abzuschätzen.

Erste Erfahrungen mit der Nutzung von Sentinel-2 Daten zur multispektralen und multitemporalen Analyse mit verschiedenen Klassifizierungsverfahren

M. Weinmann, U. Weidner

Karlsruher Institut für Technologie (KIT), Deutschland

Die Sentinel-2 Satelliten bieten im Vergleich zu vorherigen Erdbeobachtungssystemen sowohl hinsichtlich der Auflösung als auch bezüglich der Aufnahmerate eine verbesserte Verfügbarkeit flächendeckender Multispektraldaten. Dadurch kann eine Szenenanalyse anhand von Satellitendaten deutlich begünstigt werden. Während die multispektrale Analyse einer Szene mit verbesserter geometrischer und spektraler Auflösung beispielsweise zur genaueren Kartierung und besseren Unterscheidung von diversen Landnutzungs- und Landbedeckungsklassen genutzt werden kann, erlaubt die multitemporale Analyse eine Beschreibung von dynamischen Prozessen. Jedoch kann die multitemporale Analyse auch zur Verbesserung der mit der multispektralen Analyse erzielten Ergebnisse beitragen. Dies ist insbesondere dadurch bedingt, dass das spektrale Verhalten verschiedener Objekte von zahlreichen Einflussfaktoren abhängt (z.B. von Wettergeschehen, Jahreszeit und Oberflächenbeschaffenheit von Objekten) und durch die Datenaufzeichnung über mehrere Zeitpunkte hinweg zuverlässigere Aussagen über die jeweilige Klassenzugehörigkeit möglich werden.

Im Rahmen dieses Beitrags wird die multispektrale und multitemporale Analyse von Sentinel-2 Daten genauer beleuchtet. Dabei werden Sentinel-2 Daten, welche für ein urbanes Gebiet und für verschiedene Zeitpunkte vorliegen, sowohl pro Zeitpunkt als auch für die Kombination bezüglich verschiedener Zeitpunkte analysiert. Für jeden dieser Fälle werden anhand von definierten Trainingsgebieten zunächst die internen Parameter von verschiedenen Klassifizierungsverfahren (Maximum-Likelihood Methode, Random Forest, Support Vector Machine) ermittelt. Anschließend erfolgt pro Klassifizierungsverfahren eine Klassifizierung für die gesamte verfügbare Szene sowie eine Bewertung der erzielten Ergebnisse anhand von definierten Kontrollgebieten. Die erzielten Ergebnisse zeigen das Potential einer multitemporalen Analyse deutlich auf, wobei für die betrachtete Szene eine signifikante Steigerung der Gesamtgenauigkeit mit bis zu >10% erreicht wurde.

Nach einem kurzen Abriss des aktuellen Stands der Forschung (Kapitel 2) folgt eine detaillierte Erläuterung der verwendeten Methodik (Kapitel 3). Daraufhin werden die durchgeführten Experimente beschrieben (Kapitel 4) und die erzielten Ergebnisse diskutiert (Kapitel 5). Abschließend folgen eine Zusammenfassung und ein Ausblick (Kapitel 6).

A Service Architecture For Processing Big Earth Data In The Cloud With Geospatial Analytics And Machine Learning

W. Glatz, T. Bahr

Harris Geospatial Solutions, Deutschland

A continually increasing, massive amount of geospatial data, i. e. Big Earth Data, from different sources (commercial satellite constellations and small satellites, drones) and modalities (Optical: Pan, RGB, MSI, HSI; SAR; LiDAR) enforces the automation of data processing. New tools and technologies are needed for hosting and managing distributed data processing in a high-performance computing environment within an enterprise or in the cloud.

The Geospatial Services Framework (GSF) brings together data, geospatial analytics, and computing power in the cloud to enable the deployment of applications, which solve problems at scale across industries.

GSF is based on the concept of service engines in a cluster. One essential feature is the adaptation to varying utilization. On demand, additional parallel engines (workers) can be added (scalability). Each engine uses multiple CPUs for parallel processing. Harris provides the ready-to-use ENVI/IDL/SARscape/Machine Learning service engines. In addition, customers may implement their own engines. GSF can be integrated in any public or internal server environments, such as Amazon Web Services (AWS), Microsoft Azure, or the Google Cloud Platform.

Developers may use GSF to easily publish custom algorithms for the hosted service engines. These processing workflows can then be shared across the enterprise or cloud. For analysis of remotely sensed data, developers can resort to the full width of ENVI software analytics.

ENVI combines image processing and analysis technology to derive detailed information from all geospatial data, i. e. optical imagery, SAR, and LiDAR. Available analytics include feature extraction, classification, object identification, change detection, and more. A specific machine learning algorithm for spectral-based land cover mapping is the Softmax Regression classifier. It can be created and trained on a reference dataset using spectral and spatial information and then applied to similar data multiple times. Implemented in a classification framework, it provides a flexible approach to customize a classification process.

All described geoprocessing tools are capable of being fully integrated with ArcGISÒ for Server from ESRI via a Python client library.

Harris machine learning contains deep learning capabilities, which are designed for the unique characteristics of space- and airborne imagery of multiple modalities, and point cloud data sets. Focus is on object recognition within scenes. Successful tests, for instance on Pan imagery, included i. a. airplanes, storage tanks, cooling towers, athletic fields, paved roads, overpasses, and tollbooths. Overall, it is a substantial contribution to spatio-temporal analytics of Big Earth Data.

Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.114
© 2001 - 2018 by H. Weinreich, Hamburg, Germany