Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
S13: Fernerkundung Anwendung - Forst und Agrar III
Zeit:
Freitag, 09.03.2018:
8:30 - 10:00

Chair der Sitzung: Georg Bareth
Chair der Sitzung: Peter Krzystek
Ort: Hörsaal 2760
96 PLÄTZE
Sitzungsthemen:
Anwendung - Forst und Agrar

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen
8:30 - 8:50

Verwendung von multitemporalen Sentinel-2 Daten für die Baumartenklassifikation im Biosphärenpark Wienerwald

M. Immitzer, M. Neuwirth, S. Böck, C. Atzberger

Universität für Bodenkultur (BOKU), Wien, Österreich

Detaillierte Kenntnisse der Baumartenzusammensetzung der Wälder sind für viele forstliche und ökologische Fragestellungen von hoher Bedeutung. Das große Potential der Auswertung von multispektralen Erdbeobachtungsdaten für die Kartierung der Baumarten wurde in zahlreichen Studien belegt. Neben der spektralen und der räumlichen Auflösung stellt die temporale Auflösung einen weiteren wesentlichen Faktor für die Unterscheidbarkeit von Arten dar. Mit dem Start des europäischen Erdbeobachtungssatelliten Sentinel-2 stehen seit 2015 Daten in einer bisher nicht bekannten Kombination aus zeitlicher, spektraler und räumlicher Auflösung zur Verfügung. Die Sentinel-2 Konstellation (zwei baugleiche Satelliten) stellt seit 2017 Daten mit einer räumlichen Auflösung von 10 bzw. 20 m in zehn Spektralkanälen und einer 10 bis 5-tägigen Wiederholrate mit globaler Abdeckung zur Verfügung. In dieser Arbeit wird der Mehrwert der hohen zeitlichen Auflösung für die Klassifikation von fünf Nadel- und sieben Laubbaumarten untersucht.

Die pixelbasierten Analysen erfolgten im 105 000 ha großen Biosphärenpark Wienerwald mit einem Waldanteil von rund 60%. Aus dem Zeitraum August 2015 bis Oktober 2017 stehen insgesamt 18 wolkenfreie Sentinel-2 Szenen zur Verfügung welche für die Klassifikation mittels Random Forests herangezogen wurden. Im ersten Schritt erfolgte die flächendeckende Trennung von sechs Landbedeckungsklassen (Nadelholz, Laubholz, Grünland, landwirtschaftliche Kulturen, Siedlung, Wasser). Anschließend wurden für Nadel- und Laubwaldarten stratenweise Klassifikationsmodelle erstellt, Klassifikationsmodelle erstellt, wobei immer alle Kombinationsmöglichkeiten der 18 Sentinel-2 Szenen getestet wurden. Für beide Baumartengruppen wurden in Summe 262 143 Random Forests Modellierungen durchgeführt. Die Modellierung umfasste dabei rekursive Variablenreduktion basierend auf dem Wichtigkeitsmaß Mean Decrease Accuracy. Die Modellbewertung erfolgte basierend auf den out-of-bag Ergebnissen. Die Landbedeckungsklassifikation erreichte eine Gesamtgenauigkeit (out-of-bag) von 96,1%. Mit monotemporalen Sentinel-2 Daten erzielte die Baumartenklassifikation Gesamtgenauigkeiten zwischen 48,1% (Jänner 2017) und 78,6% (Juni 2017). Mit Aufnahmen aus Sommer und Frühherbst wurden die besten Ergebnisse erzielt.

Die multitemporale Analyse erzielte im Vergleich zur besten mono-temporalen Aufnahme ein um 12,9 Prozentpunkte verbessertes Ergebnis (Laubholz). Für Nadelholz konnte ein um 11,0 Prozentpunkte verbessertes Gesamtklassifikationsergebnis erzielt werden. Dabei zeigte sich, dass bereits eine optimale Kombination von fünf oder sechs Sentinel-2 Szenen dieselbe Modellgüte erzielt, wie jene Modelle basierend auf allen 18 Szenen. Diese Kombinationen beinhalten vorrangig Szenen aus den Monaten April bis August. Die beste klassenspezifische Produzentengenauigkeit erreichte die Rotbuche mit 96,3% bzw. die europäische Lärche mit 95,9%. Die für die Trennung der Baumarten höchsten Variablenwichtigkeiten zeigten die Sentinel-2 Kanäle im SWIR-Bereich sowie der Rot-Kanal für die Nadelbaumarten-Modellierung.

Mit der Studie konnte das hohe Potential von multitemporalen Sentinel-2 Daten für die artenspezifische Klassifikation von Baumarten in mitteleuropäischen Wäldern belegt werden. Der nächste Schritt wird eine weitere Ausdehnung der Klassifikationsmodelle auf größere Gebiete sein. Für sehr heterogene Wälder sollte eine Kombination der multitemporalen Sentinel-2 Datensätze mit anderen, räumlich höher aufgelösten Fernerkundungsdaten (Orthophotos), analysiert werden.


8:50 - 9:10

Validierung einer UAV-basierten Multispektralkamera zur Erfassung von Bestandesmerkmalen in Weizen

L. Prey, M. Weigel, U. Schmidhalter

TU München, Deutschland

Die Etablierung drohnenbasierter Fernerkundungssysteme ist ein bedeutender Schritt in der landwirtschaftlichen Anwendung erprobter spektraler und bildgebender Methoden auf Feldebene. In den letzten Jahren gab es eine deutliche Steigerung der verfügbaren Drohnensysteme. Eine gezielte Anwendung durch Landwirte und das Feldversuchswesen verlangt aber eine zielorientierte Entwicklung und Validierung der Systeme. Ziel der Arbeit ist es, eine drohnenbasierte Multispektralkamera mit drei aktiv messenden Bestandessensoren und einem passiven Hyperspektralsensor bezüglich der Erfassung von Biomasse und Stickstoffaufnahme in Weizenbeständen zu vergleichen. Der Sensorvergleich wurde an drei Winterweizen-Versuchen am Standort Dürnast/Freising im Frühjahr 2017 durchgeführt. Dabei wurde ein Versuch mit Doppelhaploid-Zuchtlinien (V1), ein Sortenversuch mit 2 Stickstoffdüngestufen (60 und 120 kg N/ha) (V2) sowie ein Stickstoffdüngeversuch mit 8 Stufen (V3) berücksichtigt. Die Starrflügler-Drohne eBee (senseFly, Cheseaux-Lausanne, Schweiz) wurde als Plattform für eine Sequoia-Multispektralkamera mit einer Auflösung von 1.2 MP eingesetzt. Mit der Kamera wurden Bilder in 4 Banden aufgenommen: Grün (530-570 nm), Rot (640-680 nm), Red Edge (730-740 nm) und NIR (770-810 nm). Als Vergleich wurden Spektralmessungen mit den drei aktiv messenden Sensoren Greenseeker, CropCircle und Active Light Sensor (ALS) sowie einem passiv messenden Hyperspektralsensor (tec 5, Oberursel, Deutschland) durchgeführt. Die Sensoren waren auf der mobilen Multi-Sensorplattform Phenotrac 4 montiert, mit der mittels RTK georeferenziert in 5 Hz-Taktung gemessen wurde. Die Messungen fanden an drei Terminen in den EC-Stadien 32-65 statt. Begleitend wurde als Referenz aus einer Auswahl an Parzellen der Biomasseaufwuchs und die Stickstoffaufnahme bestimmt. Die Sensordaten wurden auf Parzellenebene aggregiert und zu verschiedenen Vegetationsindizes verrechnet. Zusätzlich wurden Beziehungen zum Kornertrag getestet. In V1 wurden nur mäßig gute Beziehungen zwischen Kornertrag und Drohnenindizes gefunden (max. R² = 0.29***, Red-Edge/NIR). In V2 (max. R² = 0.45***, Rot/Red Ege) und V3 (max. R² = 0.65***, Rot/NIR) konnte der Ertrag besser abgebildet werden. Die Korrelationen waren bereits zu EC 32 am besten. Dabei übertrafen die Korrelationen der Drohnenindizes die der anderen Sensoren in V2. Ähnlich gut konnte der Kornstickstoffertrag erfasst werden. An Termin 2 und 3 wurden gute Beziehungen zwischen Indexwerten der Drohne und ähnlichen Indizes der Hyperspektralsensoren gefunden (max. R² = 0.69*** ). Für die Abschätzung der Bestandesmerkmale vor der Blüte waren die bodenbasierten Sensoren der Multispektralkamera überlegen (max. R² von 0.39, 0.57 und 0.51 mit Biomasse, Stickstoffkonzentration bzw. Stickstoffaufnahme).Insgesamt zeigen sich Potentiale des Einsatzes von Drohnen in der Phänotypisierung von Feldversuchen, die hier durch vergleichbare Bezüge mit dem Endertrag bestätigt werden. Deutliche Vorteile im Vergleich zu bodenbasierten Sensoren ergeben sich aus der schnelleren Erfassung der Bestände. So dauerte die Messung der 1,5 ha Versuchsfläche mit der Drohne ca. 15 Minuten, mit dem Sensorfahrzeug jedoch 2 Stunden. Ebenso kann damit auf Fahrspuren und mögliche Fahrschäden verzichtet werden. Der Sensorvergleich kann dazu beitragen, Algorithmen im Präzisionspflanzenbau für Düngeanwendungen und Schlagkartierungen auch drohnenbasiert einzusetzen.


9:10 - 9:30

Quantifizierung der Ährenanzahl von Gerste mittels UAV-gestützter Bildaufnahmen

N. Wilke1, A. Burkart2, B. Siegmann1, U. Rascher1, L. Klingbeil3

1Forschungszentrum Jülich, Deutschland; 2JB Hyperspectral Devices UG, Deutschland; 3Institut für Geodäsy und Geoinformation

Die Erfassung von Vegetationsparametern in landwirtschaftlichen Beständen gewinnt zunehmend an Bedeutung. Moderne Verfahren der Bildverarbeitung in Kombination mit neuen Sensoren und autonom agierenden Kleinflugzeugen werden in den kommenden Jahren eine Revolution in der landwirtschaftlichen Pflanzenzüchtung und in der Nutzpflanzenproduktion nach sich ziehen.

Als Bestandteil dieser Entwicklung wird in der vorliegenden Studie die Ährenanzahl mit Hilfe eines Multikopters (RGB Kamera) und unter Anwendung verschiedener Bildvorverarbeitungsschritte (z. B. Structure from Motion) multitemporal erfasst. Zur Validierung des UAV-Ergebnisses wurden die Ähren im Feld innerhalb eines definierten Quadratmeters gezählt. Um den optimalen Beobachtungszeitpunkt für die Erfassung der Ähren mittels Fernerkundung identifizieren zu können, wurde im wöchentlichen Abstand die Ährenanzahl an einer Versuchsparzelle im UAV-Einzelbild bestimmt.

Verglichen mit der Referenzmessung im Feld konnten in den UAV-Einzelbildern etwa jede zweite Ähre innerhalb des vordefinierten Quadratmeters erfasst werden. Mit den UAV-Aufnahmen können somit größtenteils nur die Ähren im oberen Kronendach bonitiert werden und nur eingeschränkt Ähren, die sich in weiter untenliegenden Schichten des Bestandes befinden.

Bei der Analyse der Diskrepanz zwischen Referenzmessung und Einzelbild ist auffällig, dass die Werte über verschiedene Sorten und Saatdichten hinweg konstant zwischen 50% und 56% abweichen und die Standardabweichung gering ist. Wird dieser Wert von zukünftigen Untersuchungen bestätigt, könnte die aus den UAV-Bildern ermittelte Ährenanzahl mit einem entsprechenden Faktor multipliziert werden, um eine genauere Erfassung der Ährenanzahl zu ermöglichen.

Weiterhin zeigen die Ergebnisse, dass der Termin direkt zu Beginn der Ährenentwicklung (BBCH 61) der beste Zeitpunkt für die Bonitur mittels UAV-Bildaufnahme ist. Beeinflusst wurde dies durch den hohen Farbkontrast in diesem Entwicklungsstadium, in dem sich die Ähre deutlich vom Rest der Pflanze abhebt. Mit fortlaufender Entwicklung (Abreifung der Pflanze inklusive Ähre) vermindert sich dieser farbliche Kontrast und die Identifizierung der Ähren wird deutlich schwieriger. Zusätzlich eignet sich ebenfalls ein späteres Entwicklungsstadium (BBCH 85) um die Ähren zu identifizieren. In diesem Entwicklungsstadium sind die oberen Ähren bereits abgereift und beginnen sich zu senken. Nachzügler dich sich in den unteren Schichten des Bestandes befanden und noch grün waren wurden sichtbar und konnten ebenfalls erfasst werden.

Resümierend besteht das Potential, die Ähre durch den deutlichen Farbkontrast zu Beginn der Ährenentwicklung automatisiert zu erfassen. Dementsprechend könnte zukünftig die Ährenanzahl zur Phänotypisierung, zur Pflanzenzüchtung oder zur Ertragsabschätzung verwendet werden.


9:30 - 9:50

Introducing a New Concept for Grassland Monitoring: the Multi-temporal Grassland Index (MtGI)

U. Lussem, G. Bareth

University of Cologne, Institute of Geography, GIS & RS Group, Germany

The monitoring of forage mass in managed grasslands is of key importance because it equals yield. The spatially explicit determination of removed forage mass in multi-cut grasslands is a non-solved problem and the knowledge would enable improved fertilizer management. Therefore, the objective of this contribution is the development of a remote sensing-based method to derive forage mass after grassland is cut. For this purpose, we propose a new concept for vegetation monitoring which is based on the multi-temporal acquisition of super high resolution UAV-based RGB-imagery. From the acquired data it is possible to derive the RGB-Vegetation Index (RGBVI) (Bendig et al. 2015) and sward height (Bareth et al. 2015). The latter is based on the concept of Crop Surface Models (CSMs) which is based on multiple UAV campaigns during phenology (Hoffmeister et al. 2010). The study was carried out at the long-term Rengen Grassland Experiment (RGE) in Germany in 2014. The RGE is conducted by the INRES (Institute of Crop Science and Resource Conservation) of the University of Bonn, Germany (Schellberg et al. 1999). From the combination of the UAV-derived data sets, sward height and RGBVI, the computation of the Grassland Index (GrassI) is possible (Bareth et al. 2015). In contrast, the newly proposed concept for grassland monitoring is based on two UAV-campaigns per growth: direct before (t1) and direct after (t2) cut. From the two time windows, the Multi-temporal Grassland Index (MtGI) is calculated. The MtGI is a NDVI-like vegetation index but includes temporal change in its equation. Applied on remote sensing data, it can be considered as a spatio-temporal vegetation index. The MtGI is highly correlated (R2 = 0.74) to destructively measured forage mass and therefore, bears a promising potential for non-destructive and automated forage mass mapping in managed grasslands with low-cost UAVs.

Literature:

BARETH, G., BOLTEN, A. HOLLBERG, J., AASEN, H., BURKART, A., and SCHELLBERG, J. (2015): Feasibility study of using non-calibrated UAV-based RGB imagery for grassland monitoring: Case study at the Rengen Long-term Grassland Experiment (RGE), Germany. DGPF Annual Conference'15, DGPF-Proceedings 24, pp.55-62 (http://www.dgpf.de/src/tagung/jt2015/start.html).

BENDIG, J., YU, K., AASEN, H., BOLTEN, A., BENNERTZ, S., BROSCHEIT, J., GNYP, M.L., and BARETH, G. (2015): Combining UAV-based Crop Surface Models, Visible and Near Infrared Vegetation Indices for Biomass Monitoring in Barley. Int. J. Appl. Earth Obs. Geoinf. 39, 79-87. doi:10.1016/j.jag.2015.02.012

HOFFMEISTER, D., BOLTEN, A., CURDT, C., WALDHOFF, G. and BARETH, G. (2010): High resolution Crop Surface Models (CSM) and Crop Volume Models (CVM) on field level by terrestrial laserscanning. In: Proc. SPIE, Vol. 7840, 78400E: 6 p. doi: 10.1117/12.872315

SCHELLBERG, J., MÖSELER, B.M., KÜHBAUCH, W., and RADEMACHER, I. (1999): Long-term effects of fertilizer on soil nutrient concentration, yield, forage quality and floristic composition of a hay meadow in the Eifel Mountains, Germany. Grass and Forage Science 54, S. 195-207. DOI: 10.1046/j.1365-2494.1999.00166.x



 
Impressum · Kontaktadresse:
Veranstaltung: PFGK18-Tagung
Conference Software - ConfTool Pro 2.6.119
© 2001 - 2018 by Dr. H. Weinreich, Hamburg, Germany