Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
AK2.1: Fernerkundung: Agrar
Zeit:
Donnerstag, 14.03.2024:
13:00 - 15:00

Chair der Sitzung: Christoph Hütt
Chair der Sitzung: Uwe Knauer
Ort: D125


Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Validation photogrammetrischer Pflanzenhöhenbestimmung mittels GPS-gestützte Ground Truth Erhebung in Exaktversuchen

P. Herzig, B. Sander, J. Kopka, P. Nikitin, U. Knauer

Hochschule Anhalt, Deutschland

Die präzise Bestimmung der Pflanzenhöhe landwirtschaftlichen Kulturen hilft bei der Vorhersage von Biomasse und Ertrag und lässt eine Beurteilung der Entwicklung des Bestandes zu. Die photogrammetrische Pflanzenhöhenbestimmung mittels Drohnen ermöglicht dies flächendeckend ohne aufwendige Messungen im Feld. Darüber hinaus können die 3D Modelle dabei helfen Lager- und Wildschäden zu quantifizieren. Ziel der Arbeit ist die Bestimmung der Präzision photogrammetrischer Pflanzenhöhenbestimmung und die Identifikation von Faktoren, die diese Präzision beeinflussen.

Dafür wurden während der Vegetationsperiode von Mai bis Juli 8 UAV Flüge auf dem Versuchsflächen der Hochschule Anhalt in Bernburg durchgeführt. Auf der Versuchsfläche befanden sich unterschiedlichste Sommer- und Wintergetreidekulturen (Gerste, Roggen, Weizen Hafer, Triticale, Durum) in vierfacher Wiederholung mit insgesamt 160 Parzellen im Anbau (Abb. 1). Um ein präzises Höhenmodell aus den Drohendaten zu erhalten wurden sechs Ground Control Points (GCPs) im Feldversuch positioniert und mittels RTK-GPS eingemessen. Für die Ground Truth Messungen der Pflanzenhöhen im Feld wurden 2 Methoden verwendet. Zum einen wurden parallel zur UAV-Kampagne ca. 100 RTK-GPS Punkte im Feldversuch vermessen und mittels Laserdistanzgebär die Pflanzenhöhe bestimmt (Abb.1 und Abb.2). Die Auswahl der 100 RTK-GPS Punkt im Feld wurde so getroffen, dass sie sich gleichmäßig über den Versuch verteilen und den gesamten Wertebereich der im Feld vorkommenden Pflanzenhöhen abdecken. Zum anderen wurde, wie in der konventionellen Bonitur der Pflanzenhöhe üblich, ein Mittelwert pro Parzelle ermittelt. Um ein Maß für die Präzision zu erhalten wurde das Bestimmtheitsmaß (R2) zwischen den gemessenen Pflanzenhöhen im Feld und der Bestimmung durch das photogrammetrische Verfahren berechnet.

Die Präzision der photogrammetrischen Pflanzenhöhenbestimmung erreichte über den gesamten Vegetationszeitrum hinweg eine Vorhersagegenauigkeit von R2 = 0,85 und lag auch innerhalb der einzelnen Messkampagne auf einem hohen Niveau von R2 > 0,75 (Abb.3).



Sensorgestützte Erfassung der Eigenschaften landwirtschaftlich genutzter Böden anhand von Aufnahmen des Bodenprofils

U. Knauer, J. Kopka, P. Herzig

Hochschule Anhalt, Deutschland

Am ausgehobenen Bodenprofil lassen sich Aufbau und Eigenschaften des Erdbodens gut erfassen. Durch den hohen Aufwand und den mit dem Aushub verbundenen Eingriff in die Bodenstruktur ist dies nur punktuell möglich. In diesem Beitrag wird dargestellt, wie die jährlich zu Unterrichtszwecken ausgehobenen Bodenprofile der Hochschule Anhalt digital konserviert und für weitere Analysen der Bodenstruktur aufbereitet werden.

Den ersten Schritt stellt die Fotodokumentation mit dem Ziel der späteren dreidimensionalen Rekonstruktion des Bodenprofils dar. Hierfür kam eine Sony Alpha 7 III mit einem 50 mm Festbrennweitenobjektiv zum Einsatz. Zur späteren maßstabsgerechten Rekonstruktion wurde ein Maßstab in die Szene integriert.

Die photogrammetrische Rekonstruktion anhand von 310 Einzelaufnahmen erfolgte mit der Software Pix4Dmapper. Abbildung 1 (nicht enthalten) zeigt die von der Software ermittelten Aufnahmepositionen und Blickwinkel der Kamera. Innerhalb des Bildverbands ergaben sich annähernd 10,5 Mio. 2D-Punkte für das Matching. Im Mittel wurden pro Bild 34.724 Punkte von 75.448 Punkten verwendet. Das Bodenprofil stellt damit eine ausreichend strukturierte Szene für die 3D-Rekonstruktion dar. Für den Bündelblockausgleich wurden insgesamt etwa 3,46 Mio. 3D-Punkte verwendet. Der geschätzte mittlere Projektionsfehler beträgt nach dem Bündelblockausgleich 0,2 Pixel.

Es konnte für die gewählte Szene eine dichte 3D-Punktwolke ermittelt werden. Anhand der 3D-Punktwolke wird die Oberfläche mit einem 3D-Mesh rekonstruiert. Abbildung 2 (nicht enthalten) gibt einen Eindruck von der erzielten Qualität des 3D-Modells.

Das 3D-Modell wird im OBJ-Format exportiert und bildet die Grundlage eines digitalen Zwillings des Bodens. Im Vordergrund steht die Visualisierung der Bodenstruktur mit der Möglichkeit, weitere Eigenschaften des Bodens zu visualisieren und punktuell Eigenschaften anderer Sensordaten durch Kenntnis des Bodenprofils zu erklären.

Dazu wurde das Bodenprofil zusätzlich mit einer Hyperspektralkamera SPECIM IQ (Behmann et al., 2018) im Bereich VIS-NIR vermessen. Das Hyperspektralbild hat 204 Kanäle im Bereich von 400 nm bis 1000 nm. Gegenüber dem 3D-Modell mit RGB-Texturen lässt die spektrale Erfassung der Bodeneigenschaften eine bessere Differenzierung und nachgelagerte Vermessung der Bodenstruktur erwarten. Zur spektralen Vermessung wurde ein Weißreferenztableau in die Szene eingebracht und die Stirnseite des Bodenprofils aufgenommen. Die Weißreferenz dient der radiometrischen Kalibrierung der Daten und der Bestimmung der wellenlängenabhängigen Reflektion des Lichts am Bodenprofil.

Eine Hauptkomponentenanalyse ermöglichts die Projektion der hochdimensionalen Spektren in einen Merkmalsraum geringerer Dimension. Der Merkmalsraum wird durch die drei ersten, mittels Karhunen-Lóeve-Transformation (PCA) ermittelten, Hauptkomponenten (principal components) gebildet. Es zeigt sich eine gute Korrespondenz zwischen dem Ergebnis der Clusteranalyse mit dem k-Means-Algorithmus (k=3, mittleres Bild) und der Differenzierung der Punktwolke im Merkmalsraum. Eine Clusteranalyse mit k-Means (k=8) zeigt die Fähigkeit zur guten Differenzierung der Bodenstrukturen anhand der dimensionsreduzierten spektralen Signatur.

Die aus dem Spektralbild ableitbaren bodenkundlichen Informationen sind Gegenstand weiterer Arbeiten. Die Erweiterung des 3D-Modells mit diesen sowie weiteren Informationen bildet den Kern künftiger Arbeiten, um den digitalen Zwilling der Versuchsfelder der Hochschule Anhalt um die Komponente der Bodenstruktur zu erweitern.



Drone-based assessment of aboveground biomass and photosynthesis parameters on winter wheat yield

J. Zhang, V. Pitsyk, K. Yu

Precision Agriculture Lab, TU München, Freising, Deutschland

Despite the critical role of wheat (Triticum aestivum) in global food security, the agricultural sector faces challenges in increasing grain yield production, as the harvest index is reaching its maximum. Photosynthesis has been noted as a parameter with room for further increase, contributing to higher final yields. If drone remote sensing can estimate photosynthetic parameters, e.g., the assimilation rate (A), stomatal conductance (gs), and chlorophyll fluorescence (Fv’/Fm’), we may aid the phenotyping and breeding for the purpose of improved photosynthesis.

This study extracted wheat canopy reflectance based on UAV multispectral images and analyzed the correlation between these multispectral (MS) VIs and photosynthetic parameters with above-ground biomass (AGB) at three growth stages: booting, flowering, and grain ripening. Principal component analysis (PCA), partial least squares regression (PLSR), random forest (RF), and support vector regression (SVR) were employed for grain yield (GY) estimation, with correlation analyses between selected VIs and measured parameters.

Results showed that VIs had a significant correlation with A and Fv’/Fm’ at the grain ripening stage (r = 0.3 - 0.4); however, the best correlation was with AGB (r=0.8) during the flowering stage. VIs were capable of predicting the GY of winter wheat at different growth stages using machine learning models, with PLSR showing the best results across all stages. Flowering stage models had the highest prediction accuracy for each employed model, with PLSR (R² = 0.94, RMSE = 0.44 t/ha) outperforming others.

Therefore, PLSR and RF models could be highly recommended for GY estimation using VIs as proxies for AGB. Photosynthetic parameters did not correlate as well with the VIs, which indicated that while multispectral bands were effective for AGB estimation, they might not adequately reflect the photosynthetic efficiency of the plants.



LIDAR Intensity Variability in UAV-Based Agricultural Monitoring: Insights from a Winter Wheat Field Trial

C. Hütt1, A. Bolten1, H. Firl1, H. Hüging3, A. Jenal1,2, F. Reddig1, J. Wolf1, G. Bareth1

1University of Cologne, Institute of Geography, GIS & RS Group, 50923, Cologne, Germany; 2University of Applied Science Koblenz, Application Center for Machine Learning and Sensors AMLS, 53424, Remagen, Germany; 3University of Bonn, INRES - Institute of Crop Science and Resource Conservation, 53115 Bonn, Germany

I. Introduction and Motivation

This study explores the dynamics of UAV LIDAR intensity in agricultural monitoring, focusing on winter wheat. As an active sensor, LIDAR offers significant potential in precision agriculture because it can operate independently of atmospheric and illumination conditions. This independence from external variables positions LIDAR as a reliable tool for consistent data acquisition. The research aims to understand the factors influencing LIDAR intensity, considering its application for potentially creating a multispectral LIDAR system by combining several LiDAR sensors with different wavelengths. Such advancements could significantly enhance the accuracy and reliability of agricultural observations, making them more practical and valuable for crop management.

II. Methodology

The UAV LIDAR system employed for this study comprised a Riegl MiniVUX-1-UAV laser scanner mounted on a DJI Matrice 600 pro UAV. The UAV was flown at a reduced altitude of 15 meters and with a low speed of 3 m/s on May 10, 2021. This approach introduced varied incidence angles under which the wheat plots were scanned, hypothesized to influence LIDAR readings. The low speed increased the point density. To further understand the intensity dynamics, LIDAR intensity values were compared with reflectance measurements taken by a Fieldspectroradiometer (ASD FieldSpec 3) on May 12, 2021. Specifically, reflectance at the 905 nm wavelength, the same wavelength used by the UAV LIDAR, was extracted for this comparison.

II. Results and Discussion

The study found a strong relationship between the incidence angle of the LiDAR scan and the intensity (R² > 0.8), but only when the incidence angle is larger than 20°. This highlights the importance of considering the incidence angle when interpreting LiDAR data in agriculture. Furthermore, the LiDAR intensity and the derived reflectance were similar to the ASD reflectance measurements taken over six metal calibration panels with varying grey values. These were placed next to the field trial during the survey. This indicates that the LIDAR intensity can replicate ground-based reflectance measurements. However, it was also discovered that there was no significant correlation between the Fieldspectroradiometer reflectance and the UAV LiDAR intensity, even when the variations in incidence angle were considered. This suggests that the LiDAR intensity under field conditions is complex and not directly related to the plant sunlight reflectance.

IV. Conclusion

This investigation emphasizes the impact of the LiDAR incidence angle and other operational parameters on the intensity of UAV LIDAR in agricultural contexts. The alignment of LIDAR data with ASD measurements over calibration panels, as opposed to the disparities observed in field conditions, highlights the complexities of interpreting LIDAR intensity data in agricultural environments. These findings aim to refine UAV-based data collection methods, enhancing the precision and effectiveness of precision agriculture practices.



Tracking crop phenology across different Sentinel-1 orbits by combining InSAR coherence and PolSAR features with Growing Degree data

J. Löw1, S. Hill2, M. Thiel2, T. Ullmann2, C. Conrad1

1Universität Halle-Wittenberg, Deutschland; 2Universität Würzburg

This contribution addresses the identification of phenological phases of wheat, sugar beet, canola and potatoes by a complementary set of interferometric (InSAR) and polarimetric (PolSAR) time series derived from Sentinel-1 (S-1) Synthetic Aperture Radar (SAR) and different acquisition geometries. Breakpoints and extreme values were calculated during the growing seasons of 2017 to 2021 at the site DEMMIN (Germany), one of the test sites in the international Joint Experiment on Crop Assessment and Monitoring (JECAM). The aim of this study is to identify patterns of SAR time series metrics that shape crop- and orbit-specific signatures and to relate them to major stages of the plant life cycle. Since field-based observations about phenological development were not available across the entire time span, this study relies on reference data provided by the German Weather Service (DWD) as well as Growing Degree data, derived from interpolated station data, to establish such relations. To cope with the amount of data needed for this study, all analyses were conducted on an Open Data Cube platform provided by the project AgriSens-Demmin 4.0. The results of this study are used to answer these particular research questions:

  • What are the major changes within a crop and orbit specific signal during the growing season and how are they related to the phenological development of the plant?
  • How reliably can these changes be tracked across multiple growing seasons?
  • Is there a recurring offset between plant changes and signal changes and is it related to orbit-specific viewing geometries?