Veranstaltungsprogramm
Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
|
Sitzungsübersicht |
| Sitzung | ||
Geoinformation & Fernerkundung I
| ||
| Präsentationen | ||
11:15 - 11:37
Brücken bauen zwischen Wissenschaft und Anwendung: Wissens- und Technologietransfer in der Fernerkundung (FERN.Lab) GFZ Helmholtz-Zentrum für Geoforschung, Potsdam Die starke Zunahme von Erdbeobachtungsdaten – durch internationale Raumfahrtagenturen wie ESA und NASA sowie einer Vielzahl kommerzieller Anbieter – eröffnet großes Potenzial für ein weites Anwendungsfeld unter anderem in Umweltmonitoring, Landwirtschaft, Naturschutz, Stadtplanung und Infrastrukturüberwachung. Trotz der dynamischen Entwicklung des „New Space“-Sektors bleibt aber die Überführung aktueller Fernerkundungsforschung in die operationelle Anwendung eine zentrale Herausforderung. Insbesondere öffentliche Einrichtungen auf verschiedenen Verwaltungsebenen und NGOs stehen vor erheblichen Hürden bei der Nutzung von EO-Daten in ihrer täglichen Arbeit. Diese resultieren aus der großen Vielfalt heterogener Datenquellen, sich schnell weiterentwickelnden Analysemethoden sowie der Komplexität neuer Datentypen wie hyperspektraler Daten und Drohnenbasierter Daten sowie dem Wissen diese Vielfalt zielgerichtet anwendbar zu machen. FERN.Lab, am GFZ Helmholtz-Zentrum für Geoforschung, adressiert diese Lücke, indem es als Schnittstelle zwischen Wissenschaft und Anwendung fungiert. Ziel ist es, Fernerkundungsdaten und -methoden „transferfähig“ zu machen – also zugänglich, anwendbar und an den Bedarfen unterschiedlicher Akteure ausgerichtet. Durch die enge Zusammenarbeit eines interdisziplinären Teams aus Wissenschaft, Softwareentwicklung und Wissenstransfer mit Partnern aus Verwaltung, Wirtschaft und Zivilgesellschaft entstehen praxisnahe Lösungen. Im Zentrum steht ein iterativer Co-Design-Ansatz, der Nutzeranforderungen systematisch in operationelle Werkzeuge und Dienste überführt und dabei auf agile Entwicklungsprozesse sowie nachhaltige Softwarearchitekturen setzt. Parallel dazu entwickelt FERN.Lab innovative Methoden weiter – insbesondere in den Bereichen hyperspektraler Fernerkundung, maschinelles Lernen und multisensoraler und multiskaliger Datenintegration – um sicherzustellen, dass wissenschaftliche Fortschritte effektiv in realen Anwendungskontexten nutzbar werden. Ergänzend fördern zielgerichtete Trainings-, Outreach- und adaptive Lernformate den Kompetenzaufbau bei Anwenderinnen und Anwendern und unterstützen die eigenständige Integration EO-basierter Lösungen in Entscheidungsprozesse. Dieser integrierte Ansatz zeigt sich in verschiedenen aktuellen Transferprojekten, darunter Unterstützung klimawandelangepasster Landwirtschaft durch effizientere Erfassung der Ressource Wasser mittels X-Band Wetterradaren, urbanes Grünflächenmanagement mittels Fernerkundungsdaten von Drohnen bis hin zu Satelliten, Integration von Hyperspektraldaten in operationelle Bodenkohlenstoffquantifizierungen, sowie die Verwendung von Fernerkundungsdaten zur verbesserten Risikobewertung und Prognose von Schaderregern in der Landwirtschaft. Dabei kombiniert FERN.Lab offene und kommerzielle EO-Daten, um spezifische Anforderungen unterschiedlicher Nutzergruppen zu erfüllen und deren Integration in bestehende Arbeitsabläufe zu ermöglichen. Durch die systematische Verknüpfung von Forschung, Technologieentwicklung und Nutzerbeteiligung trägt FERN.Lab dazu bei, die Lücke zwischen EO-Wissenschaft und praktischer Anwendung zu schließen. Die Arbeiten verdeutlichen die zentrale Rolle von Wissens- und Technologietransferstrukturen für die erfolgreiche Nutzung von Erdbeobachtungsdaten und für fundierte Entscheidungen auf regionaler und institutioneller Ebene. 11:37 - 12:00
Aktuelle Luftbildbefliegungen, Obliqueprojekte und Airborne Laserscanning Kampagnen Landesamt für innere Verwaltung, Deutschland - 12:00 - 12:22
Echtzeit-Geodatenprodukte aus luftgestützten Kamerasystemen Deutsches Zentrum für Luft- und Raumfahrt (DLR), Deutschland Seit mehreren Jahrzenten werden am Deutschen Zentrum für Luft- und Raumfahrt e.V. (DLR), Institut für Weltraumforschung, digitale Kamerasysteme entwickelt, gebaut und betrieben. Angefangen mit der ADS40, der ersten kommerziellen digitalen Luftbildkamera der Welt, wurde in den letzten Jahren MACS (Modular Aerial Camera Systems) entwickelt, eine Systemfamilie von luftgestützten Kamerasystemen mit einzigartigen technischen Fähigkeiten. Kennzeichnend für MACS ist der modulare Ansatz, der es ermöglicht, Kamerasysteme auf unterschiedlichste bemannte und unbemannte Trägersysteme wie z.B. Kleindrohnen, Motorsegler, Helikopter, High Altitude Platforms (HAP), Jets und Luftschiffe, zu integrieren. Der modulare Ansatz ermöglicht es auch, für den jeweiligen Anwendungsfall einen oder mehrere Sensoren in unterschiedlichen Sichtgeometrien und/oder passenden Spektralbereichen zu integrieren, wie z.B. RGB, Infrarot, kurzwelliges Infrarot (Short Wave InfraRed, SWIR) oder Thermalinfrarot (TIR). Gemeinsam ist allen MACS, dass sie mit einer einheitlichen Kamerasteuerung und Auswertekette ausgestattet sind und alle Bilddaten hochgenau mit Lage und Positionsdaten synchronisiert werden. Dadurch ist es für alle MACS möglich, schon während des Fluges die Bilddaten auf ein Oberflächenmodell zu projizieren und in Echtzeit zu georeferenzieren. Mittels des patentierten TAC-Verfahrens (Terrain Aware Clipping) werden aufeinanderfolgende Bilder, die aufgrund hoher Aufnahmefrequenzen in der Regel eine hohe Überlappung besitzen, so beschnitten, dass nur die neue Bildinformation bestimmt, übermittelt und damit sukzessive ein Bildmosaik aufgebaut wird. Durch die Beschneidung und gleichzeitige Kompression ist es möglich, die Bilddaten über integrierte Funk-, LTE- oder Satellitenkommunikation zum Boden zu senden und dort in Echtzeit ein schritthaltendes Bildmosaik auf dem MACS-Live Server zu erstellen. Durch angepasste Servertechnologien kann dieses aktuelle Lagebild weltweit über verschiedene Schnittstellen wie z.B. WMS von Endnutzern in ihre Anwendungen (GIS, digitale Lagebilder) integriert und auf mobilen Endgeräten abgerufen werden. Mit fortschreitender Befliegung wird die Bildkarte kontinuierlich aktualisiert und gegebenenfalls in Zeitscheiben abgelegt. Aus den ebenfalls abgespeicherten Originaldaten mit hoher Bildüberlappung kann innerhalb kurzer Zeit ein zu den Bildmosaiken passendes bildbasiertes 3D-Modell abgeleitet werden. Auch eine Interpretation der Bilddaten z.B. mittels einer KI, ist schon auf der Trägerplattform möglich, so dass z.B. im Anwendungsfall maritimer Seeüberwachung es nicht notwendig ist, umfangreiche Bilddaten zu übermitteln, sondern abgeleitete Informationen wie Position, Lage und Objekttyp. Die Nutzung der Echtzeit-Geodaten erfolgt häufig im Anwendungsbereich zivile Sicherheit, das DLR kooperiert weltweit mit verschiedenen Behörden und Organisationen mit Sicherheitsaufgaben (BOS). Konkrete Einsätze waren unter anderem die Flut im Ahrtal (2021), das Erdbeben in der Türkei (2023) im Rahmen der UN oder der Waldbrand in Lübtheen (2019). Die Koordination, Operationalisierung und Weiterentwicklung dieser Aktivitäten erfolgt gemeinsam mit Partnern aus Industrie und Behörden unter Federführung des Innovation Lab OPTSAL (Optical Technologies for Situational Awareness Lab, www.optsal.de). Weiterhin kommt MACS auch an Bord der Polarflugzeuge des Alfred-Wegener Instituts in der Polarforschung zum Einsatz. | ||
