News

Bild: EOC

17.12.2020

Die Daten-Goldschmiede

Jeden Tag strömen mehr als 21 Terabyte Daten von Erdbeobachtungssatelliten ins Earth Observation Center (EOC) des DLR – das Ergebnis einer rasanten technologischen Entwicklung seit der Gründung des EOC vor 40 Jahren. Heute werden die Daten hier mithilfe von KI zu Bild- und Informationsprodukten verarbeitet und in der Forschung eingesetzt.  

Damals hieß das DLR noch DFVLR: Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt. Filme wurden in einem der öffentlich-rechtlichen Programme oder auf Leinwand im Kino gezeigt, im Fernsehen lief „Was bin ich? – Heiteres Beruferaten“ mit Robert Lembke, Helmut Schmidt war Bundeskanzler und das Tastentelefon war gerade erst eingeführt. Zu dieser Zeit, 1980, entstand in Oberpfaffenhofen eine neue wissenschaftlich-technische Betriebseinrichtung: die Hauptabteilung Angewandte Datentechnik – eine Vorläufereinrichtung des heutigen Deutschen Fernerkundungsdatenzentrums, DFD, das zusammen mit dem DLR-Institut für Methodik der Fernerkundung das EOC bildet.

Bild: EOC
Weltweiter Datenempfang: Auch nördlich des Polarkreises in den kanadischen Nordwest-Territorien betreibt das Erdbeobachtungszentrum des DLR eine Antenne zum Empfang von Satellitendaten. Die Bodenstation in Inuvik ist nur 2500 Kilometer vom Nordpol entfernt. Bild: EOC

Die Anfänge: Telefon mit Wählscheibe und Daten auf Magnetbändern

Eine der ersten Aufgaben der Neugründung war der Empfang und die Verarbeitung von Daten der TIROS-Satelliten, der ersten Satelliten zur Wetterbestimmung und -vorhersage. In den Anfängen war das einzige elektrische Gerät im Büro ein Telefon – noch mit Wählscheibe. Entwürfe, Dokumentationen oder Berechnungen erfolgten per Hand. Den Abteilungsrechner teilte man sich. Er wurde über ein alphanumerisches Terminal bedient, daran angeschlossen war ein Typenraddrucker. Technik wie „Rahmensynchronisierer“ und „Kommunikationselemente“, die Datenströme aus dem Weltall empfangen sollten, mussten zum größten Teil selbst entwickelt und gebaut werden. Sie wurden als Schnittstelle zu den damals wenig leistungsfähigen Rechnern benötigt.

Ein Highlight im Jahr 1985 war die deutsche Spacelab-Mission (D1). Für das Labor an Bord des Spaceshuttles „Challenger“ bauten die Wissenschaftlerinnen und Wissenschaftler der damals noch jungen Einrichtung eine sogenannte Data Selection Unit (DSU). Mit dieser ließen sich gezielt Daten des Spacelabs für die Übertragung nach Deutschland auswählen. Für den gesamten Datenstrom war die Übertragung via Satellit noch viel zu teuer. Auf der anderen Seite des geteilten Deutschlands, in Neustrelitz, lauschte das Institut für Kosmosforschung der Akademie der Wissenschaften der DDR ins All, empfing Daten der sowjetischen INTERKOSMOS-Satelliten, des ersten europäischen Meteosat und der amerikanischen NOAA-Satelliten. Bereits seit 1969 wurden hier Empfangsantennen betrieben. Nach dem Mauerfall wurden die deutsch-deutschen Fähigkeiten schließlich vereint und Neustrelitz wurde zum Standort des DFD. Die 1990er Jahre waren eine Zeit, in der sich die Technik schnell entwickelte: Das zweite deutsche Spacelab startete mit dem Spaceshuttle „Columbia“, Europa brachte seine ersten Satelliten ins All und die USA bauten ihre Landsat-Satellitenflotte aus. Das DFD wurde von der Europäischen Weltraumorganisation ESA als Datenzentrum beauftragt, Landsat-Daten an Anwender zu verteilen. Das bedeutete, die Daten auf Magnetbändern an die wenigen Nutzer in Deutschland zu verschicken, die mit dieser neuen Daten-Technologie schon umgehen konnten. Oder einen fotografischen Bildabzug der Satellitenszenen zu erstellen. Zu diesem Zweck betrieb das DFD ein eigenes geowissenschaftliches Fotolabor, eines der modernsten seiner Zeit.

Strategisch günstige Bodenstationen - weltweit 

Mit den ersten europäischen Erdbeobachtungssatelliten, ERS-1 (1991) und ERS-2 (1995) begann nicht nur für Europa, sondern auch für den Vorläufer des EOC eine neue Zeit. Die Daten der damaligen Sensoren konnten nicht an Bord der Satelliten gespeichert werden. Um Regenwälder, Wüsten und Eismassen kartieren zu können, war man für den Datenempfang also auf strategisch günstig gelegene Bodenstationen angewiesen, die sich in der Nähe der Beobachtungsgebiete befanden. Mit nationaler Förderung wurde 1991 die erste Satellitenempfangsstation auf dem antarktischen Kontinent, die „German Antarctic Receiving Station (GARS)“, nahe der chilenischen Station Bernardo O’Higgins in Betrieb genommen. Sie empfing die Daten der ERS-Satelliten über der Antarktis. Nach dieser logistischen und technischen Meisterleistung wurden weitere, temporäre Empfangsstationen vom DFD errichtet: beispielsweise in Gabun in Westafrika, in Kirgisien, in der Mongolei oder in Mexiko. Heute umfasst das Empfangsnetzwerk neben den Antennen in Oberpfaffenhofen und Neustrelitz die Stationen GARS O’Higgins und eine weitere polarnahe Station in Inuvik in der kanadischen Arktis. Solche polaren Standorte haben sich mittlerweile wegen ihrer häufigeren Kontaktzeiten zu den Satelliten für die maximale Ausbeute an Daten bewährt.

Bild: EOC
Hilfreicher Blick von oben: In einer Metropole wie Kairo ist es oft schwierig, genaue Daten zur Bevölkerungsdichte zu erhalten. Mit Hilfe des World Settlement Footprint in Kombination mit Daten der TanDEM-X-Mission schätzen die DFD-Experten die Gebäudehöhen weltweit. Diese Informationen ermöglichen eine genauere Bestimmung der Bevölkerungsverteilung. Bild: EOC

Das Zeitalter von Big Data

Viel hat sich seit dem Launch der ersten europäischen Satelliten verändert. Europa verfügt heute über eine eigene große Flotte an Erdbeobachtungssatelliten. Die „Sentinels“ des Copernicus-Programms liefern Daten für alle – kostenfrei im Internet. Gerade einmal zwölf Jahre ist es her, dass zuerst die USA die „free & open“-Entwicklung angestoßen haben und Aufnahmen der Landsat-Satelliten zum Allgemeingut erklärten. Bildszenen, die zuvor hunderte von Dollar kosteten, waren plötzlich frei erhältlich. Die EU griff diese Idee auf. Heute sind die meisten Satellitendaten frei verfügbar. Lediglich räumlich höchstauflösende Daten im Meter- und Submeter-Bereich werden kommerziell vermarktet. Doch auch dieser Markt verändert sich, seitdem Start-ups die Erdbeobachtung für sich entdeckten. Klein- und Kleinstsatelliten bis auf Schuhschachtelgröße auf Basis konventioneller Bauteile werden mittlerweile zu hunderten in den Orbit gebracht und liefern täglich hochauflösende Aufnahmen von der ganzen Erde. Mögliche Ausfälle sind Teil des Konzepts. Und Bildqualität und geometrische Genauigkeit werden erst softwareseitig nach Datenempfang in großen Rechenzentren optimiert

Aus dem All in die Cloud

Solche Rechenzentren erlauben heute auch kleinen Forschungsgruppen und gar Einzelpersonen, globale Erdbeobachtungsprodukte zu erstellen. Mussten Nutzerinnen und Nutzer bis vor wenigen Jahren ihre Daten auf den eigenen PC herunterladen und dort verarbeiten, verbleiben die Rohdaten heute oftmals in den Rechenzentren, sodass lediglich die Algorithmen zu den Daten hochgeladen werden. Firmen wie Google und Amazon haben dieses Feld für sich entdeckt. Sie bieten den Zugriff auf die europäischen Copernicus-Daten und die notwendige Rechenperformance aus einer Hand an – für die Forschung zum Teil kostenfrei, zumindest solange sie sich einen Vorteil davon versprechen. Mitten in diesem extrem dynamischen Umfeld bewegt sich das heutige EOC. Über 40 Jahre hat die Einrichtung mit ihren Vorläufern die Erdbeobachtung mitgeprägt. Beispielsweise wurden Teile des Bodensegments der ESA von seinen Teams entworfen. Nach wie vor ist das EOC im Auftrag der ESA für den Empfang, die Verarbeitung und das Management von Satellitendaten verantwortlich und konnte sich in einem mittlerweile kommerzialisierten Markt behaupten. Auch für die Verarbeitung der Daten in der Cloud entwickelt es aktuell in Zusammenarbeit mit dem Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften eine zukunftsträchtige Alternative zu den großen kommerziellen Anbietern. Diese Anwendung soll die Souveränität bei Zugriff und bei der Prozessierung von Satellitendaten wahren.

Bild: EOC
Einer der Sentinel-Satelliten des europäischen Copernicus-Programms. Seine Daten werden am EOC empfangen und verarbeitet. Übrigens: Die mittlerweile im EOC gespeicherte Datenmenge von 29 Petabyte entspricht mehr als 7 Millionen Stunden Youtube-Videos – 800 Jahre Film, nonstop! Bild: EOC

An der Spitze der Radarfernerkundung

Das EOC und seine Vorgängereinrichtungen sind gemeinsam mit der ESA und ihrem Raumfahrtprogramm groß geworden. Ganz besondere Kraft hat das EOC jedoch auch aus den nationalen Radarmissionen und Programmen geschöpft: 1994 startete mit SIR C/X-SAR das weltweit erste Radarsystem, das im Frequenzbereich X-Band arbeitete, 2000 hatte das erste SAR-Interferometer (Synthetic Aperture Radar) auf der Fernerkundungsmission SRTM Premiere. Mit diesem Sensor konnten erstmals Geländemodelle der Erde erstellt werden. 2007 startete der Satellit TerraSAR-X. Er trägt einen Radarsensor, der in verschiedenen Modi betrieben werden kann. Drei Jahre später folgte sein Zwillingssatellit TanDEM-X. Die beiden fliegen in enger Formation und ermöglichen so zeitgleiche Aufnahmen der Erdoberfläche (sog. bistatisches Interferometer). Keine andere Raumfahrtnation hatte zuvor zwei Satelliten mit nur wenigen hundert Metern Abstand in einer Helix umeinander kreisen lassen, um erstmals ein hochauflösendes, einheitliches globales Geländemodell zu erzeugen. Die TanDEM-X-Mission offenbarte – wie kein anderes Projekt zuvor – das Alleinstellungsmerkmal des DLR, seine Systemfähigkeit: Satellitensteuerung, Instrumentenentwicklung, Datenprozessierung und Auswertung aus einer Hand. Für all diese nationalen Missionen, aber auch für alle Atmosphärenmissionen der ESA, konnte das EOC die Verarbeitungsalgorithmen vom ersten Sensor bis hin zum Nutzerprodukt entwickeln und die gesteckten Ziele deutlich übertreffen. Deutschland gelangte so weltweit an die Spitze der Radarfernerkundung. Auch die Datenmengen dieser Missionen stellten alles Dagewesene in den Schatten. Dank dieses „Trainings“ kann das EOC heute auch die viel gewaltigeren Datenmassen des europäischen Copernicus-Programms verarbeiten.

Künstliche Intelligenz und Social Media für die Erdbeobachtung

Um diesen „Big Data“-Datenschatz zu analysieren, etablierte das EOC das Forschungsgebiet „Künstliche Intelligenz für die Erdbeobachtung“. Auch die geowissenschaftliche Forschung des EOC wurde durch die Datenfülle beflügelt. Als Nebenprodukt der TanDEM-X-Mission entstand beispielsweise die weltweit genaueste Siedlungskarte der Erde. Heute wird sie mit Sentinel-Daten weitergeführt und durch die TanDEM-X-Daten um die Höheninformation ergänzt. Mit Hilfe von Big Data, künstlicher Intelligenz und Social-Media-Daten erfassen die EOC-Wissenschaftlerinnen und -Wissenschaftler sogar die Art der Bebauung in den Siedlungen. So kann die Verteilung der Bevölkerung erheblich genauer bestimmt werden. Diese Information ist für die Kartierungen von Risikogebieten wichtig, wie sie durch das Zentrum für satellitengestützte Kriseninformation (ZKI) des EOC erstellt werden. Auch die Atmosphärenforschung profitiert davon, da sie unter Berücksichtigung der Gesundheitsrisikoindizes nicht nur die Belastung der Menschen bestimmen, sondern auch die Anzahl der Betroffenen abschätzen kann. Dabei wird ein Informationssystem eingesetzt, das bewertet, welche Gesundheitsrisiken durch verschiedene Umwelteinflüsse entstehen. Zu diesen Umwelteinflüssen zählen Luftschadstoffe und meteorologische Einflüsse wie Lufttemperatur, Strahlungstemperatur, Wind und Luftfeuchtigkeit.

Die Erdbeobachtung ist heute im Alltag der Menschen angekommen. Von der Vielzahl und Vielfalt der heute zugänglichen Daten, den Prozessierungskapazitäten und Algorithmen konnte man vor 40 Jahren noch nicht einmal träumen. Die heutigen Möglichkeiten des Internets, die umfassenden Satellitenflotten und mobilen Anwendungen im Alltag waren schlicht unvorstellbar.

  

Autoren: Prof. Dr. Stefan Dech, Direktor des Deutschen Fernerkundungsdatenzentrums des DLR, und Prof. Dr. Richard Bamler,Direktor des DLR-Instituts für Methodik der Fernerkundung. Beide leiten das Earth Observation Center des DLR.

Dieser Artikel ist zuerst im DLRmagazin 166 des Deutschen Zentrums für Luft- und Raumfahrt erschienen.

06.04.2021

Künftig hilft Doktor Comp

02.03.2021

Mit KI zu besseren Klimamodellen

23.02.2021

Heilung durch Gentherapie?

download