Viele Menschen nutzen die Wettervorhersage, um Aktivitäten zu planen: Nehme ich das Fahrrad oder die Straßenbahn? Lasse ich die Feier drinnen oder draußen stattfinden? Packe ich dicke Jacken oder Sandalen in den Koffer? Ohne eine numerische Wettervorhersage könnten wir nicht in solchem Detail planen. Wir müssten uns an den langjährigen Durchschnittswerten der Beobachtungen für diese Zeit des Jahres, also an den klimatologischen Mittelwerten, orientieren. Zwar lässt sich mit der Annahme „das Wetter wird morgen genauso sein wie heute“ – der sogenannten Persistenz – für kurzfristige Vorhersagen bei günstigen Bedingungen (wie einem stabilen Sommerhoch) eine erstaunlich gute Trefferquote erreichen. Bei ungünstigeren Bedingungen oder längerfristigen Vorhersagen lässt sie uns aber im sprichwörtlichen Regen stehen.

Die numerische Wettervorhersage berechnet auf Basis physikalischer Gesetze die Bewegungen der Luftmassen in der Atmosphäre, die Entwicklung der Hoch- und Tiefdruckgebiete und dazugehörige Schlechtwetterfronten. Zudem werden kleinskalige physikalische Prozesse wie Umwandlungen zwischen gasförmiger, flüssiger und fester Phase des Wassers und die entsprechenden latenten Wärmeraten abgebildet. Diese Prozesse sind der Motor der konvektiven Bewegungen und in den Tropen sogar bestimmend. Ein Computermodell löst die Gleichungen aus Strömungsmechanik und Thermodynamik. Dazu wird die Atmosphäre in ein dreidimensionales Modellgitter (im Beispiel des ICON-Modells des Deutschen Wetterdiensts mit dreieckiger Grundfläche und zurzeit global 13 Kilometer, über Deutschland zwei Kilometer Maschenweite) eingeteilt. Für jede der Gitterboxen werden dann in Großrechnern die Gleichungen gelöst: gekoppelte, nichtlineare partielle Differenzialgleichungen, die ein chaotisches System beschreiben. Das bedeutet, kleine Fehler oder Ungenauigkeiten wachsen mit der Zeit stark an. Das Modell weicht daher mit zunehmender Zeit immer weiter von der realen Atmosphäre ab. Als Gegenmittel wird die mathematische Methode der Datenassimilation angewandt, welche die Modelle und Beobachtungen unter Berücksichtigung ihrer Unsicherheiten immer wieder zusammenführt.
Für die Wetterprognose nimmt die Ensemblevorhersage eine wichtige Rolle ein. Hierbei werden mehrere Modellläufe des Wettermodells ausgeführt, die jeweils leicht unterschiedliche Startbedingungen haben. Je nach Wetterlage weichen die unterschiedlichen Modellläufe nach wenigen Stunden oder erst über eine Woche deutlich voneinander ab. Dies ist ein wichtiger Hinweis darauf, wie stabil oder zuverlässig die Wettervorhersage für die nächsten Tage tatsächlich ist.
Beobachtungen sind entscheidend
Weltweite Beobachtungssysteme erfassen kontinuierlich die traditionellen meteorologischen Parameter wie Druck, Temperatur, Feuchte, Wind, Wolken, Strahlung und Niederschlag, aber auch erweiterte Erdsystem-Parameter wie Spurengase und Aerosole. Seit den 1960er-Jahren beobachten zunehmend leistungsfähigere Satelliten die Atmosphäre, seit den 1970er-Jahren die Ozean- und Landoberfläche. Fortschritte ergeben sich einerseits durch die zunehmend höher aufgelösten Beobachtungen, wie vertikale Profilinformation aus Flugzeugmessungen, Fernerkundungsverfahren und Satellitenbeobachtungen. Andererseits verspricht das Einbeziehen von immer mehr Komponenten (Ozean, Eis, Vegetation, Boden) und Prozessen in die Modellierung Fortschritte in der Vorhersage sowohl des Wetters als auch des Klimas. Neue Verfahren der künstlichen Intelligenz produzieren erste Fortschritte in der Vorhersage, wobei die Leistungsfähigkeit bisher maßgeblich auf der genauen Bestimmung des gegenwärtigen Zustands der Atmosphäre beruht. Schließlich sind durch den stetigen Anstieg der verfügbaren Rechenleistung und damit möglicher höherer räumlicher Auflösung kontinuierliche Fortschritte zu erwarten.
Eine operationelle Wettervorhersage, wie z. B. am Deutschen Wetterdienst, beruht auf einer zeitlich optimierten Datensammlung, Datenassimilation und gleichzeitigen numerischen Modellierung auf einem Hochleistungscomputer. Aus dem gegenwärtigen Zustand der Atmosphäre lässt sich deren kurzfristige Veränderung – das Wetter – in die Zukunft vorausberechnen. Wie gut ist eine operationelle Vorhersage? Dies lässt sich durch Verifikation mit Beobachtungen quantifizieren. Der Vorhersagehorizont – also der Zeitraum, in der die numerische Wettervorhersage der Klimatologie überlegen ist – liegt bei ungefähr zwei Wochen. Saisonale Vorhersagen beruhen auf längerfristigen Phänomenen wie dem Pazifikphänomen El Niño. Klimavorhersagen sagen eine Tendenz zu durchschnittlichen Werten voraus – sie hängen nicht mehr vom gegenwärtigen Wetter ab, sondern vom Energie- und Wasserkreislauf der Erde. Klimamodelle lösen daher kein Anfangswertproblem, sondern Randwertprobleme – das im Wetter enthaltene Chaos mittelt sich über Zeitspannen von ca. 30 Jahren weg. Beobachtungen sind hierfür von hohem Wert: Mit ihnen lassen sich die Ergebnisse der Klimamodelle verifizieren und die Modelle verbessern.
Anwendungen für die Gesellschaft
Wetter- und Klimadaten sowie Vorhersagen und Projektionen werden in fast allen Bereichen des modernen Lebens verwendet: Katastrophenschutz, Raumentwicklung, Hochwasserschutz, Wasserwirtschaft, Energiewirtschaft, Landwirtschaft, Bodenschutz, Forstwirtschaft, Fischerei, Tourismus, Verkehr und Infrastruktur, Bauwirtschaft, Biodiversität und Naturschutz, menschliche Gesundheit, Industrie und Gewerbe, und Finanzwirtschaft.
Der Nutzen von modellbasierten Vorhersagen, sei es des Wetters oder anderer Geo-Gefahren wie Stürme, Überschwemmungen, Erdrutsche, Erdbeben oder Vulkanausbrüche, liegt sowohl in der Abschätzung des Gefahrenpotenzials, als auch in der konkreten Vorhersage des zeitlichen Eintreffens. Wenn ein Ereignis eingetreten ist, lässt sich der Schaden begrenzen, indem die Folgen genauer vorhergesagt werden. Zum Beispiel werden bei Aktivität isländischer Vulkane vorsorglich potenzielle Aschewolken berechnet, welche vom Flugverkehr zu meiden sind.

Frühwarnsysteme für Geo-Gefahren
In erdbebengefährdeten Gebieten sollen operationelle Frühwarnsysteme den Beginn eines Erdbebens möglichst früh messen, um dann Gebiete in größerer Entfernung vor möglichen starken Bodenbewegungen oder vor Tsunamiwellen zu warnen. Während sich die zerstörerischen seismischen Wellen mit Geschwindigkeiten von etwa 3 bis 4 km/s ausbreiten, können die Informationen über eine herannahende seismische Welle mit Lichtgeschwindigkeit über Telekommunikationsleitungen versendet werden. Dennoch bleibt die Vorwarnzeit sehr kurz, sodass vor allem technische Maßnahmen automatisch oder halbautomatisch ergriffen werden können (Abbremsen von Schnellzügen, Schließen von Gasleitungen, Herunterfahren von kritischen Anlagen). Solche Systeme liefern öffentliche Warnungen in Mexiko, Japan, Südkorea und Taiwan, sowie Warnungen für bestimmte Nutzergruppen in Indien, der Türkei, Rumänien und den USA. Sie werden auch für den Einsatz in Italien, der Schweiz, Chile, Israel, Nicaragua, Spanien, Neuseeland, Island, sowie in Costa Rica und El Salvador getestet.
Bei der Tsunamifrühwarnung ist die Situation zeitlich günstiger, da sich Tsunamiwellen im Tiefwasser mit einer Geschwindigkeit von etwa 0,15 km/s deutlich langsamer ausbreiten als seismische Wellen. So hat das Deutsche Geoforschungszentrum zusammen mit neun deutschen Partnern und Indonesien sowie in Kooperation mit Japan, China, den USA und der EU zwischen 2005 und 2014 ein Tsunamifrühwarnsystem für den indischen Ozean mit Schwerpunkt in Indonesien aufgebaut, wo es häufig Starkbeben gibt. So könnte ein Küstenabschnitt in Indien, der etwa 1500 km entfernt zum Epizentrum des Bebens liegt, bis zu 120 Minuten vor einer nahenden Tsunamiwelle gewarnt werden – ausreichend Zeit, um Personen aus gefährdeten Gebieten am Strand oder nahe des Meers koordiniert zu evakuieren.
Auch bei Erdbebenfrühwarnsystemen gibt es neue Ansätze. 2019 wurde zum ersten Mal gezeigt, dass empfindliche Gravimeter und Breitbandseismometer die Störung des Gravitationsfelds durch den Erdbebenbruch, also das erdbebenauslösende Ereignis selbst, messen können. Der Gravitationseffekt breitet sich mit nahezu Lichtgeschwindigkeit durch die Erde aus und erreicht daher die Messstation, deutlich bevor die erste seismische Welle eintrifft, ähnlich wie Blitz und Donner bei einem Gewitter. Mit der neuen Technologie des „Prompt Gravity Effects“ könnte die Zeit zur automatischen Charakterisierung eines Starkbebens weiter verkürzt werden. Leider sind bisherige Sensoren noch nicht empfindlich genug, um die kleinen Signale auch für mittelschwere (jedoch bereits extrem zerstörerische) Erdbeben zu messen.
Torsten Dahm