Mittwoch, 23. März 2011

Schon Jodtabletten gekauft?

„Last Tuesday, the 2nd, was Candlemas day, the day on which, the Groundhog peeps out of his winter quarters and if he sees his shadow he pops back for another six weeks nap, but if the day be cloudy he remains out, as the weather is to be moderate.“ James Morris, Berks County, 4. Februar 1841
Im letzten Blogpost hatte ich mich mit den Grundlagen von Tsunami-Simulation auseinandergesetzt, woraufhin in den Kommentaren die Frage aufkam, wie es denn mit der Zuverlässigkeit von Vorhersagen zum nuklearen Fallout aussieht, beziehungsweise von Wettervorhersagen. Und nicht nur in Deutschland, wo Jodtabletten und Geigerzähler kaum noch zu kriegen sind, sondern auch an der amerikanischen Westküste gibt es naturwissenschaftliche Nieten, die sich Sorgen machen. Also, wie macht man eine Wettervorhersage wenn man gerade kein Murmeltier zur Hand hat? Heutzutage nur noch mit dem Computer, also mit einer numerischen Simulation. Grundlage sind, was denn auch sonst wird der regelmässige Leser einwerfen, die Navier-Stokes-Gleichungen. Diese beschreiben newtonsche Fluide, also Gas und Wasser und man kann sie auch für Dampf, Wolken etc. verwenden.

Bei der Sache treten neben unzähligen kleinen und mittelgroßen Problem zwei große Probleme auf. Das erste ist, dass die Erde ziemlich groß ist. Wenn wir also die ersten zehn Kilometer Atmosphäre nehmen und die einmal um die Erde rum als das uns interessierende Gebiet betrachten, ergibt das mit 550 Millionen km^2 Oberfläche 5.5 Millarden Kubikkilometer. Bei einer Auflösung von einem Kubikkilometer sind das, da die Navier-Stokes-Gleichungen in drei Dimensionen aus 5 Gleichungen bestehen, 27.5 Millarden Unbekannte. Damit kann noch nicht mal der Earth Simulator 2 sinnvoll umgehen. Und wir reden hier noch gar nicht davon, den Einfluss der Ozeane, der Sonneneinstrahlung, der Bodenrauigkeit (Kornfelder bremsen Wind weniger als Wälder), der Gebirge oder sonstiger relevanter Schwierigkeiten zu berücksichtigen.

Die Lösung dieses Problems ist die mathematische Modellierung. Es werden also unter bestimmten Annahmen Vereinfachungen der Navier-Stokes-Gleichungen betrachtet oder komplexe Effekte durch einfache Terme approximiert. Eine wichtige Annahme in sehr vielen Klima-Berechnungen ist beispielsweise die des hydrostatischen Gleichgewichts, bei dem man annimmt, dass sich unter- bzw. übereinanderliegende Luftschichten nicht beeinflussen. Im Ergebnis hat man das Problem um eine Dimension reduziert und erhält eine zweidimensionale Analyse des Wetters. Eine weitere Möglichkeit ist, das Gebiet zu verkleinern. Wenn ich mich nur für das Wetter um Japan in einem 24-Stunden-Zeitraum interessiere, kann ich ohne Genauigkeitsverlust einen Grossteil der Welt ignorieren.

Und schliesslich ist da noch die asymptotische Analyse, für deren Einsatz in der Meteorologie Rupert Klein einen Leibniz-Preis erhalten hat, indem er bestehende Modelle der Meteorologie erstmals mathematisch fundiert zueinander in Beziehung setzen konnte. Dabei geht es darum, auf systematische Weise herauszufinden, welche Effekte denn nun relevant sind für das vorliegende Problem. Beispielsweise kann man die Geschwindigkeit einer Strömung über die Machzahl charakterisieren, das ist das Verhältnis von Strömungs- zu Schallgeschwindigkeit. Die Reisegeschwindigkeit eines Verkehrsflugzeugs ist etwa Mach 0.8, also knapp unterhalb der Schallgeschwindigkeit, der Jetstream bewegt sich mit Mach 0.3, am Boden typische Windgeschwindigkeiten sind aber unterhalb von Mach 0.1. Damit befasst sich die Meteorologie fast ausschliesslich mit Strömungen kleiner Machzahl und die asymptotische Analyse ergibt, dass man für Machzahl gegen Null die so genannten inkompressiblen Navier-Stokes-Gleichungen mit variabler Dichte erhält.

Für den Wind in Fukushima derzeit irrelevant:
Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln
Auf diese Weise kommt man auch der Frage näher, wie man mit unterschiedlichen Zeitskalen umgeht: Der Wind in Fukushima diese Woche hängt nicht davon ab, ob ein Sack Reis umfällt, wie schnell die Gletscher schmelzen oder ob mal wieder Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln angesagt ist. Wenn ich vorhersagen will, ob ein Hurrikan entsteht, ist letzteres dagegen wichtig, während die Gletscher dann relevant sind, wenn ich Langzeitklimaprognosen betrachte. Unterschiedliche Aspekte des Wetters beeinflussen sich also auf unterschiedlichen Zeit- und Raumskalen. Hier die richtigen auszuwählen und gleichzeitig ein Modell zu finden, das die interessierenden Probleme berücksichtigt und irrelevante Phänomene ohne Genauigkeitsverluste ausblendet ist hochgradig komplex und wird noch lange Gegenstand von mathematischer und meteorologischer Forschung bleiben.

Das zweite Problem beginnt damit, dass der ganze Punkt an der Wettervorhersage ja ist, dass wir in die Zukunft schauen wollen. Naja, das haben wir beim Tsunami ja auch schon, was ist also der Big Deal? Nun, wenn ich eine Wettervorhersage 24 Stunden im voraus machen will, kann ich zum Beispiel anschauen, wie sich das Wetter von Sekunde zu Sekunde ändert. Das klingt sinnvoll, weil es bestimmt eine ziemlich gute Vorhersage wird, nur wird die Simulationszeit vermutlich länger als 24 Stunden sein. Also wären grössere Zeitintervalle sinnvoll. Genauer gesagt erlaubt die räumliche Auflösung eine gewisse Genauigkeit und die zeitliche Auflösung sollte versuchen dieselbe zu erzielen, um sowohl unnötige Rechnungen zu vermeiden, als auch keine Genauigkeit zu verlieren. Es gibt nun grob gesagt zwei Arten von Methoden, mit denen man in die Zukunft schauen kann, explizite und implizite.

Explizite machen wenig Arbeit pro Zeitschritt und müssen jede Unbekannte etwa dreimal speichern (ja, bei der Kubikkilometerauflösung alle 27.5 Milliarden mal drei), allerdings orientiert sich der maximale Zeitschritt an der Geschindigkeit der schnellsten Welle, das ist hier die Schallwelle mit etwas über 3000 Metern pro Sekunde, und zwar in der Hinsicht, dass diese sich pro Zeitschritt maximal einen Punkt bewegen darf. Bei einer Auflösung von "nur" zehn Kubikkilometern wären das maximal 3 Sekunden, die ein Zeitschritt lang sein darf, bei einem Kubikkilometer Auflösung nur noch 0.3 Sekunden. Das klingt nicht gut. Beim Tsunami ist es so, dass die Geschwindigkeit der Tsunamiwelle nicht wesentlich kleiner ist als der Schall, im Gegensatz zur Windgeschwindigkeit.

Die Alternative sind implizite Verfahren, die pro Zeitschritt zwischen 10 und 100 mal teurer sind als explizite Verfahren und ausserdem noch zwischen zwei und zehnmal so viel Speicher benötigen. Wir kommen hier also in die Größenordnung von einer Trillion Werten, also soviel Geld wie Bryn und Page haben, aber noch nicht mal die haben einen Cluster, auf dem das noch handlen kann. Dafür haben implizite Verfahren nicht das obige Stabilitätsproblem, der Zeitschritt muss sich also nicht an den schnellsten Wellen orientieren, sondern nur nach Genauigkeit. Probleme, bei denen implizite Verfahren trotz der deutlich größeren Kosten pro Zeitschritt besser abschneiden als explizite Verfahren, heißen "steif" und waren Thema meiner Vorlesung in Stanford. Fans können sich das ganze ab April in Kassel nochmal anhören.

Die neusten Arbeiten krasser Forscher zu diesem Thema sollten im April auf einem Workshop am Hochleistungsrechenzentrum in Stuttgart vorgetragen werden, aber die Organisatoren sind von NEC in Japan und haben das ganze abgesagt und murmelten etwas von Erdbeben, Tsunami und Stromausfällen wegen Reaktorunglücken...

Es bleibt nun noch die Eingangsfrage: Wie genau sind Wettervorhersagen? Wie bei den Tsunamis werden die Simulationen vorher an den bestehenden Daten validiert, das sind dank der Wetteraufzeichnungen mittlerweile ziemlich viele gute Datensätze. Es bleibt, dass es keine mathematisch beweisbaren beliebig genauen Verfahren für das Problem gibt und für fast alle Probleme die bestehenden Verfahren auf den bestehenden Rechnern auch keine beliebig gute Genauigkeit erzielen könnten. Grob gesagt: Kurzfristige Wettervorhersagen für ein Land wie Japan können schon jetzt ausreichend genau sein, mittelfristige Wettervorhersagen sind sehr schwierig, weil die bestehenden Modelle große Probleme haben, die relevanten Phänomene rauszufiltern, Langzeitvorhersagen sind was konkrete Gebiete angeht (In Holland wird in 100 Jahren die Temperatur um X angestiegen sein), rein spekulativ, globale Aussagen lassen sich allerdings mit gewissen Techniken treffen (Im Mittel wird die Temperatur in 100 Jahren unter diesen und jenen Annahmen über Entwicklung von Gletschern und Ozeanen und Treibhausgasen um Y angestiegen sein).

Zum Fallout in Deutschland lässt sich noch festhalten; Bei den bis jetzt ausgetretenen Mengen an Radioaktivität kann kein Wetter der Welt die radioaktiven Isotope so schnell nach Deutschland tragen, dass sie dort noch in gefährlicher Weise ankommen. Wer Angst hat, sollte deswegen nicht die Fenster zu, sondern aufmachen, um die Radonmenge zu reduzieren, das ist gerade im Winter wichtig wenn man im Erdgeschoss wohnt.

Wers durch die diesmalige Textwüste bis hierher geschafft hat, hat natürlich wieder etwas Ablenkung verdient:
  • Habt ihr das auch manchmal, dass ihr Euch sicher seid, etwas getan zu haben, es aber nicht getan habt? Tjaha, nicht eure Schuld!
  • Angenehm nüchterner Artikel zur Frage des Islam in Deutschland, sowohl Multikulti als auch die deutsche Leitkultur sind eben nur sinnfreie Schlagworte, die nicht erklären, wie das notwendige Zusammenleben von Menschen unterschiedlicher Kultur in Deutschland funktionieren soll.
  • Wenn ihr wüsstet, dass ihr keinen freien Willen hättet, würdet ihr mehr Betrügen?
  • Visualisierung der massiven kulturellen Schieflage der englischen Wikipedia. Ich vermute, die Visualisierung der deutschen wäre noch dramatischer. 
Creative Commons Lizenzvertrag
Birchlog von P. Birken steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz.
Beruht auf einem Inhalt unter birchlog.blogspot.com.