Zur Bedeutung der theoretischen Meteorologie und Klimatologie bei der Erforschung der Atmosphäre und bei der Beurteilung von Geoengineering-Maßnahmen

 

Zurück zur Indexseite

Was Begriffe wie "Theorie" oder "Hypothese" bedeuten, wird höchst unterschiedlich beurteilt, wie man z.B. sieht, wenn man etwa die entsprechenden Diskussionsseiten bei Wikipedia anklickt. Umgangssprachlich werden "Theorien" und "Hypothesen" oftmals als Gegensätze zu "Tatsachen" und "Wahrheiten" angesehen. Diese Sichtweise widerspricht vollständig den naturwissenschaftlich Möglichkeiten. Popper (1934) hat bewusst gemacht, dass die Methode der Naturwissenschaft gar nicht darauf hinauslaufen kann, "Tatsachen" und "Wahrheiten" zu beweisen, sondern "nur" darauf, durch experimentelle Befragung der Natur "Theorien" und "Hypothesen" zu erhärten. Dass allerdings die Begriffe "Theorie" und "Hypothese" völlig gleichwertig sind, wie im obigen Satz spontan angenommen, wird auch innerhalb der Naturwissenschaft nicht immer so gesehen. Mir sind in zahlreichen Lektüren hauptsächlich zwei abweichende Ansichten aufgefallen:

1) Theorien und Hypothesen unterscheiden sich durch die Anzahl und die Güte der bereits erfahrenen experimentellen Erhärtungen: Theorien sind empirisch besser erhärtet als Hypothesen.

2) Theorien und Hypothesen unterscheiden sich durch die Allgemeinheit ihrer Aussagen (unabhängig davon, wie sehr sie bereits empirisch erhärtet worden sind): Theorien beschreiben ein Zusammenwirken mehrerer Hypothesen, wodurch sie ein höheres Erklärungspotenzial erhalten.

Offenbar können nicht gleichzeitig beide Unterscheidungsmerkmale gelten, so dass ich persönlich gleiche oder ähnliche Definitionen für beide Begriffe bevorzuge, wie ich es auch in den nachfolgenden Ausführungen tun werde.

Richtig ist, dass Fortschritte in den Naturwissenschaften eines erfolgreichen Zusammenspiels zwischen Theoriebildungen und Experimenten bedürfen. Genauer gesagt, wird erst durch dieses Zusammenspiel ermöglicht, "Hypothesen" aufzustellen, welche so lange als "gültige theoretische Naturbeschreibungen" gelten, wie sie durch Experimente nicht "falsifiziert" werden können (Popper 1934). Eine "Nicht-Falsifizierung" ist aber keine Verifizierung, denn sie schließt nicht aus, dass bei einem anderen Experiment (z.B. unter anderen Anfangs- und Randbedingungen oder unter anderen sonstigen Grenzbedingungen) doch eine Falsifizierung erfolgen könnte. -  Man kann das umständliche Wort "Nicht-Falsifizierung" durch die Begriffe "Evaluierung" oder "Validierung" der Theorie ersetzen, oder auch durch das oben schon benutzte anschauliche Wort "Erhärtung" der Theorie. 

Theorie und Experiment bedingen sich gegenseitig: Ohne Theorien kann der Experimentator kaum Mess-Serien "erfinden", die systematisch und aussagekräftig bestimmte Parameter der Theorie variieren. Und wenn er dennoch Messungen macht, kann er die Messergebnisse nicht in Form von Naturgesetzen zusammenfassen, die ein Erklärungspotenzial haben, sondern er kann nur die Messergebnisse in Form von "endlosen" Zahlenkolonnen festhalten. Ohne Experimente können Theorien noch nicht einmal validiert werden - geschweige denn verifiziert, was sowieso nicht zum Repertoire der Naturwissenschaft gehört. Auch die zu allgemein anerkannten Naturgesetzten mutierten Theorien sind letztendlich keine verifizierten Theorien, sie sind allerdings dermaßen oft validiert worden, dass ein Zweifel an ihnen nicht mehr aufkommt. Man kann z.B. jede technische Anwendung eines Naturgesetzes als ein Falsifizierungsexperiment ansehen: Wenn nun unser Fernseher mal nicht funktioniert, dann steckt wohl eher ein technischer Fehler dahinter als eine soeben erfolgte Falsifizierung der physikalischen Gesetze, die das Fernsehen erst ermöglichen. 

Man ist natürlich versucht, das bewährte Zusammenspiel zwischen der allgemeinen theoretischen Physik und der Experimentalphysik auf die Meteorologie - als spezielle Physik der Atmosphäre - zu übertragen. Aber wir können hier die atmosphärischen Parameter zur Durchführung systematischer "Reihen" von Experimenten leider nicht frei einstellen! Wir können nur das eine Experiment beobachten, dessen Parameter die Natur selbst vorgibt.

Die theoretische und die messende atmosphärische Physik ist also in einer schwierigen Situation, da das Experiment als notwendiger Grundvoraussetzung der naturwissenschaftlichen Methode fehlt, oder zumindest stark eingeschränkt ist. Häufig wird gesagt, dass man zwar nicht mit der Atmosphäre selbst, jedoch mit Modellen der Atmosphäre Experimente machen könne. Das bedeutet aber keinesfalls, dass man Theorien so erhärten könnte, denn die Modelle sind ja selbst Theorien, die lediglich in einer Programmiersprache  kodiert worden sind, wobei auch noch Approximationen an der "reinen" Theorie unvermeidlich waren. Eine Theorie mithilfe ihrer eigenen Kodierung zu evaluieren, zuzusagen mithilfe der "zweiten Wahl" dieser Theorie - wie soll das gehen?  Wie könnte denn zur möglichen Falsifizierung einer Hypothese ein Instrument eingesetzt werden, das nichts anderes als die numerische Form der eigentlich zu falsifizierenden Hypothese selbst!

Aber umgekehrt  "geht noch was": Wenn nämlich die Aussagen einer kodierten Theorie, die Modellergebnisse also, mit Folgerungen aus einer sehr allgemeinen, an den Grundlagen der Physik orientierten Theorie übereinstimmen, so ist das Modell zwar wiederum nicht verifiziert, aber es ist doch in gewissem Sinne erhärtet worden, wenn auch nicht im experimentellen Sinn! Zumindest sollte dadurch die "Daseinsberechtigung" für Wetter- und Klimatheorien weiterhin gegeben bleiben, auch für "zugespitzte" Vertreter der Popperschen Richtung, welche nicht falsifizierbare Theorien eher in den Bereich der Philosophie verlegen würden als sie im Bereich der Naturwissenschaften zu belassen. Das gilt z.B. auch für die Stringtheorie, zu deren experimenteller Validierung Teilchenbeschleuniger benötigt würden, die größer wären als die Erde, und auch für Bereiche, in denen sich Experimente aus ethischen Gründen verbieten (wie z.B. in der Humanwissenschaft).

Eine Theorie aber, die allgemeiner und umfassender ist eine experimentell nicht falsifizierbare Theorie, kann selbst in die Rolle eines Falsifizierungsinstrumentes schlüpfen, und das umso mehr, je mehr sie auf allgemein anerkannten grundlagenorientierten Prinzipien basiert. Wenn auch nicht "flächenmäßig abdeckend", so aber doch "nadelstichartig" ist eine solche Nicht-Poppersche "Ersatz-Evaluierung" in der modernen atmosphärischen Modellierung längst gängige Praxis. Ein Beispiel: Eine anerkannte sehr allgemeine theoretische Aussage ist der Satz von der globalen Erhaltung der Energie. Sie ist deswegen so allgemein, weil sie nach dem Noether'schen Theorem auf dem Axiom der Zeitsymmetrie beruht: "Die physikalischen Gesetze sind invariant gegenüber Zeitverschiebungen". Wenn also die Überprüfung eines Modellergebnisses ergibt, dass die globale Energie nicht erhalten geblieben ist, die Modelltheorie also der umfassenderen Theorie der Zeitsymmetrie widerspricht, ist die kodierte Theorie falsifiziert worden, ohne dass auch nur ein einziger Vergleich mit einem Messexperiment durchgeführt wurde. 

Aber wiederum gilt: Auch wenn sich eine Konsistenz mit der globalen Energieerhaltung bestätigt, ist dadurch die kodierte Theorie zwar evaluiert worden, (einmal mehr erhärtet worden), aber nicht verifiziert worden! Nun gilt es, möglichst viele weitere nadelstichartige Nicht-Poppersche "Ersatz-Evaluierungen" durchzuführen, etwa die Modell-Konsistenz bezüglich der Wirbelgrößen zu überprüfen, welche nach Névir (1998) auf der gleichen fundamentalen Stufe stehen wie die Energie. -  Aber wenn man solche Nadelstiche immer weiter verdichten möchte und dabei eine "quasi flächendeckende" Evaluierung anstreben möchte, benötigt man auch "mehr" grundlagenorientierte Theorie! Zwar kann das Problem der fehlenden experimentellen Validierung durch Validierung mithilfe allgemeinerer Theorien nur gelindert, aber nicht beseitigt werden. Aber sie schaffen doch einen gewissen Ersatz für mangelnde experimentelle Falsifizierungsmöglichkeiten. Natürlich tun sie das nachhaltig nur dann, wenn man weiterhin die Forschung in der Theorie vorantreibt!

In der öffentlichen Wahrnehmung sieht man das allerdings oft anders. Was sagt z.B. Wikipedia zu diesem Thema? Bei einer Recherche im April 2012 fand ich zum Stichwort "theoretische Meteorologie" einen Artikel, der nur 64 Worte umfasste, eigentlich sogar nur 38 Worte, denn 26 Worte waren schon verbraucht für Satz "Heut­zutage rückt die theoretische Meteorologie immer mehr in den Hintergrund, da mo­derne meteoro­lo­gische Problem­stellungen meistens nur noch mit Methoden der numerischen Strö­mungs­mechanik (CFD) bearbeitet werden können"  .

Dass "CFD" (vermutlich für "computational fluid dynamics") nichts anderes ist als eine in einer Programmiersprache formulierte theoretische Meteorologie oder Hydrodynamik, wird hier übersehen, und auch, dass zur theoretischen Mete­orologie nicht nur Strömungs­­mechanik gehört, sondern auch Thermodynamik, Strahlungstheorie, Luftchemie, Sys­temtheorie, Chaostheorie, Komplexitätstheorie und nicht zuletzt Klimatheorie. - Dem Begriff "Globale Erwär­mung" werden hingegen nicht 38, sondern 10167 Worte gewidmet (und eine Audio-Datei). Also: Einem Teilge­biet auch der theoretischen Meteorologie wird fast das 300-fache des Rau­mes zur Verfügung gestellt, der der theoretischen Meteorologie selbst gewidmet ist. - Zum Stichwort "theoretische Klimatologie" gab es 51 Worte. Die Suche nach dem Stichwort "Klimatheorie" wurde mit der Frage beantwortet, ob man vielleicht die Suchanfrage "Keimtheorie" gemeint habe. Auch das Stichwort  Klima-Theorie" (also mit Bindestrich) war nicht vertreten. 

Ich halte das für ein Indiz einer ausufernden Unterschätzung der Rolle, die die Theorie spielen könnte und müsste, z.B. auch bei der Bewusstmachung der vernetzten und nichtlinearen Zusammenhänge in unserer Atmosphäre. - Ich weiß, ich könnte das bei Wikipedia selbst korrigieren. Aber ich habe keine Lust, eine solche Korrektur gleich wieder von einem dem Zeitgeist verpflichteten Bearbeiter gelöscht zu bekommen.  

Die Klima-Theorie kann uns zwar nicht sagen, wie sich das Klima entwickeln wird, sie kann aber - neben der oben beschriebenen Rolle als "Ersatz-Validierung" für fehlende experimentelle Validierung - z.B. die Menschen auch davor bewahren, "Geo-Engineering" zu befürworten, ein Begriff, über den schon viel zu laut nachgedacht wird. Es ist relativ "leicht", die vielen subjektiv einstellbaren Parameter eines jeden Klimamodells so auszurichten, dass der Vorteil dieses Geo-Engineering in Modellrechnungen "bewiesen" wird. Die "Gefahr", dass die so erhaltene Modellaussage "so kann man die Welt retten" von einer fundamentaleren Theorie falsifiziert werden könnte, ist bei der allgemeinen Geringschätzung der Theorie nur minimal. Unser Zeitgeist ist ausgerichtet auf Praxis, auf vermeintliche Fakten und auf Daten, nicht auf ein - zugegebenermaßen oft nicht ohne gewisse Anstrengungen und Konzentrationen zu erlangendes - theoretisches Verständnis komplexer Vorgänge.

Andererseits wäre die tatsächliche Durchführung einer Geo-Engineering- Maßnahme nichts anderes als ein experimentelles Falsifizierungs-Experiment nach Popper. Dieses würde allerdings nicht in dieser Absicht durchgeführt werden, es hätte ja im Falle einer Falsifikation fatale Folgen: eine "gelungene" experimentelle Falsifizierung dieser "Rettungs-Theorie" könnte den Planeten für den Menschen unbrauchbar machen. Vielmehr würde das Experiment unter der irrigen Annahme durchgeführt werden, dass die "Rettungs-Theorie" keine Validierung nötig hätte.

Literatur:

Névir, P. (1998): "Die Nambu-Felddarstellungen der Hydro-Thermodynamik und ihre
    Bedeutung für die dynamische Meteorologie". Habilitationsschrift, Berlin.

Popper, K.R. (1934): "Die Logik der Forschung", Wien

 

Zurück zur Indexseite