Hallo,
Deine Aussagen kann man zusammenfassen. Computermodelle sind
objektiv, nicht manipulierbar und liefern richtige Ergebnisse. Und
wenn es keine einstellbaren Programmparameter gibt, ist eine
Manipulation durch entsprechende Programmierung nicht möglich.
Ich teile deine Meinung nicht. Ich bin überzeugt, dass gerade bei
Computermodellen das größte Manipulationspotential vorhanden ist.
Ich habe von keinem Modell gehört, der vor 5 oder 10 Jahren die
aktuelle Entwicklung annähernd richtig vorher gesagt hat. Das
bedeutet steigende CO2 Menge und gleichzeitig sinkende Temperaturen.
Vielleicht schaffst du mit einer Publikation aus vor 5 oder 10
Jahren zu beweisen, dass tatsächlich Modelle gab, die an der
Wahrheit nahe lagen.
Bis das nicht passiert, steht fest, das die Modelle eins gemeinsam
haben, nämlich dass die nicht funktionieren.
Was Satelliten Messung betrifft, gibt es tatsächlich ein
kompliziertes Verfahren. Aber jede Messung ist nach dem gleichen
komplizierten Muster durchgeführt. Bei Reanalyse werden die Daten
z.B. einmal von Satelliten genommen, einmal von Schiffen , für
nächste mal von einer Bodenstationen usw. Gerade das charakterisiert
eine Reanalyse.
Noch einmal:
"Die Reanalyse wird mit einem Modell gerechnet,
das dem für die Wettervorhersage ähnelt und wird mit gemessenen Daten
aus den verschiedensten Quellen
initialisiert. Dies sind zum Beispiel Beobachtungsdaten von
Wetterstationen, Schiffen, Flugzeugen, Radiosonden und
Satelliten."
http://icdc.zmaw.de/ncep.html
Die Reanalyse ist die Grundlage für WMO Bericht.
Gruß
Kai
Am 01.12.2011 17:32, schrieb Dr. Volker Jaenisch:
Ahoi!
Du gehst mit keinem Wort auf die Aussage der WMO ein. Die WMO ist
die Weltorganisation der Meteorologen. Alle meteorologischen
Observatorien weltweit
liefern Ihre Meßdaten an die WMO. Aus diesen WMO-Daten werden mit
unterschiedlichen Modellen Globaltemperaturen errechnet.
Obwohl diese Modelle von unterschiedlichen Menschen in
unterschiedlichen Ländern mit unterschiedlichen Methoden arbeiten
bekommen
sie sehr gut übereinstimmende Globaltemperatur-Verläufe (wie z.B.
in dem Telepolisartikel, mittleres Bild zu sehen)
Kai Orak schrieb:
Ein Modell ist nichts anderes als ein
Computerprogramm mit wählbaren Parametern.
Falsch: Ein Modell ist eine Simulation von physikalischen
Effekten. Die Paramter eines Modelles sind nicht frei wählbar.
Noch dazu gibt es extrem unterschiedliche Arten von
Computermodellen. Es gibt Modelle welche völlig frei von wählbaren
Parametern sind.
Es gibt Modelle, welche auf Szenarien aufbauen, weil man die
Parameterwerte nicht kennt (z.B. weil sie erst in der Zukunft
bekannt werden).
In der Praxis stellt man die Parameter so
ein, dass man das gewünschte Ergebnis bekommt.
Falsch: In der Praxis muss ein Computermodell sich dadurch
bewähren, dass es bei einem Satz von Anfangsbedingungen möglichst
viel Szenarien möglichst gut beschreibt.
Und das ist ganz einfach, aus
unterschiedlichen Datensätzen nimmt man die jeweiligen wärmeren
Werte und rechnet sie zusammen, damit erhält man schnell den
gewünschten "Erwärmungseffekt."
Falsch. Die Computermodelle wählen keine Temperaturdaten aus. Die
Auswahl geschieht beim Perprocessing der Daten. Dort werden
zusätzlich zu den Statonsdaten z.B. die WMO Metadaten
berücksichtigt. Also z.B. ob Fehler mit den Meßgeräten gemeldet
wurden. Und es wird geschaut ob Fehler in den Meßwerten durch z.B:
Zeitreihenanlyse oder Vergleich mit anderen Wetterdaten vorliegen.
Diese externen Daten führen zu einer Gewichtung der Primärdaten
oder sogar dem Außschluß solcher. Es gibt imme rwieder Spinner,
welche die
Stationsrohdaten verwenden um daraus irgendwas herleiten zu
wollen. So wurde unterstellt mutwillig Stationsdaten gelöscht zu
haben [ich berichtete]. Nach einer kurzen
Analyse der genannten WMO-Stationsdaten stellte sich heraus, dass
in den Stationsprotokollen massive Probleme mit den
Meßinstrumenten gemeldet waren. [ich berichtete]
Dieses Preprozessing der Daten ist bei allen mir bekannten
Meßdaten nötig, es findet also nicht nur bei Temperaturdaten
statt, sondern ist eine Standardprozedur um die Qualität der Daten
zu bewerten. Es gibt z.B. 15 Unterschiedliche Verfahren im die
Schichtdicken von atmosphärischen Schichten aus Höhenprofilen z.B.
der Temperatur zu bestimmen.
Daher werden in Modellen i.d.R. alle 15 Methoden gleichzeitig
angewendet und die Ergebnisse verglichen. Da jedes Verfahren die
Meßwerte aus einem anderen Blickwinkel betrachtet kann man durch
die Summe der Betrachtungen zu einem Erkenntnisgewinn gelangen.
Das Preprozessing der meteorologischen Meßwerte ist im übrigen
kein klimatologischer Selbstzweck. Der Grund dafür ist, dass das
Meßstationen-Netz ungleichmäßig über die Erde verteilt ist. Damit
diese Daten in den Wettermodellen verwendet werden können müssen
die Daten auf ein gleichförmiges Netz abgebildet werden. Die
Wettervorhersage basiert also auf den in gleicher Form
Präprozessierten Daten wie die Globaltemperatur. Die
Wettervorhersage ist in den letzten Jahrzehnte kontinuierlich
besser geworden, was nicht zuletzt an dem verbesserten
Preprozessing
liegt. Wie soll es also sein, dass ein und das gleich
Preprozessing eine Fälschung der Klimaforscher sein soll und die
darauf aufbauende Wettervorhersage immer besser wird?
Bei Reanalyse handelt sich nicht um die
Daten aus einer gleichen Quelle oder Messungsreihe.
Woher hast Du denn diesen Quatsch?
Wichtig ist auch, wo diese Messstationen
stehen? In der Regel an Flughäfen, wo die Abgase von Flugzeugen
mit gemessen werden oder in den Städten mit urbanen Wärmeinseln.
Falsch: Den sogenanten Wärmeinseleffekt gibt es nicht, wie
unlängst eine Studie mal wieder bestätigte [ich berichtete dies
hier].
Bei so vielen falschen Ausagen frage ich mich: Wieviele
Computermodelle hast Du denn schon programmiert?
Ich zumindest drei große: Zwei für meine Diplom- und eines für
meine Doktorarbeit.
Du hast von Computermodellen einfach nicht die geringste Ahnung.
Du gibst einfach nur die Propaganda anderer Leute weiter,
die genausowenig Ahnung von Computer-Modellen haben.
Sicher gibt es Parameter in Computermodellen, aber jeder einzelne
Parameter an sich muß begründet sein. Der Wert des Parameters
sollte physikalisch begründet sein.
Ist ein Parameter-Wert nicht physikalisch zu begründen, wie z.B.
der zukünftige Ausstoß von CO2 in Klimasimulationen, werden
unterschiedliche Szenarien durchgerechnet.
Diese Szenarien denkt sich in der Regel ein Konsortium von
Wissenschaftlern aus, damit einheitliche Modellstandards verwendet
werden.
Und nun eine ganz pragmatisceh Frage: Selbst wenn die Modelle
unmotivierte Parameter hätten, die wir auf den Wert X stellen
müßten, damit sie das
Klima am besten reproduzieren, was wäre daran so schlimm? Sie
wären dann immer noch die beste Vorhersage, die wir haben.
Es gibt kein göttliches Modell, welches exakt ist. Es gibt auch
keinen göttlichen Meßwert der unendlich exakt ist.
Da dies nun mal so ist, ist es kein Argument zu behaupten Modelle
könnten, weil sie nicht göttlich sind, keine wahren Aussagen
erzeugen.
Wie das Beispiel der Wettervorhersage eindrucksvoll zeigt: Die
Modelle beschreiben die Realität zunehmend besser, auch wenn sie
nie eine totale Simulation ala Matrix sein werden.
Unverfälschte Daten liefern die Satelliten, da handelt
es sich um kein Modell, oder Reanalyse und da sinken die
Durschnittstemperaturen seit 10 Jahren.
http://www.woodfortrees.org/plot/hadcrut3vgl/from:2001/to:2011
Da sieht mal wieder, dass Du absolut keine Ahnung hast. Gerade um
Satellitendaten auszuwerten benötigt man massive
Modellunterstützung.
Mit den Satelliten-Rohdaten kann ein Normalsterblicher nichts
anfangen. Der Satellit hat ja nicht ein Termometer, dass er an
einen langen Faden bis
in 2 Meter Höhe über dem Erdboden hängen hat und fliegt damit um
die Erde rum. Der Satellit mißt bei sehr vielen unterschiedlichen
Wellenlängen
die von der unter ihm liegenden Atmosphäre und der Erde abgegebene
Strahlung. An jedem Punkt mißt er also einen Mittelwert über alle
Höhen vom Erdboden bis hoch ins Weltall wo der Satellit rumfliegt.
Wie kann ich nun aus so einer integralen Strahlungsmessung auf die
Temperatur am Boden zurückschließen? Also dem vom Satelliten am
weitest entfernten Punkt?
Noch dazu wo der dem Satelliten nähere Teil der Atmosphäre (die
Hochatmosphäre) sehr kalt ist und sich durch den Klimawandel
weiter abkühlt.
Die Antwort ist einfach. Man modelliert die Strahlung der Erde mit
einem Strahlungstransportmodell, dessen Temperatur an der
Oberfläche der Erde man
so lange gezielt veriiert, bis das vom Satelliten gemessene
Strahlungsspektrum mit dem modellierten bestmöglichst
übereinstimmt.
Das ist die Theorie, die Praxis sieht es noch viel viel
komplizierter aus. Damit das Strahlungstransportmodell richtig
rechnen kann muß es nämlich wissen,
wie die Atmosphäre zu diesem Zeitpunkt des Überfluges an diesem
Punkt ausgesehen hat.
Gab es Wolken und zwar was für welche (Jede Wolkensorte strahlt
anders). Wieviel Aerosol war in der Luft und was für eins (Jede
Sorte Aerosol strahlt anders).
Üblicherwiese werden daher Wolken komplett ausgeklammert, weil die
Unsicherheiten zu hoch sind. Aerosol hat zwar eine Wirkung, aber
für globale Aerosolmessungen gibt es bisher nur
ein einziges Weltraum-LIDAR und dieses benötigt für seine
Datenauswertung - dreimal dürft Ihr raten: Ein Modell der
Atmosphäre und zusätzliche bodengestützte LIDAR-Systeme,
die für die Berechung ihrer Rückstreukoeffizienten ein -- ta ta -
ta TA :Modell der Atmosphäre benötigen.
Ich bin kein kein Spezialist für Satelliten-Datenauswertung,
jemand der es besser weiß ist gerne eingeladen mich zu
korrigieren.
Das klingt nun tatsächlich so, als ob Kai recht hätte: Modelle
überall und getrickse ohne Ende.
Tatsächlich sollte man genauer hinschauen. In alle diese
Datenauswertungen fließt ein Modell ein: Das der Atmosphäre. Da
wir immer unterschiedlichere Daten: Bodenmessungen,
Schiffsmessungen, Flugzeugmessungen, Satellitenmessungen in EINEM
Modell zusammenführen stützen sich die Messungen und gleichzeitig
das Atmsophären-Modell.
Nichts hinkt so gut wie ein Beispiel:
Nehmen wir an wir haben eine Messmethode und mehrere mögliche
Modelle. Messungen wie Modelle wären Puzzleteile.
Ich kann mehrere Modelle mit der einen Messung zusammenbringen,
weil sie nur an einer Kante passen müssen.
Kommt nun eine zweite unabhängige Meßmethode hinzu habe ich eine
zweite Kante an der das Modellpuzzelteil nun passen muss. Dies
läßt einige Modell-Puzzle-Teile ausscheiden.
Je mehr Meßmthoden ich hinzunehme, desto genauer muß das Modell
auf ALLE Messungen gleichzeitig passen. Die Qualität des Modells
steigt also mit der Zahl der
Messungen die es verwenden.
Beste Grüße
Volker
--
====================================================
inqbus GmbH & Co. KG +49 ( 341 ) 60013031
Dr. Volker Jaenisch http://www.inqbus.de
Karl-Heine-Str. 99 0 4 2 2 9 Leipzig
N O T - F Ä L L E +49 ( 170 ) 3113748
====================================================
|