Zum Inhalt springen.
Sympa Menü

ag-umwelt - Re: [Ag-umwelt] Jahresbericht für 2011 der WMO (Wolrd Meterological Organisation)

ag-umwelt AT lists.piratenpartei.de

Betreff: Ag-umwelt mailing list

Listenarchiv

Re: [Ag-umwelt] Jahresbericht für 2011 der WMO (Wolrd Meterological Organisation)


Chronologisch Thread 
  • From: Kai Orak <korak AT gmx.de>
  • To: ag-umwelt AT lists.piratenpartei.de
  • Subject: Re: [Ag-umwelt] Jahresbericht für 2011 der WMO (Wolrd Meterological Organisation)
  • Date: Fri, 02 Dec 2011 13:04:10 +0100
  • List-archive: <https://service.piratenpartei.de/pipermail/ag-umwelt>
  • List-id: <ag-umwelt.lists.piratenpartei.de>

Hallo,
Deine Aussagen kann man zusammenfassen. Computermodelle sind objektiv, nicht manipulierbar und liefern richtige Ergebnisse. Und wenn es keine einstellbaren Programmparameter gibt, ist eine Manipulation durch entsprechende Programmierung nicht möglich.

Ich teile deine Meinung nicht. Ich bin überzeugt, dass gerade bei Computermodellen das größte Manipulationspotential vorhanden ist.

Ich habe von keinem Modell gehört, der vor 5 oder 10 Jahren die aktuelle Entwicklung annähernd richtig vorher gesagt hat. Das bedeutet steigende CO2 Menge und gleichzeitig sinkende Temperaturen. Vielleicht schaffst du mit einer Publikation aus vor 5 oder 10 Jahren zu beweisen, dass tatsächlich Modelle gab, die an der Wahrheit nahe lagen.
Bis das nicht passiert, steht fest, das die Modelle eins gemeinsam haben, nämlich dass die nicht funktionieren.

Was Satelliten Messung betrifft, gibt es tatsächlich ein kompliziertes Verfahren. Aber jede Messung ist nach dem gleichen komplizierten Muster durchgeführt. Bei Reanalyse werden die Daten z.B. einmal von Satelliten genommen, einmal von Schiffen , für nächste mal von einer Bodenstationen usw. Gerade das charakterisiert eine Reanalyse.
Noch einmal:
"Die Reanalyse wird mit einem Modell gerechnet, das dem für die Wettervorhersage ähnelt und wird mit gemessenen Daten aus den verschiedensten Quellen initialisiert. Dies sind zum Beispiel Beobachtungsdaten von Wetterstationen, Schiffen, Flugzeugen, Radiosonden und Satelliten."
http://icdc.zmaw.de/ncep.html

Die Reanalyse ist die Grundlage für WMO Bericht.

Gruß
Kai





Am 01.12.2011 17:32, schrieb Dr. Volker Jaenisch:
Ahoi!

Du gehst mit keinem Wort auf die Aussage der WMO ein. Die WMO ist die Weltorganisation der Meteorologen. Alle meteorologischen Observatorien weltweit
liefern Ihre Meßdaten an die WMO. Aus diesen WMO-Daten werden mit unterschiedlichen Modellen Globaltemperaturen errechnet.
Obwohl diese Modelle von unterschiedlichen Menschen in unterschiedlichen Ländern mit unterschiedlichen Methoden arbeiten bekommen
sie sehr gut übereinstimmende Globaltemperatur-Verläufe (wie z.B. in dem Telepolisartikel, mittleres Bild zu sehen)

Kai Orak schrieb:
Ein Modell ist nichts anderes als ein Computerprogramm mit wählbaren Parametern.
Falsch: Ein Modell ist eine Simulation von physikalischen Effekten. Die Paramter eines Modelles sind nicht frei wählbar.
Noch dazu gibt es extrem unterschiedliche Arten von Computermodellen. Es gibt Modelle welche völlig frei von wählbaren Parametern sind.
Es gibt Modelle, welche auf Szenarien aufbauen, weil man die Parameterwerte nicht kennt (z.B. weil sie erst in der Zukunft bekannt werden).
In der Praxis stellt man die Parameter so ein, dass man das gewünschte Ergebnis bekommt.
Falsch: In der Praxis muss ein Computermodell sich dadurch bewähren, dass es bei einem Satz von Anfangsbedingungen möglichst viel Szenarien möglichst gut beschreibt.
Und das ist ganz einfach, aus unterschiedlichen Datensätzen nimmt man die jeweiligen wärmeren Werte und rechnet sie zusammen, damit erhält man schnell den gewünschten "Erwärmungseffekt."
Falsch. Die Computermodelle wählen keine Temperaturdaten aus. Die Auswahl geschieht beim Perprocessing der Daten. Dort werden zusätzlich zu den Statonsdaten z.B. die WMO Metadaten berücksichtigt. Also z.B. ob Fehler mit den Meßgeräten gemeldet wurden. Und es wird geschaut ob Fehler in den Meßwerten durch z.B: Zeitreihenanlyse oder Vergleich mit anderen Wetterdaten vorliegen. Diese externen Daten führen zu einer Gewichtung der Primärdaten oder sogar dem Außschluß solcher. Es gibt imme rwieder Spinner, welche die
Stationsrohdaten verwenden um daraus irgendwas herleiten zu wollen. So wurde unterstellt mutwillig Stationsdaten gelöscht zu haben [ich berichtete]. Nach einer kurzen
Analyse der genannten WMO-Stationsdaten stellte sich heraus, dass in den Stationsprotokollen massive Probleme mit den Meßinstrumenten gemeldet waren. [ich berichtete]

Dieses Preprozessing der Daten ist bei allen mir bekannten Meßdaten nötig, es findet also nicht nur bei Temperaturdaten statt, sondern ist eine Standardprozedur um die Qualität der Daten zu bewerten. Es gibt z.B. 15 Unterschiedliche Verfahren im die Schichtdicken von atmosphärischen Schichten aus Höhenprofilen z.B. der Temperatur zu bestimmen.
Daher werden in Modellen i.d.R. alle 15 Methoden gleichzeitig angewendet und die Ergebnisse verglichen. Da jedes Verfahren die Meßwerte aus einem anderen Blickwinkel betrachtet kann man durch die Summe der Betrachtungen zu einem Erkenntnisgewinn gelangen.

Das Preprozessing der meteorologischen Meßwerte ist im übrigen kein klimatologischer Selbstzweck. Der Grund dafür ist, dass das Meßstationen-Netz ungleichmäßig über die Erde verteilt ist. Damit diese Daten in den Wettermodellen verwendet werden können müssen die Daten auf ein gleichförmiges Netz abgebildet werden. Die Wettervorhersage basiert also auf den in gleicher Form
Präprozessierten Daten wie die Globaltemperatur. Die Wettervorhersage ist in den letzten Jahrzehnte kontinuierlich besser geworden, was nicht zuletzt an dem verbesserten Preprozessing
liegt. Wie soll es also sein, dass ein und das gleich Preprozessing eine Fälschung der Klimaforscher sein soll und die darauf aufbauende Wettervorhersage immer besser wird?
Bei Reanalyse handelt sich nicht um die Daten aus einer gleichen Quelle oder Messungsreihe.
Woher hast Du denn diesen Quatsch?
Wichtig ist auch, wo diese Messstationen stehen? In der Regel an Flughäfen, wo die Abgase von Flugzeugen mit gemessen werden oder in den Städten mit urbanen Wärmeinseln.
Falsch: Den sogenanten Wärmeinseleffekt gibt es nicht, wie unlängst eine Studie mal wieder bestätigte [ich berichtete dies hier].

Bei so vielen falschen Ausagen frage ich mich: Wieviele Computermodelle hast Du denn schon programmiert?
Ich zumindest drei große: Zwei für meine Diplom- und eines für meine Doktorarbeit.

Du hast von Computermodellen einfach nicht die geringste Ahnung. Du gibst einfach nur die Propaganda anderer Leute weiter,
die genausowenig Ahnung von Computer-Modellen haben.

Sicher gibt es Parameter in Computermodellen, aber jeder einzelne Parameter an sich muß begründet sein. Der Wert des Parameters sollte physikalisch begründet sein.
Ist ein Parameter-Wert nicht physikalisch zu begründen, wie z.B. der zukünftige Ausstoß von CO2 in Klimasimulationen, werden unterschiedliche Szenarien durchgerechnet.
Diese Szenarien denkt sich in der Regel ein Konsortium von Wissenschaftlern aus, damit einheitliche Modellstandards verwendet werden.

Und nun eine ganz pragmatisceh Frage: Selbst wenn die Modelle unmotivierte Parameter hätten, die wir auf den Wert X stellen müßten, damit sie das
Klima am besten reproduzieren, was wäre daran so schlimm? Sie wären dann immer noch die beste Vorhersage, die wir haben.
Es gibt kein göttliches Modell, welches exakt ist. Es gibt auch keinen göttlichen Meßwert der unendlich exakt ist.
Da dies nun mal so ist, ist es kein Argument zu behaupten Modelle könnten, weil sie nicht göttlich sind, keine wahren Aussagen erzeugen.

Wie das Beispiel der Wettervorhersage eindrucksvoll zeigt: Die Modelle beschreiben die Realität zunehmend besser, auch wenn sie nie eine totale Simulation ala Matrix sein werden.

Unverfälschte Daten liefern die Satelliten, da handelt es sich um kein Modell, oder Reanalyse und da sinken die Durschnittstemperaturen seit 10 Jahren.
http://www.woodfortrees.org/plot/hadcrut3vgl/from:2001/to:2011

Da sieht mal wieder, dass Du absolut keine Ahnung hast. Gerade um Satellitendaten auszuwerten benötigt man massive Modellunterstützung.
Mit den Satelliten-Rohdaten kann ein Normalsterblicher nichts anfangen. Der Satellit hat ja nicht ein Termometer, dass er an einen langen Faden bis
in 2 Meter Höhe über dem Erdboden hängen hat und fliegt damit um die Erde rum. Der Satellit mißt bei sehr vielen unterschiedlichen Wellenlängen
die von der unter ihm liegenden Atmosphäre und der Erde abgegebene Strahlung. An jedem Punkt mißt er also einen Mittelwert über alle
Höhen vom Erdboden bis hoch ins Weltall wo der Satellit rumfliegt. Wie kann ich nun aus so einer integralen Strahlungsmessung auf die
Temperatur am Boden zurückschließen? Also dem vom Satelliten am weitest entfernten Punkt?
Noch dazu wo der dem Satelliten nähere Teil der Atmosphäre (die Hochatmosphäre) sehr kalt ist und sich durch den Klimawandel weiter abkühlt.
Die Antwort ist einfach. Man modelliert die Strahlung der Erde mit einem Strahlungstransportmodell, dessen Temperatur an der Oberfläche der Erde man
so lange gezielt veriiert, bis das vom Satelliten gemessene Strahlungsspektrum mit dem modellierten bestmöglichst übereinstimmt.
Das ist die Theorie, die Praxis sieht es noch viel viel komplizierter aus. Damit das Strahlungstransportmodell richtig rechnen kann muß es nämlich wissen,
wie die Atmosphäre zu diesem Zeitpunkt des Überfluges an diesem Punkt ausgesehen hat.
Gab es Wolken und zwar was für welche (Jede Wolkensorte strahlt anders). Wieviel Aerosol war in der Luft und was für eins (Jede Sorte Aerosol strahlt anders).
Üblicherwiese werden daher Wolken komplett ausgeklammert, weil die Unsicherheiten zu hoch sind. Aerosol hat zwar eine Wirkung, aber für globale Aerosolmessungen gibt es bisher nur
ein einziges Weltraum-LIDAR und dieses benötigt für seine Datenauswertung - dreimal dürft Ihr raten: Ein Modell der Atmosphäre und zusätzliche bodengestützte LIDAR-Systeme,
die für die Berechung ihrer Rückstreukoeffizienten ein -- ta ta - ta TA :Modell der Atmosphäre benötigen.
Ich bin kein kein Spezialist für Satelliten-Datenauswertung, jemand der es besser weiß ist gerne eingeladen mich zu korrigieren.

Das klingt nun tatsächlich so, als ob Kai recht hätte: Modelle überall und getrickse ohne Ende.

Tatsächlich sollte man genauer hinschauen. In alle diese Datenauswertungen fließt ein Modell ein: Das der Atmosphäre. Da wir immer unterschiedlichere Daten: Bodenmessungen, Schiffsmessungen, Flugzeugmessungen, Satellitenmessungen in EINEM Modell zusammenführen stützen sich die Messungen und gleichzeitig das Atmsophären-Modell.

Nichts hinkt so gut wie ein Beispiel:
Nehmen wir an wir haben eine Messmethode und mehrere mögliche Modelle. Messungen wie Modelle wären Puzzleteile.
Ich kann mehrere Modelle mit der einen Messung zusammenbringen, weil sie nur an einer Kante passen müssen.
Kommt nun eine zweite unabhängige Meßmethode hinzu habe ich eine zweite Kante an der das Modellpuzzelteil nun passen muss. Dies läßt einige Modell-Puzzle-Teile ausscheiden.
Je mehr Meßmthoden ich hinzunehme, desto genauer muß das Modell auf ALLE Messungen gleichzeitig passen. Die Qualität des Modells steigt also mit der Zahl der
Messungen die es verwenden.

Beste Grüße

Volker

-- 
====================================================
   inqbus GmbH & Co. KG      +49 ( 341 ) 60013031
   Dr.  Volker Jaenisch      http://www.inqbus.de
   Karl-Heine-Str.   99      0 4 2 2 9    Leipzig
   N  O  T -  F Ä L L E      +49 ( 170 )  3113748
====================================================







Archiv bereitgestellt durch MHonArc 2.6.19.

Seitenanfang