Samstag, April 27, 2024

Das böse Büro

Uriel Fanellis Blog in deutscher Sprache

Uriel Fanelli

Globale Erwärmung und Wolken.

Bevor wir über die globale Erwärmung sprechen, muss eines klar sein. Niemand weiß, was es ist. Niemand weiß es, weil es sich um ein so multidisziplinäres Thema handelt, dass man etwa dreißig Spezialisten braucht, um es zu verfassen. Das bedeutet, dass niemand als einzelnes Individuum auf dem Planeten die globale Erwärmung wirklich versteht. Dabei wird der wissenschaftliche Konsens der Fachleute gemessen.

Wenn sich Meeresbiologen, Geologen, Paläologen, Sonnenastrophysiker, Physiker der oberen Atmosphäre, Physiker der unteren Atmosphäre, Solar-Proxy-Experten, Satellitenvermessungsexperten, terrestrische Biologen, Wolkenexperten, Meteorologen, Experten für mathematische Modelle, Physikexperten von Gasen usw. auf etwas einigen – in dem Sinne, dass ihre Arbeiten Vorhersagen treffen, die wahr werden – wir können sagen, dass es einen „wissenschaftlichen Konsens“ über etwas gibt.

Es ist kein Wissenschaftsparlament, in dem mit Mehrheit abgestimmt wird. Um es klarzustellen: Wenn ich von wissenschaftlichem Konsens spreche, spreche ich von Publikationen mit Daten, die dann einem Peer-Review unterzogen und zitiert werden.

Wenn ich jemanden sagen höre, dass er „die Wissenschaft hinter der globalen Erwärmung gelesen hat“, weiß ich bereits, dass ich es mit einem Idioten zu tun habe, denn es ist so multidisziplinär, dass kein einzelner Mensch behaupten kann, „die Wissenschaft hinter der globalen Erwärmung“ zu kennen. , es sei denn, Sie sind buchstäblich allwissend. Über die Schlussfolgerungen können wir uns einigen oder nicht, d. h. es handelt sich um eine äußerst synthetische Arbeit, aber wenn wir die Details besprechen wollten, bräuchten wir etwa zwanzig Sektorexperten oder hundert „Subspezialisten“ in den Nischen jedes Sektors. Der „wissenschaftliche Konsens“ wird also gemessen: nicht, ich wiederhole, an der Anzahl der Wissenschaftler, die zustimmen – es ist kein Parlament –, sondern an der Anzahl der Veröffentlichungen mit konvergenten Daten.

„Die Antarktis schmilzt“ ist eine einfach zu verstehende Aussage, aber wenn Sie versuchen, die Wissenschaft dahinter zu verstehen, brauchen Sie einen Klimaexperten für die Antarktis. Und auch gut.

Allerdings verstehe ich im Wesentlichen nur den Teil der Klimaerwärmung, der sich auf meine Arbeit bezieht, also Big Data und Simulation. Ich bin ein Experte auf diesem Gebiet, daher kann ich Papiere lesen und verstehen, was darauf steht. Ich sage Verständnis, denn das Peer-Review von 350 Exabyte HDF-Daten ( https://www.earthdata.nasa.gov/esdis/esco/standards-and-practices/hdf-eos5 ) übersteigt die Rechenleistung und den Speicherplatz, die ich habe. Aber zumindest verstehe ich, was sie tun.

Kann ich die Techniken kritisieren? Im Prinzip ja in dem Sinne, dass ich beispielsweise auf Techniken verzichten würde, die so empfindlich auf Anfangsbedingungen reagieren. Und ich würde auch aufhören, Modelle mit pleistozänem Klima vorab zu testen. Und andere Dinge.


So kann ich eine kleine Nische dessen lesen, was sie tun. Und ich schreibe dies, weil kürzlich ein lustiger deutscher Physikkommunikator ein ziemlich alarmierendes Video gemacht hat.

Versuchen wir also, die Geschichte mathematischer Modelle (die immer auf Computern basieren) zu erklären: Ein berühmter schwarzer Physiker scherzte, dass die Wissenschaft der globalen Erwärmung die globale Erwärmung durch den übermäßigen Einsatz von Computersimulationen verschlimmern könnte, und er könnte zumindest Recht haben teilweise) auf einfache Weise.

Viele davon werden hergestellt. Jedes Mal, wenn wir eine Möglichkeit finden, einen neuen Datensatz einzufügen (vielleicht weil wir eine Sonde in die Nähe der Sonne schicken und bessere Daten über die emittierte Energie haben), werden tatsächlich Hunderte, wenn nicht Tausende neuer Simulationen gestartet.

Von diesen überleben nur sehr wenige. Einige werden sofort abgesagt, weil sie Szenarien im Sharknado-Stil vorhersehen (Hurrikane, die so stark sind, dass sie Salzwasser aufsaugen und es auf Anbauflächen regnen lassen: Wenn dies geschieht, könnte eine ähnliche Kraft auch Wale und Boote von der Größe eines Öltankers ansaugen). , andere werden im Laufe der Zeit abgesagt, weil die Vorhersagen scheitern, allerdings auf weniger auffällige Weise.

Es gab einmal Modelle, die globale Auslöschungsszenarien der Menschheit vorsahen, die zwar verworfen wurden, aber politische Auswirkungen hatten und beispielsweise Bewegungen wie die „Last Generation“ oder die „Extinction Rebellion“ hervorbrachten. Es gibt also ein nachgewiesenes Phänomen der „Öko-Angst“: Ganze politische Bewegungen entstehen aus dem Auftauchen sehr katastrophaler Modelle. Aber ich wiederhole, diese Modelle wurden gestrichen.

Sie nehmen ein Modell und prüfen zunächst, ob es „historische“ Daten „vorhersagen“ kann. In dem Sinne, dass ich alle Daten, die ich bis zu 10.000 Jahren habe, zusammenstelle und schaue, ob ich etwas „vorhersagen“ kann, das wir bereits kennen, wie das Klima vor 9900 Jahren.

(Das ist der Teil, den ich ehrlich kritisiere, weil das meiner Meinung nach zu viel Voreingenommenheit erzeugt)


Aber lasst uns weitermachen. Wie machen wir uns? Heute sind etwa zwanzig mathematische Modelle erhalten, die in Simulationen verwendet und aktualisiert werden, wenn neue Datensätze auftauchen. (neue Satelliten usw.).

Man könnte meinen, dass diese Modelle, wenn sie überleben, irgendwie dasselbe sagen. Lassen Sie sie zustimmen.

NEIN.

Es gibt sogenannte „heiße“ Modelle, die hauptsächlich auf historischen Daten aus Zeiträumen, in denen die Temperatur anstieg, erstellt (d. h. getestet) wurden. Die Daten stammen hauptsächlich von fossilen Bäumen, deren Ringe beobachtet werden, mehrjährigen Eiskernen und chemischer Geologie, aus der chemische Zusammensetzungen und Temperaturen extrahiert werden können.

Diese Modelle wurden jedoch NUR auf der Grundlage von Daten aus historischen Zeiträumen entwickelt, in denen die Temperaturen anstiegen. Und das Interessante ist, dass wir, wenn wir ein „heißes“ Modell verwenden, eine „heiße“ Vorhersage erhalten, also eine Vorhersage, bei der die Temperatur des Planeten steigt.

Es gibt aber auch Modelle, die NUR anhand von Daten aus historischen Zeiträumen getestet wurden, in denen CO2 anstieg, aber die Temperatur sank. Diese Modelle sagen weiterhin die Ankunft neuer Eiszeiten voraus. Wenn Sie Wissenschaftler sagen hören: „Was auch immer die Erwärmung ist, hier kommt eine Eiszeit“, dann liegt das nicht daran, dass sie dumm sind: Es liegt daran, dass sie nicht mit „heißen“, sondern mit „kalten“ mathematischen Modellen arbeiten.


Ich stelle mir die Fragen vor, die Sie sich stellen. Sind die Modelle eher „heiß“ oder „kalt“? Es gibt noch mehr Heiße.

Aber was bedeutet es? Es bedeutet lediglich, dass es für Akademiker einfacher ist, Mittel für die Entwicklung „heißer“ Modelle zu erhalten. Der Finanzierungsmechanismus für akademische Forschung ist nicht rational, sondern eher politisch (in Europa) oder notwendigerweise wirtschaftlich (private Finanzierung) in den USA. Russland und China beispielsweise bevorzugen interessante Modelle. Die Russen finanzieren also viele „kalte“ Modelle, weil sie befürchten, dass ein plötzlicher Temperatursturz, und sei es nur im Winter, mehrere – sehr große – Gebiete ihres Landes zerstören wird. Sie verstehen, dass Ihnen die Vorstellung, dass sie auf -60 sinken, Sorgen bereitet, wenn Sie Gebiete haben, in denen im Winter Temperaturen von -43 °C herrschen, und es sich dabei um Gebiete handelt, aus denen Sie Kohlenwasserstoffe fördern (d. h. Sie benötigen sie für den Export). Drei Monate bei -40 zu leben ist schwierig, aber nicht unmöglich, -60 drei Monate hintereinander wird unmöglich. Sie werden daher hören, dass russische Wissenschaftler Angst vor der möglichen Ankunft einer seltsamen Vereisung haben.

Und wenn wir im Westen ähnliche Modelle entwickeln würden, hätten wir wahrscheinlich diese Angst. Da die „heißen“ Modelle in der westlichen Industrie erfolgreich sind, wird bevorzugt in diese investiert. Kurz gesagt, es ist einfacher, an Geld zu kommen.

Die Frage nach dem zahlenmäßigen Unterschied zwischen den „heißen“ und „nicht heißen“ Modellen ist also berechtigt, aber naiv.


Noch eine Frage: Sprechen Sie über künstliche Intelligenz?

Nein. Im Grunde geht es ihnen nicht darum, „eine KI mit kalten Daten zu trainieren“ oder „eine KI mit heißen Daten zu trainieren“. Die Tendenz hier ist vorhersehbar.

Was sie tun, ist, Modelle zu schreiben, die normalerweise auf endlichen Differenzen basieren (bei dieser Wahl kritisiere ich sowohl die Schwierigkeit der Vernetzung als auch die Empfindlichkeit gegenüber Anfangswerten), und dann beginnen sie, sie zu „testen“. Sie nehmen Blöcke historischer Daten und sehen, wie sie funktionieren. Wenn die Ergebnisse der Computersimulation gut mit früheren Daten übereinstimmen, halten sie sie für glaubwürdig.

Die Tatsache, dass alle Modelle, die auf „heißen“ Daten basieren, eine Erwärmung vorhersagen und alle Modelle, die auf „kalten“ Daten basieren, eine Abkühlung vorhersagen, ist eine bizarre Tatsache, die meiner Meinung nach, wie ich schrieb, genau auf die Empfindlichkeit dieser Modelle gegenüber den Anfangsbedingungen zurückzuführen ist.


Warum gibt es „heiße“ und „kalte“? Warum nicht alles in den Kessel werfen?

Denn in einem so komplexen Modell kommt es zu schwankenden Ergebnissen. Selbst die Vorhersage von Eiszeiten ist praktisch unmöglich: Geologisch gesehen handelt es sich um ein Phänomen, das gar nicht so regelmäßig ist, wie wir denken. (https://it.wikipedia.org/wiki/Cronologia_delle_glaciazioni ). Und wenn wir das Pleistozän verlassen, ändert sich alles. Aber auch das Pleistozän verläuft nicht so regelmäßig.

nicht definiert

Das obige Modell scheint (meistens) erfolgreich CO2 mit den Eiszeiten des Pleistozäns in Verbindung zu bringen, aber wenn wir Folgendes verwenden:

nicht definiert

Wir konnten das Klima eindeutig mit dem Isotop 18 des Sauerstoffs in Verbindung bringen. Moral: Verwechseln Sie niemals die Indikatoren eines Phänomens mit der Ursache des Phänomens.

Darüber hinaus kann fast niemand sagen, dass er versteht, was passiert, und selbst die berühmten MIlankovitch-Zyklen erklären das Richtige, aber definitiv nicht alles. ( https://en.wikipedia.org/wiki/Milankovitch_cycles )

Sie zogen es daher vor, das Problem in kleinere Teile zu „zerlegen“. Aber an dieser Stelle werden Sie sich fragen, welchen Sinn es macht, Klimamodelle zu testen, die auch aus älteren Perioden stammen, als es die Eiszeiten noch nicht gab. Interessante Frage, die mit Milankowitch-Zyklen kollidiert.


Kommen wir nach dieser langen Erklärung zum Punkt.

Sabine hat als Kommunikatorin Alarm geschlagen, was so klingt. „Alles hängt von einer gewissen „Klimasensitivität“ ab, also einem Skalarwert, der den Zusammenhang zwischen dem CO2-Anstieg und der globalen Erwärmung darstellt.

Aussagen dieser Art verunsichern mich sehr. Wenn Sie ein Phänomen mithilfe eines Skalars darstellen, um das Wachstum des Phänomens darzustellen, erzählen Sie mir von einem linearen Phänomen. Ernsthaft? Aber nein, denn dieser Parameter wird dann innerhalb einer Simulation verwendet, die überhaupt nicht linear ist.

Deshalb fällt es mir etwas schwer zu sagen: „Ich mache mir Sorgen, wie groß er ist.“ Es ist, als würde man ein komplexes Phänomen (nehmen wir eines zufällig: den weiblichen Orgasmus) von der Größe des Penis abhängig machen. Wir werden daraus schließen, dass der bestmögliche Partner für eine Frau ein Pottwal ist: zwei Meter und achtzig Meter groß.

Liebes, es ist nicht das, was es scheint; Ich kann alles erklären. | erstellt mit Imgflip Meme Maker

Allerdings ist die Sache nicht linear, und die durchschnittliche Frau beginnt ab einer Körpergröße von 18 Zentimetern Probleme zu haben, während Pornostars viel höher reichen, aber wir wissen nicht, wie viele Orgasmen real sind. (Wir wissen ehrlich gesagt nicht einmal, ob weibliche Pottwale Orgasmen haben).

Moral: In einem komplexen, nichtlinearen Modell spielt die Größe eines einzelnen Parameters KEINE Rolle.

Also nein, ich teile die Besorgnis nicht: Wenn ich die Klimasensitivität in einem „heißen“ Modell erhöhe, bekomme ich eine noch wärmere Vorhersage, aber wenn ich sie in ein Modell einbaue, das Eiszeiten vorhersagt, wird es noch kälter.


Warum dieser Fehler? Warum alles auf einen einzigen Parameter reduzieren, der dann mit einem anderen Parameter, nämlich der Menge an CO2 oder Treibhausgasen, multipliziert wird? Warum erscheint es sinnvoll, auf EINE Zahl zu schauen und zu denken, dass alles davon abhängt? (Diese Zahl wiederum hängt stark davon ab, was die Wolken tun, wenn sich das Wasser in einem bestimmten Zustand befindet, sagen wir „Flüssigkeit, die normalerweise nicht in der Luft vorkommt“).

Das Problem ist, dass wir die globale Erwärmung immer als ein Phänomen erklärt haben, das nur von Treibhausgasen abhängt, und wir haben es immer mit einer Analogie erklärt, nämlich dem Treibhauseffekt.

Ich weiß, es mag Ihnen seltsam vorkommen, aber der Treibhauseffekt hat NICHTS mit der globalen Erwärmung zu tun. Es ist eine Analogie, deren Verwendung für populäre Zwecke sinnvoll ist, nicht jedoch für wissenschaftliche Zwecke.

Der Treibhauseffekt wirkt zunächst in einer Reichweite von knapp über zwanzig Metern. Bauen Sie einfach ein 50 Meter hohes Gewächshaus und Sie werden feststellen, dass Sie eine Art Stirlingmaschine gebaut haben, die an der Basis noch kälter ist, weil es oben noch heißer ist. Ihre Pflanzen werden noch stärker gefrieren.

Das hat damit nichts zu tun.

Das eigentliche Phänomen hängt mit der Verhaltensänderung der oberen Atmosphärenschichten zusammen. Die Temperatur der Erde lässt sich spannometrisch als Differenz zwischen der einfallenden Energie und der abgestrahlten Energie beschreiben.

Es sind vor allem die oberen Schichten, die Energie abstrahlen. Wenn sie dicht sind, enthalten sie viel Energie und strahlen daher viel davon ab. Das kühlt den Planeten. Wenn die Anwesenheit von CO2 dazu führt, dass einige Schichten weniger strahlend oder schwerer sind und daher weniger hoch sind, wird die gesamte Energie von weniger dichten und höheren Schichten abgegeben. Wenn sie jedoch weniger dicht sind, enthalten sie weniger Energie und strahlen weniger ab. Dadurch erwärmt sich die Erde.

Es handelt sich also um eine Modifikation, die wenig mit dem Mechanismus des Treibhauseffekts zu tun hat. Es gibt eine ganze Wechselwirkung zwischen atmosphärischen Proxys, die unterschiedliche Spezialisten erfordert. Aus diesem Grund sind die Befürchtungen über Wasser als Treibhausgas oder über Methan unbegründet. Wenn man sie in ein Gewächshaus bringt, sind sie Treibhausgase, aber in atmosphärischer Hinsicht ist ihre Rolle noch ungewiss.

Tatsache ist jedoch, dass es ein Fehler war, die globale Erwärmung mit dem Treibhauseffekt zu erklären. Und das nicht, weil es furchtbar falsch ist (es bleibt eine einfache Analogie zur Erklärung), sondern weil es die Menschen in die Lage versetzt, zu denken, dass alles von einem einzigen Faktor (CO2 und anderen Gasen) abhängt, während es darum geht, ein Modell anständig zu machen Es werden mindestens zwanzig Spezialisten benötigt, wenn nicht sogar hundert Subspezialisten.


Für Informationszwecke ein Beispiel zu verwenden, das alles vom CO2 abhängig zu machen scheint, war meiner Meinung nach der schwerwiegendste Fehler. Weil er die Menschen glauben ließ, dass alles von EINEM Faktor abhängt. Stattdessen hat die menschliche Präsenz Auswirkungen in mehreren Dimensionen, und aus diesem Grund ist es dumm, es so zu sagen.

Es ist ein schwerwiegender Fehler, das Problem als etwas darzustellen, das von CO2 und nur von fossilen Brennstoffen abhängt. Es lässt uns glauben, dass alles gut wird, wenn wir Elektroautos nutzen, die mit Solarenergie betrieben werden. Stattdessen konnten wir feststellen, dass das Betonieren viel mehr wiegt, denn allein der Beton und das CO2, das er beim Betonieren ausstößt, sind der dritte Faktor bei der Entstehung von CO2. Und wir tun nichts. Und was ist mit vulkanischen Phänomenen, die CO2 produzieren?

Aber wenn wir uns alle auf die Suche nach DEM Faktor machen, der ALLES auslöst, wie es Sabine aus Angst vor der Zunahme der Sensibilität tut, sind wir viel weiter von der Lösung entfernt. Sicher, vielleicht haben wir eine prägnantere Darstellung des Problems für die breite Masse, aber wir sind VIEL weiter davon entfernt, die Lösung zu finden.

Natürlich ist CO2 einer der am stärksten korrelierenden Faktoren, aber ich wäre mir nicht so sicher, ob es überhaupt DIE Ursache ist, und ich wäre nicht einmal sicher, ob eine Rückkehr zu 300 ppm funktionieren würde. Das Modifizieren von Autos zum Beispiel wird meiner Meinung nach keine Auswirkung haben. Haben wir mit der Verbreitung von Elektroautos einen deutlichen Rückgang der Emissionen festgestellt? Ähm… nein.

Das Problem besteht darin, dass CO2 ein Indikator für die Industrieaktivität insgesamt ist. Folglich macht es Sinn, zu sagen, dass CO2 den Treibhauseffekt verursacht, aber es ist so, als würde man sagen, dass wir ein Problem mit der industriellen Aktivität haben. Hätten wir beispielsweise den Wert von Börsenindizes verwendet, hätten wir das gleiche Ergebnis erhalten, da sich die Industrietätigkeit SOWOHL auf den CO2-Gehalt als auch auf die Börsenindizes in sehr ähnlicher Weise auswirkt. Wir könnten die Korrelationen berechnen, anstatt CO2 zu verwenden, indem wir ein Maß für die Industrieaktivität verwenden, und feststellen, dass das Problem die Industrieaktivität als Ganzes ist und es sinnlos ist, sich auf Autos zu konzentrieren, weil die Klimatransformation möglicherweise einen so großen Anstieg verursacht Industrietätigkeit, bei der die erzielten Einsparungen nicht berücksichtigt werden.

Kurzgesagt:

  • Wenn wir CO2 als die hauptsächliche chemisch-physikalische Ursache betrachten, erscheint es sinnvoll zu sagen, dass sich die CO2-Situation durch die Umstellung auf Solaranlagen und die Reduzierung fossiler Brennstoffe verbessern wird.
  • Wenn wir bedenken, dass CO2 ein Indikator für industrielle Aktivität ist, könnte die industrielle Transformation den CO2-Gehalt in der Atmosphäre so stark erhöhen, dass jede Anstrengung zunichte gemacht wird.

Was bedeutet das?

Das bedeutet, dass die CO2-Senkung AUCH eine MINDESTmögliche industrielle Transformation erfordern muss. Denn CO2 ist ein Indikator für industrielle Aktivität, und wenn die „grüne“ Transformation zu einem enormen Anstieg der industriellen Aktivität führt, ist sie möglicherweise überhaupt nicht „grün“ für den Planeten.

Ich bestreite die Vorstellung, dass eine Simulation, die Hunderte von Faktoren berücksichtigt, am Ende nur einen Faktor als Ursache, nur einen Multiplikator (Klimasensitivität) und nur eine Lösung anzeigt, die nichts anderes berücksichtigt.

Diese Denkweise ist nicht Teil der Lösung, sondern aus meiner Sicht Teil des Problems.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert