Klima und Wetter – Können wir den Klimawandel nun auch im täglichen Wetter feststellen?

BLOG: Beobachtungen der Wissenschaft

Grenzgänge in den heutigen Wissenschaften
Beobachtungen der Wissenschaft

Die Durchschnittstemperaturen auf der Erde steigen. Darüber kann es keinen Dissens mehr geben, zu deutlich zeigen uns dies Satellitenmessungen seit vielen Jahren. Auch der Anstieg der atmosphärischen CO2-Konzentration um ein Prozent pro Jahr ist unumstritten. Dieser entspricht den Emissionen der globalen Industriegesellschaft von ca. 36 Gigatonnen. Ein Zusammenhang zwischen beiden liegt auf der Hand: Er entspricht sowohl paläontologischen Zeitreihen wie den gängigen (und einfachsten) Klimamodellen, die unter dem Begriff «Treibhauseffekt» populär zusammengefasst werden. Bei Letzterem geht es um den Erwärmungseffekt der Erde, der darauf zurückzuführen ist, dass Sonnenlicht (elektromagnetische Strahlung zwischen ca. 400 und 750 Nanometer Wellenlänge) von der Atmosphäre durchgelassen wird, die von der Erde zurückgestrahlte Infrarot-Strahlung durch CO2 (und in geringeren Mengen von anderen Gasen wie Methan, CH4, Lachgas, N2O, und Ozon, O3) aber von der Rückstrahlung in den Weltraum abgehalten wird. Der «natürliche Treibhauseffekt», d.h. der Effekt vor Beginn der industriellen Emission von CO2 in die Atmosphäre, sorgt dafür, dass die Temperatur auf der Erde mit durchschnittlich 15 Grad um 33 Grad höher liegt als es das Ergebnis aufgrund eines einfachen physikalischen Strahlungsgleichgewichts ohne die Atmosphäre wäre (Stefan-Boltzmann-Gesetz: Jeder Körper gibt Strahlung ab – je wärmer er ist, desto mehr. Die Erde hat daher genau die Temperatur, bei der sich die einfallende Sonnenstrahlung und die von der Erde wieder abgegebene Wärmestrahlung ausgleichen). Der menschengemachte Treibhauseffekt durch CO2-Emissionen macht «nur» ca. 1,2% des gesamten irdischen Treibhauseffekts aus, mit den anderen emittierten Treibhausgasen kommen noch einmal ca. 1% dazu.  Das klingt nach wenig, aber entspricht ziemlich genau den gemessenen 0.7 Grad Erhöhung im Vergleich zum vorindustriellen Level (2.2% von 33 Grad).

Soweit so gut: Leider ist dieses einfache Klimamodell genau dies: (zu) einfach. Tatsächlich spielen noch viele andere Komponenten in die Dynamik des globalen Klimas hinein, die die «auf der Hand liegende» Erklärung konterkarieren könnten:

  • die Schwankungen in der Sonnenaktivität und der Stärke des Sonnenwinds
  • die Wolkenbedeckung (Wasserdampf ist das bedeutendste Treibhausgas, weitaus mächtiger als CO2, seine Menge wird aber vom Menschen anders als beim CO2 kaum direkt beeinflusst)
  • der Gasaustausch zwischen Ozean und Atmosphäre,
  • Meeresströmungen (Nordatlantische Oszillation, El Nino-Südliche Oszillation),
  • der Anteil am Eis auf der Erdoberfläche (Eis-Albedo-Rückkopplung: Das Tauen von Gletschern oder das Abschmelzen der Polkappen reduziert das Rückstrahlvermögen, die sogenannte Albedo, der Erde, wodurch sich die Erde noch mehr erwärmt),
  • Vulkanausbrüche (mit starken Gasfreisetzungen),
  • etc.

Zu allem Überfluss wirken bei all dem im Klimasystem wichtige Rückkopplungsmechanismen und selbstverstärkende Prozesse, d.h. es gibt in ihm zumeist keine einfachen (linearen) Zusammenhänge (ein Beispiel ist obige Eis-Albedo-Rückkopplung, aber auch, dass mit der globalen Temperaturerhöhung einerseits der Wasserdampfgehalt in der Atmosphäre steigt, andererseits die eingefrorenen Methangase in der Arktis freigesetzt werden, was beides den Treibhauseffekt verstärkt und die Temperaturen noch stärker ansteigen lässt; es sind solche Effekte, die die Angst vor den so genannten «Kipp-Punkten» hervorrufen). Bedeutende Teile dieser Zusammenhänge werden von den Klimaforschern noch nicht ausreichend verstanden. So gab es in der Vergangenheit unseres Planeten tatsächlich immer wieder Klimawandel, bei denen CO2 nur einer von vielen Einflussfaktoren und dabei teils sogar kaum kausal wirksam war. Eine einfache (lineare) Beziehung zwischen atmosphärischem Treibhaus-Gehalt und Temperatur gibt es scheinbar nicht (auch wenn die Beziehung in den letzten 150 Jahren empirisch ziemlich gut hielt). Wir brauchen also noch bessere Modelle zum Verständnis des globalen Klimas und des politisch so heiss diskutieren Klimawandels.

Betrachten wir diese Modelle etwas genauer. Es gibt drei grundsätzliche Sorten:  

  1. Einfache «konzeptionelle Klimamodelle» für grundlegende Untersuchungen des Klimasystems (wie das Treibhausmodell).
  2. «Modelle mittlerer Komplexität» (engl. «Earth System Models of Intermediate Complexity» kurz EMIC) zur (eher heuristischen) Erforschung von Klimaänderungen über längere Perioden in der Vergangenheit oder die Vorhersage des langfristigen Klimawandels in der Zukunft.
  3. Die «komplexen Modelle» für die globale Zirkulation (engl. «General Circulation Models», GCM, oder auch «Earth System Models», ESM). Diese sind Weiterentwicklungen der numerischen Wettervorhersage und entsprechen mathematischen Modellen der Zirkulation in der planetarischen Atmosphäre und/oder den Ozeanen. Sie verwenden die Navier-Stokes-Gleichungen der allgemeinen Fluiddynamik auf einer rotierenden Kugel mit entsprechenden thermodynamischen Variablen für verschiedene Energiequellen (wie Strahlung, latente Wärme). Diese sehr komplexen Gleichungen werden dann mittels numerischer Computeralgorithmen auf einem die Erde überdeckenden Gitter gelöst, wofür die stärksten verfügbaren Supercomputer benötigt werden. Eine wichtige Bestimmungsgrösse der GCM- und ESM-Modelle ist die Grösse ihrer Gitter, d.h. ihre räumliche und zeitliche Auflösung. In den besten heutigen Modellen beträgt erstere ca. 50-100 km.

Die Klimamodelle und ihre Parameter werden über die historischen Messdaten von ca. 1850 bis heute laufen gelassen. Damit sind diese Modelle allerdings noch nicht unbedingt «fit», um auch zukünftige Temperaturen oder Regenmengen korrekt vorherzusagen. Sie müssen ihre Robustheit und Qualität «out of sample» zeigen (also mit Daten, die sie bei ihrer Kalibrierung noch nicht kennengelernt haben).

Die leistungsfähigsten und aussagekräftigsten Klimamodelle sind heute GCM- oder ESM-Modelle, die ozeanische und atmosphärische Dynamiken miteinander verkoppeln. Um ihre vielen verschiedenen Versionen zu vereinheitlichen und ihre Ergebnisse besser vergleichen zu können, wurde vor ca. 25 Jahren das «Coupled Model Intercomparison Project (CMIP)» gegründet. Es handelt sich dabei um eine internationale Kollaboration, die von der «Working Group on Coupled Modelling (WGCM)» des Weltklimaforschungsprogramms (WCRP) eingerichtet wurde. Die CMIP-Modelle werden in Phasen entwickelt, momentan ist die sechste Phase («CMIP6») in Bearbeitung (in seinem letzten Report von 2014, dem «AR5», stützt sich der «Intergovernmental Panel on Climate Change (IPCC)» stark auf dessen fünfte Phase, «CMIP5»).

Allerdings sind auch die neusten Klimamodelle noch immer alles andere als perfekt. Zwar haben die Klimaforscher in den letzten Jahren mit Hilfe immer leistungsfähigerer Computer rapide Fortschritte gemacht, doch ist beispielsweise das räumliche Auflösungsvermögen der CMIP5-Modelle noch immer unzureichend, um lokale Begebenheiten wie Berge, Ufergegebenheiten, Flüsse, lokale Wolkenbildung etc. ausreichend einzubeziehen. Um diese zu erfassen, nähern die Forscher die Begebenheiten innerhalb einer Gitterzelle mit entsprechenden Parametrisierungen an, was natürlich reichlich Raum für Unsicherheiten bietet. Auch sind die globale Wolkenbildung und die Wechselwirkung der Atmosphäre mit den Ozeanen noch nicht ausreichend genau verstanden und in die Modelle eingearbeitet. Dazu kommt ein grundlegendes Problem: Um ihre Modelle zu testen, benötigen die Forscher lange Zeitreihen von Klimadaten (Temperatur, Feuchtigkeit, etc.), darunter Daten, die das Model nach seiner Kalibrierung noch nicht kennt. Und um das Modell zuletzt in seiner Qualität zu beurteilen, müssen seine Prognosen mit den tatsächlich eintretenden Ereignissen abgeglichen werden. So kann es Jahre und Jahrzehnte dauern, bis ein Modell als verlässlich (oder unverlässlich) gilt, Zeit, die wir aufgrund des sich rapide ändernden Klimas vielleicht gar nicht haben.

Die wichtigste Frage, die Klimamodelle zu beantworten haben (neben den Zukunftsprognosen), ist die nach den Ursachen für den Klimawandel. Sind dafür die industriellen Treibhausgase wie CO2 oder CH4 verantwortlich, oder gibt es vielleicht doch natürliche Schwankungen in unserem Klima, die andere Gründe haben, die mit Treibhausgasen wenig zu tun haben (z.B. durch eine noch nicht modellierte Variabilität der Sonneneinstrahlung)? Diese Frage liegt im Kern der politischen Debatte und aller künftiger Klimadiskussion. Um sie zu beantworten, enthalten die Klimamodelle «externe Parameter», die den Einfluss der von uns emittierten industriellen Gase explizit beschreiben. Diese werden dann mit den Ergebnissen von Modellen ohne externe Parameter, also nur mit den natürlichen, von Menschenhand nicht beeinflussten Faktoren verglichen. Die Gretchenfrage ist also, ob die Modelle mit externen Parametern die tatsächliche Entwicklung unsere Klimas signifikant besser beschreiben können als die ohne. Stand der Dinge ist hier (gemäss dem letzten IPCC Report): Es sieht ganz so aus. Die Modelle mit externen Parametern besitzen eine hohe statistische Signifikanz, weitaus höher als die ohne, auch wenn sie uns noch keine 100%-ige Sicherheit geben. Auch bleiben wichtige Faktoren (z.B. der genaue Einfluss der Wolken und die Bedingungen ihrer Bildung) weiterhin unzureichend berücksichtigt. Es müssen also einerseits die Modelle weiter verbessert werden, was aufgrund der komplexem und chaotischen geologischen Dynamik auf unserem Planeten zu den anspruchsvollsten wissenschaftlichen Problemen überhaupt gehört (zurzeit arbeiten die Klimawissenschaftler an der CMIP6-Serie, die noch einmal eine ganze Reihe an weiteren Faktoren einbringt bzw. noch genauer modelliert), andererseits brauchen wir noch mehr Daten, mit denen wir diese testen.

Nun zeigt sich aber vielleicht ein ganz neuer Weg, die Modelle in ihrer Aussage- und Prognosekraft zu testen. Bisher haben die Klimaforscher mit ihren Modellen Aussagen über die langfristige Entwicklung des globalen wie regionalen Klimas gemacht (die sie dann mit den tatsächlich gemessenen  Werten vergleichen): Wie entwickelt sich die Temperatur der Erdoberfläche im weltweiten Durchschnitt über die Zeit? Was sind die zu erwartenden jährlichen Regenfallmengen in Mitteleuropa über die nächsten Jahre und Jahrzehnte? Kurzfristige Wetterbedingungen sollten dabei keine Rolle spielen, unterliegen diese doch zu vielen Zufälligkeiten, d.h. die konkreten Daten sind statistisch zu variabel, um eine ausreichend hohe Aussagekraft zu besitzen. «Wetter ist nicht gleich Klima», heisst es bei den Klimaforschen, oder: «Klima ist das, was man langfristig erwartet, Wetter, was man kurzfristig erhält». So kann es durchaus in Nordamerika im Oktober mal -37 Grad haben (wie 2019 in Utah gemessen), woraufhin sich «Klimaskeptiker» genüsslich (und oft auch sehr dämlich) fragen, «wo denn der Klimawandel bleibt». Klimaforscher von der ETH Zürich haben in einer aufsehenerregenden Publikation [1] jedoch gezeigt, dass sich signifikante Klimasignale, also der Trend zur Erwärmung, wie er auch von den CMIP-Modellen beschrieben wird, auch aus täglichen Wetterdaten wie Oberflächenlufttemperatur und Luftfeuchtigkeit herauslesen lassen! Dafür ist aber eine globale Betrachtung der Daten notwendig: Während regionale Daten auf täglicher Basis zu stark fluktuieren und damit mögliche Signaturen des Klimawandels verschleiern, mittelt sich die Variabilität auf der globalen Ebene auch in täglichen Daten heraus. Die globalen Tagesmittelwerte erweisen sich als relativ stabil. Die extrem kalten Bedingungen in Nordamerika im Oktober und die ungewöhnlich heissen Bedingungen in Australien zur gleichen Zeit gleichen sich in der globalen Statistik aus.

Beschrieben also bisher die Modelle die langfristigen Klimaeffekte auf globaler wie regionaler Basis, so lassen sich mit ihnen durchaus auch die kurzfristigen Wettereffekte auf globaler Basis beschreiben, so könnte der Tenor der Studie heissen, oder wie es der Leiter der Forschergruppe Reto Knutti formuliert: «Wetter auf globaler Ebene trägt wichtige Klimainformationen in sich.» Konkret wandten die Zürcher Forscher die so genannte «Fingerprint»-Methode an: Zunächst modellierten sie mit den  Klimamodelle und ihren externen Parametern (konkret mit den CIMP5-Modellen) die jährliche globale Durchschnittstemperatur und die zehnjährige irdische Energiebilanz. Dann trainierten sie auf der Basis der gleichen CIMP5-Modelle Regressionsmodelle zur Vorhersage dieser durchschnittlichen Temperatur- und Energiebilanzdaten aus den räumlichen täglichen Mustern von Oberflächentemperatur und/oder Luftfeuchtigkeit. Das Ergebnis waren «Karten von Regressionskoeffizienten», die den Zusammenhang zwischen den globalen Klimawerten (Temperatur und Energiebilanz) und den global verteilten Wetterdaten abbilden und ihrerseits einen «Fingerabdruck» der verwendeten Klimamodelle darstellen (mit Hilfe dieser Regression liess sich das starke Rauschen in den Daten unterdrücken und eventuelle Signale liessen sich besser hervorausfiltern). Diese können dann mit den Beobachtungen abgeglichen werden. Zuletzt verglichen die Forscher die Ergebnisse aus den Modellen mit den externen Faktoren gegenüber solchen ohne externe, also nur mit natürlichen Faktoren.

Das Ergebnis war eindeutig: Der Klimawandel ist tatsächlich auch in den täglichen Wetterdaten eindeutig erkennbar! Gemäss der Studie liess er sich sogar in jedem einzelnen Tag seit 2012 erkennen (mit 97.5% Konfidenz). Seine Signatur lässt sich mit den verfügbaren globalen Klimamodellen gut erfassen, was deren Qualität untermauert. Im Übrigen gilt dies auch, wenn der globale Temperaturanstieg herausgerechnet wird. Dies ist ein grosser Schritt in der Entwicklung noch aussagekräftigerer Klimamodelle, die spätestes mit dem nächsten Bericht der IPCC (vorgesehen für 2022) weiter an Bedeutung in der politischen und gesellschaftlichen Debatte um den Klimawandel gewinnen werden. Auch wenn wir immer noch keine 100%-ige wissenschaftliche Sicherheit haben, dass der Klimawandel menschenverursacht ist, so schliesst sich doch allmählich die Türe für alternative, natürliche Erklärungen. Zu warten, bis die Konfidenzen der Modelle noch höher sind, bevor man politisch reagiert, wäre völlig unangemessen. Wäre es nicht sogar vielmehr angemessen zu handeln, selbst wenn die Modelle «Entwarnung» bei den Auswirkungen der anthropogenen Veränderungen unserer Biosphäre signalisieren würden, aber auch das eben noch mit einer vergleichbaren Unsicherheit wie die, mit der uns die Modelle heute aufzeigen, dass der menschengemachte Klimawandel stattfindet? Es sieht so aus, als ob sich wenigstens diese Frage schon bald nicht mehr stellen wird.  

[1] Sippel, S., Meinshausen, N., Fischer, E.M. et al. Climate change now detectable from any single day of weather at global scale. Nat. Clim. Chang. 10, 35–41 (Jan 2, 2020) doi:10.1038/s41558-019-0666-7

Avatar-Foto

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

75 Kommentare

  1. Ein sehr guter Beitrag, gut verständlich und auch logisch.
    Was fehlt, dass er auch Wirkung zeigt?
    Die Leute kaufen weiterhin größere und schwerere SUVs, sie machen in verstärktem Maße Kreuzfahrttourismus und die Flughäfen schmücken sich mit wachsendem Passagieraufkommen.

    Ein kleiner Verbesserungsvorschlag wäre, dass die Wetterämter nicht mehr die Temperaturen angeben, die kann jeder auf seinem Außenthermometer ablesen, sondern den Energiegehalt der Luft.

    Das wäre doch mal ein Quantensprung, Messgeräte, die den Energiegehalt angeben, also die Mitberücksichtigung der Luftfeuchtigkeit. Unsere Außenthermoter messen doch auch die Luftfeuchtigkeit. Das gehört zusammen.

    Jeder Obstbauer weiß, dass es einen Taupunkt gibt.

    • @H. Wied:
      Die Wetterämter geben zwar nicht den Energiegehalt der Luft an, mit dem wohl auch kaum jemand was anfangen könnte, doch es gibt eine andere für den Klimawandel sehr interessante Messung: bei der Satellitenmission CERES wird seit dem Jahr 2000 der Energiehaushalt der Erdatmosphäre gemessen, auf englisch „Earth Energy Imbalance (EEI)“.

      In einer neuen Studie von Dewitte et al (2019) https://t1p.de/2f74 sind die ausgewerteten Daten zu finden, wobei dort die zentrale Aussage zum Klimawandel in der Grafik „Figure 14. 2000–2018 variation of Earth Energy Imbalance“ zu finden ist. Diese Aussage lautet, dass die EEI positiv ist, mit fallender Tendenz gegen Null, gut zu erkennen an der grünen Trendkurve.
      Solange die EEI positiv ist findet eine Erwärmung der Erdatmosphäre (als Ganzes) statt, d.h. man kann hier auf andrem Weg als die hier im Blog genannte Studie nachweisen, dass sich die Erdatmosphäre laufend erwärmt.
      Diese Erwärmung beschleunigt sich allerdings nicht, wie es die vorgeblichen Alarmmeldungen zur bevorstehenden Klimakatastrophe behaupten, sondern sie lässt seit 18 Jahren langsam nach. Das passt auch bestens zur Aussage der Physik, dass das CO2 in die „Sättigung“ kommt und mit zunehmendem CO2 in der Erdatmosphäre die Rückstrahlung nachlassen wird, ein logarithmischer Effekt. Dass dieser Effekt zutreffend ist zeigt sich am Beispiel der proxy-Daten aus der Zeit des Trias, vor ca. 200 Millionen Jahre, als bei 1750 ppm CO2 die Globaltemperatur ca. 17 °C betrug, also etwa 2,3 °C mehr als heute bei einem mehr als vierfachen CO2-Gehalt der Erdatmosphäre.
      Ich habe mal den von der Studie genannten linearen Trend von -0,16 ± 0,11 W/m² dec hochgerechnet und komme auf knapp 70 Jahre (bzw. 40Jahre min und 220 Jahre max.) bis die Erwärmung zum Stillstand kommt, wobei sie ja von Jahr zu Jahr geringer wird.
      Die Klimaforscherin Judith Curry hat in ihrem Blog mithilfe dieser Studie die Klimasensivität des CO2 für den Zeitraum 2000 bis 2019 zu 1,72 °C errechnet: https://t1p.de/64ab

      Diese Daten sind für mich ein eindeutiges Zeichen, dass uns trotz weiter zunehmendem CO2-Ausstoß keine Klimakatastrophe droht. Je schneller der CO2-Ausstroß steigt desto schneller endet die globale Erwärmung, desto schneller hat der EEI-Wert die Null erreicht.
      Man darf sich durch die Alarmmeldungen von „wärmstes Jahr seit xxxx“ nicht täuschen lassen: ja, klar, eine Erwärmung findet zurr Zeit statt, doch die Messung der Energiebilanz der Erde zeigt, dass diese Erwärmung allen Unkenrufen zum Trotz sich immer weiter abschwächt.

      • @Wolfgang Richter
        Komisch das die Autoren der Studie zu einer anderen Einschätzung kommen. Die Erklären nämlich den Rückgang des EEI mit der Ocean Heat Content Time Derivative (OHCTD). Zitat: “The EEI trend agrees with a trend of the Ocean Heat Content Time Derivative of −0.26 ± 0.06 (1 σ) W/m2dec.”

        Der EEI-Wert ist keine absolute Größe, Sie ist eine Differenz: “The EEI is obtained as the difference between the incoming solar radiation and the TOR.” Und die “Incoming Solar Radiation” ist ebenfalls negativ: “The incoming solar radiation shows a trend of −0.07 ± 0.01 (1 σ) W/m2dec”

        Mir scheint Sie ziehen da sehr schnell eine sehr vereinfachte Schlussfolgerung.

  2. Können wir den Klimawandel nun auch im täglichen Wetter feststellen?
    Wenn wir auf jedem Punkt der Erde das aufgrund der Klimamodelle erwartete mit dem tatsächlichen Wetter vergleichen, dann wird es einen solchen Unterschied in signifikanter Höhe geben, sobald der Klimawandel stärker ist als die natürliche Klimavariabilität. Wenn wir hier lesen (Zitat): Gemäss der Studie liess er sich sogar in jedem einzelnen Tag seit 2012 erkennen (mit 97.5% Konfidenz)., so bedeutet das, dass wir seit den 2010er Jahren definitiv in anderem Territorium angekommen sind – ausser es gäbe auch eine sehr langanhaltende natürliche Klimavariabilität mit Perioden von Jahrzehnten (dann wären wir jetzt gerade auf einem Temperaturberg der langperiodischen Schwankung). Da die Klimawissenschaft mit feinmaschiger Datenerhebung über den ganzen Globus und mit detaillerter Modellbildung noch eine junge Disziplin ist, können wir das nicht völlig ausschliessen. Tatsächlich gibt es langperiodische Klimaschwankungen und dazu gehören etwa die Pazifische Dekadische Oszillation mit einer Zyklenlänge von 25 bis 45 Jahren und die Atlantische Dekadische Oszillation mit Zyklenlängen von sogar 65 bis 85 Jahren. Beide gehen (angeblich) mit grossräumigen periodischen Erwärmungen und Abkühlungen einher und es gibt sogar Indizes zur numerischen Festlegung der Stärke dieser Erwärmung/Abkühlung. Doch die kombinierte Wirkung von AMO und PDO kann den Erwärmungstrend nicht erklären. Die Treibhausgasmodelle dagegen erklären die beobachtete Erwärmung recht gut.

    Wie realistisch ist eine Halbierung der globalen Treibhausgasemissionen innerhalb von 30 Jahren?
    Der Haupttreiber von langfristig wirkenden Treibhausgasen ist die Verbrennung von Kohle, Erdöl und Erdgas, denn dabei entsteht CO2, welches viele Jahrhunderte in der Atmosphäre verbleibt. Das in Ergaslecks und in der Landwirtschaft entstehende Methan zerfällt dagegen innerhalb weniger Jahrzehnte und das aus auftauendem Permafrost entweichende Methan verbleibt im Permafrost, wenn dieser gar nie auftaut. Auch die Lachgasemissionen der Landwirtschaft sind langfristig gesehen ein kleineres Problem.
    Folgerung: Hauptpriorität beim Klimaschutz muss der Verzicht auf die Verbrennung von Kohle, Erdöl und Erdgas haben. Wie schnell nun können wir Erdöl, Kohle und Erdgas verlassen? Dazu betrachten wir zuerst einmal den Trend auf dem Energiemarkt seit dem Jahr 2000:
    Im Jahr 2017 stammte 85% aller erzeugten Energie aus der Verbrennung von Kohle, Erdöl und Erdgas, während es im Jahr 2000 noch 90% waren (siehe dazu Our world in data was eine Reduktion von 5% gegenüber dem Jahr 2000 ist. Wichtig für die Trendbeurteilung ist auch das globale Wachstum des Energieverbrauchs. Im Jahr 2000 wurde weltweit 112’000 Terawattstunden Energie erzeugt, im Jahr 2017 jedoch waren es bereits 151’000 Terawattstunden, was einem Zuwachs um einen Drittel der Gesamtenergiemenge entspricht.
    Folgerung: In 17 Jahren sank der Anteil von Kohle, Öl und Ergas an der Gesamtenergieproduktion um 5%, aber absolut gesehen wurden im Jahr 2017 mehr Kohle, Erdöl und Erdgas verbrannt als im Jahr 2000, weil mehr als 30% mehr Energie erzeugt wurde oder plakativ zusammengefasst: Der Energieverbrauch steigt schneller als die Umstellung auf nichtfossile Energieträger.
    Das gilt etwa auch im Automobilsektor, wo im Jahr 2018 Elektrovehikel nach einer zehnjährigen Entwicklung einen globalen Marktanteil unter den Personenwagen von 2.1 Prozent erreichten. Doch während dieser Zeit nahmen weltweit gesehen und auch in Deutschland allein die CO2-Emissionen durch Fahrzeuge zu und nicht ab. Weltweit gesehen, weil die Anzahl der Fahrzeuge stark zunahm und in Deutschland, weil der Anteil von Fahrzeugen mit hohem Verbrauch (SUVs) zunahm.
    Die optimistischste Einschätzung für den Markt der Personenwagen und kleinen Lastwagen ergibt frühestens ab 2030 einen so grossen Anteil an Elektrovehikeln, dass der weltweite Verbrauch von Diesel und Benzin nicht mehr weiter steigt, sondern zu stagnieren beginnt.
    Das starke weltweite Wachstum in fast allen Energiesektoren bedeutet also, dass es gewaltige Marktanteilverschiebungen zugunsten nichtfossiler Energien braucht, damit absolut gesehen die CO2-Emissionen sinken. Länder, die auf Erneuerbare setzen sind da keine Ausnahme. Sie müssen nämlich mindestens fossile Kraftwerke in Reserve halten (Erdgaskraftwerke vorwiegend), damit sie bei Dunkelflauten immer noch Strom erzeugen können und im Winter wird nun mehr mit Erdgas als mit Erdöl geheizt. Es ist deshalb kein Zufall, dass Deutschland so interessiert an Nordstream-2 ist, denn Deutschland rechnet in den nächsten Jahrzehnten mit einer zunehmenden Bedeutung von Erdgas. Auch weltweit steigt die Verbrennung von Erdgas und Länder die wohlhabender werden steigen von Kohle auf Erdgas um (China beispielsweise).
    Wirtschaftlich schnell wachsende Länder wie bis vor kurzem China und jetzt Vietnam haben das schnelle Wachstum mit Kohlezubau erreicht, weniger schnell wachsende setzen auf eine Kombination von Erneuerbaren und Erdgas. Stromspeicher für überschüssigen Erneuerbaren-Strom dagegen sind erst gerade in Entwicklung und Pläne für länderübergreifende Stomnetze für erneuerbar erzeugten Strom verstauben in den Schubladen.
    Unter diesen Umständen und angesichts der sehr langsamen Verschiebungen im Energiebereich ist es das Wahrscheinlichste, dass auch in 30 Jahren weltweit gesehen ähnlich viel CO2 ausgestossen wird wie heute – und das selbst dann, wenn massiv auf nichtfossile Energiequellen umgestellt wird, denn die Umstellung müsste gewaltig sein um damit auch die weltweite Zunahme der Energieproduktion mitabzudecken. Und eines dürfte sicher sein: Schwellen- und Entwicklungsländer werden in 30 Jahren sehr viel mehr Energie verbrauchen als sie es heute tun.

    Fazit: Umstellung auf nichtfossile Energien ist mit Sicherheit angezeigt – allein schon wegen dem starken Wachstum des weltweiten Energieverbrauchs. Dieser allein schon macht eine Diversifikation der Energiequellen zu einem Mittel der Absicherung und Vernunft. Um aber den Ausstoss der Treibhausgase absolut und nicht nur relativ zu reduzieren braucht es geradezu herkulische Anstrengungen. In “nur” 30 Jahren darf man da nicht allzuviel erwarten und wer behauptet, Kernfusionsforschung etwa sei unnötig weil ihre Kommerzialisierung zu spät erfolgt, der dürfte noch überrascht werden von dem was ihn in 30 Jahren erwartet.

  3. Im täglichen Wetter wohl nicht, aber ich würde gerne mal die Frage stellen, warum es nicht mehr bzw. sehr sehr viel weniger schneit. Ich jedenfalls kann mich noch an den Katastrophenalarm von 1978/79 erinnern, wo uns der Schnee mindestens eine Woche längere Weihnachtsferien bescherte. So etwas gab es bis dato nie wieder, auch 2010 war dagegen noch harmlos um nicht zu sagen – ein Witz.

  4. Nicht von Bedeutung,
    der damalige Winter kam von Nordost, genauer aus Richtung China.
    Seit dort die industrielle Revolution stattgefunden hat und noch stattfindet, werden wir kaum noch eine Kaltfront aus Ostsibirien bekommmen.

    • Dann liegt es also an einem vom Menschen gemachten Klimawandel?
      Und die Unwetter aus dem Westen treffen uns uneingeschränkt, weil die Staaten schon seit eh und je industrialisiert waren? Ich habe da erhebliche Zweifel.

  5. Der Mittelmeerraum wird 2050 ein deutlich trockeneres Klima mit weniger Niederschlägen als heute besitzen und in Australien könnten im Jahr 2050 Hitze- und Brandsommer wie dieses Jahr so häufig vorkommen, dass das Leben dort ein ganz anderes sein wird als heute wo ausgedehnte Brände noch die Ausnahme sind.
    Das alles steht jetzt schon fest. Doch wirklich begriffen haben es nur wenige. Sicher nicht begriffen haben es Politiker und eine Öffentlichkeit, die von der Begrenzung auf 1.5 Celsius Erwärmung sprechen, deren Land aber ein Emmissionsprofil besitzt welches zu einer 3 Grad wärmeren Welt passt.
    In der Politik geht es immer um die Gegenwart und die Zukunft. Die Vergangenheit wird vielleicht bedauert und man hofft ihre negativen Auswirkungen noch zu unseren Lebzeiten abgelten zu können. Im Falle des Klimawandels geht das allerdings nicht. Mindestens nicht so einfach. Sehr viele Klimata werden sich so oder so stark verändern, sehr viele Städte werden ganz (Venedig, Jakarta) oder teilweise (Miami) im Meer versinken und es wird absehbar sein, dass die Veränderungen noch einmal ein paar weitere Jahrhunderte anhalten. Ein schnelles radikales Umsteuern gerade jetzt ist aber auch nur beschränkt möglich. Würden jetzt alle auf 100% Elektromobilität in 20 Jahren setzen, ergäben sich sofort massive Rohstoffmängel. Es würde nicht nur Lithium und Kobalt fehlen, sondern sogar Kupfer. Irgenwann wird man wohl beginnen, CO2 wieder aus der Luft zu holen um zu verhindern, dass die Zukunft in 100 Jahren eine sein wird, die man sich für seine Nachkommen gar nicht wünscht.

  6. W. Richter

    “Diese Erwärmung beschleunigt sich … sondern sie lässt seit 18 Jahren langsam nach.”

    ” … Aussage der Physik, dass das CO2 in die „Sättigung“ kommt …”

    Das entspricht nicht den Tatsachen, sondern ist Ihrem “Cherry picking” geschuldet

    Erwärmung(Temperature Anomalies over Land and over Ocean):
    https://data.giss.nasa.gov/gistemp/graphs_v4/

    Co2(Trends in Atmospheric Carbon Dioxide):
    https://www.esrl.noaa.gov/gmd/ccgg/trends/global.html

    • @Michael
      Haben Sie mal in die Studie reingeschaut und sich die Aussagen und die Grafiken genauer angesehen? Wo habe ich beim EEI – Ergebnis denn cherry picking betrieben?
      Die Aussage ist doch klar und eindeutig: der EEI-Wert ist positiv und abnehmend mit einem linearen Trend von 0,16 ± 0,11 W/m² pro Dekade. Das heißt auch wieder eindeutig, dass es erstens eine globale Erwärmung gibt und dass zweitens deren Energiemenge im zeitlichen Verlauf abnehmend ist – alles bezogen auf die Meßperiode 2000 bis 2018, oder anders formuliert: die Erwärmung ist nach wie vor im Gange und schwächt sich seit Beginn der Messungen ab.
      Die Studie weist darauf hin, dass dieser Rückgang überraschend ist, obwohl doch die Treibhausgaremissionen in dieser Zeit zugenommen haben ( „At first sight it seems surprising that the EEI is decreasing during a period of continued greenhouse gas emission.“), zeigt dann aber zur Verifizierung in Figure 15, dass diese Abnahme des EEI-Wertes sehr gut mit der Abnahme des Wertes „Ocean Heat Content Time Derivative (OHCTD)“ korreliert, also dem zeitlichen Verlauf des Wärmeinhalts der Ozeane, der ebenfalls im gleichen Zeitraum rückläufig ist.

      Es gibt noch einen weiteren Zusammenhang, den man hier https://t1p.de/xv4p im Vergleich mit den Grafiken der EEI-Studie problemlos feststellen kann. Wenn man dem Link folgt und dann ab der Zwischenüberschrift „Temperature records versus atmospheric CO2“ die bekannten globalen Temperaturkurven mit den jeweils gestrichelt eingezeichneten normalisierten Verläufen über die Jahre 2002 oder auch 2003-2006 jeweils bis heute anschaut, sieht man, dass seit etwa 2002 bis 2005 die Globaltemperaturen kaum bis gar nicht mehr gestiegen sind – und das trotz weiter zunehmendem C02, dessen Verlauf überall eingezeichnet ist.
      Was beim Betrachten dieser Temperaturverläufe weiter auffällt ist, dass es die Korrelation zwischen CO2-Anstieg und Temperaturanstieg auch nur in der Zeit zwischen 1978 und 2002 oder 2003-2006 gab. Zuvor gab es sogar eine Anti-Korrelation.
      Wer es nicht glaubt kann sich problemlos die Originaldaten der Temperaturen von GISS, HadCRUT4, NCDC und RSS MSU herunterladen und dann auswerten.
      Keine Frage, seit etwa dem Jahr 2000 stagniert die globale Erwärmung mehr oder weniger, trotz der Rekordmeldungen, bei denen es ja schließlich nur noch um zehntel Grade ging.

      Dass die EEI wohl der zentrale Basiswert zum meßtechnischen Nachweis des Klimawandels ist (meine Formulierung, bitte selbst lesen), geht aus dieser Einladung hervor: https://t1p.de/ql9e
      bei der zudem darauf hingewiesen wird, dass zwar der 31.12.2019 Redaktionsschluss für den wissenschaftlichen Teil des AR6-reports des IPCC ist bzw. war, aber es dennoch (wichtige) Beiträge auch noch im Laufe von 2020 von der WG1 entgegengenommen werden.

      Zum Thema Sättigungseffekt beim CO2 habe ich nochmal recherchiert und stelle fest, dass dies umstritten ist. Es bestehen Zusammenhänge mit den Absorptionsbanden der andern Treibhausgase und besonders des Wasserdampfs und dann auch wieder mit der Höhe über dem Erdboden, wo das CO2 seine Rückstrahlung ausübt. Der aktuelle Stand der Klimaforschung zu diesem Thema ist wohl hier nachzulesen: https://t1p.de/jzjq
      Damit bleibt allerdings ungeklärt wieso es im Trias bei mehr als 4-fachem CO2-Gehalt nur so wenig wärmer geworden war. Dazu habe ich bisher keine Erklärung gefunden.

  7. Wolfgang Richter,
    danke für die ausführliche Stellungnahme. Wissenschaftliche Forschung muss am Ende beim Bürger ankommen.
    Der Klimawandel hat sich als Begriff schon breitgemacht, in seiner Bedeutung aber noch nicht. In der Politik hat noch kein Umdenken stattgefunden.

    Mein Vorschlag mit der Angabe des Energiegehaltes zielt darauf ab, dass die Erwärmung viel drastischer dargestellt werden muss.
    Wenn man sich mal klar macht, das der Energieunterschied zwischen 0 Grad Celsius und 30 Grad Celsius nur 30 KJoule pro m³
    Luft beträgt, aber bei gesättiger Luft von 100 % Luftfeuchigkeit das Siebenfache davon beträgt, dann sollte man schon angeben, ob 30 Grad warme Luft nur 30 KJ Energie enthält oder 200 KJ.
    Und wenn wir dann feuchte Mittelmeerluft bekommen, dann ist das energetisch betrachtet eine Katastrophe. Deswegen sind die Winter in Deutschland so warm.

  8. @Wolfgang Richter
    Von den Zweiflern der globalen Erwärmung wird gerne eine Sättigung bei erhöhtem CO2-Gehalt angeführt. Eine solche Sättigung gibt es nicht. Eine Sättigung würde eintreten bei stark erhöhter IR-Abgabe vom Erdboden, so dass eine Absorption durch CO2 oder andere Treibhausgase nicht mehr möglich wäre und die weitere IR-Strahlung direkt in den Weltraum abgestrahlt würde. Das könnte bei Vulkanausbrüchen zu beobachten sein.

  9. Zunächst vielen Dank für den umfangreichen und sehr verständlichen Beitrag zum Thema Wetter und Klima. Ihre Darstellung der Komplexität des Themas und des eingeschränkten Wissensstandes zu dessen Modellierung triff meines Erachtens nach ein Kernproblem vieler Diskussionen: Die eine klare Wahrheit zum physikalischen Hintergrund des Klimawandels gibt es nicht.
    Außerdem zeigt die Darstellung der Zusammenhänge zwischen Klima und Wetter auch, dass die in heutiger Diskussion immer wieder verwendeten globalen Durchschnittswerte für das Handeln der Menschen eigentlich irrelevant sein. Die lokalen Klimaveränderungen sind viel entscheidender, aus ihnen ergibt sich, was die Menschen tun müssen, um mit den Klimaänderungen erfolgreich zu leben (so wie in den letzten hunderttausenden Jahren der menschlichen Evolution).
    Wenn sich die komplexen globalen Strömungsverhältnisse in der Atmosphäre so verändern, dass Mitteleuropa im Sommer nicht mehr von südwestlichen Luftströmungen von feucht-warmer Atlantikluft, sondern von südlichen Strömungen mit heisser trockener Luft aus der Sahara beherrscht wird, dann werden 2 Grad Erhöhung der Durchschnittstemperatur keine Relevanz haben, sondern die lokale Klimaänderung in Mitteleuropa wird wesentlich größer sein.
    Wie die heute unter dem Schlagwort “Klimaschutz” vorgeschlagenen Maßnahmen solche Änderungen den lokalen Klimas beeinflussen ist weitgehend völlig unklar. Im günstigsten Fall werden diese Änderungsprozesse verlangsamt, vielleicht sind diese aber auch schon soweit fortgeschritten, dass der “Klimaschutz” gar keine Auswirkungen mehr auf die im Gange befindlichen lokalen Klimaänderungen bei uns hat.
    Daraus ergibt sich meiner Ansicht nach, dass wir den Inhalt des Begriffes Klimaschutz umdefinieren müssen. Es geht nicht darum, das Klima vor den Menschen zu schützen sondern die Menschen vor den lokalen Klimaänderungen.

    Es gibt Gegenden in der Welt, in denen die Menschen genau dies tun, sich und ihren Lebensraum an diese Änderungen anzupassen. Vor einiger Zeit kam dazu ein spannender Bericht über Grönland im Fernsehen. Ich auch wir sollten intensiver diskutieren, wie wir bei uns mit Hitze und vor allem mit Trockenheit umgehen und leben können.

    Um es noch mal auf den Punkt zu bringen: Ich halte die Diskussion um den Klimaschutz im aktuellen Sinne als Begründung für politische Entscheidungen für unsinnig. Allerdings sind viele dieser Entscheidungen aus dem Blickwinkel des sparsamen Umgangs mit den Ressourcen unseres Planeten durchaus zu begrüßen.

  10. Zukünftige Generationen werden CO2 wieder aus der Luft entfernen sobald dies wirtschaftlich vertretbar ist, also weniger als 1% des Welt-BIP kostet.
    Warum? Weil sonst über die nächsten Jahrhunderte selbst Grossstädte wie London vom Meer verschluckt werden. Solche Spätfolgen des Klimawandels können auch noch spät, beispielsweise erst in 100 Jahren, verhindert werden – einfach indem die Treibhausgase reduziert werden.
    Ich bin aber auch überzeugt, dass sich die Menschen und Regierungen auch in diesem Jahrhundert noch einiges einfallen lassen werden um die schlimmsten Folgen eines zunehmenden Klimawandels zu verhindern und abzumildern. Motivieren werden dabei die beobachteten und in naher Zukunft zu erwartenden negativen Folgen des Klimawandels.

  11. Die New York Times meldete am 13.01.2020: 2019 Was a Record Year for Ocean Temperatures, Data Show
    Die vor allem über die Argos-Sonden ermittelte Wärme in den obersten 2000 Metern des Weltozeans nimmt kontinuierlich zu wozu man in der New York Times liest: “If you look at the ocean heat content, 2019 is by far the hottest, 2018 is second, 2017 is third, 2015 is fourth, and then 2016 is fifth,”

    Höhere Ozeantemperaturen in den oberen Schichten führen unter anderem zu schnellerem Rückgang des arktischen, polaren Sommereises, aber auch zu schnellerer Schmelze des antarktischen Eises, welches zu einem wichtigen Teil unter dem Meeresspiegel liegt, denn das antarktische Festland wird durch das aufliegende Eisgewicht unter den Meeresspiegel gedrückt.

    Hier ein Auszug des Artikels:

    “Wenn man den Wärmegehalt der Ozeane betrachtet, ist 2019 bei weitem das heißeste, 2018 das zweitheisseste, 2017 das drittheisseste, 2015 das viertheisseste und 2016 das fünftheisseste”, sagt Kevin E. Trenberth, ein leitender Wissenschaftler am National Center for Atmospheric Research und Autor der Studie

    Die Studie, die in der Zeitschrift Advances in Atmospheric Sciences veröffentlicht wurde, folgt auf die Ankündigung europäischer Wissenschaftler in der vergangenen Woche, dass die Oberflächentemperaturen der Erde im Jahr 2019 die zweithöchste Temperatur in den Aufzeichnungen waren.

    Seit Mitte des letzten Jahrhunderts haben die Ozeane etwa 93 Prozent der überschüssigen Wärme absorbiert, die durch Treibhausgase aus menschlichen Aktivitäten wie der Verbrennung von Kohle zur Stromerzeugung entsteht. Das hat das Land vor einigen der schlimmsten Auswirkungen der steigenden Emissionen geschützt.

    “Der Wärmegehalt der Ozeane ist in vielerlei Hinsicht unser bestes Maß für die Auswirkungen des Klimawandels auf die Erde”, sagte Zeke Hausfather, der Direktor für Klima und Energie am Breakthrough Institute in Kalifornien, der an dieser Studie nicht beteiligt war.

    Fazit: ein wichtiger Teil der globalen Auswirkungen der Erdsystemerwärmung kommt über höhere Weltmeer-Temperaturen. Diese steigen ungebrochen linear an.

  12. Ein Beispiel für Muster im Klimawandel: die temperaturabhängige Geschlechtsdetermination bei eierlegenden Reptilien und bei manchen Fischen. Verändert sich die Temperatur im Nest der Eier, verändert sich als Folge die geschlechtliche Ausprägung und Häufigkeitsverteilung der Jungtiere, womit auf längere Zeit das Aussterben die Folge wäre. Die zeitliche Sensibilität dafür liegt bei 2 Wochen während der Brutzeit, also im Zeitbereich des Wetters.

    Es gibt bestimmt viele solcher Beispiele, wo kleine, aber periodisch wiederkehrende Veränderungen des Wetters bestimmte kausale und beobachtbare Konsequenzen nach sich ziehen.

  13. Im Blog werden die Klimamodelle angesprochen und grob umrissen. Dazu möchte ich hier folgende Punkte ergänzen, die die Problematik der Berechnung des zukünftigen Klimas noch deutlicher machen:

    Hier https://t1p.de/kgfn kann man nachlesen, was sich über 20 Klimaforscher, von denen einige sehr bekannt sind, von neuen Klimamodellen wünschen. Prof. Piers Forster drückt sich besonders drastisch aus: “The biggest uncertainty in our climate models has been their inability to simulate clouds correctly. They do a really bad job and they have done ever since they first began.” Und Dr. Lesley Ott sagt es so: “Understanding carbon-climate interactions. We don’t understand those processes well enough to know if they’re going to continue.” Mehrere Aussagen sehen die Wolken, die Aerosole und den Regen als etwas was die Modelle zukünftig rechnen können sollten.

    Dass die Erdoberfläche von den Klimamodellen nicht als Ganzes gesehen wird –das könnten die größten „Superrechner“ nicht bearbeiten- sondern in Quadrate von 150 bis 500 km Seitenlänge (je nach Modell) zerlegt wird und dann die Ergebnisse dieses Gitternetzes auf die Nachbarquadrate Stück für Stück übertragen und weiterberechnet werden (von mit hier sehr vereinfacht beschrieben), das ist nichts Neues. Dass aber die Kugelform der Erde mit dem unterschiedlichen Ein- und Abstrahlverhalten je nach Lage der Region direkt „unter“ der Sonne oder gegen die Nachtseite hin bisher noch gar nicht berücksichtig wird, das überrascht doch sehr. Beschrieben ist dies in dieser Studie: http://www.pnas.org/content/116/39/19330 . Die Studie stellt fest: “Thus, the flat Earth climate models underestimate solar heating of the climate system by 1.5 W·m−2. For perspective, this difference is comparable to the total anthropogenic effective radiative forcing over the industrial era of 2.3 W·m−2 which has produced a discernible climate change.” Studie meint also, dass die dadurch entstehenden Fehler in der Größenordnung des Treibhauseffekts liegen, zieht aber dann keine weiteren Schlußfolgerungen – einfach mal selbst lesen, wenn es interessiert.

    Wenig bekannt ist wohl auch, dass nicht ein einzelnes Klimamodell zur Berechnung der Klimazukunft herangezogen wird, sondern eine große Anzahl von Klimamodellen und dass dann deren Ergebnisse sozusagen „gemittelt“ werden und diese „gemittelten“ Daten werden dann quasi als Einzelergebnis in den IPCC-Berichten weiterverarbeitet.
    Zu sehen ist dies im AR5 WG1-report z.B. in FigureTS.14 in der obersten Grafik, wo zur Berechnung der Szenarios 25 bis 42 Modelle herangezogen wurden.
    In Tabelle 9.1 sind die im Projekt „Coupled Model Intercomparison Project Phase 5 (CMIP5)“ verwendeten 41 Modelle aufgeführt, in Table 9.2 weitere 15 Modelle (EMIC).

    Zu allen Modellrechnungen gilt, da bisher nicht mehr geändert, die Aussage im TAR Chap.14.2.2.2 (page 774): “In sum, a strategy must recognize what is possible. In climate research and modelling, we should recognize that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible. The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions.” Es sind also keine Vorhersagen, sondern ein Ensemble von Modell-Lösungen, Szenarien genannt, die das IPCC zu verschiedenen Zukunftsentwicklungen des Klimas liefert. Szenarien kann man auch als „wenn – dann – Vorhersagen“ bezeichnen, d.h. wenn die Bedingungen sich so und so ändern könnte dies und das eintreten.

    Die bisherigen Klimamodelle haben die in mehreren Zyklen schwankende Strahlung der Sonne nicht berücksichtigt, die Sonne wurde als statischer Strahler angenommen. Erst im neuen Projekt CMIP6 (Coupled Model Intercomparison Project Phase 6) ist man gerade dabei die variierende Solarstrahlung einzubauen, wie hier in der Studie berichtet: https://t1p.de/kfzk

    • Eine Korrektur zu meinem vorhergehenden Kommentar zu den Klimamodellen: ich habe das Problem der „flachen Erde“ in den Klimamodellen nicht ganz richtig dargestellt.
      Der Fehler in den Klimamodellen ist der, dass sie die einzelnen Quadrate, in die sie die Erde aufteilen, als flach ansehen. Die einzelnen Quadrate dagegen sind wohl –in der Studie von mir nicht gefunden- auf einer Kugelform angeordnet. In der Studie wird in Figure 1 der unterschiedliche Strahlenverlauf in Modellquadraten von 500 km Seitenlänge dargestellt.

    • Durchaus zustimmungsfähig, was Sie im hier Reagierten so geschrieben haben, Herr Wolfgang Richter, an dieser Stelle – ‘Dass die Erdoberfläche von den Klimamodellen nicht als Ganzes gesehen wird –das könnten die größten „Superrechner“ nicht bearbeiten- sondern in Quadrate von 150 bis 500 km Seitenlänge (je nach Modell) zerlegt wird und dann die Ergebnisse dieses Gitternetzes auf die Nachbarquadrate Stück für Stück übertragen und weiterberechnet werden ‘ – ist ein wenig geschmunzelt worden, denn sog. Planquadrate sind nicht granulär endlos auflösbar.
      Auch werden Klimamodelle und Datenlagen aggregiert.
      Auch wird i.p. Prädiktion der Klimamodelle mit Konfidenzintervallen (die mit dem 95%-Radius meist) hantiert, die bspw. auch, bei bestimmtem Szenarium, eine mögliche terrestrische Nicht-Erwärmung bis 2100 anzeigen, ohne dass die zugrunde liegenden Klima-Modelle so direkt falsch werden oder würden, denn die folgen ja probabilistischer Konstitution.

      Ist ein hartes Brot, Dr. W rät an diesbezüglich beschäftigte Klimatologen auch im Positiven ihrer Arbeit zu unterstützen, nicht nur Zweifel vorzutragen.

      MFG – WB

  14. @Wolfgang Richter
    Ihre Behauptungen sind teils falsch und teils irrelevant. Die Einstrahlung der Sonne ist nahezu konstant. Die mittlere Einstrahlung der Sonne auf die Erdatmosphäre ist 1367W/m² (Solarkonstante). Die 11-jährigen Sonnenfleckenzyklen variieren die Einstrahlung um weniger als 0,1%. Andere Zyklen wie die Milankovic-Zyklen haben Perioden von mehreren zehntausend Jahren.

    Selbstverständlich sind all diese zyklischen Einflüsse der Sonne den Klimaforschern bekannt (sonst würden Sie sie nicht kennen), auch bezüglich ihrer Effekte. Es ist nicht notwendig, sie zwecks Prognosen in Klimamodelle für ein Jahrhundert aufzunehmen, wenn die Effekte so gering sind.

    Man sollte periodische und moderate Klimaschwankungen nicht mit einem Klimawandel infolge der globalen Erwärmung durch Treibhausgase verwechseln. Die Solar- und Klimaforschung hat in den letzten Jahren durch Einsatz spezieller Satelliten große Fortschritte gemacht. Ältere Aussagen sind daher möglicherweise nicht mehr gültig und ohne Angabe von Jahreszahlen irrelevant.

    • @anton reutlinger
      Sorry, welche Behauptungen meinen Sie denn? Ich habe in meinem Kommentar nur auf die verlinkte Studie hingewiesen, die im abstract bereits beschreibt welche variierenden Faktoren der solaren Strahlung im CMIP6-Projekt jetzt eingebunden werden. Die Sie offensichtlich nicht selbst nachgelesen haben, hier die Kopie des Anfangs des abstracts:
      “This paper describes the solar forcing dataset for CMIP6 and highlights in particular changes with respect to the CMIP5 recommendation. The solar forcing is provided for radiative properties, i.e., total solar irradiance (TSI) and solar spectral irradiance (SSI), and F10.7 cm radio flux, as well as particle forcing, i.e., geomagnetic indices Ap and Kp, and ionisation rates to account for effects of solar protons, electrons and galactic cosmic rays. This is the first time that a recommendation for solar-driven particle forcing is provided for a CMIP exercise. The solar forcing dataset is provided at daily and monthly resolution separately for the CMIP6 Historical Simulation (1850–2014), for the future (2015–2300), including an additional extreme Maunder Minimum-like sensitivity scenario, as well as for a constant and a time-varying forcing for the preindustrial control simulation.” Aus dem folgenden Text geht hervor, dass sogar sehr kurzfristige (monatliche) Variationen in der solaren Strahlung berücksichtigt werden.
      Sie behaupten es wäre nicht notwendig diese Effekte in die Klimamodelle aufzunehmen. Warum tun die Forscher es dann trotzdem? Könnte es denn nicht sein, dass die Forscher hier hoffen zu neuen Erkenntnissen bzgl. des Klimawandels zu kommen?

      • @Wolfgang Richter (Zitat): Könnte es denn nicht sein, dass die Forscher hier [bei der Berücksichtigung des solaren Forcings] hoffen zu neuen Erkenntnissen bzgl. des Klimawandels zu kommen?
        Antwort: Nein. Es ist heute absolut sicher, dass die Sonne in der Summe, in der Bilanz nichts zur Erdsystemerwärmung der letzten 50 Jahre beigetragen hat.

        Hintergrund: Die global gemittelte Sonneneinstrahlung ändert sich von Jahr zu Jahr um weniger als ein Promille. In der englischsprachigen Wikipedia liest man dazu (übersetzt von DeepL):

        Die Gesamtsonneneinstrahlung (TSI)[13] ändert sich langsam auf dekadischen und längeren Zeitskalen. Die Variation während des Sonnenzyklus 21 betrug etwa 0,1 % (Spitze-Spitze).[14] Im Gegensatz zu älteren Rekonstruktionen[15] weisen die jüngsten TSI-Rekonstruktionen auf einen Anstieg von nur etwa 0,05 % bis 0,1 % zwischen dem Maunder-Minimum und der Gegenwart hin.[16][17][18] Die Ultraviolett-Bestrahlungsstärke (EUV) variiert bei 200 bis 300 nm Wellenlänge um etwa 1,5 % von Sonnenmaxima zu -minima.[19] Eine Proxy-Studie schätzt jedoch, dass die UV-Strahlung seit dem Maunder-Minimum um 3,0 % zugenommen hat.

        Fazit: Allenfalls Verschiebungen der Haupt-Wellenlänge der eingestrahlten Solarstrahlung haben einen kleinen Einfluss auf das irdische Klima. In den letzten 50 Jahren gab es keine Änderungen diesbezüglich. Trotzdem sind die Temperaturen gestiegen.

        Frage: Warum berücksichtigt CMIP6 das solare Forcing?
        Antwort: Die Klimamodellierer wollen alle Faktoren berücksichtigen, die das Klima beeinflussen um auch vergangene Klimata (beispielsweise während der kleinen Eiszeit) möglichst genau modellieren zu können.

  15. @Wetterchaos

    Das Wetter ist ständig in Bewegung, und produziert ständig neue Muster. Das hat noch Folgen auf Schnee und Vereisung, auf die Meeresströmungen, und auf die Vegetation an Land. Dieses wirkt dann wieder auf das Wetter zurück. Selbst wenn man ein richtig gutes Simulationssystem hätte, würde dieses eine Modell verschiedene Weltdurchschnittstemperaturen produzieren, wenn man das selbe Modell mehrmals mit minimal verschiedenen Startbedingungen über mehrere Jahre laufen lassen würde. Das gehört zu den grundsätzlichen Eigenschaften von chaotischen Systemen.

    Gerade auf dem unregelmäßigen Hintergrund, den die Klimageschichte der letzten Jahrzehnte an eigenem Chaos produziert hat, wird es natürlich schwierig, die Klimasensitivität von CO2 genau zu ermitteln. Wenn dann noch Details wie die Wolkenbildung oder die groben Raster von über 50 km in den Modellen dazu kommen, dann haben wir den Salat, und können nur sehr ungenau das zukünftige Klima prognostizieren.

    Reagieren müssen wir aber jetzt schon, weil die zu tätigen Investitionen Jahrzehnte brauchen. Wenn es sich herausstellt, dass die tatsächliche Erwärmung in den nächsten 20 Jahren doch eher weniger schnell fortschreitet, können wir dann immer noch langsamer machen. Immerhin wird die konkrete Zukunft sich ja zeigen, und die Basis für unsere weiteren Reaktionen wird dann eine viel bessere sein, wenigstens was die zukünftige Planungssicherheit angeht.

    Wenn der Klimawandel in den nächsten 20 Jahren nochmal richtig zulegt, werden wohl auch die meisten Länder einsehen, dass wir engagiert reagieren müssen. Wenn bis dahin nur 20% der Länder (gemäß dem Anteil an den Gesamtemissionen) konsequent vorangegangen sind, wir die nötig Technik wesentlich ausgefeilter und kostengünstiger geworden sein. Eventuell sogar so kostengünstig, dass sie ohne weitere finanzielle Unterstützung gegenüber fossilen Energieträgern konkurrenzfähig geworden ist. Ich denke da insbesondere an die Preise für Photovoltaik-Module.

    • @Tobias Jeckenburger (Zitat): können nur sehr ungenau das zukünftige Klima prognostizieren.

      Behauptung: Ein Stopp der Treibhausgasemissionen und damit eine völllige Abkehr von Kohle, Erdöl und Erdgas in den nächsten 50 Jahren ist auf alle Fälle nötig – ganz unabhängig davon ob wir die 1.5 Celsius Grenze schon 2040 oder erst im Jahr 2060 überschreiten.
      Warum? Weil das arktische Klima sich bereits radikal (wärmer) und das mediterrane deutlich (trockener) geändert hat und Hitzewellen- und Dürren bereits an vielen Orten intensiver und längeranhaltend sind (Australien, Dürresommer Europa 2018). Jakarta, Teile Shanghais und Miamis, Venedig und Lower Manhattan werden bis 2100 alle entweder im Meer versunken sein oder mit massiven Dammbauten geschützt sein – und das selbst bei nur 40 cm Meerespsiegelanstieg in den nächsten 80 Jahren.

      Und noch in einem Punkt müssen die Menschen umdenken:
      1) Hauptpriorität muss die Abkehr von Kohle, Öl und Erdgas haben. Jede Technologie, die das leistet sollte eingesetzt werden.
      2) Erdgas ist keine Brückentechnologie, denn wer jetzt in Erdgas investiert bleibt 30 Jahre darauf sitzen und verunmöglicht eine Dekarbonisierung
      3) Es kostet mindestens 10 Mal mehr CO2 wieder aus der Atmosphäre zu entfernen als die gleiche Menge CO2 gar nicht zu emittieren.
      4) Schon die heutigen CO2-Konzentrationen in der Atmosphäre führen über hunderte von Jahren zu mehr als 10 Meter Meeresspiegelanstieg und damit zur Gefährdung vieler Städte und Küstenabschnitte

      Prognose: Die Menschheit wird irgendwann CO2 wieder aus der Atmosphäre entfernen um unerwünschte Folgen der erhöhten Treibhausgaskonzentrationen zu verhindern. Je weniger CO2 wir heute ausstossen, desto kleiner wird der Aufwand dannzumal sein.

      • Wenngleich der Meeresspiegelanstieg die griffigste und am einfachsten zu prognostozierende Folge der Erderwärmung ist, wird er m. E. bei Weitem nicht das grösste Problem für spätere Generationen sein.
        Ein wenig abstrakter, aber wesentlich kritischer sind die Veränderungen des irdischen Biotops welches erforderlich ist um eine grossflächige Zivilisation zu ernähren und am Leben zu erhalten.

        • @ralph (Zitat)

          wesentlich kritischer [ als Meeresspiegelveränderungen] sind die Veränderungen des irdischen Biotops welches erforderlich ist um eine grossflächige Zivilisation zu ernähren und am Leben zu erhalten.

          Antwort: Ja und Nein. Ja, weil Klimaveränderungen regional den landwirtschaftlichen Ertrag stark reduzieren können – Syrien und weitere Mittelmeerstaaten wurden bereits trockener, dürrer. Nein, weil Ertragsrückgänge im Süden durch höhere Erträge im Norden kompensiert werden. Kanada+Russland werden zu den neuen Kornkammern der Welt. Afrika ist DIE Problemregion der Zukunft, denn die Bevölkerung wächst, die Nahrungsmittel- Importe übersteigen die Exporte schon jetzt, Tendenz zunehmend, der Ertrag ist auch wegen fehlenden Düngereinsatz klein und der Klimawandel verkleinert den Ertrag wiederkehrend durch längere Dürren. In 20 Jahren verdoppelt sich die Bevölkerung der Sahelzone und im Jahr 2060 hat es in dieser Halbwüste Bevölkerungsdichten wie in Frankreich. Die Sahelzone hat immerhin noch Chancen auf mehr Regen durch den Klimawandel, aber andere Regionen in Afrika werden weniger Niederschläge haben.

          Beurteilung: Der Klimawandel verschlechtert die landwirtschaftlichen Erträge vor allem in Süden, was Afrika zusätzlich zum Bevölkerungswachstum Probleme bescheren wird. Der Meeresspiegelanstieg trifft alle Küstenregionen – die wohlhabenderen aber stärker, weil dort mehr und teurere Infrastruktur und Immobilien stehen.

  16. H.Wied
    12.01.2020, 11:18 Uhr

    Zitat:
    Die Leute kaufen weiterhin größere und schwerere SUVs…

    -> Ich würde keinen SUV haben wollen….aber ich würde für das Recht kämpfen, das du dir ein solche Vehikel kaufen und benutzen darfst und kannst. … !

    Spaß beiseite

    Zitat:
    …dass die Wetterämter nicht mehr die Temperaturen angeben, die kann jeder auf seinem Außenthermometer ablesen, sondern den Energiegehalt der Luft.

    -> Leider doch wieder spaß, oder? Wenn sie den Energiegehalt der untersten Atmosphäre in den Nachrichten genau aussprechen würden, dann hätten wir in allerkürzester Zeit eine ganz andere Problematik.
    Nämlich, das die Leute dann wieder mit dem Elektrosmog hadern.

    Aber sie meinten natürlich nur den Energiegehalt der Luft als Wärmeenergiewert.

    Abgesehen davon, dass sie den Wetterbericht nicht so zerhunzen können (der ist ein wichtiges kulturgut… der ist “kult”), würde ohne dieses Detail daran niemand mehr Wetterbericht schauen, sondern einfach in den Himmel schauen und aufs Thermometer.

  17. Herr Jäger, wenn sie die ewige Durchkauerei der Relativitätstheorie weg haben wollen, dann sperren sie doch gewisse Poster automatisch. Oder einfach: Relativitätstheorie, RT usw… filtern.

    Die Administratoren der Plattform werden ihnen da bestimmt behilflich sein.

    Eben, als ich mich dazu entschlossen habe, ihren vorherigen Beitrag zu durchleuchten, haben sie den Kommentarbereich dicht gemacht.
    Wie verdächtig.

  18. Deswegen poste ich den Kommentar für diesen Beitrag jetzt hier:

    Ach ja, wieder so ein tendenzieller Beitrag über “irgendwas mit Quantenheilungs-Blödsinn”…

    Wahrscheinlich würden sie, Herr Lars Jäger, dieser Aussage zustimmen:
    https://www.youtube.com/watch?v=F22hZJLPBeQ&t=2676s

    Direkt aus dem verschwöhrungstheoretischen Geiste des Teilzeit-Philosophen L. Dombrowski…

    1.

    Zitat:
    “Um es deutlich zu sagen: Das ist irrsinniger Blödsinn und ein Paradebeispiel für einen …”

    Noch´n Zitat:
    “Niemand hat die Absicht eine Mauer zu bauen”

    Dementis sind wohl immernoch die beste Leugnung.

    Was dabei die “argumentative oder diskursive Verbindung” sein soll, weiß wohl auch nur der Autor des Beitrages. Wird er es uns sagen?

    2.

    Zitat:
    Wohlwissend, dass die Quantenphysik bizarr klingende Aussagen macht, folgern die Quantenesoteriker munter, dass alles bizarr Klingende auch zwingend Quantenphysik sein muss.

    -> Also, wenn sie mich fragen würden, würde diese Aussage nicht zutreffen.

    Ausserdem:
    Sie sollten die Hypothetisierungskompetenz der Menschen nicht in den Schmutz ziehen, da sie eine Grundlage jeder Intelligenzleistung ist. Ohne ein Gesamtbild theoretisch denken zu können, gibt es keine Intelligenz, weil alles synchron mit der Wahrnehmung gedacht wird.
    So ist es so manchen allerdings auch am liebsten, weil solche Menschen ja … wie sagt man?…. “anleitbar” sind und damit utilisierbar für seine Zwecke.

    3.

    Zitat:
    Dass die allermeisten Quanteneffekte fernab von unserem Alltagsleben stattfinden, auf winzig kleinen Distanzen und unvorstellbar kurzen Zeitskalen, und damit sicher nicht im Bereich erfahrbarer menschlicher Spiritualität und unserer alltäglichen Lebenserfahrung, stört die wenigsten von ihnen.

    -> Irgerndwie schade, das ihnen diese dazu nötige Spiritualität gar nicht zugänglich zu sein scheint. Dann können sie auch leicht solche Aussagen tätigen.
    Wissen sie, wieso das so ist?
    Weil ihnen die dazu nötigen enhanceten Nervenzellen fehlen. Kein Metal im Hirn, keine Verschränkung. So funktioniert heute die “Bildung”: Wer nix kann und wird (und auch nichts tut) oder unkooperativ ist (aka desintegriert), der wird solange “gebildet” (erst vergiftet, dann angeprangert), bis ihm das Gehirn eben durch die Verschränkung aus dem Arsch läuft. Endstadium ist die typische Demenz.

    4.

    Zitat:
    dass „unser Bewusstsein und unsere sozialen Prozesse durch quantenphysikalische Prinzipien wie Nichtlokalität und Verschränkung geprägt sind“.

    -> Was zu beweisen wäre. Aber wieso tut die Wissenschaft das nicht?
    Diese Wissenschaft “fummelt” ein wenig an Lichtquanten rum. Und lässt dabei die Verschröänkungseffekte in fester Materie ausser Acht. Wahrscheinlich taktisch, weil sich das Leben aller auf der Stelle verändern würde…abgesehen davon, das es wohl ein riesiges Chaos geben würde, wenn die Menschen sich der vollen Bedeutung dessen bewusst würden.

    Das sie als Wissenschaftspopulist der sie (wie viele andere) sind, diese tendenzielle Haltung vertreten, ist da nur schlüssig.

    Aber damit tun sie all jenen, die unter dem Problem leiden (weil es eben nicht alle sind), unrecht. Es wird jenen der Gegenstand genommen, der erst dazu führt, dass in dieser Welt, die so auf das Rechtssystem setzt, die Handhabe gegen Angriffe auf das Leben und die Existenz darstellt. Diese Menschen werden manipuliert und Degeneriert, ohne, das ihnen eine Wahl dazu oder dagegen bleibt. Eine Zwangsassimilierung nennt man sowas.

    Aber weil all das (der ganze Quanten-Quatsch) nicht existiert, sind die Menschen eben auch nur wirr oder dumm, oder fantasieren seltsames.

    5.

    Zitat:
    „In der Quantenwirtschaft haben wir keine Energieprobleme mehr“

    -> Um sich darauf einen Reim zu machen, müssten sie verstehen, was er mit “Quantenwirtschaft” meint. Und was die Lösung der Problematik, die offenbar gegenwärtig noch besteht, mit Energieverbrauch zu tun hat.
    Etwa nämlich:
    Das die gegenwärtige Lösung deswegen viel Energie verbraucht, weil die Unterdrückung der Auswirkungen der Verschränkung durch Mobilfunk eben viel Strom verbraucht. Und wenn die von ihm zielgesetzte “Quantenwirtschaft” eben aktiv betrieben wird und umgesetzt ist, wird der Energieverbrauch geringer (oder Null), weil ab dann, wenn alle Ziele erreicht sind, keinen durch Mobilfunkstrahlen erzeugten Kollaps der Wellenfunktion in den ungebildeten Gehirnen mehr benötigt, weil die gebildete neue Intelligenz das ab dann alleine bewerkstelligen kann.

    Aber was sag ich denn: Sie wissen doch, wie es funktioniert. Also tun sie nur, als ob sie es besser wissen würden, damit der Plan auch ungestört umgesetzt werden kann.

    6.

    Zitat:
    René Descartes war historisch gesehen kein „Aufklärer“ sondern starb bereits 1650, also vor dem Zeitalter der Aufklärung

    -> Naja, wer wollte denn schon eine strenge Linie ziehen wollen, ab wann man als Aufklärer wohl gelten kann. Aber in ihrem Sinne aus ihrer hier ersichtlichen Perspektive wäre er durchaus ein Aufklärer. Auch, wenn Denken allein nicht ausreicht, um wirklich zu sein (wobei die Termini dann natürlich auch noch konkretisiert werden müssten)…hat er es jedenfalls versucht und ist zuweilen eben erbärmlich gescheitert. Eben weil er dem Denken all zu viel Bedeutung zumaß. Viel mehr sei man um so mehr, wenn man viel fühlt, anstatt nur zu denken. Ohne Gefühl ist alles Denken nur ein Prozess, der zuweilen auch nerven kann. Was ein Hinweis darauf ist, dass diese Gedanken vielleicht auch gar nicht die eigenen sind.
    Wenn sie so wollen, ist Descartes dann also das beste Beispiel dafür, wie man nicht “sein” sollte, weil man dann nichts “ist”, als Gedanke.

    Wenn das nicht wichtig für die Aufklärung sei, weiß ich auch nicht, wozu Aufklärung dann überhaupt sein sollte.

    7.

    Zitat:
    „kollektivem Bewusstsein“

    -> Man muß das ja auch sehen können… äh: wollen!
    Das kollektive Bewusstsein wird ja praktisch jeden Tag aufs Neue hergestellt. Dazu dienen dann die Massenmedien. Wie überraschend, oder?

    Und genau dieses kollektive Bewusstsein ist es dann auch, das man dazu verwendet, um diese “desintegrierten” dann zu “bilden” (aka neuroenhancen und anprangern, was zur Kreuzigung von Nervenzellen in deren Gehirnen führt. Nervenzellen weg, dann auch keine “Teilhabe” am Geist, der durch solche Strategien geformt wird. Aber vorsicht: “keine Teilhabe” meint hier nur, das diese Subjekte dann selbst nicht mehr Deutungsfähig sind, nicht, das sie nicht mit diesem Geist verbunden seien. Das ist ja der Trick, wenn man die Gehirne degeneriert: je weniger der bestimmten Nervenzellen, desto mehr erwünschter/geformter “Geist” kommt innerhalb deren Bewusstseins an.
    ich würde es nie wissen, was ich hier schreibe, wenn mir nicht genau das angetan wurde.
    Ihnen ist das womöglich schon bald nach Geburt geschehen oder später in der Schulzeit…so haben sie sich schon früh an den Zustand gewöhnt. Die Gewöhnung macht mir allerdings erhebliche Probleme, weil ich ein ganz anderes Leben und Erleben gewohnt war.

    8.

    Zitat:
    all dies wiegt umso schwerer, da einige der Schlussfolgerungen, zu denen Indset im Verlauf seiner wilden argumentativen Reise kommt, durchaus vernünftig (und sympathisch) sind:

    -> Ach ja, und dann kommen die üblichen Allgemeinplätze – in jeder Hinsicht, nicht wahr?
    Aber weil niemand weiß, was wirklich gemeint ist, ist der Kontext in den Bewustseinen der Rezipienten ein völlig anderer, als gemeint war.

    Diese vollendete und aktive “Quantenwirtschaft” wird letztlich die ultimative “Diktatur” sein, von der aber niemand auch nur irgendwas mitbekommt, weil alle sich schon von Geburt an (oder gar vorher noch: in der Literatur ist davon die Rede, dass sich das Neuralrohr noch im Uterus zurückbildet, was ein Hinweis darauf ist, das der “Standardmensch” hier der funktionale Sapiens Sapiens sei, nicht der, den man noch als Mischung zwischen Sapiens und Neandertaler erklären kann. Reptilienmenschen eben…Der Blick des ausgesprochenen Sapiens in seine evolutionäre Vergangenheit muß ihm doch erheblich zusetzen, oder?) im Zustand der vollständigen Unterdrückung befinden.

    9.

    Das Buch scheint für die Einmschätzung auf verlässlichkeit der Aussagekraft eine Analogie zur Seralini-Studie zu sein.
    Daraus folgt dann automatisch die auch auf das Buch gültige Aussage:
    Schlecht gemachte Erklärungen (vs Studien) sind kein Beweis für die Falschheit der Aussage/die Nichtexistenz des Faktors. Wissenschaft ist ausgesprochen “Positivistisch”, was meint, die Forschung braucht notwendigerweise positive Befunde, um aussagefähig zu sein. Was auch heisst, das negative Befunde nur arg begrenzt aussagefähig sind. Etwa nur innerhalb der studierten Szenerie und des daraus zu schliessenden Zusammenhangs. Nichts darüber hinaus.

    Aber sie meinen hier, wie viele andere auch, aus schlechter Studie und schlechter Erklärung suggerieren zu dürfen, das alles nur Bockmist ist.

    Man kann darin natürlich auch eine “Masche” sehen, die genau das zielsetzt: Weil es wahr ist, muß es zum absluten Nonsens erklärt werden. Dann wäre das Buch also ein übles “crisis action”-Beispiel.

  19. Klimawandel: Was wir wissen und was wir nicht wissen müssen
    Wir wissen:
    1) Der CO2-Gehalt in der Atmosphäre war in der Vergangenheit und ist jetzt ein sehr wichtiger Klimafaktor. Die heutige volle Eiszeit (beide Pole zugefroren) seit 2.4 Millionen Jahren begann genau dann, als die atmosphärische CO2-Konzentration unter 400 ppm abfiel (heute haben wir 411ppm, Tendenz steigend). Prognose. Bereits in 25 Jahren wird der atmosphärische CO2-Spiegel Werte erreichen, die die Arktis inklusive Grönland langfristig eisfrei machen, was zu 7 Meter Meeresspiegelanstieg über die nächsten 1000 Jahre führen würde.
    2) Veränderungen der Sonneneinstrahlung spielen für die heutige Klimaerwärmung keine Rolle
    3) Viele CMIP6-Klimamodelle nehmen an, dass bei wärmeren Klima die niederen und mittelhohen Wolken abnehmen, was zu einer zusätzlichen Erwärmung führen würde.

    Wir wissen also, dass steigende Treibhausgase die Temperaturen und den Meerespiegel ansteigen lassen, wir wissen aber nicht, wie stark eine zukünftige Abnahme der Wolkenbedeckung infolg der Klimaerwärmung sein wird.
    Doch selbst ohne Verstärkung der Erwärmung durch abnehmende Wolkenbedeckung verändert die Klimaerwärmung unsere Erde innerhalb der nächsten Jahrzehnte und Jahrhunderte stärker als alles was in den letzten 10’000 Jahren passiert ist.

    Ist ein Abschied von Kohle, Erdöl und Erdgas notwendig?
    Antwort: Ja. Die Erdöl- und Erdgasreserven werden in den nächsten 50 Jahren ohnehin erschöpft sein, wenn ihre Nutzung weiter geht wie bis anhin. Doch nur wenn wir heute schon auf die weitere Nutzung von Kohle, Erdöl und Erdgas verzichten, nur dann können wir verhindern, dass sich das Erdklima radikal ändert und sich in vielen Regionen ein völlig anderes Klima einstellt als heute (völlige Arktisschmelze beispielsweise) und wo mit Meeresspiegelanstiegen von vielen Dezimetern in diesem Jahrhundert und vielen Metern in den nächsten 1000 Jahren zu rechnen ist.

    Welche Technologien können Kohle, Erdöl und Erdgas ersetzen
    Antwort: Kohle, Erdöl und Erdgas sind vor allem Energieträger. Wir brauchen Ersatzenergien. Die völlige Elektrifizierung aller Energiesektoren scheint heute die am ehesten erreichbare Lösung. In einer völlig elektrifzierten Welt wird der Stromverbrauch gegenüber heute doppelt so gross sein, selbst in Ländern, die kein Energiewachstum mehr verzeichnen, in Ländern wie Deutschland also.
    Frage: Sind Erneuerbare+Erdgas eine mögliche Lösung für das Klimaproblem?
    Antwort: Nein, wenn beabsichtigt ist, Erdgaskraftwerke für Dunkelflauten einzusetzen und Erdgas zum Heizen im Winter zu verwenden, denn damit könnte Deutschland niemals die Nullemissionen erreichen zu denen es sich bis 2050 bekannt hat. Eine mögliche Lösung wäre dagegen mit Windenergie aus Nordskandinavien, dem Balkan und der Nordatlantik/Nordseeregion ein europaweites Stromnetz zu speisen und im Winter mit Wärmepumpen zu heizen.
    Aber auch Kernenergie in jedem einzelnen Land ohne einen Stromverbund wäre eine mögliche Lösung. Keine Lösung scheint aus heutiger Sicht eine rein dezentrale Versorgung mit Erneuerbaren. Grund: Die dazu nötige Speichertechnologie fehlt heute vollständig und ist nicht innerhalb weniger Jahrzehnte realisierbar.

  20. Lars Jaeger schrieb (11. Jan 2020):
    > […] • der Anteil am Eis auf der Erdoberfläche […]

    –> “• der von Eis bedeckte Anteil der Erdoberfläche”.

    > […] was aufgrund der komplexem und chaotischen geologischen Dynamik […]

    –> “was aufgrund der komplexen und chaotischen geologischen Dynamik”.

    > […] Zunächst modellierten sie mit den Klimamodelle und ihren externen Parametern […]

    –> “Zunächst modellierten sie mit den Klimamodellen und ihren externen Parametern”.

    p.s.
    Lars Jaeger schrieb (undatiert):
    > […] auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft.

    –> “auf die Geschichte der Naturwissenschaft, [auf] ihr Verhältnis zu spirituellen Traditionen und [auf] ihren Einfluss auf die moderne Gesellschaft”.

    p.p.s.
    Herr Senf schrieb (16.01.2020, 00:01 Uhr):
    > […] Die “physikalische” Geometrie ist aber keine euklidische, sondern eine gekrümmte
    > […] Das Geschwindigkeitsmaß in der Relativitätstheorie und der Beschleunigerphysik ist die Rapidität [… als] “gekrümmte” Geschwindigkeit

    Derartigen Verirrungen lässt sich (hoffentlich noch hier auffindbar) eine Herleitung der Beziehung zwischen den Geschwindigkeiten (bzw. den entsprechenden β-Parametern) entgegensetzen, die die Mitglieder dreier verschiedener flacher, nicht-rotierender Systeme (alias Inertialsysteme), die sich gegenüber einander geradlinig-gleichförmig bewegten, gegenüber einander feststellten:

    Wie in der schon an anderer Stelle gezeigten Herleitung der Längenkontraktion (03.12.2019, 00:03 Uhr) seien A, B und F drei Beteiligte, die gegenüber einander geradlinig ruhen,

    (1): (AB / AF) + (BF / AF) = 1,

    und K, P und Q drei weitere Beteiligte, die gegenüber einander geradlinig ruhen,

          (KP / KQ) + (PQ / KQ) = 1,

    wobei A, B sowie F einerseits und K, P sowie Q andererseits sich geradlinig-gleichförmig gegenüber einander bewegten, sodass

    – As Anzeige des Treffens/Passierens von P und Bs Anzeige des Treffens/Passierens von Q gleichzeitig waren, d.h.
    A_P ≡ A_gleichzeitig_zu_B_Q und B_Q ≡ B_gleichzeitig_zu_A_P,
    bzw. kurz:
    A_P ≡ A_Ⓢ_B_Q und B_Q ≡ B_Ⓢ_A_P
    bzw. noch kürzer:
    A_P =Ⓢ= B_Q; und

    – Fs Wahrnehmung des Treffens/Passierens von Q koinzident mit Fs Wahrnehmung des Ereignisses ε_AP war, also zur selben Anzeige Fs gehörte, d.h.
    F_Q ≡ F_sah_A_P,
    sodass insgesamt

    (2): β_ABF[ Q ] = (BF / AF)

    woraus (unter Annahme von Gegenseitigkeit, wie oben gezeigt) wiederum die Längenkontraktion folgt:

    (3): (AB / PQ) = √{ 1 - (β_ABF[ Q ])^2 }.

    Es seien nun noch weitere drei Beteiligte, R, S und T, so gedacht, dass sie ebenfalls gegenüber einander geradlinig ruhten,

    (4): (RS / RT) + (ST / RT) = 1,

    und

    – A, B sowie F einerseits und R, S sowie T andererseits sich geradlinig-gleichförmig gegenüber einander bewegten,

    – K, P sowie Q einerseits und R, S sowie T andererseits sich geradlinig-gleichförmig gegenüber einander bewegten,

    – R zusammen/koinzident mit A und P am Ereignis ε_AP ≡ ε_APR teilgenommen hatte, sodass insbesondere

    – As Wahrnehmung des Treffens/Passierens von R koinzident mit As Wahrnehmung des Treffens/Passierens von P war, also zur selben Anzeige Fs gehörte, d.h.
    A_R ≡ A_P,

    – Rs Anzeige des Treffens/Passierens von A und P und Ss Anzeige des Treffens/Passierens von Q gleichzeitig waren, d.h.
    R_P =Ⓢ= S_Q; und

    – ein weiterer Beteiligter E denkbar ist, der bzgl. A, B und F geradlinig ruhte,

    (5): (AE / AF) + (EF / AF) = 1, wobei

    – As Anzeige des Treffens/Passierens von R und Es Anzeige des Treffens/Passierens von T gleichzeitig waren, d.h.
    A_R =Ⓢ= E_T; und

    – T zusammen/koinzident mit F und Q am Ereignis ε_FQ ≡ ε_FQT teilgenommen hatte, sodass

    – sowohl Fs Wahrnehmung des Treffens/Passierens von T koinzident mit Fs Wahrnehmung des Ereignisses ε_APR war, also zur selben Anzeige Fs gehörte, d.h.
    F_T ≡ F_sah_A_R, woraus insgesamt folgt

    (6): β_AEF[ T ] = (EF / AF);

    – als auch Ts Wahrnehmung des Treffens/Passierens von Q koinzident mit Ts Wahrnehmung des Ereignisses ε_APR war, also zur selben Anzeige Ts gehörte, d.h.
    T_Q ≡ T_sah_R_P, woraus insgesamt folgt

    (7): β_RST[ Q ] = (ST / RT);

    und Längenkontraktion demnach ebenfalls als

    (8): (AE / RT) = √{ 1 - (β_AEF[ T ])^2 }

    und als

    (9): (RS / PQ) = √{ 1 - (β_RST[ Q ])^2 }

    herzuleiten ist.
    Aus diesem System von neun Gleichungen lassen sich alle Distanzverhältnisse eliminieren; z.B. folgendermaßen:

    {(1), (2)} =>
    (10): (AB / AF) = 1 - β_ABF[ Q ]
    ,

    {(5), (6)} =>
    (11): (AE / AF) = 1 - β_AEF[ T ]
    ,

    {(4), (7)} =>
    (12): (RS / RT) = 1 - β_RST[ Q ]
    ,

    {(3), (9)} =>
    (13): (AB / RS) =
          (√{ 1 - (β_ABF[ Q ])^2 }) / (√{ 1 - (β_RST[ Q ])^2 })
    ,

    {(8), (12)} =>
    (14): (AE / RS) = (√{ 1 - (β_AEF[ T ])^2 }) / (1 - β_RST[ Q ])
    ,

    {(10), (11)} =>
    (15): (AB / AE) = (1 - β_ABF[ Q ]) / (1 - β_AEF[ T ])
    ,

    {(13), (15)} =>
    (16): (AE / RS) =
          ((1 - β_AEF[ T ]) √{ 1 - (β_ABF[ Q ])^2 }) /
          ((1 - β_ABF[ Q ]) √{ 1 - (β_RST[ Q ])^2 })
    ,

    {(14), (16)} =>
    (17): (√{ 1 - (β_AEF[ T ])^2 }) / (1 - β_RST[ Q ]) =
          ((1 - β_AEF[ T ]) √{ 1 - (β_ABF[ Q ])^2 }) /
          ((1 - β_ABF[ Q ]) √{ 1 - (β_RST[ Q ])^2 })
    .

    Die letzte Gleichung ist offensichtlich eine Beziehung ausschließlich zwischen den drei β-Parametern der drei Systeme gegenüber einander; und sie lässt sich nach jedem davon auflösen, nämlich:

    β_RST[ Q ] = (β_ABF[ Q ] - β_AEF[ T ]) / (1 - β_ABF[ Q ] β_AEF[ T ]),

    β_ABF[ Q ] = (β_RST[ Q ] + β_AEF[ T ]) / (1 + β_RST[ Q ] β_AEF[ T ]),

    β_AEF[ T ] = (β_ABF[ Q ] - β_RST[ Q ]) / (1 - β_ABF[ Q ] β_RST[ Q ]).

    Dass diese Formeln analog zu den sogenannten Additionstheoremen des Tangens-hyperbolicus (als auch des Cotangens hyperbolicus) sind, und darüber hinaus noch allgemeinere Ähnlichkeiten mit bestimmten Theoremen der hyperbolischen (nicht-Euklidischen) Geometrie bestehen, kann nicht zur Begründung und demnach auch nicht zum Verständnis dieser Formeln der Relativitätstheorie dienen (sondern allenfalls als Merkhilfe).

  21. Das Ergebnis war eindeutig: Der Klimawandel ist tatsächlich auch in den täglichen Wetterdaten eindeutig erkennbar!

    Für den Schreiber dieser Zeilen, der laienhafterweise sehr viel Zeit in die Klimaforschung investiert hat, keine überraschende Erkenntnis.
    Wenn es seit ca. 1880, es wird sich hier auf die GISS-Daten bezogen, um ca. 1 K wärmer geworden ist, den derart feststellenden Klimamodellen und Rückrechnungen soll an dieser Stelle einmal vertraut werden, nehmen auch sog. Extremwetterereignisse zu, denn die sind grundsätzlich am ehemaligen Klimazustand mit etwa 1 K weniger orientiert.
    Sog. Extremwetterereignisse würden also auch zunehmen, wenn es kühler würde.

    Ansonsten, Zustimmung noch zum letzten Absatz der Nachricht, es macht ohnehin Sinn, im geochronologischen Zeitalter des Anthropozän, dieser Begriff darf allgemein angenommen werden, wie hier befunden wird, die Steuerung des terrestrischen Klimas anzustreben, gerade auch regional, ganz ohne absehbarer Erwärmung, über die sich gerade auch in ihrer prädiktierten Höhe und in ihrer sozusagen CO2-Zentriertheit trefflich gestritten werden kann.

    Zu ergreifende Maßnahmen stehen auf einem anderen Tableau als die Feststellung und Theoretisierung der Datenlagen, es genügt hier nicht regional irgendetwas zu tun, wäre vielleicht sogar kontraproduktiv, sondern es soll überlegt werden, wie langfristig ein sozusagen Erdthermostat zu steuern sein könnte. Nichts mit sozusagen protestantischem Sparen am CO2-Ausstoß, was in der BRD anscheinend supi ankommt, sondern weitergehender, es spräche aus diesseitiger Sicht nichts dagegen möglichst viel Geld in die klimatologische Forschung zu stecken, die sich dann gerne auch mit Offenheit in der öffentlichen Debatte revanchieren darf, also am besten ohne Aktivismus und ohne “The Science is settled”-Einschätzungen.

  22. @Dr.Webbaer
    Offenbar zweifeln Sie immer noch an der klimatologischen Effektivität der Treibhausgase, obwohl sie eindeutig nachgewiesen ist. Gerade die hier vorgestellte Erkennbarkeit des Klimawandels in Mustern der täglichen Wetterdaten liefert einen weiteren Puzzlestein. Im eklatanten Widerspruch dazu steht Ihre Vorstellung von einer “Steuerung des Erdthermostat”. Sehen sie dazu irgendwo einen Ansatzpunkt für Eingriffe, ganz abgesehen von Lösungen für die damit verbundenen Probleme der Befugnisse, Verantwortlichkeiten und der Haftung für Folgeschäden?

    Ebenso mysteriös und idiosynkratisch sind Ihre Vorstellungen von einer Klimaforschung, die sich zwar an öffentlichen Debatten beteiligen dürfte, aber ohne Aktivismus und ohne wissenschaftliche Überzeugung. Genau darauf läuft Ihre Forderung eines Verzichts auf “science-is-settled-Einschätzung” hinaus. Welchen Sinn sollte solche Forschung haben, außer Selbstbefriedigung, Unterhaltung in Talkshows, Zeitvertreib und Ressourcenverbrauch (Steuergelder!)?

    • @anton reutlinger
      Was ist “an der klimatalogischen Effektivität der Treibhausgase eindeutig nachgewiesen”? Den Nachweis oder Beweis gibt es nicht. Ich habe auch Prof. Rahmstorf in seinem Blog danach gefragt und er hat geanwortet, dass es diesen Nachweis nicht gibt.

      Man kann zwar im Laborexperiment dem CO2 die Wirkung eines Treibhausgases mit dem ECS-Wert von rund 1 °C nachweisen, doch kein Wissenschaftler kann bisher feststellen, wie diese Wirkung im “Chaos” der klimatischen Vorgänge in der Erdatmosphäre aussieht. Eben deshalb ist der ECS-Wert (ebenso wie der TCS-Wert) bis heute völlig offen bzw. es gibt einen sehr weiten Bereich in dem er liegen könnte, zwischen 0 °C (z.B. bei starker negativer Rückkopplung z.B. durch die Wolken) und 8 bis 10 °C.
      Nach wie vor gibt es keine Kausalität zwischen CO2 und Globaltemperatur, nur eine zeitweise Korrelation: nur zwischen 1978 und etwa 2000 liefen beide Wert quasi parellel, war die Korrelation eindeutig zu erkennen.
      Wie in meinem obigen Kommentar beschrieben wundert sich auch der Autor der Studie zum EEI, wieso keine Korrelation zwischen EEI und CO2-Wert seit 2000 zu erkennen ist.

      Hier gibt es auch eine Studie, die einen umgekehrten Zusammenhang zwischen CO2 und Globaltemperatur bei Gegenüberstellung der feinaufgelösten Änderungsdaten zeigt: https://www.sciencedirect.com/science/article/pii/S0921818112001658
      Danach steigt bis heute immer erst die Temperatur und dann folgt der Anstieg beim CO2. Die Daten, die die Studie verwendet, kann sich auch jeder selbst von den Forschungszentren runterladen und die Ergebnisse vergleichen. Doch was sagen diese Daten nun wirklich aus?

      Dr Webbaer schreibt von einem Thermostaten, den wohl die Menschen regeln. Das halte ich auch für völlig unmöglich, aber es gibt eine Studie, die einen “Thermostaten” im Erdklima gefunden hat: https://journals.ametsoc.org/doi/pdf/10.1175/1520-0442(1996)009%3C2190%3AAODT%3E2.0.CO%3B2
      wobei der sich selbst steuert.

      In National Geographic Deutschland 04/2015 stand der Artikel „Das Rätsel der Wolken“ wo ein Wolkenspezialist (anerkannerter Wissenschaftler) klar und deutlich sagte, dass die Wolken sowohl den Klimawandel beschleunigen als auch in völlig abwenden könnten – man wisse es einfach nicht. Bis heute hat sich daran nichts geändert, weshalb sich ja die Klimawissenschaftler endlich mal Klimamodelle wünschen, in denen die Dynamik der Wolken berechnet werden kann.

      Dazu wird gerade ein größeres Forschungsprogramm gestartet: https://t1p.de/ydpz

      Wie stark ist denn nun die Treibhauswirkung des CO2 und welche Rückkopplungen gibt es tatsächlich und wann / wo treten sie auf?

      • Man kann zwar im Laborexperiment dem CO2 die Wirkung eines Treibhausgases mit dem ECS-Wert von rund 1 °C nachweisen, doch kein Wissenschaftler kann bisher feststellen, wie diese Wirkung im “Chaos” der klimatischen Vorgänge in der Erdatmosphäre aussieht.

        Jenau, CO2 ist klimawirksam, vergleiche mit dieser Frage ‘Was ist “an der klimatalogischen Effektivität der Treibhausgase eindeutig nachgewiesen”?’ und dem Sachverhalt, dass es auf dem Erdtrabanten deutlich, vielleicht 50 K, kühler ist, bei annähernd gleichem Abstand zur Sonne und sich nicht immer im Erdschatten befindend.
        Die klimatologische Arbeit darf freundlich-kritisch begleitet werden, gerade auch von Fachfremden, von der Menge schlechthin.
        Was die politische Rechte hier im Dagegensein vorträgt, geht teils gar nicht.

        Dr. Webbaer, der ja Phantasie hat, sieht spätere Möglichkeit Gegenstände, Masse, kostengünstig ins Orbit und weiter ins Weltall zu bringen; hier darf sich ein wenig Optimismus gegönnt werden, wenn auf das späte 21. Jahrhundert geschaut wird und auf die drei nachfolgenden Jahrhunderte, zu beachten ist ja, dass sich der Mensch erst in den letzten 500 Jahren aufgeschwungen hat die Naturwelt verstehen zu lernen, er macht dabei aus diesseitiger Sicht vieles richtig.

        Mit freundlichen Grüßen
        Dr. Webbaer

        PS zum Erst-Zitat noch kurz :
        Wie die Feedbacks i.p. Klimasensitivität ausfallen, ist nicht klar, es sind hier viele positive Feedbacks bestimmt worden, wenige negative, die dann auch noch deutsch Klimasenken genannt werden, also so ein hoch komplexes, sozusagen chaotisches terrestrisches Klimasystem kann gutmütiger auf Änderung einiger Parameter hin balancieren, als sich dies im Moment einige vorstellen mögen, wird es erst in 500 Jahren “so richtig” wärmer, bliebe viel Zeit und mehr Möglichkeit zur Gelassenheit.

  23. @ Herr Reutlinger

    Zumindest soll die wissenschaftliche Bestandsaufnahme von Überlegungen i.p. Gegenmaßnahmen getrennt werden, es gibt neben der Prohibition noch die Mitigation und die Adaption, einige Länder interessieren sich wenig dafür, ob andere Länder am CO2-Ausstoß sparen´, ob die BRD bspw. ihre Automobilindustrie zurückbaut.
    Wichtig ist der Erfolg einer Maßnahme, nicht dass sie gut gemeint ist.
    Zudem beißt sich bundesdeutsche Umwelt-Ideologie an der Ablehnung der friedlichen Nutzung der Kernenergie und last but not least haben Klimatologen kein politisches Mandat, Dr. Webbaer hat bspw. mit Entsetzen den sog. Gesellschaftsvertrag für eine große Transformation zur Kentnis genommen, der expertokratische Elemente enthält, Rätesysteme vorgeschlagen hat.
    Insgesamt ist die Infantilisierung der Debatte zu beklagen, dieses Sich-An-Die-Eigene-Nase-Fassen, dieses Jetzt-Unbedingt-Etwas-Machen-Müssen.
    Der Schreiber dieser Zeilen geht davon aus, dass das jetzig nicht lösbare Problem von späteren Generationen bearbeitet werden kann, mit anderen Mitteln als dem sozusagen protestantischem Sparen am CO2-Ausstoß.
    Die Naturwissenschaft folgt einer Methode, der szientifischen, sie ist ein Prozess und da ist nichts “settled”.

  24. @Martin Holzherr

    Backupkraftwerke auf Erdgasbasis wären auch dann noch einsetzbar, wenn in vielleicht 20 Jahren ausreichend Synthesegas aus Stromüberschüssen von Windrädern und Sonnenkollektoren anfällt. Zusammen mit dem Methan aus Biogasanlagen kann man das auf Monate in bestehenden unterirdischen Gasspeichern lagern, und bei Bedarf damit diese Backupkraftwerke befeuern.

    Von daher zwingen uns diese Backupkraftwerke nicht dazu, noch 30 Jahre Erdgas zu importieren und zu verwenden.

    Was die Atomkraftwerke angeht, da würde ich bezweifeln, ob da Neubauten auf eine Betriebsdauer von 30 Jahren noch konkurrenzfähig sein werden. Vor allem Photovoltaik-Paneele werden in 10 oder 20 Jahren voraussichtlich noch um einiges kostengünstiger werden. Die alten Kernkraftwerke noch weiter zu betreiben halte ich aus Sicherheitsgründen für suboptimal, aber das ist wenigstens vorerst noch relativ kostengünstig. Die Energiewende ist teuer genug, hier sollte schon genau auf die Kosten geschaut werden.

    Die Forschung an den Fusionsreaktoren halte ich für sehr spannend, ich kann mir vorstellen, dass es eine sehr schöne Arbeit ist, an sowas zu arbeiten. Schade, dass das so lange dauert. Mal sehen, wie die Klimalage in 30 Jahren aussieht. Wenn es bis dahin schon ganz übel geworden ist, und die weiteren, dann hoffentlich genaueren Prognosen, finster aussehen, kommt womöglich sogar noch Kernfusion zum Einsatz.

  25. Vor wenigen Tagen hat McKinsey eine Studie zu den wirtschaftlichen und sozialen Folgen des Klimawandels vorgelegt. Man sollte sie sich anschauen. Selbstverständlich sind solche Vorhersagen sehr vage, aber dennoch lesens- und überlegenswert. Die Natur wartet nicht auf Geistesblitze der Ingenieure. Die globale Erwärmung schreitet unaufhaltsam voran, solange CO2 und andere Treibhausgase emittiert werden.

    Es wäre überlegenswert, die Kernenergie vorerst beizubehalten. Auf Dauer ist sie keine Lösung, denn das Problem der Endlagerung ist letztlich unlösbar. Und nicht zu vergessen die lebensbedrohenden Risiken der radioaktiven Strahlung.

    Die Kernfusion wird noch Jahrzehnte für die Entwicklung benötigen und dann stellt sich noch die Kostenfrage.

    Es ist kindisch und geradezu gemeingefährlich, die in jedem Fall notwendigen Einsparungen von CO2-Emissionen zu verunglimpfen. Es ist das einzige Mittel, die Gefahren des Klimawandels für die kommenden Generationen noch abzuwenden.

    • @anton reutlinger (Zitat):

      Auf Dauer ist sie [die Kernenergie] keine Lösung, denn das Problem der Endlagerung ist letztlich unlösbar. Und nicht zu vergessen die lebensbedrohenden Risiken der radioaktiven Strahlung.

      Antwort: Sowohl Moltex Energy als auch Elysium Industries wollen nuklearen Abfall als Brennstoff für ihre geplanten Flüssigsalzreaktoren einsetzen. Moltex Energy hat von der kanadischen Firma New Brunswick bereits den Auftrag erhalten, einen Reaktor für das „Verbrennen“ von radioaktivem Abfall ihrer Altreaktoren zu bauen.
      Zudem rechnen Hersteller von Flüssigsalzreaktoren wie etwa Terrestrial Energy mit einer gegenüber heutigen Kraftwerken stark verminderter Abfallmenge, deren Radioaktivität innerhalb 300 Jahren auf diejenige von natürlichem Uran zurückfällt.
      Noch zu den (Zitat): lebensbedrohenden Risiken der radioaktiven Strahlung. Wir sind alle von radioaktiver Strahlung umgeben und ein wesentlicher Teil davon kommt über den radioaktiven Zerfall von Kalium-40 im Körper jedes Einzelnen. Doch nicht alle erhalten gleich viel Strahlung. Es gibt Gebiete mit stark erhöhter Hintergrundsstrahlung, beispielsweise im iranischen Ramsar mit 50 Millisievert pro Jahr, also 25 Mal mehr als in Deutschland, oder im indischen Guarapari (100’000 Einwohner) mit seinen radioaktiven Monazitsandstränden. Keiner dieser Orte mit stark erhöhter Hintergrundsstrahlung hat mehr Krebsfälle oder andere Krankheiten und die Monazitstrände von Guarapari werden sogar für ihre heilende Wirkung angepriesen.

  26. @Tobias Jeckenburger (Zitat):

    Backupkraftwerke auf Erdgasbasis wären auch dann noch einsetzbar, wenn in vielleicht 20 Jahren ausreichend Synthesegas aus Stromüberschüssen von Windrädern und Sonnenkollektoren anfällt.

    Antwort: Power-to-Gas, also Synthesegas wird sehr teuer sein – vor allem wenn es in Deutschland hergestellt wird. Wenn sich Synthesegas irgendwann weltweit verbreitet wird es mit Billigstrom erzeugt werden, den man z.b. photovoltaisch in der Attacama-Wüste erzeugt. Auf jeden Fall dauert es mindestens 30 Jahre bis relevante Mengen erzeugt werden.

    Zitat:

    Die Energiewende ist teuer genug, hier sollte schon genau auf die Kosten geschaut werden.“

    Antwort: Die Energiewende bedeutet: CO2 freier Strom ist die Zukunft. Doch CO2 freien Strom herzustellen muss nicht teuer sein. Sowohl die AKWs als auch Wind- und Photovoltaikpanel erzeugen kostengünstig Strom. Trotzdem steigt in Deutschland der Strompreis Jahr für Jahr. Und er wird noch viel stärker steigen in naher Zukunft. Grund: Strom kann nicht oder nur schlecht gespeichert werden, was folgendes bewirkt: 1) Wenn Strom rein lokal erneuerbar hergestellt wird, müssen 50% oder mehr des Stroms abgeregelt werden, weil zeitweise zuviel produziert wird und 20% oder so des Stroms muss über gespeicherte Energie erzeugt werden und dieser Strom ist mindestens 3 Mal teurer als der Quellstrom. Zudem braucht es Anlagen für nichts anderes als das Herstellen von Speicherenergie (Speichergas) und für die nachfolgende Verstromung.

    Fazit: Eine rein lokale, dezentrale Versorgung mit Wind- und Sonnenergie ist heute nicht realistisch und in keinem einzigen Land realisiert oder auch nur angestrebt. Dänemark als erfolgreichstes Land, das auf Windenergie setzt, kann das nur weil es ein kleines Land ist, welches in den nordischen Stromverbund eingebettet ist. Für Deutschland ist Dänemark aber kein Modell, weil Deutschland um vieles grösser ist und dementsprechen nicht allein auf den nordischen Stromverbund setzen könnte. Deutschland bräuchte einen europäischen Stromverbund.

  27. @Martin Holzherr

    Strom, der sowieso abgeregelt werden müsste, kann natürlich auch in Gas verwandelt werden. In der Tat sieht es so aus, dass wir in jedem Fall einiges an neuen Stromleitungen brauchen können. Ein Teil des Energietransportes kann dann aber auch über den Transport des Synthesegases erledigt werden, z.B. wenn in Spanien hohe Erträge von Solaranlagen anfallen, die in Gas umgewandelt werden, und das dann per Pipeline nach Deutschland transportiert wird. Wenn man schon mal in Gas umgewandelt hat, kann man das dann zusätzlich auch gleich noch speichern, und dann ganz zielgerichtet einsetzten.

    Die Verstromung des transportierten und gespeicherten Synthesegases können schon bestehende Gaskraftwerke übernehmen, die jetzt noch mit Erdgas laufen. Da muss man dann aber noch ein paar mehr von bauen. Ein Teil des gespeicherten Synthesegases kann dann auch direkt zum Heizen verwendet werden. Eine Elektro-Wärmepumpenheizung kann sinnvoll mit einer Gasheizung kombiniert werden: Wenn genug Strom im Netz ist, läuft nur die Wärmepumpe, ist kein Strom dafür übrig, kommt die Gasflamme zum Einsatz. Und wenn es sehr kalt ist, läuft beides zugleich. Dann kann auch die Wärmepumpe kleiner dimensioniert werden, was von der Anschaffung her dann auch nochmal kostengünstiger ist.

    Damit sowas wirtschaftlich funktioniert, brauchen wir einen variablen Strom- und Gaspreis, der sich am aktuellen Angebot orientiert und zumindest teilweise an den Endkunden weitergegeben wird. Dann könnte man auch Elektroautos bevorzugt dann aufladen, wenn gerade lokal viel Strom im Netz vorhanden ist. So kann man dann schon einiges an Variabilität der Produktion auffangen, und bräuchte nicht ganz so viele neue Stromleitungen, die ja nicht nur teuer sind, sondern auch viele Jahre Planung und Genehmigung brauchen.

  28. @Tobias Jeckenburger: Niemand will Synthesegas, alle wollen wenn schon die Superbatterie mit der 10-fachen Speicherkapazität heutiger Batterien und aufladbar innert weniger Minuten anstatt Stunden. Warum ist das so? Ganz einfach: weil CO2-freie Energie immer zuerst als Strom anfällt, sei die Quelle nun ein AKW, ein Windrad oder ein Solarpanel. Und was macht man mit Strom, wenn man ihn speichern will? Richtig: man lädt damit eine Batterie genauso wie alle fast jeden Tag ihre Smartphone-Akkus und die Akkus diverser anderer Geräte laden. Dabei geht praktisch keine Energie verloren, es entsteht kein Lärm, keine Abwärme , kein Nichts. Synthesegas ist immer nur zweite Wahl und wird nur dann gewählt, wenn es eben die Superbatterie nicht gibt. Und es ist ein schlechter, niemals befriedigender, teurer und ineffizienter Ausweg. Denn allein schon bei der Umwandlung von Strom in Synthesegas haben sie grosse Verluste, Verluste, die sich gar verdoppeln, wenn sie schliesslich wieder Strom erzeugen wollen.
    Das Thema ist uralt. Auch vor 30 Jahren wurde schon von einer zukünftigen Wasserstoffwirtschaft gesprochen. Und wenn es die Superbatterie nicht bald gibt, wird man auch in 30 Jahren noch von der Wasserstoffwirtschaft sprechen. Nur realisiert wird sie auch dann noch nicht sein, einfach weil der Aufwand dafür zu gross ist. Dazu müsste nämlich eine weitere Infrastruktur aufgebaut werden, eine Infrastruktur zudem, die nur stört, die aber nichts Vergnügliches bringt wie es etwa das fliegende Auto oder der Hyperloop tut. Die Superbatterie würde sofort alle Probleme beim Umstieg auf eine voll elektrifizierte Technologie und Gesellschaft lösen. Wenn es aber die Superbatterie nicht gibt ist die zweitbeste Lösung nicht das Synthesegas sondern das Supergrid, welches ganz Europa oder gar die ganze Welt umspannt.

    Kürzlich hat sich auch die IEA, also die internationale Energieagentur mit „grünem“ Wasserstoff beschäftigt und darauf hingewiesen, dass schon heute sehr viel Wasserstoff für industrielle Zwecke hergestellt wird, aber eben kein „grüner“ Wasserstoff, sondern Wasserstoff der aus Erdgas mittels Steamreforming (einer Wärmebehandlung) hergestellt wird. Und dann kam der Hammer: Wollte man allen weltweit heute mittels Steamreforming hergestellten Wasserstoff auf „grüne“ Art und Weise herstellen, also mit Elektrolyse, dann bräuchte man soviel Strom wie heute in der ganzen Europäischen Union verbraucht wird. Das zeigt mir – und hoffentlich auch ihnen – dass wir Jahrzehnte vom grossskaligen Einsatz von Wasserstoff oder einem anderen Synthesegas entfernt sind.

    • Mindestens 2 “Superbatterien” werden uns bereits versprochen:
      – Die Firma XNRGI will Wafer-basierte Chip-Batterien herstellen, die die 3-fache Speicherkapazität pro Kilogramm und eine längere Lebensdauer besitzen und sich nicht entzünden oder explodieren können. Hergestellt wird sie mit Technologien der Chipproduktion auf Basis von Silicon-Wafern wie sie auch in der Halbleitertechnologie verwendet werden.
      – Die Firma Innolith verspricht gar eine 5-fache Speicherkapazität im Vergleich zu heute. Ihre auf einem anorganischen Elektrolyten basierende Lithiumionenbatterie soll 1000 Wattstunden pro Kilogramm speichern und ebenfalls brandsicher sein. Gegenwärtig stellt Innolith aber nur Batterien für Gridspeicher her. Ab 2024 sollen dann Batterien für Autos folgen.

  29. @Martin Holzherr

    Dass sowieso in der Industrie soviel Wasserstoff gebraucht wird ist doch hier eine gute Nachricht. Hier hat man schon mal einen Großabnehmer für Wasserstoff aus Stromüberschüssen. Was die Gas-Infrastruktur angeht, so sind ja schon flächendeckend Gasleitungen verlegt, einmal zu den Endkunden, zum anderen auch große Fernleitungen. Und auch Gasspeicher sind bereits vorhanden.

    Mir ist auch klar, dass insbesondere die Wiederverstromung von Synthesegas ineffizient ist, aber wenn eben diese Überschüsse anfallen, und die Primärproduktion nochmal deutlich kostengünstiger wird, ist das dann wieder entsprechend gar nicht mehr so teuer.

    Ich denke auch, dass mehr Stromleitungen auch Sinn machen, aber Stromleitungen und Synthesegas zusammen wären vermutlich die kostengünstigste Lösung.

    Die Superbatterie wäre immer noch die bessere Lösung, aber darauf können wir nicht mehr lange warten. Als nächstes wäre auch erstmal ein weiterer Zubau von Windrädern bei uns dran, und von Photovoltaik, das vor allem in Südeuropa. Und auch schon mal erste neue Stromleitungen. Wenn dann die Kapazitäten da sind, wären Elektroautos mit Akkus an der Reihe.

    Die Frage, wieviel genau wir noch in Synthesegas und Gas-Backupkraftwerke investieren sollten, stellt sich wohl erst in 10 oder 15 Jahren. Mal sehen, wie gut dann die neuesten Batterien sind.

    • Im SPON-Interview “Wasserstoff ist das Öl von morgen” macht die Forschungsministerin Anja Karliczek folgende Aussagen:
      1) Deutschland wird sich in den nächsten 50 Jahren nicht selbst mit Energie versorgen können. Heute führen wir gut 80 Prozent aus dem Ausland ein.
      2) Meine Idee ist, dass wir bis 2050 unseren Energiebedarf zu über 50 Prozent aus importiertem, nachhaltig erzeugtem Wasserstoff decken werden. Rund 25 Prozent werden wir nach Expertenberechnungen aus heimischen Wind- und Solaranlagen gewinnen können.(Sie glaubt nicht an die Selbstversorgung D’s allein mit Erneuerbaren)
      3) Wasserstoff kommt zukünftig aus Australien und Afrika in Form von beispielsweise Ammoniak (da einfacher zu transportieren als Wasserstoff direkt)

      Fazit: Forschungsministerin Anja Karliczek geht davon aus, dass D auch 2050 bis zu 50% seiner Energie importiert – nur eben in Form von mit Elektrolyse hergestelltem Wasserstoff (oder daraus hergestellten Brennstoffen).

      Meine Einschätzung:

      Selbst hergestellter oder importierter Wasserstoff wird um vieles teurer sein als es heute (und auch morgen) Erdöl oder Erdgas sein wird. Zudem muss eine gewaltige Infrastruktur neu aus dem Boden gestampft werden. Momentan ist nichts davon vorhanden. Zum Vergleich: Elektromobilität ist heute in voller Entwicklung. Das aber schon seit 10 Jahren. Dennoch sind weniger als 5 Prozent aller Neuwagen Elektromobile. Der Treibstoff für Elektromobile, also Strom, ist zudem äusserst billig. “Grüner” Wasserstoff aber wird teuer sein. Selbst wenn Wasserstoff kommt wird seine Rolle im Jahr 2050 deshalb noch klein sein.

  30. @Tobias Jeckenburger: auf Speichergas oder die Superbatterie zu warten ist womöglich keine gute Idee, denn man weiss nicht wie lange man darauf warten muss. Dabei gibt es heute schon Lösungen. Bei Erneuerbaren Energien ist das eine Kombination von Diversifikation (Solar+Wind) und Vernetzung über sehr grosse Distanzen. Alles andere ist Träumerei.

    • Vom Wissen zum (Nicht-)Handeln

      Das Wissen über die Ursachen und Auswirkungen des Klimawandels ist heute recht gross – mindestens was die Physik angeht, etwas weniger wenn es um die Auswirkungen des Klimawandels auf die Welt der Menschen geht , denn die Menschen verstehen die von ihnen selbst geschaffene Welt weniger gut als die äussere Welt, sie wissen mehr über Atome als über sich selbst.
      Das zeigt sich auch in der Einschätzung dessen, was andere Länder und was man selbst angesichts des Klimawandels tun müsste und welche Zeiträume zu veranschlagen sind. In Deutschland und Umgebung hört man oft die Forderung, die grossen Länder wie China, die USA, Indien müssten in der Bekämpfung des Klimawandels vorangehen, sie müssten Solarpanel anstatt Kohlekraftwerke in den Boden rammen, denn mit ihrer Wirtschafts- und Bevölkerungsmacht zählten sie mehr als kleinere Länder wie Deutschland. Oder plakativ formuliert: Ein elfenhaft grünes Deutschland kommt nicht gegen den aus allen Schloten stinkenden chinesischen Drachen an, der die ganze Welt vergiftet.
      Also ist es OK (in Ordnung), dass Deutschland jetzt, im Jahre 2020 noch ein neues Kohlekraftwerk baut, nämlich Datteln 4?
      Deutschland, wo Bevölkerung, Politik und Wissenschaftler alle an die Erneuerbaren glauben, braucht also im Jahre 2020, fast 30 Jahre nach Rio 92, ein neues Steinkohlekraftwerk. Dabei ist Deutschland technologisch und wirtschaftlich gesehen am ehesten in der Lage, sich energetisch zu erneuern. Und andere Länder können dann davon lernen. Aber was lernen Länder wie China und Vietnam (das jetzt gerade Kohlekraftwerk über Kohlekraftwerk baut) von Deutschland? Sie lernen, dass es ohne Kohlekraft nicht geht und dass Erneuerbare allenfalls ein schönes Kleid sind, dass man nach aussen zeigt während man innen kohlt.

      Wozu Klimamodelle dienen

      Hier liest man zum Sinn der Klimamodelle:

      Die wichtigste Frage, die Klimamodelle zu beantworten haben (neben den Zukunftsprognosen), ist die nach den Ursachen für den Klimawandel, die andere Gründe haben, die mit Treibhausgasen wenig zu tun haben (z.B. durch eine noch nicht modellierte Variabilität der Sonneneinstrahlung)? Diese Frage liegt im Kern der politischen Debatte und aller künftiger Klimadiskussion.

      Dem kann ich zustimmen, aber nur bedingt und nicht in dieser Absolutheit, in der Klimamodelle eine Schiedsrichterrolle zugewiesen wird, wobei sie über wahr und falsch entscheiden, denn Klimamodelle sind nur ein Mittel um die Kräfte, die das Klima treiben, besser zu verstehen. Allein auf sie zu bauen um zwischen wahr und falsch zu entscheiden, um zu entscheiden, ob die Treibhausgasthese korrekt oder nicht korrekt ist, wäre zu viel von Computer-Modellen verlangt.
      In meinen Augen wollen Klimamodelle/Klimasimulationen lediglich etwas konkretisieren, wofür es sonst schon viele Anhaltspunkte gibt. Der Klimawandel durch Treibhausgase hat nämlich
      1) bereits vor mehr als 100 Jahren entwickelte Überlegungen von Physikern zu Treibhausgasen als Grundlage
      2) die instrumentellen Wetterdaten der letzten 150 Jahre, die Beobachtungen also, passen zur Treibhausgasthese
      3) die Paläoklimatologie, also die Erforschung früherer Klimata zeigt recht klar, dass frühere Heisszeiten ohne die Wirkung der Treibhausgase nicht erklärbar wären.

      Klimasimulationen mittels Klimamodellen wollen deshalb wohl lediglich konkretisieren, was man im Grundzug schon recht gut weiss. Um zu wissen, dass Variabilitäten in der Sonneneinstrahlung nur eine untergeordnete Rolle bei der Klimaentwicklung spielen, braucht man kein Klimamodell, keine Klimasimulation. Denn dazu genügt es, die gemessenen und rekonstruierten Variabilitäten der Solareinstrahlung in ihrer Stärke anderen Klimatreibern wie den Treibhausgaskonzentrationen in der Atmosphäre oder den Aerosolen vulkanischen oder industriellen Ursprungs gegenüberzustellen.
      Klimamodelle sind heute sowieso keine ab-initio-Modelle, also keine Modelle, die rein aufgrund physikalischer Prinzipien das irdische Klima simulieren, sondern sie enthalten sehr viele Parameter, die man so einstellen muss, dass sie mit den Messungen und Beobachtungen übereinstimmen. Das bedeutet, dass man Klimamodelle bewusst/unbewusst „tweakt“/frisiert, damit das ganze funktioniert. Klimamodelle können auch deshalb grundsätzliche Fragen wie die nach wahr oder falsch nur bedingt beantworten. Klimasimulationen dienen vielmehr der Konkretisierung und im Idealfall der Modellierung der regionalen Klimaentwicklung mit Voraussagen etwa zum zukünftigen Mittelmeerklima oder der zu erwartenden Arktisschmelze.

  31. Die wichtigste Frage, die Klimamodelle zu beantworten haben (neben den Zukunftsprognosen), ist die nach den Ursachen für den Klimawandel, die andere Gründe haben, die mit Treibhausgasen wenig zu tun haben (z.B. durch eine noch nicht modellierte Variabilität der Sonneneinstrahlung)? Diese Frage liegt im Kern der politischen Debatte und aller künftiger Klimadiskussion.

    Das ist doch kompletter Unsinn. Das wäre es selbst mit dem Wissensstand aus den späten 80gern des letzten Jahrhunderts schon gewesen. Warum?
    Weil die Ressourcen des Planeten Erde endlich sind. Und weil für die Stabilität einer Biosphäre, die es braucht, um eine Zivilisation mit über 10 Milliarden Menschen zu ernähren und für sie erträgliche Lebensbedingungen zu erhalten, die gleichen oder ganz ähnliche Paradigmenwechsel und Transformationsprozesse in Richtung Nachhaltigkeit erforderlich sind, die es braucht, um die Dynamik des sich abzeichnenden Klimawandels zu verkraften. Sie wären auch ohne, oder mit langsamer verlaufendem Klimawandel notwendig und sinnvoll. Bei allen künftigen politischen Debatten kann es also nur um diese Transformationsprozesse gehen. Rationaler Weise priorisiert man die Dringlichkeit sehr hoch, da sich verschleppte, nicht erkannte, oder unterschätzte Fehlsteuerungen oder Mängel eines Systems im lauf der Zeit progressiv verstärken. Ergo, sie werden teurer und irgendwann unbezahlbar. Das kennt man beispielsweise aus Produktionsprozessen aller Art.

  32. Die Temperaturentwicklung seit 1850/80
    Gemäss state of the climate: How the world warmed in 2019 ist die Oberflächentemperatur der Erde im Jahr 2019 um 1.1 bis 1.3 Grad höher als im Zeitraum 1880 bis 1900 und 0.5 bis 0.6 Grad höher als im Zeitraum 1981 bis 2010 und die Durchschnittstemperatur zwischen 1981 und 2010 ist wiederum um 0.6 bis 0.75 Grad höher als im Zeitraum 1880 bis 1900. Seit 1975 steigt die Temperatur kontinuierlich wobei bei den El-Nino-Ereignissen 1997/98 und 2015/16 die Temperatur treppenförmig anstieg.
    Im 20. Jahrhundert gab es nur eine Zeit der Temperaturstagnation, nämlich die Zeit zwischen 1944 und 1975, welche heute mit erhöhten Aerosolwerten erklärt wird.
    Die beste Erklärung für den Temperaturanstieg seit 1880 ist der Anstieg der atmosphärischen CO2-Konzentrationen und dieser Anstieg der Treibhausgase erklärt auch die Klima- und Temperaturgeschichte der letzten 35 Millionen Jahre am besten. Vor 35 Millionen Jahren begann nämlich die Vereisung der Antarktis just als die CO2-Konzentrationen unter 600 ppm fielen und vor 2.6 Millionen Jahren begann auch die Arktis zu vereisen just als die CO2-Konzentrationen zuerst unter 400 und dann unter 350 ppm fielen. Mit den jetztigen CO2-Konzentrationen beenden wir die volle Eiszeit wieder: Das Arktiseis (Grönland) wird bei CO2-Konzentrationen über 450 ppm über lange Zeiträume vollständig abschmelzen.

    Wie stark wird die Erdoberfläche durch Treibhausgase erwärmt?
    Durch die Zunahme der Treibhausgase seit 1880 wird jeder Quadratmeter der Erdoberfläche um 3 Watt zusätzlich erwärmt (siehe Radiative Forcing)- Umgerechnet auf die gesamte Erdoberfläche entspricht das der Energie von 1.5 Millionen 1 Gigawatt Kraftwerken und das wiederum entspricht etwa dem 50-fachen der insgesamt vom Menschen erzeugten Energie (Kohle,Öl, Erdgas, AKWs, Wasser,Wind,Sonne, Biomasse).

    • Wenn Sie mal hier schauen könnten, Herr Holzherr :

      -> https://en.wikipedia.org/wiki/Ice_core#/media/File:Vostok_Petit_data.svg (“Vostok-Eisbohrkern-Daten” der letzten 400.000 Jahre, also geochronologisch kein sehr großer Zeitraum)

      …also auf diese Visualisierung von Datenlage, und dem Schreiber dieser Zeilen Ihre Interpretation mitteilen könnten…

      Ja, Dr. W hat diesbezüglich einige Klimatologen angefragt, berichtet auch gerne später, wie die Oszillationen bearbeitet worden sind.
      Abär zunächst einmal Sie gefragt, auch was Ihnen zum Hand in Hand gehen von atmosphärischem CO2-Gehalt und Oberflächentemperatur einfällt….

      MFG – WB (der generell Datenlagen mag)

      • @Dr. Webbaer (Zitat):

        Vostok-Eisbohrkern-Daten” der letzten 400.000 Jahre, also geochronologisch kein sehr großer Zeitraum

        Ja, die Zeitspanne der letzten 400‘000 Jahre liegt vollkommen innerhalb des (vollen) Eiszeitalters, das vor 2.6 Millionen Jahren mit der Vergletscherung der Arktis begann und welches durch sehr tiefe atmosphärische CO2-Werte auffällt. In den letzten 400‘000 Jahren waren die atmosphärischen CO2-Werte immer unterhalb 280 ppm: ein sehr tiefer Wert und nur dieser tiefe Wert erklärt überhaupt warum wir uns in einem Eiszeitalter befinden, denn die Sonneneinstrahlung ist heute 10% stärker als vor einer Milliarde Jahre. Während diesen 400‘000 Jahren stieg die atmosphärische CO2-Konzentration jeweils während den Warmzeiten, den Interglazialen, an. Und zwar als Reaktion auf die Erwärmung, verursacht durch eine stärkere Sonneneinstrahlung im Norden, die vom Milankovich-Zyklen gesteuert wird. Im Ozean gelöstes CO2 wird während den Warmphasen jeweils freigesetzt und das wiederum führte über einen stärkeren Treibhauseffekt zu einer weiteren globalen Erwärmung, von dem auch der Süden profitierte.
        Jetzt aber verlassen wir dieses Klimaregime, welches durch sehr niedrige CO2-Werte gekennzeichnet war. Die atmosphärischen CO2-Werte sind bereits über 400 ppm gestiegen womit wir bald schon das Zeitalter einer vollen Eiszeit verlassen, was bedeutet, dass die Arktis auftaut.

        Fazit: Wir lebten bis jetzt in einer Eiszeit gekennzeichnet durch Vergletscherung beider Pole. Jetzt, mit stark zunehmenden CO2-Konzentrationen, verlassen wir diese Eiszeit: Die arktischen Eisschilde sind bereits mitten in einem grossen Abschmelzprozess. Im Norden wird es deutlich wärmer und weltweit steigt der Meeresspiegel.

  33. @Dr.Webbaer
    Zum Vostok-Eisbohrkern habe ich im Web eine Diskussion von 2013 gefunden, an der sich auch der Webbaer selber beteiligt hatte. Wesentliche Aspekte zur Koinzidenz von Temperatur und CO2-Anteil sind damals schon geklärt worden.

    Die Milankovic-Zyklen zwischen 20 000 und 400 000 Jahren haben auf das gegenwärtige Klima bzw. auf die nächsten tausend Jahre keinen Einfluss. Es bleibt der Anteil der Treibhausgase als Hauptantrieb des Klimas in den nächsten hundert Jahren. Die Effekte sind als Wetterextreme und als Naturkatastrophen infolge des Wetters bereits deutlich sichtbar. Die weltweiten Schäden werden zunehmend teurer.

  34. Die Hauptursache der regionalen Temperaturerwärmung ist die hochfrequente elektromagnetische Strahlung. Sie verringert die Trägheit der Masse in der Atmosphäre, sodass Wärmeerngie viel effizienter übertragen werden kann, was dann zu Wärmeschichtungen führen kann, die in den Messwerten deutliche Anstiege der Temperaturen aufzeigen.

    Genauso, wie Wasser ein spezifisch schlechter elektrischer Leiter ist, so ist Luft/Gas..also die Atmosphäre … ein eher schlechter Wärmeleiter. Jedes Atom muß Wärmeeneergie aufnehmen, um Temperatursteigerung in der Atmosphäre zu erzeugen. Das aber wird durch die Trägheit der Masse (und der Eigenschwingungstendenz) eher unterbunden, als befördert.

    Ist die Atmosphäre aber durch hochfrequente Strahlung bestrahlt, wird die Trägheit der Masse verringert, inden die Atome in unnormal höheren Schwingungen angeregt werden und das fördert die Wärmeleitfähigkeit von Luft/Atmosphäre, sodass diese Wärmeenergie leichter an kältere Atome abgegeben werden wird und so eine regionale Erwärmung begünstigt wird.

    Die Entropie in der Temperaturverteilung in Luft… also die Wärmeabgabe der wärmeren und Wärmeaufnahme der Teilchen in der Atmosphäre wird durch hochfrequente elektromagnetische Strahlung erhöht.

    Die Grundwertveränderung ist wahrscheinlich im Nachkommebereich. Aber weil die bestrahlte Fläche/Volumen so groß ist, ist der Effekt auch so wirksam.

    Wie man diese regionale Szenerie auf die globale Klimaerwärmung überträgt, ist dann die notwendige Frage.

    Und das CO2?

    Nun, CO2 ist, wie Wasserdampf, ein sogenanntes Klimagas. Aber an dessen Menge/Konzentration in der Atmosphäre kann man, trotz betonter Wärmeenergie-Menge pro Atom, ablesen, welches Klimagas viel wichtiger für die hinreichende Funktion und Ursache hinsichtlich der Klimaerwärmung ist: Wasser – in all seinen Aggregatzuständen ist Wasser das wichtigste Klimagas. Das ist es, weil es in der Atmosphäre viel schneller zirkuliert, als alle anderen Gase.
    und genau diese schnelle Zirkulation wird auch durch die Bedingungen verhindert, indem Wasserdampf länger als normal in gasförmigen Zustand gehalten wird. Was mutmaßlich durch die hochfrequente elektromagnetische Strahkung/Felder der Mobilfunk-Infrastruktur in der unteren Atmosphäre bewirkt wird.

    Ich gehe davon aus, dass der Grundeffekt eine regionale Konzentration von Wärmeenergie fördert, sodass der Wärmeenergiekreislauf (hauptsächlich durch Wasser in den verschiedenen Aggregatzuständen) gestört ist und dieser Kreislauf sich nicht in hinreichender Höhendifferenz und auch in nicht hirneichender Temperaturdifferenz ereignen kann, sodass Wasserdamf auch wieder effizient kondensieren kann. Es fehlt also (nicht nur im Rest der Welt) an Niederschlag. Und weil wir offenbar tatsächlich (nicht nur gefühlt durch die globale Messung von Wetterereignissen und massenmediale Verbreitung der Ereignis-Extreme) eine Häufung von Extremwetterereignissen haben, wo sich dieser Normalkreislauf in extremer WEeise “entlädt”, wäre die Theorie auch schlüssig, weil irgendwann nämlich kann man den natürlichen Kreislauf nicht mehr durch die technische Manipulation unterbinden und es kommt dann zu heftigen Energiefreisetzungen aufgrund der hohen Wärmeenergie in der Atmosphäre.
    Ausserdem meinen einige Verschwörungstheoretiker ja, dass man Extremwetterereignisse auch technisch erzeugen kann, was… angesichts dieser Zusammenhänge … vielleicht auch gar nicht so absurd ist.

    Würde man die hochfrequente Strahlung aus der Umwelt streichen/ausschalten, würde es mehr “Normalwetter-Ereignisse” wie Tauwasser, Regen oder Schneefall geben und damit wäre der Energiekraislauf auf niedrigem Energieniveau gegeben, wie er natürlicherweise stattfinden würde.

    Da aber duch die hochfrequenten Felder die Atome in der Atmosphäre künstlich in Schwingung gebracht wurden, nehmen sie leichter Wärmeenergie auf, woraufhin dann mangels thermischer Energie pro Atom der Wasserdampf nicht hoch genug steigen kann, damit er kondensieren kann und als regen zur Erde fallen kann. Erst das wäre ein hinriechender Kreislauf des Wassers, der zur Abkühlung der unteren Atmosphärenschichten führte, der aber durch die Einflüsse unterbunden…zumindest signifikant verringert wird, sodass die Wärmenergie in der unteren Atmosphäre eben länger erhalten bleibt und somit zu einer messbaren Erwärmung führt, weil die Wärme nicht in höhere Atmopshärenschichten abtransportiert werden kann.

    Man ist kein “Leugner menschgemachter Klimaerwärmung”, wenn man eine solche Theorie gegen den Mainstream der Klimaforschugn anführt. Denn: Auch diese Szenerie wäre natürlich rein “menschgemacht”.

    Aber abgesehen davon könnte man noch bezweifeln, das diese These wirksam ist, wie beschrieben, denn zu Zeiten der Dinosaurier gab es ja auch ein klimaerwärmung. Nur diese kann ja unmöglich durch Mirkowellen erzeugt worden sein.

    Kann sie nicht. Aber es gibt noch eine andere Quelle von elektromagnetischen Wellen.
    Das Gehirn der Dinosaurier.
    Ein evolutionär weit entwickeltes Wesen, wie die Reptilien damals, die schon hunderte Millionen Jahre lebten, entwickelt auch Gehirne, die sich durch Synchronizität ausweisen. Und das gibt den Arten/Gruppen/Spezies die Fähigkeit, das ihre Gehirne eine relativ hohe Frequenz aufweisen können, die das Gehirn allein durch seinen normalen Betrieb erreichen. Und diese Eigenschaft der Gehirne hochsynchroner Lebewesen und die reine Anzahl der Lebewesen (und bei den Dinosauriern spielt auch die Größe der Gehirne eine Rolle, was direkt mit der Leistungsfähigkeit / Wirkungsgrad korelliert) kann, wie Mobilfunkstrahlung etwa, wirksam die natürlichen Kreisläufe in der Atmosphäre beeinflussen. Einfach indem dadurch eine Schichtenbildung per elektrischen Feldern begünstigt wird.

    Und diese “Gehirngemachte” elektromagnetische Felder sind auch der Grund, warum man Seitens von massenmedialem Populismus immerzu daran rumkritisiert, dass es noch viel zu wenig “high-speed” Internt per Mobilfunk gibt.
    Man will aus politischen Gründen, das üebrall Mobilfunknetze die Regionen bestrahlen, weil die Mobilfunkstrahlung im Zweifelsfall durch eine geringsfügige Veränderung der Funkcharakteristik dazu verwendet werden kann, das gehirneigene Magnetfeld zu manipulieren.

    Was eine Art “Unterdrückung” bedeutet, die der “Normalmensch”, der sich in “Freiheit” wähnt, noch gar nicht auf dem Bewusstseinsschirm hat.

    • … wie groß ist die Wärmemenge eines einzelnen Atoms?
      Wann ist ein Atom kalt oder warm? Bitte mal einen Zahlenwert zum Verstehen nennen.

  35. Theoreitsch wäre mit dieser Erklärungs-Szenerie auch der normale CO2-Kreislauf widerlegt, weil die CO2-Atome, die ja weitestgehenst durch Verbennung von fossielen Rohstoffen freigesetzt werden, selbst diejenigen Atome sind, die die dabei entstehende Wärmeenergie tragen, diese aber nicht dazu führt, dass die CO2-Atome auch schnell und effizient in sehr große Höhen in der Atmosphäre steigen, sondern ihre eigene Wärmeenergie viel schneller an andere Teilchen in der Atmosphäre abgeben, da diese ja durch die hochfrequente Strahlung/Felder künstlich in höherer Schwingung angeregt sind, was die Wärmeaufnahme erleichtert.

    Also auch hier ist das Problem der unzureichenden Wärmeenergie pro Teilchen gegeben, das erst dazu führt, dass die notwendige Höhendifferenz (und damit Temperaturdifferenz zwischen Verdampfung und Kondensation) ereicht wird, sodass ein natürlicher Kreislauf, wie er in der Natur normalerweise stattfindet und wie er für Natur und der Biotope nützlich ist.

    Erwartbar wäre, dass dieses aus Verbrennung stammende CO2 viel schneller in höhere Atmosphärenschichten aufsteigt und somit keine Signifikanz für die untere Atmosphäre besäße. Aber so ist es eben nicht. Die Temperaturerwärmung findet praktisch nur in der untersten Atmosphärenschicht (zwischen 0 bis 2000 Meter) statt, was eine dazu hinreichende Ursache haben muß.

    Und die ist vielleicht durch die oben beschriebene Prozesstruktur genauer und besser erklärt.

  36. @ Martin Holzherr
    19.01.2020, 18:32 Uhr

    @Tobias Jeckenburger: auf Speichergas oder die Superbatterie zu warten ist womöglich keine gute Idee, denn man weiss nicht wie lange man darauf warten muss. Dabei gibt es heute schon Lösungen. Bei Erneuerbaren Energien ist das eine Kombination von Diversifikation (Solar+Wind) und Vernetzung über sehr grosse Distanzen. Alles andere ist Träumerei.

    -> Träumerei ist auch, dass wir den Energiebedarf Deutschlands durch Wind/Solar-Energie dekcen können, sodass er auch unmittelbar immer erfüllt ist. Und keine Engpässe bei Windstille oder mangelnder Sonneneinstrahlung auftreten.

    Wenn man jetzt schon an die 1000 Meter-Grenze ran will, weil es keinen Platz mehr für Windkraftanlagen gibt, dann ist das ein seeehr schlechtes Zeichen für diesen Idealistentraum.
    Und sowieso: Auch Windkraftanlagen liefern Nachts im Durchschnitt viel weniger Leistung.

    Und die “Tausend-Meter-Grenze” zu tilgen (die ja eh schon eher homöophatisch wirkt) wäre ein seeeehr schlechtes Zeichen dafür, das die Menschheit die Grenzen des (Lebens)Raumes anerkennt. Was auch eine Denkweise wäre, die direkt (oder eher indirekt) Auswirkungen auf die Regionen haben wird, die dann (oder heute schon) beginnen, den Regenwald abzuholzen, um ihre Lebensraum-, Energie- oder Nahrungsprobleme zu lösen. Wobei all diese keine Probleme des Lebensraum sind, sondern der Profit-Idee…also nur monetäre Ursachen hat.

    Und so ist es zum Teil auch mit dem Windkraftanlagenausbau: Neben dem Raumproblem gibt es auch das Rentabilitätsproblem im Zusammenhang mit der gegenwärtigen Gesetzgebung über Steuer- und Preisvergütungen:

    Nichts, was nicht mindestens 20 % Rendite einbringt, wird primär vorrangetrieben und finanziert.

    Die Lösung dieses Problems?

    Keine Steuer- oder Preisvergünstigungen für Investmend-Projekte. Abgesehen davon, dass die Hochfinanz auch noch für weitere Probleme dieses Planeten und des Menschen verantwortlich ist, weshalb man sowieso das Finanzwesen radikal reformieren müsste.

    • @demolog:

      Träumerei ist auch, dass wir den Energiebedarf Deutschlands durch Wind/Solar-Energie dekcen können, sodass er auch unmittelbar immer erfüllt ist.

      Ja, deshalb ja die Vernetzung über sehr grosse Distanzen. Mit den richtigen Anteilen Windenergie aus Nordskandinavien, dem Balkan und dem Nordatlantik samt Nordsee erreicht man eine fast unterbrechungsfreie Stromversorgung, denn diese Regionen haben unabhängige Wetterregime.

    • Anpassung an den Klimawandel als Politik bestimmende Zukunft
      Zitat Lars Jaeger:

      Die Durchschnittstemperaturen auf der Erde steigen. Darüber kann es keinen Dissens mehr geben, zu deutlich zeigen uns dies Satellitenmessungen seit vielen Jahren.

      Behauptung: Die USA und Europa werden in den nächsten 50 Jahren sehr viel Geld und Energie in die Bewältigung des Klimawandels stecken – und das selbst dann, wenn es nur um Anpassungen an die Folgen geht.

      Beispiel USA: der Artikel Sea level rise could reshape the United States, trigger migration inland sieht für die USA grosse inländische Wanderungsbewegungen (Umsiedelungen) voraus allein wegen dem Meeresspiegelanstieg. Zitat:

      Popular relocation choices will include land-locked cities such as Atlanta, Houston, Dallas, Denver and Las Vegas. The model also predicts suburban and rural areas in the Midwest will experience disproportionately large influx of people relative to their smaller local populations.

      Viele US-Städte werden auch Dämme bauen, womit sehr grosse finanzielle Mittel gebunden sein werden. Für Lower Manhattan gibt es eine ganze Reihe von Verbauungsplänen mit Kosten bis zu 100 Milliarden Dollar. Solch riesige Bauvorhaben werden viele finanzielle und geistige Mittel binden, so dass die Leute plötzlich nicht mehr mit der Erfindung der Zukunft, sondern allein mit der Bewältigung der veränderten Gegenwart beschäftigt sein werden.

      Beispiel Europa: Europa wird in 50 Jahren (auch) durch den Klimawandel noch gespaltener sein als heute, denn profitieren vom Klimawandel wird der Norden (Skandinavien), leiden am Klimawandel wird der Süden, da die Mittelmeerregion zunehmend austrocknet. Europa ist zudem heute schon das bevorzugte Ausreiseziel von Afrikanern und das wird sich bis 2050 massiv verstärken, denn bis 2050 verdoppelt sich die afrikanische Bevölkerung und bis 2060 wird es in der Sahelzone Bevölkerungsdichten wie in Frankreich geben – und das in einer Halbwüste in der es zudem anstatt zu regnen, von Al-Kaida- und anderen islamistischen Gruppen orchestrierte Gewalt gibt.

  37. @Martin Holzherr 16.01.2020
    Sie schrieben: „Nein. Es ist heute absolut sicher, dass die Sonne in der Summe, in der Bilanz nichts zur Erdsystemerwärmung der letzten 50 Jahre beigetragen hat.“

    Sie glauben, dass die Sonne in der Bilanz der letzten 50 Jahre nichts zur Erderwärmung beigetragen hat. Das hat noch kein Klimawissenschaftler berichtet, auch der IPCC schreibt dies nicht.
    Im WG1AR5 sehen Sie in Figure TS.6, dass man zur Wirkung der Sonne man noch wenig weiß weshalb man zu dem gezeigten kleinen Wert der „solar irradiance“ nur „medium confidence“ hat, als „mittleres Vertrauen“ – die Aussage „absolut“ ist hier diametral entgegengesetzt. Genauer lesen Sie dies dann in Abschnitt TS.3.5, wobei dann ein aus meiner Sicht völlig unpassender Schlusssatz auf zuvor nur mit medium confidence angegebenen Daten folgt: „However, current abilities to project solar irradiance are extremely limited so that there is very low confidence concerning future solar forcing. Nonetheless, there is a high confidence that 21st century solar forcing will be much smaller than
    the projected increased forcing due to WMGHG” – worauf Sie sich wohl alleine beziehen wollten.

    Glauben Sie denn wirklich, dass die Klimaforscher sich die große Mühe machen verschiedene Faktoren der Sonneneinwirkung für CMIP6 (s. mein Kommentar mit Link oben) zu machen, wenn sie sicher wären, die Sonne würde keinen Einfluss auf Klimaveränderungen haben?

    Interessant zur Sonne und deren Auswirkungen uf die Globaltemperatur ist dieses Video mit einem Interview mit der Sonnenforscherin Valentina Zharkova (Northumbria University): https://t1p.de/c3k9
    Diese sagt (ab 16:35), dass die Globaltemperatur seit ca. 1750 durch die seit damals zunehmende Sonnenaktivität bis zum Beginn des jetzigen Sonnenzklus um 0,8 °C zugenommen habe und durch den jetzigen Zyklus (Minimum) um etwas weniger wieder abnehmen werde, wobei noch unklar sei, ob durch den nächsten Sonnenzyklus ein weiterer Temperaturrückgang kommen werde.

    Ich habe dies mir mal durch den Kopf gehen lassen, zusammen mit der ganz neuen Aussage, dass ein Drittel der Erderwärmung der letzten 60 Jahre auf die FCKW-Gase zurückzuführen sei
    DOI: 10.1038/s41558-019-0677-4
    und komme zu einem wirkich „irre“ erscheinenden logischen Schluss:
    1) Erhöhung der Globaltemperatur von 1750 bis heute: ca. 1,3 °C (lt. COPERNICUS-Program)
    2) abzüglich des Drittels, das die FCKW verursacht haben: 1,3 °C – 0,43 °C = 0,87 °C
    3) abzüglich der von der Sonne verursachten Erwärmung: 0,87 °C – 0,8 °C = 0,07 °C
    womit für das CO2 und seine „Treibhauswirkung“ ein minimaler Wert übrigbleibt.
    Es wäre nun zu einfach zu behaupten die Sonnenforscherin und die Verfasser der Studie zum FCKW lägen alle falsch. Mir kommt es so vor: je weiter die Forschung der einzelnen Zweige kommt, die alle mit der Klimaforschung direkt oder indirekt zusammenhängen, desto unklarer wird die „Lage“.

    Zum Schluss noch ein Tipp bzgl. der Aussage, dass es von der Sonne her nichts gäbe, was eine Wirkung auf den Klimawandel hätte: einfach mal in Google Scholar den Begriff „solar forcing“ eingeben und staunen, wie groß die Anzahl der Veröffentlichungen dazu ist.

      • Die Celsius-Skala ist linear, wo ist das Problem?
        Wie würden Sie rechnen?
        Kommen Sie zu einem andern Ergebnis?

    • @Wolfgang Richter (Zitat):

      Sie glauben, dass die Sonne in der Bilanz der letzten 50 Jahre nichts zur Erderwärmung beigetragen hat. Das hat noch kein Klimawissenschaftler berichtet, auch der IPCC schreibt dies nicht.

      Doch – wenn auch indirekt.
      1) Klimaforscher wie Stefan Rahmstorf (und viele andere) haben mehrfach geschrieben, dass die Erwärmung seit den späten 1970er Jahren zu 100% anthropogen ist
      2) im IPCC-AR5-Kapitel Anthropogenic and Natural Radiative Forcing liest man:

      Satellite observations of total solar irradiance (TSI) changes from 1978 to 2011 show that the most recent solar cycle min- imum was lower than the prior two. This very likely led to a small negative RF of –0.04 (–0.08 to 0.00) W m–2 between 1986 and 2008.

      Also: zwischen 1986 und 2008 war das Solar Forcing kleiner (negativ) als in der Zeit davor.

      Zitat 2:

      die Globaltemperatur seit ca. 1750 durch die seit damals zunehmende Sonnenaktivität bis zum Beginn des jetzigen Sonnenzklus um 0,8 °C zugenommen habe

      Nein, im Video sagt die Interviewte, die Erwärmung durch die Sonne betrage in England 0.8 Celsius. Global bedeutet das 0.4 Celsius, denn England liegt 1) nördlich wo jede Erwärmung sich stärker auswirkt und 2) England ist Festland wo die Erwärmung immer stärker ist als über dem Meer.

      • @Martin Holzherr
        Sie schreiben: „Nein, im Video sagt die Interviewte, die Erwärmung durch die Sonne betrage in England 0.8 Celsius. Global bedeutet das 0.4 Celsius, denn England liegt 1) nördlich wo jede Erwärmung sich stärker auswirkt und 2) England ist Festland wo die Erwärmung immer stärker ist als über dem Meer.“

        Sie meint aber die Globaltemperatur, wie aus der Studie sowie in der dort zitierten Studie von Syun-Ichi Akasofu http://dx.doi.org/10.4236/ns.2010.211149 nachzulesen, aus der auch die Daten zur Temperaturerhöhung übernommen sind. Es geht um die Globaltemperatur, die sich „wellenförmig“ (Sonnenzyklen und PDO) und im Mittel um 0,5 °C pro hundert Jahre seit der „kleinen Eiszeit“ erhöht.
        Schauen Sie sich mal die Studie von Akasofu an. Es ist sehr interessant, wie er den bisherigen Temperaturverlauf auf seine Beobachtungen und Messungen abbildet und zeigt, dass der IPCC von einer falschen Annahme ausginge, dass sich die Temperatur weiter erhöhen werde, obwohl sie entsprechend seinen Prognosen tatsächlich 2008 etwas zurückging; Figure 9.
        Dieser fortlaufende Rückgang wiederum wurde inzwischen bis 2018 mit dem EEI und dem OHC bestätigt – siehe die Links oben in meinen andern Kommentaren.

        Ich habe mal im AR5 nachgeschaut, ob oder wie dort diese Studie von Akasofu (2010) zur Sonne behandelt ist. Der IPCC selbst forscht bekanntermaßen nicht und hat die Aufgabe den jeweiligen aktuellen Wissensstand zur Gesamtthematik Klima zusammenzutragen und daraus Schlüsse zu ziehen. Ergebnis meiner Recherche: diese Arbeit ist im Quellenverzeichnis nicht enthalten. Nun wundert mich nicht mehr, dass im AR5 der Sonne eine stark untergeordnete Rolle ohne Bedeutung für den aktuellen Klimawandel zugeordnet wird.

        Welche Rolle spielen nun Sonne, FCKW und CO2 bei der globalen Erwärmung wirklich? Ich warte gespannt auf weitere Studien und werde in nächster Zeit auch mal selbst eine Reihe von neueren Studien zur Sonne und deren Klimawirkung durchschauen.

        • Trotz “kalter Sonne” neue Temperaturrekorde
          @Wolfgang Richter: Bei 1 Promille-Schwankungen der Sonneneinstrahlung pro Jahr ist kein grosses solares Forcing zu erwarten. Zudem wurden die Prognosen einer deutlichen Abkühlung wegen dem solaren Minimum 2008 widerlegt. Sie schreiben dazu: dass der IPCC von einer falschen Annahme ausginge, dass sich die Temperatur weiter erhöhen werde, obwohl sie entsprechend seinen Prognosen tatsächlich 2008 etwas zurückging; Figure 9.

          Wichtig: 2008 gab es niemals einen Temperaturrückgang wie von Proponenten eines starken solaren Einflusses behauptet. Und: Selbst Studien, die einen deutlichen Einfluss des solaren Zyklus auf vergangene Klimata beobachten wollen, sehen keinen Trend zu immer höheren Temperaturen, sondern eine Schwankung der Temperaturen mit tieferen Temperaturen während solaren Minima und höheren während solaren Maxima. Die von ihnen behauptete Zunahme des solaren Einflusses über sehr viele Sonnenzyklen hinweg ist eine absolute Aussenseiter-Meinung. Gerade wenn die IPCC die Literatur dazu sichtet, muss sie zum Schluss kommen, dass es kein solares Forcing zu höheren Temperaturen in den letzten Jahrzehnten und sogar überhaupt kein Forcing in den 30 Jahren von 2005 bis 2035 gibt, denn zwischen 2005 und 2035 erleben wir solare Minima und trotzdem steigt die Temperatur, wobei ein sehr starker Temperaturanstieg von mehr als 0.2 Celsius zwischen 2015 und 2017 zu beobachten war.

          In der Studie Deep solar minimum and global climate changes lesen wir etwa:

          Solar activities have had notable effect on palaeoclimatic changes. Contemporary solar activity are so weak and hence expected to cause global cooling. Prevalent global warming, caused by building-up of green-house gases in the troposphere, seems to exceed this solar effect.

          Dabei geht diese Studie von einem deutlichen Einfluss der solaren Aktivitität auf die globalen Temperaturen aus (Zitat, übersetzt von DeepL):

          Die Sonnenaktivitäten haben sich deutlich auf die paläoklimatischen Veränderungen ausgewirkt. Die Oberflächenerwärmung und der Sonnenzyklus in Zeiten hoher Sonnenaktivität sind im Durchschnitt 0,2 °C wärmer als in Zeiten geringer Sonnenaktivität.

          Fazit: Selbst Autoren, die von einem deutlichen Einfluss der Sonnenaktivität auf die globalen Temperaturen ausgehen, können damit die globale Erwärmung im 20. und 21. Jahrhundert nicht erklären. Überhaupt nicht erklären kann die jetztige “kalte Sonne” die starke Temperaturzunahme seit dem Jahr 2015.

          • Nur mal kurz zu einem Punkt:
            Ihre angebliche “starke Temperaturzunahme seit dem Jahr 2015” sieht bei “Wood for Trees” im linearen Trend so aus:
            http://woodfortrees.org/plot/wti/from:2015/to:2019/trend
            Der lineare Trend seit 2015 ist also negativ mit – 0,16 °C,
            bei HADCRUT4 sind es sogar -0,27 °C:
            http://woodfortrees.org/plot/hadcrut4gl/from:2015/to:2019/trend

            Ich habe bereits weiter peer-reviewte Studien mit dem Ergebnis eines etwa stetig zunehmenden solar forcing gefunden, muss diese aber noch weiter auswerten.

          • Gemäss NASA-GISS stieg die Welttemperatur zwischen 2014 und 2016 um 0.27 Grad und 2019 war die Temperatur fast die gleiche wie 2016, so dass wir zwischen 2014 und 2016 einen starken stufenförmigen Temperaturanstieg haben: Die Temperaturen haben also in 2 Jahren so zugenommen wie sie es sonst nur über deutlich mehr als 10 Jahre tun.
            Der NASA-GISS-Temperarurverlauf der durchschnittlichen Erdoberflächentemperatur zeigt folgende Änderungen in Celsius wobei die erste Kolonne die Direktwerte sind und die zweite Kolonne die Werte, die man mit 5-Jahres-Glättung erhält:

            „Welt“-Temperaturänderunen in Celsius
            Jahr, Direkt, Geglättet 5 Jahre
            2010 0.72 0.65
            2011 0.61 0.66
            2012 0.64 0.70
            2013 0.68 0.74
            2014 0.75 0.79
            2015 0.90 0.83
            2016 1.02 0.87
            2017 0.92 0.91
            2018 0.85 0.95
            2019 0.98 0.98

          • Sehr interessant, die Verläufe von GISS und HADCRUT 4 sind über den hier betrachteten Zeitraum also höchst unterschiedlich. Man kann sich also nicht auf eine einzelne dieser Temperaturreihe “verlassen”. Deshalb wird bei Woodfortrees auch eine eigene Temperaturkurve generiert, die die Temperaturreihen HADCRUT4GL, GISTEMP, RSS und UAH zusammenfasst. Wie zu sehen ist dieser Trend negativ, nur GISTEMP alleine hat einen positiven Trend.
            Man kann sich also die Temperaturkurve heraussuchen, die dem “gewünschten” Trend folgt oder man nimmt besser den “Mix”, der wohl eher der globalen Temperaturentwicklung folgt. Schließlich fällt im gleichen Zeitraum auch der EEI-Wert und der OHC-Wert.

            Und was sagt die WMO? Laut den jährlichen Veröffentlichungen ist die Globaltemperatur:
            2010 14,55 °C
            2011 14,53 °C
            2012 14,45 °C
            2013 14,48 °C
            2014 14,57 °C
            2015 14,76 °C
            2016 14,83 °C
            2017 14,76 °C
            2018 14,68 °C
            (die Werte ergeben sich durch Addition des jeweils angegebenen Basiswerts und des Relativwerts)
            d.h. lt. WMO sind bis 2016 die Werte gestiegen und seitdem also auch gesunken.

  38. @demolog

    und genau diese schnelle Zirkulation wird auch durch die Bedingungen verhindert, indem Wasserdampf länger als normal in gasförmigen Zustand gehalten wird. Was mutmaßlich durch die hochfrequente elektromagnetische Strahkung/Felder der Mobilfunk-Infrastruktur in der unteren Atmosphäre bewirkt wird.

    Ihre Kenntnisse in Physik sind überwältigend. Haben Sie sich einmal das Frequenzspektrum der elektromagnetischen Strahlung angeschaut? Haben Sie sich einmal die Frequenzen, die Leistung und die Reichweite von Mobilfunkstrahlung angeschaut?

    Seit Jahren wird davon geredet, dass die hochfrequente elektromagnetische Strahlung, die man “Infrarot” nennt, der Hauptverursacher der globalen Erwärmung ist, eben weil es von den sogenannten Treibhausgasen absorbiert wird. Zu den wichtigsten Treibhausgasen gehört der Wasserdampf, der jedoch schon seit Bestehen des Planeten in der Atmosphäre/Troposphäre vorhanden ist.

    Im Gegensatz dazu hat der Anteil von CO2 in den letzten 200 Jahren um über 40% zugenommen. Entscheidend ist aber nicht der relative Anteil, sondern die absolute Anzahl der Teilchen, die mit dem Anteil korreliert. Deshalb ist das Argument vieler Klimazweifler, der Anteil von CO2 wäre viel zu gering, um Wirkung zu erzielen, nichts als Blödsinn.

    • Danke für die Abfuhr zu meinen physikalischen Kenntnissen.
      Geben Sie einfach einen Link an unter dem man Ihre Aussagen zur Physik erklärt findet, wobei es ruhig etwas in die Tiefe gehen darf.

      Bitte verlinken Sie auch zu wissenschaftlichen Quellen die Aussage, dass die “Mobilfunkstrahlung” eine Ursache der Erderwärmung ist. Für mich klingt das sehr abenteuerlich. Die Mobilfunkstrahlung soll so ungeheure Wärmemengen an die Erdatmosphäre abgeben, dass diese sich aufheizt? Bitte hierzu die wissenschaftliche Basis verlinken.

      Das die von Ihnen sogenannten “Klimazweifler” zumindest nicht ganz Unrecht haben zeigt die oben von mir verlinkte Studie zum FCKW bzw. zu den ODS (ozon-depleting substances): diese haben nach dieser Studie ein Drittel der Erderwärmung in den letzten rund 70 Jahren hervorgerufen und damit das CO2 ein ganzes Stück als Verursacher zurückgedrängt!

    • @ anton reutlinger
      27.01.2020, 10:56 Uhr

      @demolog

      Womöglich würden sie sogar erklären wollen, das Mobilfunkstrahlung “kühlend” wirkt – frei nach diesem Prinzip hier:
      https://de.wikipedia.org/wiki/Laserk%C3%BChlung

      Wo sie doch so gar nicht unterscheiden wollen in der Strahlungsart: elektromagnetische Strahlung vs Infrarot vs Mikrowellen. Ich meine Funkstrstrahlung bis in den Mikrowellenbereich, wenn ich von elektromagnetische Strahlung rede (Wobei höher heisst: höhere Frequenz und kürzere Wellenlänge). Und Mobilfunkstrahlung ist nicht gleich Wärmestrahlung – was sie sicher wissen dürften. Wieso dann aber dieser Einwand? (Mutmaßlich, aber wahrscheinlich, war es ein affektiver Impuls, der sie dazu verleitete).

      Leistung und Reichweite von Mobilfunkstrahlung sind nicht allzu relevant, weil sie trotz allen Unkenrufen nahezu flächendeckend vorhanden ist. Wobei die elektrische Leistung hier bei 90000 Watt pro km2 (Berlin Savignyplatz) bis hinunter zu 80 Watt pro km2 (Mecklenburger Hinterwelt) Beispielhaft anzunehmen sei. Was aber nicht gleich Wärmeenergieleistung sei, wie sie mir angesichts der Erwähnung der Infrarotstrahlung zu suggerieren scheinen wollen.

      Die Kernfunktion, die ich hier annehme, ist die Anregung der Atome im Gas durch Funkstrahlung zu höherer Schwingung, die dadurch einen wesendlichen Teil der zu erreichenden Energiepotenziale für die Erwärmung vorwegnimmt, woraufhin die Sonneneinstrahlung dann dieses Gas schneller erwärmen kann, da die Wärmeenergieübertragung durch Funkstrahlung beschleunigt/erleichtert wird.

      Ohne Funkstrahlung würde sich die Wärmeenergie in der Sonnenstrahlung nicht so leicht auf das Gas in höherer Temperatur auswirken/übertragen – so meine Erwartung.

      Die zu erwartenden Folge wären hierbei:
      eine schnellere Wärmeenergieübertragung, die wiederum zur Folge hat, dass die normale Konvektion / Aufstieg wärmerer Gasanteile verringert ist, weil sie ihre Wärmeenergie schneller an die umgebene Atmosphäre abgibt (weniger Auftrieb), sodass daraufhin zum Beispiel der Wasserdampf weniger hoch in der Atmosphäre aufsteigt, was zur Effizienz der Konvektion/des Wärmetauschens innerhalb der Atmosphärenschicht aber unbedingt notwendig ist, um die Wärmeenergie von der Erdoberfläche effizient wieder in die höhere Atmosphäre abzugeben.

      Wir kennen das von der Dunstglocke üebr einer Großstadt. Die Schichtenbildung darüber ist bei bestimmten Bedingungen erstaunlich stabil. Und das mag auch damit zusammenhängen, das elektromagnetische Felder dafür sorgen, dass eine Masse an Materie (hier das Gas der Atmosphäre) durch die Felder stabil zusammengehalten wird. Was hierbei die zweite Szenerie sei, wieso diese Schichtenbildung überhaupt stattfindet (neben der erleichterten Wärmeübertragung innerhalb eines Gasvolumens). Was hierbei wesendlicher für den Prozess der Erwärmung der untersten Atmosphärenschicht ist, sei der dazu eingerichteten Forschung übertragen. Nicht mir (falls sie weiterhin nach “Belegen” für Thesen fragen wollten). Mögen diejengien der Ehre halber die Belege raussuchen, die sich mit der Studienlage dazu auskennen.

      Das Mobilfunkstrahlung hierbei absolut keinen Einfluß hat, ist praktisch unannehmbar. Dagegen sprechen eben die üblichen, unausweichlichen physikalischen Prozesse, welche, alles in allem recht, verlässlich sind.

      Vielleicht erkennen sie jetzt, wieso sie mit ihrem Kommentar weitest möglich an meiner Hypothetisierung vorbei reden?

  39. @ anton reutlinger
    27.01.2020, 10:56 Uhr

    Zitat:
    Zu den wichtigsten Treibhausgasen gehört der Wasserdampf, der jedoch schon seit Bestehen des Planeten in der Atmosphäre/Troposphäre vorhanden ist.

    -> Hm, sie haben recht. Dann alles zurück, weil hier kein passendes Argument vorliegt….?

    Nein, wenn man sich die Entwicklung der real existierenden Funkemissionen ansieht und den Verlauf des sagenumwobenen Klimawandels, dann fällt auf, das hier was korelliert. Ob der Zusammenhang auch kausal ist, sei noch zu erforschen.

    Es könnte eben auch sein, dass hier noch ein Proxi-Wert vermittelnd wirkt.
    Etwa die Sache mit der Manipulation von Gehirnfunktionen durch Funkanlagen.
    Man könnte annehmen, das bei populationsweiter “Stimmunglage” durch Mikrowellenbestrahlung gewisse Einflüsse auf eben diese Gehirnfunktionen, aus der die “Stimmungslage” hervorgeht, eingewirkt werden kann und ´vielleicht aucg wird.

    Etwa in diesem Zusammenhang kann man vielleicht auch den dramatischen Erwärmungsanstieg im Jahre 2018 sehen:
    Weil etwa durch die ins Land eingewanderten Menschen aus dem Nahen Osten (immerhin bis eine Million Menschen/Gehirne) seit dem Jahre 2014/15 sich eine sich dramatisch verändernde “Stimmungslage” ergab, die aber erst 2018 zu einem Phasenhoch gelangte, sodass man mit erhöhter Mikrowellenstrahlung durch Mobilfunkinfrastruktur entgegen wirken wollte. Die Frage ist, ob die Mobilfunkstrahlung ursächlich für die Erwärmung/extremisierung des Klimas (hier Dürreperiode) ist, oder ob die zuwandernden Gehirne es sind.

    Der Mensch ist eher schlecht darin, Ursache und Wirkung korrekt zueinander zu stellen.

    Un eine der Prämissen, die in der Wissenschaft so maßgebend sind, ist: “Versachlichung” und keine Verindividualisierung. Womit gemeint ist, dass der Mensch direkt als “unschulkdig” anzunehmen ist, aber sein Tun dennoch Wirkungen hat. Woraufhin man a priori lieber das CO2 zum Sündenbock nimmt, anstatt vielleicht anzunehmen, dass ein kollektives Bewusstsein dafür verantwortlich sein könnte, dass es sogar zu Wettereinflüssen hinreicht. Immerhin besteht die Gehirnfunktion primär auch nur aus elektromagnetischen Potenzialen.

    Wer hier gemäß der Summierung der Mobilfunkleistung mal die Summe der Gehirnpotenziallleistung von 80 Millionen Menschen Deutschlands hochrechnen will, findet plötzlich wieder ein Leistungspotenzial, das nicht unerheblich ist.

    Aber solche “Forschung” wird a priori abgelehnt, weil es heissen würde, dass Menschen allein aufgrund ihres Seins diskrimminiert würden. Nur, wenn es ein Faktor ist, dann muß man es in die Forschung einbeziehen.

    Alles andere wäre das Betreiben von Politik und Populismus, damit man der Bevölkerung keinen Anlass zum ethischen Fehlschluß auch noch die Begründung liefert.

    Solcher Prämisse folgend wäre es natürlich schlecht, wenn man 90 % der Klimaforschung allein mit der Prämisse “CO2 ist Schuld” betreibt. Weil man dann kaum auf parallele Einflüsse stoßen wird und auch nie allgemein als Faktor anerkannt sein werden.

    Und so scheint es mit der gegenwärtigen “Klimaforschung” auch zu sein: 90% der Forschung geht von der Prämisse aus, das CO2 der alleinige bestimmende Faktor ist.
    Was eindeutig Züge einer Religion hat, die auch nur um sich selbst kreist.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +