Externe Anhänge zum Buch Energie und Klima, … Anhänge zum Buch Energie und Klima, Chancen,...

52
Externe Anhänge zum Buch Energie und Klima, Chancen, Risiken, Mythen September 2013 Die Beiträge sind hintereinander aufgeführt. Die nachfolgend angegebenen Seitenzahlen beziehen sich auf die Durchnumerierung der Seiten des pdf- Dokuments, nicht auf die separaten Seitenzahlen jedes einzelnen Beitrags. Beitrag Seite Der Treibhauseffekt 2 Transmutation & Partitionierung 15 Neue Kraftwerkskonzepte 24 Persistenz in Temperaturreihen 28 Der Wolkeneffekt 38 Eigene, begutachtete Klimapublikationen 50 Geänderte Internet-Links 51 Errata 52

Transcript of Externe Anhänge zum Buch Energie und Klima, … Anhänge zum Buch Energie und Klima, Chancen,...

Externe Anhänge zum Buch Energie und Klima, Chancen, Risiken, Mythen

September 2013 Die Beiträge sind hintereinander aufgeführt. Die nachfolgend angegebenen Seitenzahlen beziehen sich auf die Durchnumerierung der Seiten des pdf-Dokuments, nicht auf die separaten Seitenzahlen jedes einzelnen Beitrags.

Beitrag Seite Der Treibhauseffekt 2 Transmutation & Partitionierung 15 Neue Kraftwerkskonzepte 24 Persistenz in Temperaturreihen 28 Der Wolkeneffekt 38 Eigene, begutachtete Klimapublikationen 50 Geänderte Internet-Links 51 Errata 52

Der Treibhauseffekt Horst-Joachim Lüdecke,

Rainer Link

Jan. 2010, ergänzt 2013

Einleitung

Der „Treibhauseffekt“ der Erdatmosphäre ist eine unglückliche Bezeichnung. Die Atmosphäre hat nämlich kein festes Dach, weder aus Glas noch aus Gas. Durch eigene Beobachtung hat jeder diese Erkenntnis vielfach schon selbst gewonnen: Jede sommerliche Quellwolke steigt viele Kilometer ungebremst in die Höhe, einschließlich aller enthaltenen Gase. In einem Gärtnertreibhaus ist der weit überwiegende Erwärmungs-Effekt dagegen durch die “Luft-Falle“ oder Konvektionsverhinderung verursacht, die es in der Atmosphäre nicht geben kann. Die durch die Gewächshaus-Heizung, oder, am Tage, die durch die Sonne erwärmte Luft kann im Glashaus nicht entweichen. Jedoch -öffnet bzw. lüftet man das Glasdach, so fällt die Temperatur in kurzer Zeit auf das Temperaturniveau der Außenluft.

Dennoch gibt es auch eine Gemeinsamkeit: Gewächshaus-Glas und die sog. Treibhausgase, wie Wasserdampf, CO2, Methan usw. absorbieren einen Teil der vom Erdboden ausgehenden Infrarot-Strahlung. Die dabei auf die Moleküle der Treibhausgase übertragene Energie verbleibt fast vollständig als Wärme in der Atmosphäre und trägt somit zu ihrer Temperaturerhöhung bei. Im Detail wird dabei die Schwingungsenergie eines angeregten Teibhausgasmoleküls durch Stöße auf die Stickstoff- und Sauerstoffmoleküle der Atmosphäre übertragen. Auf Grund dieser Stöße sowie der Dopplerverschiebung sind die Spektrallinien der Atmosphäre stark verbreitert. Sie ergeben durch Überlappung ein weitgehend zusammenhängendes Spektrum.

Der Effekt der atmosphärischen „Strahlen-Falle“, der im Gewächshaus gegenüber dem Luftfallen-Effekt außerordentlich gering ist, wird in der Physik als Treibhaus-Effekt der Atmosphäre bezeichnet. Wie groß ist er?

Energiebilanzen und natürlicher Treibhauseffekt der Erdatmosphäre

Die Sonne strahlt an ihrer Oberfläche die unvorstellbare Leistung von 3,8 · 1026 W ab. Das ergibt bei einem Abstand zur Erde von 150 Millionen km noch eine bei uns außerhalb der Atmosphäre ankommende Leistungsdichte von 1367 W/m

2

. Diese muss mit der Querschnittsfläche A = R2 · π der Erde multipliziert werden, um die von der Erde aufgenommene Sonnenleistung von 1367 · A W zu ermitteln, weil die auf die Halbkugelfläche treffende Strahlung zum Rand hin immer größere Winkel zur Oberflächen-Normalen aufweist. Von dieser Leistung wird der Anteil von etwa 30% Erdalbedo sofort in den Weltraum reflektiert und steht der Erde nicht mehr zur Verfügung [1].

QE sei umgekehrt die Leistungsdichte der Erdabstrahlung. Dann gehen 4 · A ·QE W Leistung ins Weltall zurück. Dabei wird angenommen, dass QE an jedem Ort der Erde gleich ist, was nur näherungsweise zutrifft, da die Abstrahlung am Äquator wesentlich größer ist als an den

Polen. Hinzu kommen jahreszeitliche Änderungen. Im Gleichgewicht von Einstrahlung =

Abstrahlung gilt mit der genannten Vereinfachung und dem Erd-Albedofaktor

r = 0,3 1367 · A · (1- r) = 4 · A · QE W

bzw.

QE = 1367 · (1- r) / 4 ≈ 235 W/m2

QE wird nun in das Strahlungsgesetz eines schwarzen Körpers

S = σ·T4 (σ = 5,67 · 10-8 W/m2/K4)

von Stefan-Boltzmann eingesetzt. Man erhält dann für die Bodentemperatur T der Erde ohne Atmosphäre

T ≈ 255 K = -18 °C

Die Rechnung ist nur für eine Erde mit perfekt „schwarzer“ Oberfläche gültig, was bedeutet, dass alle auf sie treffende Strahlung absorbiert und nichts reflektiert wird. Ein solcher „Schwarzkörper“ strahlt seine Energie in Form des sog. Planck-Spektrums ab (Abb. 1).

Abb. 1 Die Abstrahlungskurven eines „schwarzen“ Körpers in Abhängigkeit von seiner Temperatur

Integriert man die Planck’sche Strahlungskurve über alle Wellenlängen, erhält man das schon genannte, hier auf den Erdboden angewandte Stefan-Boltzmann-Gesetz. Die Erde ist kein perfekter schwarzer Körper, für die hier herrschenden Temperaturen trifft diese Näherung aber hinreichend gut zu, was man sofort erkennt, wenn man sich in Abb. 2 die Planck-Strahlungskurve am „langwelligen Schwanz“ und zusammen mit dem von Satelliten gemessenen Abstrahlungsspektrum ansieht [2].

Abb. 2: Von Satelliten gemessene Abstrahlungsspektren der Erdatmosphäre. Die gestrichelten Kurven sind die theoretischen „Schwarzstrahler-Kurven“. Die Wellenlängenbereiche, die von der Erdoberfläche zum Rand der Atmosphäre gelangen, bezeichnet man auch als „offene Fenster“ für die Wärmestrahlung der Erde.

Entsprechend dem oben hergeleiteten T = – 18 °C wäre die Erde ohne Atmosphäre ein einziger Eisblock, auf dem Leben der uns gewohnten Form nicht existieren könnte. Real gemessen wird dagegen im Mittel über alle Tages- und Jahreszeiten sowie über alle Erd-Klimazonen die Bodentemperatur von T ≈ 15 °C. Abb. 2 liefert ein Beispiel: Hier, in den Tropen, beträgt die gemessene Bodentemperatur T = 320 K = 47 °C. Die Differenz des real gemessenen Mittelwerts der Bodentemperatur zur oben berechneten Bodentemperatur ohne Atmosphäre, also 15 – (-18) = 33 °C, wird durch die Treibhausgase der Erdatmosphäre verursacht und von der Klimaforschung als natürlicher Treibhauseffekt bezeichnet.

Die Wirkung der Treibhausgase als Treibhauseffekt geht aus Abb. 2 hervor. CO2, O3 und Wasserdampf verhindern die direkte Abstrahlung der Wärmestrahlung von der Erdoberfläche ins Weltall. Die Emission dieser Treibhausgase erfolgt nun aus wesentlich größerer Höhe, Wasserdampf ab 5 km Höhe bei 260 K = - 13 °C, CO2 aus 11 km Höhe bei 220 K = - 53 °C und O3 aus 3 km Höhe bei 280 K= 7 °C. Da die Abstrahlung durch diese Treibhausgase bei niedrigeren Temperaturen erfolgt und somit gemäß dem Planckschen Strahlungsgesetz eine geringere Energiedichte besitzt als die unblockierte Erdabstrahlung, muss sich die Temperatur auf der Erdoberfläche solange erhöhen, bis zur Einhaltung der Energiebilanz, also des ersten Hauptsatzes der Thermodynamik, insgesamt wieder 235 W/m2

in das Weltall im Gleichgewicht zurückgestrahlt werden. Diese Gesetzmäßigkeit ist für die heutige Konzentration der Treibhausgase bei einer gemittelten Bodentemperatur von 288 K = 15 °C erfüllt. Weil es für das Verständnis des Treibhauseffekts wichtig ist, sei der Mechanismus nochmals an Hand der Abb. 3 erläutert. Wenn die Konzentration eines Treibhausgases, hier ist CO2 gemeint, in der Atmosphäre erhöht wird, so verbreitert sich der CO2-Absorptions-Trichter wie in Abb. 3 schematisch dargestellt (rot eingezeichnet). Damit fehlen in der gemäß erstem Hauptsatz zu erfüllenden Gesamtbilanz die Energieanteile, die in Abb. 3 zwischen der roten und der alten Trichterkurve liegen. Diese Anteile müssen bilanzmäßig ersetzt werden. Sie werden es durch Erhöhung der Bodentemperatur, in Abb. 3 sichtbar als Differenz der roten „Schwarzkörperkurve“ zur alten Schwarzkörperkurve (hier für 320 K angegeben). Die höher liegende (rote) Schwarzkörperkurve bedeutet, dass die Temperatur der Erdoberfläche, wie zuvor erläutert, gestiegen

ist. Das Gleichgewicht zwischen eingestrahlter Leistung der Sonne und abgestrahlter Leistung der Erde von jeweils etwa 235 W/m2

wird also durch den Treibhauseffekt eingehalten.

Abb. 3: Änderung des Absorptionstrichters von CO2 durch dessen Konzentrationserhöhung in der Atmosphäre in schematischer Darstellung [3].

Die zusätzliche Leistungsdichte erhält die Erdoberfläche im Wesentlichen durch Gegenstrahlung aus der Atmosphäre.

Abb. 4: Gegenstrahlung aufgenommen in Barrow, Alaska, am 18. Mai 1998, bei unterschiedlicher Bewölkung, minimal um 00:08 Uhr UTC, maximal um 20:43 UTC [4]. Deutlich ist die Gegenstrahlung des CO2, O3 und des Wasserdampfes sowie der Einfluss der Gegenstrahlung der Wolken zu erkennen.

Zur Berechnung des Temperaturprofils der Erdatmosphäre geht die Atmosphärenphysik neben der Strahlungsübertragung von den folgenden, in guter Näherung zutreffenden Annahmen aus:

• die Atmosphäre wird vom Erdboden aus erwärmt • die Transportprozesse (Konvektion und Advektion)

der Atmosphäre sind nahezu adiabatisch • die Wasserdampfkondensation (latente Wärme) stellt

eine weitere Wärmequelle dar Aus dem ersten Hauptsatz der Thermodynamik, der Gleichung für ideale Gase und der barometrischen Höhenformel kann dann das Temperaturprofil der Erdatmosphäre berechnet werden. Als einziger gemessener Temperaturwert geht die reale mittlere Bodentemperatur von T = 288 K (= 15 °C) in die ideale Gasgleichung und damit die weiteren Beziehungen ein. Unterhalb der Tropopause dominieren die adiabatischen, oberhalb von ihr die Strahlungsprozesse.

Abb. 5: Temperaturprofil der Erdatmosphäre [5]. Der beobachtete Temperaturgradient entspricht dem feuchtadiabatischen mit 6,5 °C/km.

Die Klimasensitivität des Treibhausgases CO2

Die Klimasensitivität des CO2 ein Schlüsselbegriff der aktuellen Klimaforschung. Man versteht darunter die globale gemittelte Temperatursteigerung - zunächst ohne Rück- oder Gegenkoppelungseffekte -, wenn die Konzentration von CO2 in der Erdatmosphäre verdoppelt werden würde. Verdoppelung kann ganz grob mit einem vollständigen Verbrennen aller der Menschheit zugänglichen, mit heutigen technischen Mitteln wirtschaftlich abbaubaren fossilen

Brennstoffreserven, gleichgesetzt werden, d.s. ungefähr 1250 Gt C [6].

Die Klimasensitivität dT des CO2 kann aus einer einfachen Bilanzbetrachtung ermittelt werden. Leitet man die Stefan-Boltzmann-Gleichung nach der Temperatur T ab und setzt für T3 = S / (σ·T) ein, ergibt dies dS/dT = 4· σ·T3 = 4·S/T und nach dT aufgelöst

TdT dS

4 S= ⋅

Zur Berechnung von dT werden Messwerte von T, S und dS benötigt. Für dS gibt das IPCC für CO2 bei Konzentrationsverdoppelung den Wert 3,7 W/m2

an, was aus spektroskopischen Labormessungen ermittelt werden kann (ohne Berücksichtigung von Linienüberlappung mit anderen Treibhausgasen). An der Atmosphärengrenze werden von Satelliten gemittelte S = 240 W/m2 Abstrahlung sowie gemittelte T = 255 K gemessen. Daraus folgt

2255dT(2xCO ) 3,7 1 K 1 C

4 240= ⋅ ≈ = °

Feinheiten bleiben in dieser einfachen Bilanzrechnung unberücksichtigt, so dass der Zahlenwert, der die Bodentemperatur angibt, unsicher ist. Genannt werden daher auch noch andere Werte, so beispielsweise Lindzen ∆T = 0,95 K [7] Dietze ∆T ≈ 0,7 K [8] IPCC ∆T = 1,2 K [13] Harde ∆T = 0,45 K [19] Ungeachtet dieser Unterschiede sind alle diese Werte von dT unbedenklich, denn bis zur Verdoppelung der atmosphärischen CO2-Konzentration bedarf es, wie bereits erwähnt, des Verbrennens sämtlicher fossilen Brennstoffe, auf die die Menschheit Zugriff hat. Werte von dT um 1 °C liegen ferner weit innerhalb der natürlich bedingten Klimaschwankungen des letzten Jahrtausends und bieten keinerlei Anlass für katastrophale Zukunftsszenarien. Der Zusammenhang zwischen CO2-Konzentrationen und globaler Temperatursteigerung ist im Bereich der hier betrachteten CO2-Konzentrationen logarithmisch. Daraus folgt, dass (ΔT = 1 K einmal angenommen) bei einer weiteren Verdoppelung von CO2, also einer Vervierfachung der CO2-Konzentration der Erdatmosphäre, die globale Temperatursteigerung 2 °C beträgt – und nicht 4 °C, wie man es aus gewohnter linearer Abhängigkeit annehmen könnte. Das IPCC gibt die logarithmische Formel als

2

0

CdS 5,35 ln W / mC

⎛ ⎞= ⋅ ⎜ ⎟

⎝ ⎠

an [10]. C - neue CO2-Konzentration der Erdatmosphäre

C0 - alte CO2-Konzentration der Erdatmosphäre dS - Radiative Forcing oder Heizrate, verursacht durch Konzentrationsänderung des atmosphärischen CO2 von C0 auf C Man erhält bei Konzentrationsverdoppelung, d.h. mit C/C0 = 2 den hier schon genannten Wert von dS = 3,7 W/m2. Strahlungsbilanzen

Die bisherigen Betrachtungen können an Hand der Energieflüsse in der Atmosphäre weiter detailliert werden. Die heute gültige Vorstellung, die unter anderem durch Messungen des ERBE-Satelliten belegt ist, geht aus Abb. 6 hervor [1], [11].

Abb. 6: Das Gegenstrahlungsmodell des natürlichen Treibhauseffekts

Die drei wichtigsten Treibhausgase sind in Reihenfolge ihrer Wirksamkeit der Wasserdampf, das CO2 und das Methan. Der in Abb. 6 eingetragene Wert QE = 235 W/m2 wurde hier bereits hergeleitet. Abb. 6 vereinfacht stark. Vor allem dürfen die eingetragenen Pfeile nicht mit Strahlungsbündeln verwechselt werden, denn die Moleküle der Erdatmosphäre strahlen in alle Raumrichtungen ab. Die Pfeile sind vielmehr Leistungsdichten, deren Richtungen ihren maßgeblichen Einfluss veranschaulichen. Überraschend erscheint beim ersten Blick auf Abb. 4 der hohe Wert der Bodenstrahlung von 390 W/m2, der die eintreffende Strahlung von 342 W/m2

weit übertrifft. Er ist, wie schon oben detailliert beschrieben, eine Folge des Treibhauseffekts bzw. der Gegenstrahlung der Atmosphäre und entspricht gemäß Stefan-Boltzmann-Gesetz der realen, gemittelten Bodentemperatur von T = 288 K.

Es soll nochmals betont werden, dass alle von der Erde aufgenommene Sonnenenergie ohne Verluste mit periodisch-instationärem Verlauf wieder in den Weltraum zurückgestrahlt wird. Die der Sonneneinstrahlung entnommene mechanische Energie von Wind und Gezeitenströmungen, oder die von der Photosynthese verbrauchte Sonnenenergie, die schließlich über Wärme in die Abstrahlungsbilanz der Erde eingeht, unterliegt natürlich anderen Zeitkonstanten als beispielsweise der Tag-/Nachtrythmus der Erde. Der gesamte Prozess kann aber nach ausreichender Zeitmittelung zutreffend als stationär behandelt werden. Die Gleichgewichtsbilanz ist nichts anderes als die Folge des ersten Hauptsatzes der Thermodynamik, der sich auf alle Energieformen bezieht und besagt, dass

deren Summe stets konstant bleibt.

Die Erde ist zudem eine irreversible Wärmekraftmaschine, die durch die Sonne und kaltes Weltall „betrieben“ wird. Gemäß zweitem Hauptsatz der Thermodynamik benötigt eine Wärmekraftmaschine ein heißes und ein kaltes Reservoir - bei einem Kohlekraftwerk ist es z.B. der Heizkessel und der Kühlturm. Im Fall der rotierenden Erde ist es der jeweilige Raumwinkel, in dem die Sonne steht und der hierzu komplementäre Raumwinkel des kalten Weltraums. Mit der erzeugten Energie der „Wärmekraftmaschine Erde“ werden die Wind- und Wasserbewegungen in Atmosphäre und Ozeanen angetrieben, aber auch die Photosynthese, der wir unsere Existenz verdanken. Abb. 6 zeigt, dass die oft herangezogene anschauliche Erklärung des atmosphärischen Treibhauseffekts als „Gärtnertreibhaus“ nicht ganz verkehrt ist, obwohl beim Gärtnertreibhaus die Erwärmung durch den Luft-Fallen-Effekt verursacht wird, in der Atmosphäre dagegen durch den Strahlungs-Fallen-Effekt. Die unabweisbare Auswirkung, nämlich Erwärmung, ist trotz der völlig unterschiedlichen Ursachen qualitativ die gleiche. Wenn von „Gegenstrahlung“ die Rede ist (s. Abb. 4), entstehen gelegentlich Missverständnisse. Kann ein kälterer Körper, z.B. Wolken, einem wärmeren Körper, z.B. einem Menschen am Erdboden, Wärme zuführen? Und vor allem, widerspricht dies nicht dem zweiten Hauptsatz der Thermodynamik? Nein, denn Energieaustausch durch Strahlung kann aus dem anfänglich kühleren Körper natürlich nicht den schlussendlich wärmeren Körper machen. Beim Strahlungsaustausch kühlt der wärmere Körper langsamer ab, was seine Gleichgewichtstemperatur im Vergleich zur Situation ohne den abstrahlenden kälteren Körpers erhöht. Ein einzelnes abgestrahltes Photon weiß nicht mehr, ob es von einem warmen oder einem kalten Körper kommt. Es kann immer, auch wenn es vom kälteren Körper kommt, im wärmeren Körper ein Molekül anregen. Beim Übergang in den Grundzustand (spontan oder durch Kollision) wird das Molekül diese Energie abgeben und damit zur Erhöhung der kinetischen Energie, d. h. der Wärme und damit der Temperatur des wärmeren Körpers beitragen. Schon die tägliche Erfahrung zeigt in vielen Situationen spürbar den Einfluss der Gegenstrahlung. Viele werden im Winter in einen Kellerraum mit sehr kalten Wänden schon einmal die Situation erlebt haben, wo zwar ein schnell installierter Heizlüfter die übliche Zimmertemperatur erzeugte, es aber immer noch „gefühlt“ kalt blieb. Dieses Gefühl war keine Täuschung, denn die gewohnte Gegenstrahlung von warmen Wänden fehlte. Das Fehlen von Infrarot-Strahlung spürt unser größtes Organ, die Haut, und daran kann auch die auf Zimmertemperatur gebrachte Kellerluft nichts ändern. Auch die Frontscheibe eines Autos, das in kalter Winternacht unter dem luftdurchlässigen Blätterdach eines Baums abgestellt ist, so dass der Luft-Falleneffekt hier keinen Einfluss ausüben kann, bleibt oft noch eisfrei, während die Frontscheiben der unter freiem Himmel abgestellten Nachbarautos am nächsten Morgen mit einer Eisschicht überzogen sind. In klarer Wüstennacht wird es bitterkalt, ziehen Wolken auf, wird es milder. Diese „Gegenstrahlungs-Liste“ ließe sich beliebig fortsetzen.

Wasserdampfrück- oder -Gegenkoppelung?

Die bisherige Beschreibung des Treibhauseffekts ging von einer Vereinfachung aus, die in der Realität keineswegs vorliegt und die Verhältnisse entscheidend beeinflussen kann: Die Erdatmosphäre enthält nicht nur ein einziges Treibhausgas. Das stärkste unter den weiteren Treibhausgasen ist der Wasserdampf, der für grob ¾ des Treibhauseffekts verantwortlich ist. Wird nun durch individuelle Infrarot-Anregung das CO2 erwärmt, erfolgt, wie schon beschrieben, Energie-Dissipation, wobei die angeregten CO2-Moleküle ihre Schwingungsenergie an andere Moleküle der Atmosphäre abgeben. Da sich unter diesen Molekülen auch andere Treibhausgasmoleküle,

insbesondere der wesentlich treibhauswirksamere Wasserdampf befinden, wird die Erwärmungswirkung des CO2 verändert. So könnte beispielsweise infolge einer CO2-induzierter Erwärmung

1. mehr Wasserdampf entstehen und der stärkere Wasserdampf-Treibhauseffekt die geringe Treibhaus-Wirkung des CO2 erhöhen. Diese positive Rückkoppelung war bisher in allen IPCC-Klimamodellen eingebaut und erklärt die zum Teil sehr hohen, vom IPCC mit Hilfe von Computermodellen berechneten Temperatursteigerungen (s. Abb. 7).

2. sich infolge von mehr entstandenem Wasserdampf mehr Wolken bilden. Wolken schirmen die Sonnenstrahlung ab und wirken abkühlend. Die Erwärmung infolge ansteigendem CO2 wird durch diesen Effekt abgeschwächt.

Das IPCC gibt die Gleichgewichts-Empfindlichkeit für eine Verdopplung der atmosphärischen CO2 Konzentration ohne Rückkopplungen, wie oben beschrieben, mit 1,2 °C an. Erst eine in den Modellen eingebaute Rückkopplung, die ganz überwiegend durch das Treibhausgas Wasserdampf bewirkt werden soll, ergibt die vom IPCC und seinen Modellen beschworene Klimakatastrophe (Abb. 7). Die hier unterstellten Feedback-Beiträge sind im IPCC-Report des Jahres 2007 aufgeführt [13].

Abb. 7: Die vom IPCC propagierten „Klimakatastrophen“ aus Computer-Modellen, meist bezeichnet als „Klimaprojektionen“ [18]

Bis Ende des Jahres 2008 lagen keine veröffentlichten Messungen vor, die den Wert der Rückkopplung, ob nun positiv oder negativ, aller Beiträge bestimmen konnten. Diese unbefriedigende Situation änderte sich mit zwei grundlegenden Arbeiten, von denen eine im Feb. 2009 in Theoretical and Applied Climatology [12], die andere im Sept. 2009 in Geophysical Research Letters erschien [7].

Die Autoren G. Paltridge, A. Arking und M. Pook zeigten [12], dass die spezifische und relative

Feuchte in der mittleren und oberen Troposphäre, also oberhalb 850 hPa Luftdruck, im Gegensatz zu den Annahmen der Klimamodelle des IPCC in den Jahren 1973 bis 2007 mit den steigenden Temperaturen dieser Zeit abnahm, was einer Wasserdampf-Gegenkoppelung entspricht. Lediglich die wenig rückkopplungswirksame Feuchte der unteren Troposphäre nahm in dieser Zeit zu (Abb. 8). Paltridge et al. benutzten hierzu die Daten der troposphärischen Feuchte des National Centers for Environmental Prediction (NCEP), die aus Messungen von Ballon-Sonden gewonnen wurden [14]. Wie sehr sich die Klimasensitivität des CO2 zahlenmäßig verringerte, konnten die Autoren auf Grund der mit hohen Fehlern behafteten Datenlage zwar nicht angeben, unzweifelhaft ist allerdings die Tendenz in Richtung Gegenkoppelung.

Abb 8: Spezifische Feuchte, NH Nördliche, SH Südliche Hemisphäre bei 400, 700 und 925 hPa, was grob den Höhen 7400 müNN, 2900 müNN bzw. 700 müNN entspricht [12].

Die zweite Arbeit wurde von dem, über engere Fachkreise hinaus bekannten Atmosphärenforscher Richard L. Lindzen vom Massachusetts Institute of Technology (MIT), zusammen mit Yong-Sang Choi verfasst [7]. Die Autoren wiesen ebenfalls nach, dass Gegenkoppelung vorliegen muss, konnten aber zudem noch den Effekt quantifizieren. Sie untersuchten hierzu die Empfindlichkeit des Klimas auf externe Störungen und benutzten für ihre Untersuchung die Messdaten von ERBE (Earth Radiation Budget Experiment), geliefert vom ERBS-Satelliten, der 1984 vom Space-Shuttle aus gestartet wurde [9]. Hieraus konnten sie die externen Einwirkungen auf das Strahlungsgleichgewicht extrahieren, wie sie die Oszillationen El Nino, El Nina sowie Vulkanausbrüche (Pinatubo) hervorrufen und die sich in den Temperaturen der Meeresoberflächen manifestieren. Da die Wirkung von CO2 ebenfalls über die Störung des Strahlungsgleichgewichtes abläuft, ist eine analoge Übertragung korrekt und physikalisch zulässig. Im Grunde gelten diese Überlegungen für jede Art externer Störung.

R. Lindzen und M.-D. Chou führten bereits in ihren Arbeiten der Jahre 2001 und 2005 [15], [16] die Definition eines Rückkoppelungsfaktors f wie folgt ein:

0

T 1T 1 fΔ

=Δ −

ΔT - realer Wert der Klimasensitivität von CO2 ΔT0 - Klimasensitivität von CO2 ohne Rück- bzw. Gegenkoppelung (etwa 1 °C) Das Ergebnis der Autoren ist in Abb. 9 zu sehen, wobei hier insbesondere der Rückkoppelungsfaktor f interessiert, den die rechte Ordinatenskala zeigt. Die Klimamodelle, auf die sich das IPCC stützt, geben einen fiktiven positiven Rückkopplungsfaktor zwischen +0,5 und +1 an, während die Messungen und Auswertungen der Earth Radiation Budget Daten gemäß Lindzen und Choi negativ sind und bei ungefähr -1 liegen.

Abb 9: Rückkopplungsfaktor als Funktion der Gleichgewichtstemperatur[1] Aus Abb. 9 geht ferner hervor, dass die IPCC-Klima-Modelle im Grunde keine quantitativen Angaben zur Klimasensitivität erlauben. Änderungen des ∆Flux/∆T in der Modell-Zone von Abb. 9 lassen nämlich so gut wie jeden beliebigen Wert > 1 für die Klimasensitivität zu, weil kleinste Änderungen auf der Ordinatenachse infolge der Flachheit der Modellkurve fast beliebige Wertezuordnungen auf der Abszissenachse erlauben. Dagegen ist die Messung von ∆Flux/∆T des ERBE-Sateliten bestens für eine Aussage zur Klimasensitivität geeignet, denn der Wert liegt im steil ansteigenden Kurventeil und erlaubt eine genaue Zuordnung zur Gleichgewichtstemperatur. Mit dem nunmehr durch ERBE-Messungen belegten Rückkopplungsfaktor von f = -1 ergibt sich aus dem bereits erwähnten rückkoppelungsfreien Wert der Klimasensitivität des CO2 von etwa 1 °C jetzt nur noch der halbe Wert, also die Temperaturerhöhung ΔT = 0,5 °C. Lindzen und Choi merken an, dass sich der negative Rückkopplungsfaktor auf 2/3 reduzieren könnte, wenn höhere Breiten einbezogen werden. Ihre Messungen zeigen ungeachtet dieser Verfeinerungen indes sicher, dass nicht nur eine Erhöhung der CO2-Konzentration auf das Doppelte keinerlei Gefahr für das Erdklima bedeuten kann. Selbst eine noch unrealistischere Verdopplung, also Vervierfachung der CO2-Emission (Verbrennung der doppelten Menge der Reserven) würde wegen der hier bereits beschriebenen logarithmischen Abhängigkeit der Globaltemperatur von der CO2-Konzentration und der nunmehr nachgewiesenen negativen Rückkoppelung nur zu einer globalen Temperaturerhöhung von etwa ∆T = 1°C führen. Weitere Autoren, die Gegenkoppelungen herleiten können, sind R.P. Allan [20], Beenstock et al. [21], F. Miskolczi [22], R.W. Spencer und W.D. Braswell [23]. Unter der Voraussetzung, dass die in den aufgeführten Arbeiten mitgeteilten Messergebnisse und Schlussfolgerungen korrekt sind,

bedeutet dies nicht mehr und nicht weniger als das wissenschaftliche Ende einer vom Menschen verursachten Klimakatastrophe. Der temperatursteigernde Einfluss des anthropogenen CO2 wird dann zu dem, was bereits schon seit längerem viele Klimaforscher vermuten – einem Nulleffekt. Der Treibhauseffekt und „Klimaschutz“-Protokolle

Es wurde bereits wiederholt darauf hingewiesen, dass die gemäß Kyoto-Protokoll vorgesehenen, aber niemals wirklich realisierten CO2-Einsparungsmaßnahmen auch unter der hilfsweisen Voraussetzung der ungünstigsten IPCC-Modellprojektionen (s. hierzu Abb. 7) nur eine unmerkliche Verringerung der globalen Erderwärmung bis zum Jahre 2100 von grob 0,1 °C bewirken können [17]. Betrachtet man speziell Deutschland, ist das „Nutzen-Ertrags-Verhältnis“ der CO2-Emissionsvermeidung geradezu absurd, wie es die folgende Überschlagsrechnung, die angenähert lineare Zusammenhänge annimmt, ausweist: In 2005 betrug der deutsche Anteil an den weltweiten CO2-Emissionen rund 3% mit abnehmender Tendenz. Deutschland verpflichtete sich gemäß EU-Beschluss, 14% seiner CO2Emissionen - bezogen auf das Jahr 2005 - bis 2020 einzusparen. Mit grob 2 ppm globaler Steigerung pro Jahr werden ohne die EU-Einsparungen global 15 x 2 = 30 ppm mehr CO2 nach 15 Jahren, also in 2020 vorhanden sein. 3% deutscher Anteil davon sind 30 x 0,03 = 0,9 ppm mehr. Die vorgesehenen 14% Einsparung hiervon betragen 0,9 x 0,14 = 0,13 ppm. Nimmt man sogar eine CO2-Klimasensitivität von 3 °C an, die nach den hier geschilderten Fakten hoffnungslos zu hoch angesetzt ist, erhält man mit der aktuellen CO2-Konzentration von 380 ppm den "deutschen" Beitrag von unmessbaren 3 x (0,13 / 380) = 0,001 Grad an eingesparter globaler Erwärmung bis 2020. Der Aufwand, um dieses Ziel zu erreichen, wird in vielen Milliarden € geschätzt.

Geht man von der nunmehr durch Messungen belegten Wasserdampfgegenkoppelung aus, wird der anthropogene Einfluss auf Erdtemperaturen infolge erhöhter CO2-Emissionen so gut wie verschwindend. Unter diesem Gesichtspunkt ist das Scheitern der Kopenhagener-Klimakonferenz zu begrüßen. Es wird höchste Zeit, dass sich Politik und Medien wieder dem wirklichem Naturschutz zuwenden, bevor unsere Weltmeere endgültig leergefischt, Regenwälder und die Artenvielfalt zerstört und globalweit sinkende Grundwasserspiegel in Dürregebieten irreparablen Schaden angerichtet haben.

Quellen:

[1] Kiehl, J.T., Trenberth, K.E.: Earth’s annual global mean energy budget, Bull. Am. Met. Soc. Vol. 78, No. 2 (1997) [2] Hanel, R. et al.: The NIMBUS 4 infrared spectroscopy experiment, Journ. Geophys. Res. 77, 2629-2641 (1972) [3] http://mensch.org/5223/RadForce_print.pdf [4] http://www.arm.gov/ [5] Bakan, S., Raschke, E.: Promet 28, Heft 3/4, 85-94, Deutscher Wetterdienst (2002) [6] BGR Kurzstudie: Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen (2009) [7] Lindzen,R.S., Choi,Y.-S.: On the determination of climate feedbacks from ERBE data, Geophysical Research Letters, Vol. 36, L16705 (2009) [8] Dietze, P.: Energie, CO2 und Klima, energiewirtschaft, 22 energie, 0107 [9] http://asd-www.larc.nasa.gov/erbe/ASDerbe.html [10] IPCC-Report 2001, the scientific basis, TAR-06, S. 358, Tab. 6.2 [11] IPCC-Report 2007, AR4, WG1, Seite 96 [12] Paltridge,G., Arking,A., Pook,M.: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol. (2009) 98:351-359 [13] IPCC-Report 2007, AR4-WG1_Ch08, Kap. 8.6.2, Fig. 8.14, Seite 631 [14] http://www.cpc.ncep.noaa.gov/

[15] Lindzen, R.S., Chou, M.-D., Hou, A.Y.: Does the Earth have an adaptive iris?, Bull. Am. Meteorol. Soc., 82, 417-432, doi:10.1175/1520-0477 (2001) [16] Chou, M.D., Lindzen, R.S.: Comments on “examination of the decadal tropical mean [17] Jaworowski, Z.: Solar Cycles, not CO2, determine Climate, 21st Century Science \& Technology, (Juli 2007), im Internet “googen” [18] IPCC-Report (Summary for Policymakers), WG1_SFM_17Apr07, Fig. SPM.5, S.14 (2007) [19] H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011), http://meetingorganizer.copernicus.org/EGU2011/EGU2011-4505-1.pdf [20] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011) [21] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012) [22] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010) [23] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

1

Transmutation & Partitionierung

neue Konzepte der nuklearen Abfallentsorgung

Horst-Joachim Lüdecke

Nov. 2010, ergänzt 2013

2

1. Allgemeines Die Grundzüge der Energiegewinnung aus Kernspaltung (Fission) können zahlreichen Beschreibungen entnommen werden. Über den allgemeinen heutigen Stand und die Zukunft der Kernenergienutzung informiert ein Sonderdruck der Universität Bochum [1], ferner [9] und [11]-[13]. Das Prinzip der Energiegewinnung aus Atomkernen beruht auf der berühmten Einstein-Gleichung E = mc2. Bei der Kernspaltung von Uran-Isotopen, Plutonium, Thorium oder entsprechenden Brennstoffgemischen, ist die Gesamtmasse der Spaltprodukte kleiner als die der Ausgangsstoffe. Die Massendifferenz ∆m wird vorwiegend als kinetische Energie der Spaltprodukte E = ∆m·c2 freigesetzt. Die beim Abbremsen der Spaltprodukte erzeugte Wärme wird schließlich zur Dampferzeugung und via Dampfturbinen zur elektrischen Stromerzeu-gung ausgenutzt. Bei der Fusion ist es umgekehrt die Verschmelzung von zwei sehr leichten Atomkernen – man verwendet das Wasserstoffisotop Tritium -, die zu einem schwereren Atomkern führt, der leichter als die Gesamtmasse der Ausgangskerne ist, wobei wiederum kinetische Energie frei wird. Ein Fusions-Reaktor liegt aber noch – wenn er sich überhaupt jemals als wirtschaftlich erweisen kann – in weiter Ferne. Wegen des sehr hohen Zahlenwertes des Quadrats der Lichtgeschwindigkeit c2 ≈ 9·1016 m2/s2 in der Einstein-Gleichung handelt es sich sowohl bei der Kernspaltung als auch bei der Fusion um sehr große Mengen an kinetischer Energie, die aus sehr kleinen Massendifferenzen frei werden. Der tiefere Grund für die hohe Energieeffizienz von Spaltung oder Fusion, verglichen mit der konventionellen Verbrennung von Kohle, Erdöl oder Gas, liegt in der unterschiedlichen Größenordnung der Bindungsenergien. In Atomkernen liegen die Nukleonen-Bindungsenergien im MeV-Bereich, in der Atomhülle dagegen, deren Elektronen-Bindungsenergien für die Energiefreisetzung der konventionellen Verbrennung verantwortlich sind, ist es nur grob 1 Millionstel davon – hier geht es nur noch um eV (1 eV = 1,602·10-19 J). Entsprechend verhalten sich die Energiedichten der jeweiligen „Brennstoffe“ zueinander. Die Energieausbeute aus Reaktorbrennstoff ist ungleich höher als aus der konventionellen Kohle-, Erdöl- oder Gasverbrennung. Kernspaltung in Kernreaktoren wird von freien Neutronen verursacht, die beim Eindringen in den positiv geladenen Zielkern wegen ihrer fehlenden elektrischen Ladung nicht von dessen Coulombwall, dem elektrostatischen Potential der Kernladung aus den positiv geladenen Protonen des Kerns, abgestoßen werden. Die zum kontinuierlichen Betrieb des Reaktors unabdingbare Kettenreaktion, sowie die Eignung der Elemente des Kernbrennstoffs zum Betrieb eines Kernreaktors (reiner Brennstoff oder ein Gemisch) und schlussendlich die evtl. Spaltung des Kernabfalls bereits im Reaktor selber hängen von zwei Schlüsselfaktoren ab

− dem Spaltwirkungsquerschnitt − und dem hieraus folgenden D-Faktor (Neutronenverbrauch pro Kernspaltung)

Nur bei ausreichend hohem Spaltquerschnitt und einem negativen D-Faktor, der angibt, dass im Spaltprozess ein Neutronenüberschuss entsteht, ist eine Kettenreaktion möglich. Bild 1 zeigt als Beispiel die Spaltwirkungsquerschnitte der Uran-Isotope 235U, 238U sowie von 239Pu. Man erkennt die hohe Energieabhängigkeit der Spaltquerschnitte.

3

Bild 1: Spaltwirkungsquerschnitte von Uran und Plutonium Isotopen, 1 barn = 10-24 cm2 Bild 2 zeigt die Bindungsenergie eines einzelnen Nukleons gegen die Massenzahl des Atomkerns. Daraus wird deutlich, dass sowohl bei der Fission als auch bei der Fusion kinetische Energie frei wird.

Bild 2: Bindungsenergie der Kernbausteine in Abhängigkeit von der Kernmassenzahl. Sie nimmt sowohl bei der Fusion von sehr leichten Kernen (Wasserstoff oder Wasserstoffisotope), als auch bei der Kernspaltung von sehr schweren Kernen (z.B. Uran oder Plutonium) zu. Die Masse eines Atomkerns ist stets kleiner als die Gesamtmasse seiner Nukleonen. Die dieser Massendifferenz gemäß Einstein-Gleichung entsprechende Energie wird als die totale Bindungsenergie des Atomkerns bezeichnet. Bei der Fusion von zwei sehr leichten Kernen

4

besitzen die Nukleonen des resultierenden Kerns eine höhere Bindungsenergie, man muss dazu in Bild 2 ganz links auf der Kurve etwas weiter nach rechts gehen. Bei der Spaltung/Fission verhält es sich ebenso, allerdings muss man nun in Bild 2 von (weit) rechts nach links gehen. Infolge der höheren Bindungsenergie des Endprodukts bzw. der Endprodukte weisen diese eine geringere Gesamtmasse als die der Ausgangskerne auf. Diese Massendifferenz steht im wes. als kinetische Energie beim Fusions- bzw. Kernspaltungs-Prozess zur Verfügung.

2. Das P&T Prinzip Die Zauberworte des insbesondere in der EU verfolgten neuen Kernkraftwerkskonzeptes der IV. Generation von Kernkraftwerken [4], [14] heißen „Partitionierung und Transmutation“ (P&T). Damit werden zukünftig etwa 99% des bisherigen abgebrannten Kernbrennstoffs vermieden. Zur Zeit erzeugen in der EU 145 Reaktoren rd. 2500 Tonnen Kernmüll im Jahr, so dass nach Einführung von P&T davon nur noch grob 25 Tonnen übrig bleiben, die dauerhaft untergebracht werden müssen. Wie will man dieses Kunststück fertigbringen? Im ersten Schritt der Partitionierung werden die bisher aufbereiteten, oder in die Endlagerung verbrachten radioaktiven Bestandteile des Kernabfalls abgetrennt (partitioniert). In einem zweiten Schritt, der auf Einschaltung eines speziellen separaten Reaktors basiert, werden sie in Substanzen mit kürzerer Halbwertszeit transmutiert. Das Verfahren hat nicht nur den Vorteil, die ursprüngliche Menge des radioaktiven Abfalls um etwa zwei Größenordnungen zu verringern, sondern zugleich nahezu den vollständigen Energieinhalt des ursprünglichen Spaltmaterials auszunutzen, der bei einer Verbringung in Endlagerstätten als nutzlose Wärme verloren geht [16]. Sozusagen als „Nebenprodukt“ ist infolge der hohen Ausnutzung des Kernbrennstoffs mit P&T daher die ohnehin sehr langfristige Verfügbarkeit von Kernbrennstoff nunmehr über nicht mehr überschaubare Zeiträume von vielen tausend Jahren gesichert.

3. Das Problem mit den Aktiniden Die bei der Kernspaltung in den heutigen Reaktoren erzeugten Elemente, die aktuell für die Schwierigkeiten ihrer Beseitigung sorgen, sind die sog. Aktiniden, d.s. Elemente schwerer als der Kernbrennstoff 235U. Die Reaktionen in den aktuellen Leichtwasserreaktoren (LWR) verlaufen dabei wie folgt: Das im Brennstoff ebenfalls enthaltene 238U fängt ein Neutron aus der Kettenreaktion ein, wobei 239U entsteht. Dieses zerfällt innerhalb von wenigen Minuten über zwei hintereinander ablaufende β-Zerfälle [5] in 239Np (Np = Neptunium) und danach in 239Pu (Pu = Plutonium). In entsprechenden weiteren Reaktionen entstehen dann die Aktiniden Am (Am = Ameritium) und Cu (Cu = Curium). Zusätzlich entstehen die langlebigen Spaltprodukte Jod und Technetium. Die Halbwertszeiten und die pro Tonne Brennstoff in kg erzeugten Mengen der maßgebenden Isotope zeigt Bild 3:

5

Isotop T1/2 [Jahr] Menge [kg]

237Np 2,1·106 0,65

238Pu 87,7 0,23

239Pu 2,4·104 5,9

240Pu 6500 2,6

241Pu 14,35 0,68

242Pu 380.000 0,6

241Am 432 0,77

243Am 7000 0,14

244Am 18 0,03

Bild 3: Halbwertszeit T1/2 und Menge der pro Tonne Kernbrennstoff anfallenden Actiniden (Zahlenwerte aus [7]). Unter der Halbwertszeit T1/2 versteht man die Zeit, in welcher, unabhängig vom gewählten Anfangszeitpunkt, die aktuell halbe Menge des Ausgangsstoffes N0 radioaktiv zerfallen ist [6]. Das Zerfallsgesetz lautet N(t) = N0·e-λt, hieraus folgt T1/2 = ln(2)/λ). Unter Zugrundelegung einer Uranmine als radiotoxischer Referenz dauert es aktuell etwa 1 Mio. Jahre (s. hierzu Bild 4), bis die langlebigen Abfälle auf den Referenzwert abgesunken sind. Diese Zeitspanne sorgt trotz der relativ geringen Radiotoxität dieses Abfalls für die verständliche Beunruhigung der Öffentlichkeit auf der einen und die Bestrebungen der verantwortlichen Stellen auf der anderen Seite, um diesen Abfalls sicher zu verwahren. Mit P&T dagegen hat man es nur noch mit wenigen hundert Jahren zu tun, bis der Referenzwert erreicht ist und dies auch nur noch mit etwa 1% der ursprünglichen Abfallmenge ohne P&T.

4. Transmutation Die Grundidee der Transmutation ist einfach: Man spaltet die extrem langlebigen und damit unerwünschten Actiniden durch Neutronenbeschuss und wandelt sie somit in schneller zerfallende Isotope um. Damit erledigt sich das Problem der Endlagerung in wenigen 100 Jahren. So einfach dies klingt, die praktische Ausführung ist es natürlich nicht. Das Kernproblem sind dabei die Spaltquerschnitte der erforderlichen Spaltreaktionen. Im konventionellen LWR, der mit moderierten (thermischen) Neutronen arbeitet, sind die Spaltwirkungsquerschnitte der Actiniden bei so tiefen Neutronenenergien für eine Beseitigung zu klein. Insbesondere entstehen bei diesen Prozessen zu wenig neue Neutronen, um den Spaltprozess aufrecht zu erhalten. Als Folge davon läuft die Spaltung der Actiniden im LWR zum einen nicht von alleine ab, und zum zweiten ist die Spaltrate viel zu gering. Die Actiniden häufen sich daher im klassischen LWR an und führen zu den schon genannten, relativ hohen Abfallmengen radiotoxischer Substanzen.

6

Eine prinzipielle Lösung des Problems der Actinidenbeseitigung bestünde im Einsatz von sog. schnellen Brutreaktoren, d.s. Typen, die mit ausreichend schnellen Neutronen zur Transmutation der Actiniden arbeiten (Generation IV). Solche Reaktoren, die heute noch mit Natrium als Kühlmittel arbeiten, besitzen aber den Nachteil, nicht inhärent sicher zu sein und kommen daher für ein Konzept, das das Sicherheits- und das Entsorgungsproblem gleichermaßen löst, zumindest in Ländern mit höchsten Sicherheitsanforderungen nicht in Frage. Dies wird sich mit anderen Typen der IV. Generation, auf die hier nicht näher eingegangen wird, einmal ändern. Diese Anlagen werden noch einen größeren Zeitschritt weiter als P&T in der Zukunft liegen. In Bild 4 ist das Gefährdungspotential der unterschiedlichen Kernabfallentsorgungskonzepte gegen die Zeit aufgetragen, wobei als Referenzwert frischer Brennstoff (rote Linie) gelten kann. Man sieht, dass die grüne Kurve des P&T - Verfahrens die rote Kurve bereits bei etwa 1000 Jahren schneidet. Dies ist beim bisherigen Konzept der Abfallbeseitigung ohne Wiederaufbereitung erst nach 10 Mio. Jahren der Fall.

Bild 4: Gefährdungspotential in Abhängigkeit von der Zeit für die direkte Endlagerung (schwarze Kurve) und für P & T (grüne Kurve).

5. Die ADS – Methode Die strategische Grundidee des „Accelerator Driven System“ (ADS) besteht darin, auf den bereits vorhandenen, inhärent sicheren LWR der III. Generation aufbauend eine vorläufige Brücke zu der später kommenden IV. Generation „schneller“ Reaktoren zu schlagen, die dann in weiterer Zukunft den Großteil der Actiniden direkt im Betrieb verbrennen können. Die technische Grundidee von ADS besteht darin, den Actiniden-Abfall der heutigen LWR-Reaktoren in speziellen unterkritischen Reaktoren zu transmutieren. Mit „unterkritisch“ ist

7

gemeint, dass in diesen Transmutations-Reaktoren keine sich selbst tragende Kettenreaktion abläuft. Infolgedessen müssen die zur Transmutation erforderlichen Spaltneutronen von einer externen Quelle erzeugt werden. Es handelt sich dabei um eine sog. Spallations-Neutronenquelle, in welcher ein von einem Beschleuniger erzeugter Protonenstrahl mit einer kinetischen Energie zwischen 0,6 bis 1 GeV auf einen Targetkern geschossen wird. Als Folge davon „verdampft“ der Targetkern, und es werden rund 15 bis 30 Neutronen pro getroffenem Kern frei gesetzt. Das ADS-Konzept erzeugt als „Nebenprodukt“ mehr Energie als es benötigt, denn die aus den Spaltprozessen der Spallationsneutronen freiwerdende Energie übersteigt den Energiebedarf des Beschleunigers (Bild 5).

Bild 5: Das ADS-Prinzip Das ADS-Konzept im Vergleich mit den heute gebräuchlichen Reaktorkonzepten in der EU zeigt Bild 6.

Bild 6: Konzepte der Abfallbeseitigung von Kernreaktoren. A: „offener“ Zyklus, der Abfall wird deponiert. B: Einfaches Recycling (z.Zt. in Frankreich und Belgien), ein Teil des entstandenen (erbrüteten) Plutoniums wird dem frischen Brennstof beigemischt. C: Die im Prozess B deponierten Actiniden werden in einem ADS-Reaktor „verbrannt“

8

Die technischen Schwierigkeiten des ADS-Prozesses liegen neben einer Reihe von Materialproblemen vor allem in der unabdingbaren, sehr hohen Ausfallsicherheit der Spallationsquelle [17], [18]. Schon bei einem Ausfall über den Zeitraum von wenigen Sekunden sinkt die Temperatur von Target, Reaktorstruktur und Brennstoffelementen um mehrere 100 Celsiusgrade ab. Solche Vorgänge führen bei zu vielen Ausfällen zu starker thermischer Materialbelastung, die den ADS-Reaktor auf Dauer schädigt, und sie müssen daher auf ein absolutes Minimum reduziert werden. In [7] wird als Richtwert aus ausführlichen thermohydraulischen Simulationen von max. noch zulässigen 3 bis 20 Ausfällen pro Jahr gesprochen. Analoge Simulationen haben indes schon den Nachweis erbracht, dass diese geforderte Zuverlässigkeit tatsächlich erreichbar ist. Um einen anschaulichen Vergleich zu ermöglichen, sei daran erinnert, dass die geforderte Ausfallsicherheit um bis zu 3 Größenordnungen über derjenigen liegen muss, die heute in den Beschleunigern von Großforschungsanlagen erreicht wird.

6. Stand der EU-Projekte In der EU sind zahlreiche Universitäten, Forschungszentren und Unternehmen in „Eurotrans“ zusammengeschlossen, dessen Ziel ein fortgeschrittenes Design einer ADS-Demonstrations-anlage (XT-ADS) und ein generisches Design einer modularen bleigekühlten Transmutations-anlage (EFIT) ist [19]. Bereits im Jahre 1998 wurden im belgischen Kernforschungszentrum SCK-EN Studien für ein vollständiges ADS begonnen. Das Projekt hat die Bezeichnung MYRRHA (Multi purpose hybrid research reactor for high-tech application) [14]. Die “Sustainable Nuclear Energy Technology Platform” (SNETP) der EU klassifizierte MYRRHA/XT-ADS als einen Eckpfeiler der zukünftigen europäischen Forschungsvorhaben [20], [21]. Das gesicherte Gesamtbudget beträgt rd. 1 Milliarde €. In der Planung beginnen Ausschreibungen und Lieferverträge in 2015. Für die Komponentenherstellung und die Baumaßnahmen, die in 2016 beginnen, sind 3 Jahre geplant. Der Bau der Gesamtanlage erfolgt in 2019, danach schließt sich eine dreijährige Testphase mit einem weiteren Jahr zur graduellen Leistungssteigerung an. Ab 2024 soll der Experimentierbetrieb mit den nominellen Kennwerten stattfinden.

7. Résumée Seit vielen Jahrzehnten werden weltweit Kernreaktoren der zivilen Nutzung ohne nennenswerte Zwischenfälle betrieben. Gegenwärtig beläuft sich ihre Zahl auf etwa 440 Anlagen. Unter rationalen Kriterien und im Vergleich mit den Kollateralschäden der Stromerzeugung aus konventioneller Verbrennung, man denke an die Verluste an Menschenleben in Kohlebergwerken, auf explodierenden Ölplattformen usw., ist die Nutzung der Kernenergie das mit Abstand sicherste Verfahren der Stromerzeugung, das bis zum heutigen Tage, von Tschernoby abgesehen, noch keine Menschenleben gekostet hat. Der gefährliche, regelungstechnisch instabile und graphitmoderierte Tschernobyl-Reaktor (Graphit ist brennbar), dessen Bautyp in Deutschland nicht eingesetzt wird, ist weder zum Vergleich mit den hierzulande betriebenen Anlagen noch als Gefährdungs-Paradebeispiel

9

geeignet. Man kann ein Auto mit defekten Bremsen, das mit Sprengstoff beladen ist, der bei Erschütterung explodiert, auch nicht mit einem modernen PkW ohne Gefahrengut an Bord vergleichen. Der extrem hohe Sicherheitsstandard unserer gegen einen GAU inhärent sicheren LWR ist aber kein Grund, die Entwicklung noch weitergehender Sicherheitskonzepte zu beenden. Hierzu gehören auch sehr einfach umzusetzende Maßnahmen, die nach Auffassung des Autors die verantwortlichen Unternehmen bisher unterlassen haben: Jedes Parkhaus wird heute unterirdisch gebaut. Das Gleiche sollte, ohne den Strompreis maßgebend zu erhöhen, zumindest mit dem Reaktor-Containment bei neuen Anlagen ebenfalls möglich sein. Eine solche Maßnahme Die Verfügbarkeit von preiswerter Energie ist die Überlebensbasis jeder modernen Volkswirtschaft, um im globalen Konkurrenzkampf zu bestehen und einen hohen Lebensstandard zu sichern. Eine politische Partei, die einen nur aus irrationaler Ideologie herleitbaren Ausstieg aus der Kernenergie zu ihrem Gründungsgrundsatz gemacht hat und sich sogar dem Neubau moderner Anlagen, wie sie hier beschrieben wurden, verweigert, schädigt unsere Zukunft. Kernenergie ist keine Brücke zu erneuerbaren Energien, sondern der zukünftige Pfeiler der Weltenergieversorgung. „Erneuerbare“ Energien sind eine wirtschaft-lich-technologische Sackgasse. Jeder „Mix“, so auch der hierzulande vielbeschworene „Energiemix“, ist grundsätzlich nur dann von Vorteil, wenn einzelne Bestandteile der „Mischung“ neben Nachteilen auch irgendwelche Vorteile gegenüber den anderen Komponenten aufweisen. Bei Windkraftanlagen und Photovoltaik gibt es solche Vorteile nicht. Hinweis: mehrere Internetquellen sind inzwischen verschwunden. Dies betrifft einige der hier gezeigten Bilder, so dass deren Herkunft nicht mehr angegeben werden kann.

Quellen [1] http://www.mb.ruhr-uni-bochum.de/sites/Archiv/pdf/SonderdruckKernenergie.pdf [5] http://de.wikipedia.org/wiki/Betastrahlung [6] http://de.wikipedia.org/wiki/Lebensdauer_%28Physik%29 [7] A.C. Mueller, H.A. Abderrahim, Transmutation von radiaoktivem Abfall, Physik Journal 9. Jhrg., S. 33 (2010) [9] http://www.nea.fr/ndd/reports/2002/nea3676-externalities.pdf [11] http://gabe.web.psi.ch/research/lca/ [12] http://www.isa.org.usyd.edu.au/publications/documents//ISA_Nuclear_Report.pdf [13] http://www.ansto.gov.au/__data/assets/pdf_file/0005/16763/Owen_submission.pdf [14] http://www.snetp.eu/www/snetp/images/stories/Docs-AboutSNETP/sra2009.pdf [16] http://www.sckcen.be/pateros/ [17] http://www.nea.fr/science/docs/pubs/nea5421-accelerator.pdf [18] http://www.iaea.org/inisnkm/nkm/aws/fnss/ [19] ftp://ftp.cordis.europa.eu/pub/fp6-euratom/docs/fisa2006_pt_eurotrans_en.pdf [20] http://tinyurl.com/2cg4q9o [21] http://hal.archives-ouvertes.fr/docs/00/12/33/73/PDF/ThP35.pdf

Neue Kernkraftwerkskonzepte

von Armin Huke und Götz Ruprecht

April 2013

Dieser Abschnitt ist ein Gastbeitrag der Physiker Dr. Armin Huke und Dr. Götz Ruprecht vom Institut für Festkörper-Kernphysik, der dem Autor für das Buch freundlicherweise zur Verfügung gestellt und bis auf kleinere redaktionelle Änderungen unverändert belassen wurde. Alle heute verwendeten Kernkraftwerksreaktoren und die meisten der für die ''Generation IV'' vorgesehenen Typen sind das Resultat von Grundsatzentscheidungen, die in der Frühphase der Nutzung der Kernenergie (1940er und 50er Jahre) getroffen wurden und sich fast ausschließlich an den Bedürfnissen des Militärs orientierten. Kernreaktoren wurden nach und nach für zivile Anwendungen ausgebaut, ohne jemals grundsätzlich neu konzipiert zu werden. Dieses Verfahren entspricht dem allmählichen Umbau eines Panzers in ein Familienauto - mit all den damit verbundenen technischen Nachteilen. Heutige Kernreaktoren zur zivilen Nutzung sind zwar sicher, dies aber zu einem extrem hohen Preis. Reaktorhavarien wie in Three Miles Island (Harrisburg) oder Fukushima bestätigen dies, denn dort wurde trotz teilweise geschmolzenen Reaktorkerns kein Mensch verletzt. Trotz des millionenfach höheren Energiegehalts von Kernbrennstoffen gegenüber fossilen Brennstoffen ist der Erntefaktor, d.h. das Verhältnis von nutzbar gemachter Energie zur hineingesteckten Energie, nur um einen Faktor 2 bis 4 höher als der von klassischen Verbrennungskraftwerken. Dies macht Kernenergie zwar immer noch zur mit Abstand effektivsten Form der Stromproduktion. Es stellt aber, gemessen an den heute konkret zur Verfügung stehenden Möglichkeiten, letztlich eine permanente Verschwendung volkswirtschaftlichen Vermögens dar. Allein die Anreicherung des Kernbrennstoffs verbraucht aktuell etwa 40% des Einsatzes an hineingesteckter Energie. Für die Kraftwerkshersteller machen die Kosten des Brennelementekreislaufs fast die Hälfte ihres Gesamtumsatzes aus. Der maßgebende Problempunkt ist die extrem ineffiziente Nutzung des Kernbrennstoffs, weil praktisch alle heutigen kommerziellen Reaktoren mit thermischen Neutronen arbeiten. Damit kann überwiegend nur das selten vorhandene Uranisotop U-235 zur Energiegewinnung genutzt werden, was gleich drei Nachteile aufweist: • Das Uran muss aufwendig angereichert werden. • Es werden große Mengen an Aktiniden, allen voran Plutonium, produziert, die 99,99% der

Langzeit-Radiotoxizität des nuklearen Abbrands ausmachen. • Die Aktiniden und das verbliebene U-238 gehen zu 99% für die Energiegewinnung verloren. Der Hauptgrund für diesen geradezu absurd verschwenderischen Umgang mit dem Rohstoff Uran ist historisch in Produktionsmethoden von militärisch nutzbarem Spaltmaterial zu suchen. Diese sind heute bei einer rein zivilen Nutzung obsolet geworden, so dass es angezeigt ist, von den

bisherigen Kernkraftwerkstypen so schnell als möglich abzugehen. Kernreaktoren müssen nach heutigen Sicherheitsstandards die Auswirkungen einer vollständigen Kernschmelze auf das Reaktorgebäude begrenzen. Der erforderliche Aufwand ist erheblich, wobei auch noch unzulässig ausgetretene Radioaktivität sicher eingeschlossen werden muss. Diese Forderungen werden von allen heutigen Leichtwasserreaktoren eingehalten. Man zählt sie zur zweiten Generation. Bei den neueren Entwicklungen der ''dritten Generation'', wie dem größten Kernreaktor-Typ des französischen Nuklearkonzerns Areva (EPR) geht man sogar noch einen Schritt weiter und sorgt durch Einrichtungen wie einen ''Core catcher'' dafür, dass die Technik außerhalb des Reaktorkerns intakt bleibt, um einen Totalschaden zu vermeiden. Andere neuere Konzepte wie der amerikanisch-japanische ESBWR von GE Hitachi nutzen verstärkt passive Sicherheitssysteme. Moderne Kleinstreaktoren setzen auf die Strategie einer reduzierten Leistung zur Vermeidung einer Kernschmelze. Im Jahre 2001 wurde von neun (jetzt 13) Staaten unter der Federführung der USA das Generation-IV-Forum (GIF) gegründet mit dem Ziel, die Entwicklungen zukünftiger Reaktortypen abseits der heute kommerziell üblichen zu koordinieren. Deutschland, einst führend in Reaktortechnologie und immer noch ein Hochtechnologie-Land, ist in diesem Forum bemerkenswerterweise nicht vertreten. Hintergrund der internationalen Initiative war die Erkenntnis, dass heutige Reaktoren nur 1% des nuklearen Brennstoffs nutzen. Die restlichen 99% sind nicht nur ungenutzt, sondern dominieren zudem noch das Problem, wie und wohin der nukleare Abbrand verbracht werden soll. Bei einer hundertprozentigen Nutzung des Kernbrennstoffs würde man daher zwei Probleme gleichzeitig lösen. Technisch ist dies allerdings nur möglich, wenn die Neutronen nicht moderiert werden. Solche Reaktoren heißen Schnellspalt-Reaktoren, im Gegensatz zu den heute eingesetzten thermischen Reaktoren. Bereits kurz nach seiner Gründung präsentierte das GIF sechs Entwicklungslinien, die in den nächsten Jahrzehnten umgesetzt werden sollen. Zwei von ihnen stellen zumindest nach gegenwärtiger Planung immer noch thermische Reaktoren dar, der Höchsttemperaturreaktor (Very-high-temperature reactor VHTR) und der superkritsche Reaktor (Supercritical-water-cooled reactor, SCWR). Letzterer basiert auf heutigen Druck- und Siedewasserreaktoren, wobei man nur nachholt, was bei Kohlekraftwerken schon lange Stand der Technik ist, nämlich die Verwendung von Wasser im superkritischen Zustand. Dies führt zu einer Vereinfachungen der Bauweise bei gleichzeitiger Steigerung des Wirkungsgrades. Der VHTR dagegen basiert auf dem deutschen Hochtemperatur-Reaktor, der in Hamm-Uentrop unter der Bezeichnung THTR-300 bereits lief, dann allerdings politischen Entscheidungen zum Opfer fiel. Die vier schnellenspaltenden Konzepte unterscheiden sich hauptsächlich in der Art der Kühlung: • Flüssigsalz beim MSFR (molten-salt fast reactor), • Flüssiges Natrium beim SFR (sodium-cooled fast reactor), • Helium beim GFR (gas-cooled fast reactor) und • Flüssiges Blei beim LFR (lead-cooled fast reactor) Der MSFR nimmt hier eine Sonderstellung ein, da das Flüssigsalz in einer Variante auch gleichzeitig den Brennstoff enthält. Dadurch entfallen feste Brennelemente, und man kann während des Betriebs Spaltprodukte abziehen und frischen Spaltstoff zugeben. Der MSFR ist sozusagen Reaktor und Wiederaufarbeitungsanlage in einem. Da die Spaltprodukte Ursache der Restzerfallswärme sind, entfällt damit automatisch das Problem einer Kernschmelze.

Der SFR ist ein Kuriosum, das sich aus einer missverstandenen Übertragung eines militärischen Konzepts auf eine zivile Anwendung ergeben hat. In den 50er Jahren hatte sich die US-Luftwaffe nämlich an der Entwicklung eines nuklearen Flugzeugantriebs versucht, wozu ein kleiner und leichter Reaktor entwickelt werden sollte, der seine Wärmeenergie möglichst effektiv an ein Turbostrahltriebwerk überträgt. Wegen der geringen Dichte fiel die Wahl dann auf Natrium, welches ansonsten aber nur Nachteile hat (leicht entflammbar, neutronenschluckend). Aus unverständlichen Gründen wurde es für stationäre Reaktoren dann aber beibehalten. Der in Deutschland gebaute ''Schnelle Brüter'', der französische ''Superphénix'' und der russische BN-600 sind Umsetzungen dieses Konzepts gewesen, die dann auch mit genau diesen vom Natrium stammenden Schwierigkeiten zu kämpfen hatten und schließlich unwirtschaftlich wurden. Russland entwickelt diese Linie mit der BN-Serie mit steigender Leistung weiter, und Frankreich plant zur Zeit ASTRID, den Nachfolger von Superphénix. GE Hitachi bietet mit dem S-PRISM-Reaktor sogar ein kommerziell fertiges Kraftwerk an, das sich momentan (2013) in der Lizensierungsphase befindet. Das besagte nukleare Flugzeugtriebwerk arbeitete übrigens mit Flüssigsalz im Kern. Beide Konzepte, der MSFR und der SFR, haben also einen gemeinsamen Ursprung. Dass der SFR aber schließlich als stationäres Reaktorkonzept in den Generation-IV-Kanon aufgenommen wurde, ist wohl nur auf die Tatsache zurückzuführen, dass man sich damit bereits intensiv beschäftigt hatte. Die weltweiten Anstrengungen zur Umsetzung der Generation IV sind momentan jedenfalls ganz auf SFR-Konzepte ausgerichtet. Hier ist ein Erklärung zum Brutprozess angebracht, denn er wird bisher nur beim SFR praktiziert. Thermische und schnellspaltende Reaktoren sind nur Extremfälle für ein weiches und ein hartes Neutronenspektrum. Beim thermischen Reaktor bleiben nicht ausreichend Neutronen übrig, um aus brütbarem Uran-238 ständig spaltbares Plutonium-239 nachzubilden. Beim schnellen natriumgekühlten Reaktor ist das Spektrum jedoch hart genug, das selbst benötigte Spaltmaterial nachzubrüten. Er braucht aber zum Starten ein Mindestinventar an spaltbarem Material. Jetzt ist die Frage, was man mit den darüber hinaus zur Verfügung stehen Neutronen anfangen will. Beim ''Schnellen Brüter'' nutzt man die Überschussneutronen zum Erbrüten weiteren spaltbaren Materials (hier 239Pu), zusätzlich zu dem, was der Reaktor zur Regenerierung der für den eigenen Betrieb benötigten Menge erbrütet. Natrium bremst die Neutronen stark ab (moderiert), macht das Spektrum also weicher. Als Folge ist der Neutronenüberschuss sehr gering, und der Brutprozess läuft mithin sehr langsam ab. Die Verdopplungszeit liegt bei Jahrzehnten, was zu einem nicht geringen Teil auch am PUREX-Verfahren liegt. Mit moderneren Verfahren (z.B. Elektroraffination) dauert es immerhin noch ca. 15 Jahre. Erst dann hat man genug Inventar erbrütet, um einen zweiten Reaktor zu starten. Dann dauert es wieder Jahrzehnte, bis man 4 Reaktoren bauen kann, dann 8, usw. Frankreich plant, auf diese Weise eine Plutoniumwirtschaft aufzubauen. Hat man seinen Reaktorpark irgendwann fertig, kann man die Überschussneutronen immer noch anderweitig nutzen, z.B. zur Transmutation von Spaltprodukten aus heutigen Reaktoren. Solange dieses Plutonium nicht explizit in einem leicht zugänglichen „Brutmantel” erzeugt wird, ist es übrigens isotopenverunreinigt und damit nicht waffentauglich. Der GFR ist ein ''politscher'' Reaktor, der aus dem Versuch hervorging, den Schwierigkeiten von natriumgekühlten Reaktoren auszuweichen, indem man das Natrium durch ein Gas ersetzt. Die französischen Grünen konnten damit nach den Problemen mit dem Superphénix punkten. Unter dem Strich wurde allerdings das Problem eines Natriumbrands lediglich durch das Risiko einer

Kernschmelze ersetzt. Der GFR ist das einzige Generation-IV-Konzept, das nie umgesetzt wurde. Auch den LFR gab es schon. Wiederum war das Militär die Triebfeder, als die Sowjets in den 60er Jahren einen bleigekühlten Reaktor mit hoher Leistungsdichte zum Antrieb von U-Booten (Alpha-Klasse) entwickelten und auch einsetzten. Dennoch sind die Aussichten für eine zivile Anwendung des LFR exzellent, denn Blei hat im Vergleich zu Natrium sehr günstige Neutroneneigenschaften. Grundsätzlich gilt: Je härter das Neutronenspektrum, desto größer der Neutronenüberschuss. Blei moderiert kaum, so dass das Spektrum sehr hart bleibt, der Neutronenüberschuss groß ist, und der Reaktor schnell brüten kann. In Kombination mit modernen Trennverfahren wie Elektroraffination kann das Inventar schon nach wenigen Jahren verdoppelt werden. Blei reflektiert außerdem die Neutronen gut, so dass man die kritische Masse klein halten kann, und es wird kaum aktiviert. Es gibt eine Reihe stabiler Bleiisotope, und fast jeder Neutroneneinfang führt wieder zu einem stabilen Isotop. Die Aktivierung lässt Blei kaum aktiver als Natururan werden. Die Umsetzung des LFR erfolgt zur Zeit in dem russischen BREST-Konzept, dem ebenfalls russischen SVBR-100 als passiver Kleinstreaktor, dem von der EU gestützten ALFRED-Projekt (Nachfolger von ELSY und ELFR) sowie als Teil des beschleunigergetriebenen europäisch-belgischen MYRRHA-Projekts. Die Roadmaps sehen ähnlich aus, geplanter Baubeginn ist bei allen zwischen 2017 und 2019. Etwas früher (2015) könnte der amerikanische Kleinstreaktor SSTAR fertig werden. Letzterer zeigt mit einer 30-jährigen konstanten Leistung von nur 10-100 MW bei vollständiger Kapselung ohne Brennstoffwechsel, dass derartige Reaktoren auch für den dezentralen kommunalen Einsatz sehr attraktiv sein können. Fazit: Die Reaktoren der Generation IV sind eine Sammlung von Konzepten, die bis in die 50er Jahre zurückgehen. Sie stammen fast alle von militärischen Entwicklungen ab und sind zum überwiegenden Teil bereits umgesetzt. Dies zeigt, dass die die heutigen Leichtwasserreaktoren plagenden Probleme, angefangen mit der Restzerfallswärme (Kernschmelze), bis hin zum radioaktiven Abbrand, schon seit 60 Jahren vollständig gelöst sind. Besonders hervorzuheben ist der MSFR, der überdies ohne eine aufwendige Infrastruktur für Brennelemente auskommt, sowie der LFR, der die Probleme der Natriumkühlung weit hinter sich lässt. Dass diese Konzepte bislang nicht konsequent umgesetzt werden, hat vermutlich politische und ideologische Gründe, auch die aktuelle Marktdominanz der Leichtwassertechnik mitsamt Brennstoffinfrastruktur und endlose Genehmigungsverfahren tragen dazu bei. Technische Hürden gibt es jedenfalls keine.

1

Persistenz in Temperaturreihen

Horst-Joachim Lüdecke

26.Feb. 2013

Zusammenfassung Konstantes Klima ist unmöglich. Wetter und Klima ändern sich zu jeder Zeit und überall. In Temperaturreihen, die sich über mehrere Jahrzehnte erstrecken, zeigen sich Klimaschwankungen. Die in diese Reihen eingebrachten Trendlinien deuten vordergründig auf äußere Ursachen hin, die freilich fast immer unbekannt sind. Die bis heute einzigen, zweifelsfrei gesicherten Ursachen sind extrem starke Vulkanausbrüche, deren globale Folgen mehrjährige Abkühlungstrends sind. Selbst vielen Fachleuten ist es immer noch unbekannt, dass sich Trends in Temperaturzeitreihen aber auch ganz ohne äußere Ursachen bilden können. Der Augenschein ist kein verlässlicher Zeuge, denn sogar sehr deutliche Trends sind keineswegs eine Gewähr für externe Ursachen. Die von selbst auftretenden Trends werden durch das „Gedächtnis“ (Persistenz) der Temperaturreihe erzeugt. Seit dem Jahre 2009 steht mit der modernen Persistenzanalyse ein Verfahren zur Verfügung, mit dem erstmalig verlässlich entschieden werden kann, ob ein Trend in einer Temperaturzeitreihe eine äußere Ursache hat oder ob man umgekehrt dies nicht annehmen muss. Neben weiteren Anwendungen wurde mit dieser neuen Methode die globale Temperaturentwicklung des 20. Jahrhunderts an Hand von ca. 2500 Langzeit-Temperaturreihen analysiert. Hierbei zeigte sich, dass für die Erwärmung des 20. Jahrhunderts ein externer Einfluss zwar nicht ausgeschlossen werden kann, er allerdings dramatisch schwächer ist als die vom IPCC eingeschätzte Wirkung des anthropogenen CO2. Woher der nicht auszuschließende äußere Einfluss stammt, kann nicht mit der Methode entschieden werden. Es kommen auch andere Ursachen als das Treibhausgas CO2 in Frage, zum Beispiel ein ungewöhnliches Verhalten der Sonne. 1. Was ist Persistenz in Temperaturzeitreihen? Zeitreihen sind wichtige Werkzeuge, um Informationen über komplexe Prozesse zu gewinnen. Herzspezialisten nehmen Zeitreihen des Herzschlags oder des Blutdrucks auf, um Aufschlüsse über den gesundheitlichen Zustand eines Patienten zu erhalten. Finanz- und Versicherungsmathematiker analysieren Zeitreihen, um die finanziellen oder versicherungstechnischen Risken von Unternehmen zu bewerten. Klimatologen verwenden Temperaturzeitreihen (Tages-, Monats- oder Jahresmittelwerte), um langfristige Klimatrends aufzufinden. Im Folgenden geht es hier um Temperaturzeitreihen. Der englische Wasserbau-Ingenieur Harold Edwin Hurst untersuchte in den 1950-er Jahren die Tief- und Höchststände des Nils und entdeckte dabei als erster, dass hydrologische Zeitreihen ein Gedächtnis besitzen. Die aktuell gemessenen Werte hängen von den vergangenen, zum Teil weit zurückliegenden Werten ab. Später wurde erkannt, dass auch viele weitere Zeitreihen der Natur wie z.B. Baumringe ein Gedächtnis aufweisen. Man nennt dieses Phänomen Persistenz oder Autokorrelation. Die Schwankungen der Zeitreihe um ihren Mittelwert erfolgen in persistenten Zeitreihen nicht mehr unabhängig, sondern sie werden von der Vergangenheit der Zeitreihe beeinflusst. Betrachtet man Temperaturzeitreihen, so erscheint dieses Verhalten zunächst nicht einmal so ungewöhnlich. Eine Temperaturzeitreihe weist zumindest ein "Gedächtnis" über die momentan herrschende Jahreszeit auf. Es kommt nie vor, dass auf einen warmen Sommertag plötzlich ein kalter Wintertag folgt, bzw. umgekehrt. Da jahreszeitlich bedingte Schwankungen im Allgemeinen weniger interessieren, werden die saisonalen Einflüsse vor der Persistenzanalyse aus einer Temperaturzeitreihe entfernt. Aber auch danach beobachtet man noch, dass ein Tagestemperaturmittelwert zumindest vom Vortag abhängt. So wird ein über dem längerfristigen Mittel liegender Temperaturwert am nächsten Tag mit über 50%

2

Wahrscheinlichkeit ebenfalls über diesem Mittel liegen, Entsprechendes trifft für einen unter dem Mittel liegenden Temperaturwert zu. Eine Erklärung für dieses Phänomen liefern anhaltende Wetterlagen. Persistenz über mehrere Wochen kann man mit meteorologischen Blocksituationen, wie etwa einem lang anhaltendes Azorenhoch erklären. Für noch längere Zeiträume ist freilich über die Ursachen von Persistenz wenig bekannt. Es werden dekadale Oszillationen wie z.B. der El Nino, Einflüsse aus den sich ändernden Planetenkonstellationen und weiteres mehr diskutiert. Erstaunlicherweise findet man in Temperaturzeitreihen Persistenz bis über mehrere Jahrzehnte. Die Ursachen solch langreichweitiger Persistenz sind bis heute völlig unbekannt. Persistenz in Temperaturzeitreihen kann bemerkenswerterweise empirisch mit nur einem Parameter beschrieben werden, dem berühmten Hurst-Exponenten α. Mit der Fluktuationsanalyse (FA) bzw. der auf der FA aufbauenden, trendbereinigten Fluktuationsanalyse (DFA) wird α ermittelt. Der hier interessierende Bereich von α in Temperaturreihen ist 0,5 ≤ α < 1. Eine Zeitreihe mit α = 0,5 ist rein zufällig (weißes Rauschen) und besitzt keine Persistenz . Für α ≥ 1 (α ≈ 1 entspricht rotem Rauschen) wird die Zeitreihe instationär, ihre Werte können "weglaufen" und niemals wieder den Anfangswert erreichen. Stationäre Zeitreihen behalten dagegen ihren Mittelwert über längere Zeiten bei. Gemessene Temperaturzeitreihen sind stationär, ihre Hurst-Exponenten liegen deutlich unter α = 1. Nur fragwürdige Homogenisierungen [22], Glättungsprozeduren oder ähnliche Manipulationen können dies ändern. Die Hurst-Exponenten von sorgfältig gemessenen Temperaturzeitreihen, bei denen nur die unbedingt notwendigen Homogenisierungen vorgenommen wurden, bewegen sich im Bereich von etwa 0,55 bis 0,65. Temperaturzeitreihen von Stationen auf Inseln oder in Meeresnähe weisen höhere α-Werte bis maximal etwa 0,9 auf. 2. Persistenz, Trends und Extreme Persistenz von Temperaturzeitreihen sieht zuerst wie eine mathematische Rarität aus, tatsächlich ist sie jedoch von maßgebender Relevanz. Die Analyse von Zeitreihen ist nämlich vorrangig an dem Auftreten von Trends sowie von Extremen interessiert. Dabei hat man die Vorstellung, dass ausgeprägte Trends oder Extreme durch äußere Einflüsse bedingt sind. Tatsächlich kommen aber extreme Temperaturanstiege bzw. -abfälle oder ungewöhnlich lange Serien von Jahren mit Maximaltemperaturen bzw. Minimaltemperaturen auch ohne äußere Einflüsse vor. Ist dies der Fall, sind diese Trends oder Extreme "natürlich". Zumindest von stark ausgeprägten Extremen vermutet man freilich, dass sie unnatürlich sind. d.h. durch externe Einflüsse erzeugt wurden. Diese unzutreffende Annahme ist aus der Erfahrung täglichen Lebens abgeleitet. Ein Würfelspieler freut sich darüber, wenn die von ihm bevorzugte Zahl in Serie erscheint. Ist die Serie allerdings ungewöhnlich lang oder kommen gar solche Serien ungewöhnlich oft vor, argwöhnt man zutreffend eine externe Ursache, einen „gezinkten“ Würfel oder betrügerische Manipulation. Für Temperaturzeitreihen geht diese intuitive Beurteilung allerdings fehl. Der Grund dafür ist Persistenz. Die entscheidende Folge von Persistenz in Zeitreihen ist, dass ausgeprägte Trends und Extreme auf natürliche Weise mit zunehmender Persistenzstärke ebenfalls zunehmen. Diese Folge von Persistenz ist anschaulich verständlich. Persistenz bewirkt, dass die Zeitreihe die Tendenz aufweist, einen einmal angenommenen Wert beizubehalten. Auf diese Weise entstehen mehr Extreme und längere Trends. Damit wird der Stellenwert von Persistenz für Temperaturzeitreihen-Analye deutlich. Finden wir beispielsweise in einer Temperaturzeitreihe des 20. Jahrhunderts einen Erwärmungstrend, so besagt dies keineswegs

3

zwingend, dass hierfür eine unnatürliche Ursache, wie z.B. zunehmendes CO2 oder Stadterwärmung (UHI) verantwortlich sein muss. Der Trend könnte auch eine ganz natürliche Folge der Persistenz der Zeitreihe sein. Vor näherem Eingehen auf Persistenz in Temperaturreihen soll zur Veranschaulichung des Phänomens gezeigt werden, wie man einem Würfel zu Persistenz verhelfen kann. Ein solcher Persistenzwürfel wird deutlich mehr Trends in Form von ungewöhnlich langen Serien gleicher Augenzahlen liefern. Dennoch bleibt er „fair“, d.h. alle Augenzahlen kommen auf Dauer gleich oft vor. Der Persistenzwürfel ist ein gewöhnlicher Würfel mit einer Besonderheit: wird er geworfen, und es erscheint beispielsweise die 5, hängt der Spieler ein kleines Gewicht an die gegenüberliegende Seite, also an die 2. Dies erhöht die Wahrscheinlichkeit, dass auch weiterhin die 5 gewürfelt wird. Dennoch wird irgendwann eine andere Zahl auftauchen. Nun hängt der Spieler das Gewicht auf deren Unterseite. Würfelt man lange genug, kommen alle Augen mit gleicher Wahrscheinlichkeit vor. Dennoch erscheinen ungewöhnlich lange Serien von jeweils gleicher Augenzahl. Sie sind jedoch nur durch das zum System gehörige Gewicht bestimmt, nicht durch äußere Einflüsse (man kann sich den Mechanismus intern gesteuert vorstellen, ein Spieler, der die Gewichte anbringt, ist prinzipiell unnötig). Die langen Serien gleicher Zahlen treten rein zufällig auf und sind völlig natürlich. Im Gegensatz zu Temperaturreihen reicht das Gedächtnis des Persistenzwürfels allerdings nur einen einzigen Wurf zurück. Man kann dieses Verhalten mit einem sog. AR(1) Prozess modellieren. Persistenz in Temperaturreihen hat dagegen mit Modellprozessen, wie in AR-, MA- oder ARMA-Modellen [13] nichts zu tun. Persistenz ist eine empirische Eigenschaft ohne Modellgrundlage und sie ist prinzipiell beliebig langreichweitig. Man kann mit dem Computer synthetische Zufallszeitreihen erzeugen, die eine vorgegebene Persistenz, d.h. einen vorgegebenen Hurst-Exponenten α aufweisen [1]. Mit Hilfe solcher Surrogatreihen lassen sich die durch Persistenz entstehenden Phänomene studieren. 3. Surrogatzeitreihen mit „Gedächtnis“ Surrogatzeitreihen, d.h. mit dem Computer erzeugte künstliche Zeitreihen, die zudem Persistenz aufweisen, sind ein entscheidendes Hilfsmittel zur Persistenzanalyse. Die Erzeugung von rechteckverteilten Zufallszahlen (Pseudozufallszahlen) mit dem Computer ist jedem EXCEL-Benutzer bekannt. Bildet man solche Zufallszahlen auf den Bereich von Jahresmitteltemperaturen ab, erhält man eine Temperaturzeitreihe mit dem Hurst-Exponenten von α = 0,5. Eine solche Reihe sieht freilich unrealistisch aus, sie entspricht bereits dem Augenschein nach noch nicht der Gestalt einer real gemessenen Temperaturzeitreihe. Surrogatreihen werden „lebensechter“, wenn man ihnen zu Persistenz verhilft. Zur Veranschaulichung sei an das oben beschriebene Beispiel des Persistenzwürfels erinnert. Die Vermittelung von Persistenz an eine Temperaturzeitreihe erfolgt allerdings mit dem Computer - Details finden sich in der Originalliteratur [1], [24]. Surrogatreihen des gleichen α wie eine gemessene reale Reihe, weisen schon beim bloßen Anschauen eine große Ähnlichkeit mit gemessenen Reihen auf. Allerdings können reale Temperaturreihen einen externen Trend enthalten, Surrogatreihen nicht. Man könnte Surrogatreihen daher zutreffend als „natürlich“ bezeichnen, obwohl diese Bezeichnung etwas paradox erscheint, denn sie wurden schließlich vom Computer erzeugt. In konsequent gleichem Sprachgebrauch sind reale Temperaturreihen mit einem externen Trend „unnatürlich“. Bild 1 zeigt ein Anschauungsbeispiel von Persistenz in Surrogatreihen: Im linken Teilbild ist eine ausgewählte Zeitreihe mit α = 0,5 (keine Persistenz) gezeigt, im rechten Teilbild eine

4

Bild 1: Synthetische Reihen ohne externen Trend. Linkes Teilbild mit Hurst Exponent α = 0,5. Rechtes Teilbild mit α = 0,73. Die Zeitreihe im rechten Teilbild ist ab 1950 offensichtlich von einem "Erwärmungstrend" bestimmt. Tatsächlich gibt es diesen externen Trend nicht, er ist zufällig und wird nur durch die Persistenz der Reihe verursacht. von α = 0,73. Beide Zeitreihen sind Surrogate und enthalten daher keinen externen Trend. Dennoch ist im rechten Teilbild deutlich ein „Trend“ erkennbar, der ein wenig an den Verlauf der globalen Erwärmung im 20. Jahrhundert erinnert. Er ist rein natürlich und nur durch Persistenz bedingt. Nun entsteht die wichtige Frage: Woher erkennt man im konkreten Fall, ob ein Trend in einer real gemessenen Temperaturreihe extern ist? 4. Die Suche nach externen Trends Externe Trends in Temperaturreihen stehen zweifellos im Mittelpunkt der heutigen Klimadiskussion. So möchte man gerne wissen, ob die in den letzten Jahrzehnten des 20. Jahrhunderts von vielen Stationen gemessene globale Erwärmung ein vom industrialisierten Menschen verantworteter Trend oder aber nur ein durch Persistenz bedingter Artefakt ist. In diesem Zusammenhang ist zu betonen, dass die von den weltweit verstreuten Stationen gemessene Erwärmung im 20. Jahrhundert keinesfalls global einheitlich ausfällt. Etwa ein Viertel aller Stationen zeigt in diesem Zeitraum nämlich Abkühlung [6], [12]. Die mathematischen Hilfsmittel zur Persistenzanalyse von Temperaturreihen liefern die schon erwähnten Methoden der FA und der DFA. Eine ausführliche Beschreibung dieser Verfahren findet sich in [2], hier werden insbesondere auch sämtliche Originalliteraturquellen bis zum Jahre 2004 aufgeführt. Auf der Webseite von em. Prof. Bunde (Univ. Gießen) sind viele Originalpaper zur Persistenzanalyse, auf denen er als Mit- oder Hauptautor zeichnete, als pdf abgreifbar [23]. In [6] finden sich ebenfalls Literaturquellen. Schlussendlich ist der ausführliche und gut allgemeinverständlich gefasste Übersichtsaufsatz zur Persistenzanalyse von Bunde und Kantelhardt in den physikalischen Blättern hervorzuheben [21]. Die Originalarbeiten der hier im Mittelpunkt stehenden neuesten Methode der Persistenzanalyse, die schließlich unter 5. näher beschrieben wird, finden sich in [3] und [4].

5

In groben Zügen sieht die Arbeitsweise der „klassischen“ Persistenzanalye wie folgt aus: Mit der FA wird aus einer Zeitreihe der Hurst-Exponent αFA ermittelt. Enthält die Reihe einen externen Trend, ergibt sich ein höheres αFA als ohne diesen Trend. Daher liefert die FA im Prinzip nur für Zeitreihen, die keine externen Trends enthalten, unverfälschte Ergebnisse des Hurst-Exponenten. Zur Behebung dieses Mangels wurde die DFA entwickelt. Sie beseitigt während des Berechnungsvorgangs automatisch polynominale Trends einer vorgegebenen Ordnung aus der Zeitreihe. Zur Vereinfachung beschränkt man sich hierbei meist auf die Beseitigung von linearen Trends. Wird mit der DFA überhaupt kein Trend entfernt, liegt wieder die FA vor. Mit der DFA kann der automatisch beseitigte Trend leider nicht explizit angegeben werden. Da der Hurst-Exponent der DFA αDFA ist naturgemäß stets größer als der der FA αFA, kann die Differenz (αDFA - αFA) als Stärke des externen Trends in der analysierten Temperaturreihe angesehen werden. Bild 2 zeigt als Beispiel die Ergebnisse von FA- und DFA-Analysen (Beseitigung von linearen Trends) der Monatsmittelwertreihen von fünf der am weitesten bis ins 18. Jahrhundert zurückreichenden europäischen Wetterstationen. Aus den Monatsreihen wurde, wie bereits beschrieben, der saisonale Jahresgang entfernt. Ein doppelt-logarithmischer Plot erlaubt es dann, direkt aus der Steigung der charakteristischen Größe F(s) den Hurst-Exponenten α abzulesen [2]. Die Hurst-Exponenten der FA sind, wie schon erwähnt, im Prinzip größer als die der DFA. Für unser Beispiel in Bild 2 folgt daraus, dass alle fünf Reihen (lineare) Trends enthalten. Die Frage, ob diese Trends unnatürlich sind, oder ob sie durch Persistenz entstanden sind, kann nicht ohne weiteres beantwortet werden. Allerdings fällt im vorliegenden Fall die Entscheidung leicht, weil alle fünf Reihen aus nicht allzu weit voneinander entfernten Stationen stammen, einen sehr ähnlichen Verlauf und schließlich auch ähnliche α-Werte aufweisen. Somit liegt mit hoher Wahrscheinlichkeit tatsächlich ein externer Trend vor. Erst die in jüngster Zeit entwickelte Methode von Lennartz und Bunde, die nachfolgend beschrieben wird, kann dann die wichtige Frage nach der Unnatürlichkeit eines gemessenen Trends in einer einzelnen Temperaturzeitreihe quantitativ beantworten. 5. Die Methode von Lennartz und Bunde Bis zum Jahre 2009 ergab für eine Temperaturzeitreihe nur der Vergleich ihrer beiden Hurst-Exponenten αFA, αDFA aus der FA- und der DFA-Analyse einen Hinweis, ob ein beobachteter (linearer) Trend in ihr externen Ursprungs war. Diese einfache Strategie erlaubte freilich schon wichtige Aussagen. Sie wurde unter anderem in einer Publikation des Jahres 2003 auf 95 weltweit verstreute Temperaturzeitreihen angewendet. Dabei konnten keine Anzeichen für eine globale Erwärmung aufgefunden werden [5]. Lennartz und Bunde (im Folgenden LB) zeigten schließlich in zwei bahnbrechenden Fachaufsätzen der Jahre 2009 und 2011 [3], [4], dass eine wesentliche Erweiterung der oben beschriebenen klassischen Persistenzanalyse hin zu quantitativen Wahrscheinlichkeitsangaben möglich ist. Hierzu verwendeten sie Surrogat-Zeitreihen und untersuchten, wie häufig natürliche (lineare) Trends in ihnen vorkommen. Die maßgebende dimensionslose Größe ist dabei ∆/σ. ∆ [°C] ist der Temperaturanstieg bzw. der Temperaturabfall der linearen Regressionsgeraden über die gesamte Länge der Temperaturreihe und σ [°C] die Standardabweichung um die Regressionsgerade herum. ∆

6

Bild 2: FA-Analyse (gefüllte Kreise) und DFA-Analyse (offene Kreise) für die Stationen München, Hohenpeissenberg, Prag, Paris und Wien. Die Länge des betrachteten Zeitraums beträgt 1791-2000. Man erhält Hurst-Exponenten zwischen 0,52 und 0,63 aus der DFA- und 0,63-0,71 aus der FA-Analyse. ist durch die Standardabweichung zu dividieren, weil die Signifikanz eines Trends mit abnehmender Standardabweichung σ zunimmt. Weist die Reihe große Schwankungen, also eine große Standardabweichung σ auf, ist der Trend ∆ weniger signifikant als bei kleinem σ. Im Extremfall von σ = 0 ist der Trend mit dem Verlauf der Zeitreihe identisch, im entgegengesetzten Extremfall beliebig großer Standardabweichung kann bei der geringsten Änderung irgendeines Wertes der Reihe die Regressionsgerade völlig anders verlaufen. Aus unzähligen Surrogatreihen und Computer-Rechenläufen ermittelten LB für zwei Spezialfälle, nämlich Zeitreihen der festen Längen von 50 und 100 Jahren, charakteristische Diagramme bzw. die zu diesen gehörenden empirischen Rechenformeln [3]. Aus den Diagrammen kann abgelesen werden, mit welcher kumulierten Wahrscheinlichkeit W ein linearer Trend ∆/σ unnatürlich (extern) ist. Im Jahre 2011 erweiterten LB ihre Methode schließlich auf allgemeine Zeiträume von 40 bis 160 Jahren Länge [4]. Bild 3 zeigt ein solches Diagramm (vom Autor erstellt) für den Fall von Surrogatreihen von 100 Jahren Länge. In Surrogatreihen - es sei nochmals daran erinnert, dass Surrogatreihen frei von unnatürlichen Trends sind - treten naturgemäß positive und negative natürliche Trends ∆/σ gleich häufig auf. Ferner kommen |∆/σ|-Werte zunehmender Stärke immer seltener vor. Dieser Effekt ist für den kleinsten Hurst-Exponenten von α ≈ 0.5 (weißes Rauschen, keine Persistenz) naturgemäß am stärksten. In reinen Zufallsreihen ohne Persistenz ist es tatsächlich sehr unwahrscheinlich,

7

Bild 3: Kumulierte Wahrscheinlichkeit W für lineare Trends ∆/σ in Abhängigkeit vom Hurst-Exponenten α in Surrogatreihen von 100 Jahren Länge [6]. Für positive Trends (∆ > 0) ist die linke y-Skala und die untere x-Skala gültig, für negative Trends die rechte y-Skala und die obere x-Skala. Die gestrichelte Linie bei W = 0,025 stellt ein Vertrauenslimit dar. Trends mit großen |∆/σ|-Werten aufzufinden. Diese Situation ist dem Würfeln analog. Es ist extrem unwahrscheinlich, dass gleiche Augenzahlen zu oft in Reihe vorkommen. Bei der Interpretation der Grafik in Bild 3 ist zu beachten, dass W kumulierte Wahrscheinlichkeiten sind. Dies sind hier Wahrscheinlichkeiten, einen Trend ∆/σ irgendeines beliebigen Wertes, der über oder gleich einer bestimmten Schwelle liegt, aufzufinden. Betrachten wir nun die Surrogatzeitreihen! Da in ihnen keine externen Trends vorkommen, enthalten sie im Mittel gleich viele positive und negative natürliche Trends. Nehmen wir einen extrem starken negativen Trend -∆/σ als Schwelle und irgend ein festes α an, so liegt die kumulierte Wahrscheinlichkeit W, in Surrogatreihe mit diesem α einen Trend größer oder gleich dieser extrem starken negativen Schwelle aufzufinden, naturgemäß nahe bei 1. Schließlich enthalten fast alle Surrogatreihen mit diesem α irgendwelche Trends, die sämtlich über -∆/σ liegen. Wird nun die (immer noch negative) Schwelle erhöht, verkleinert sich W. Die Schwelle ∆/σ = 0 schließlich wird im Mittel bereits von 50% aller Trends überschritten, daher ist W = 0,5. Liegt die Schwelle dann im positiven Bereich, wird W mit ansteigender Schwelle immer kleiner. Bei einem extrem hohen positiven ∆/σ verschwindet schließlich W allmählich. Das vorbeschriebene Verhalten zeigt die Grafik in Bild 3 mit konkreten Zahlen. Betrachten wir zur näheren Erläuterung 10.000 Surrogatreihen, alle mit α = 0,7 und einer Länge von 100 Jahren. Ferner ist zu beachten, dass für ∆/σ > 0 die untere x- und die linke y-Skala, für ∆/σ £

8

0 dagegen die obere x- und die rechte y-Skala gelten. Die Kurve für α = 0,7 beginnt für ∆/σ = 0 mit W = 0.5 bzw. dem Wert (1-W) = 0,5. In 10.000 Surrogatreihen sind somit 5000 Reihen mit Trends ∆/σ ≥ 0 und 5000 Reihen mit Trends ∆/σ £ 0 enthalten (es ist stets das statistische Mittel ohne Fehlerschwankungen gemeint). Diese aus Bild 3 abzulesende Erkenntnis erscheint trivial. Betrachten wir als nächstes den sehr starken, negativen Wert ∆/σ = -2,5. Dafür lesen wir aus der Grafik (1 – W) ≈ 10-3 ab. Dies bedeutet, dass 9990 von 10.000 Surrogatreihen der Länge von 100 Jahren und einem α = 0,7 einen 100-Jahrestrend von ∆/σ ≥ -2,5 aufweisen. Für den größeren Wert ∆/σ = -1 lesen wir (1 – W) = 0,1 ab, somit ist W = 0,9. Somit weisen 9000 Surrogatreihen Trends mit Werten von ∆/σ ≥ -1 auf. Für das noch größere ∆/σ = -0,5 sind wir bei (1-W) = 0,2 angekommen, also bei W = 0,8, d.h. 8000 Surrogatreihen enthalten Trends von ∆/σ ≥ -0,5. Wenn schließlich der Wert (1 – W) = W = 0,5 erreicht ist, erhält man, wie bereits beschrieben, 5000 Reihen mit ∆/σ - Werten ≥ 0. Gehen wir nun zu positiven Trends über, etwa zu ∆/σ = 1! Wir lesen hierfür W = 0,1 ab, somit enthalten nur noch 1000 Surrogatreihen Trends mit Werten ∆/σ ≥ 1. Für ∆/σ = 2,5 finden wir W = 0,001, also kommen in den 10.000 Surrogatreihen nur noch 10 Reihen mit Trends ∆/σ ≥ 2,5 vor. Man erkennt aus dem Diagramm, dass (für positive Trends) W um mehrere Größenordnungen zunimmt, wenn α nur innerhalb einer Größenordnung zunimmt. Mit Hilfe der Grafik von Bild 3 wird die Strategie des Verfahrens von LB deutlich. Ein Trend in einer real gemessenen Reihe wird als extern (unnatürlich) angesehen, wenn er in Surrogatreihen des gleichen α und der gleichen Länge zu selten vorkommt; genauer, wenn für positive Trends die kumulierte Wahrscheinlichkeit W < q bzw. für negative Trends W > (1 – q) aus Bild 3 abgelesen wird. q ist ein frei wählbares statistisches Vertrauenslimit, gewöhnlich nimmt man q = 0,025 oder 2,5%. In der praktischen Durchführung der Methode von LB wird der ∆/σ-Wert der gemessenen Reihe und danach mit der DFA-Analyse ihr Hurst-Exponent α ermittelt. Aus der Grafik von Bild 3 wird aus dem Wertepaar ∆/σ, α dann die kumulierte Wahrscheinlichkeit W abgelesen. Ergibt sich bei positiven Trends W < 0,025, liegt W also unter dem 2,5%-Limit, wird der Trend der realen Reihe als extern (unnatürlich) angesehen. Das ist anschaulich, denn Trendwerte die größer oder gleich dem in der realen Reihe beobachteten Trend sind, kommen in den von unnatürlichen Trends freien Surrogatreihen des gleichen α nur in weniger als 2,5% aller Fälle vor. Für negative Werte ist das Limit W = 0,975, also 97,5%. Wird aus der Graphik von Bild 3 ein W > 0,975 ermittelt, wird der beobachtete negative Trend als unnatürlich (extern) angesehen. Die Persistenzanalyse von Temperaturreihen nach der Methode LB wurde von den Autoren in [3], [4] publiziert. Insbesondere haben LB ihr Verfahren in [3] auf 30 Einzelreihen und 15 Globalreihen angewendet. Globalreihen zeigen freilich im Gegensatz zu Einzelreihen ungewöhnlich hohe α-Werte, die zum Teil sogar über 1 liegen. Damit wären viele Globalreihen instationär, Einzelreihen dagegen nicht, was widersprüchlich ist. Nach Auffassung des Autors des vorliegenden Aufsatzes wird dieser Effekt durch die Glättungs- und Homogenisierungseingriffe bei der Bildung von Globalreihen verursacht und macht daher Globalreihen zur Persistenzanalyse ungeeignet, s. hierzu auch die Kritik in [22]. Insbesondere wird durch Glättung bei der Globalreihenbildung die Standardabweichung σ unrealistisch klein und damit die Trends ∆/σ zu stark. Leider gibt es bis heute noch keine Arbeit, die dediziert auf diese Probleme von Globalreihen eingeht. Nach Auffassung des Autors sind daher die in [3] gezogenen Schlussfolgerung über die globale Erwärmung wegen der Verwendung von Globalreihen in Frage zu stellen. In einer Arbeit des Autors zusammen mit den Koautoren Dr. Link und Prof. Friedrich-Karl Ewert [6] wurden der oben beschriebenen Vorbehalte wegen Globalreihen grundsätzlich

9

ausgeschlossen. Mit dem Verfahren von LB wurden im Wesentlichen hier fast alle brauchbaren Einzelreihen weltweit - insgesamt etwa 2500 - analysiert. Für den Zeitraum von 1906 bis 2005 zeigen nur grob 30% aller Temperaturreihen aus Messtationen mit weniger als 1000 Einwohnern und unter 800 müNN einen unnatürlichen (externen) Trend. Ein ähnliches, nicht ganz so deutliches Ergebnis wurde für den Zeitraum von 1956 - 2005 gefunden. Daraus kann der Schluss gezogen werden, dass mit hoher Wahrscheinlichkeit das anthropogene CO2 nur unmaßgeblich zur Erwärmung im 20. Jahrhundert beigetragen hat. Dieses Ergebnis wird durch den weiteren Umstand gestützt, dass neben anthropogenen Treibhausgasen auch noch eine ganze Reihe weiterer Ursachen für den leichten Erwärmungstrend im 20. Jahrhundert in Frage kommen, zum Beispiel ein ungewöhnliches Verhalten der Sonne (Magnetfeld). Zur Vermeidung von Missverständnissen wird nochmals darauf hingewiesen, dass die in [6] und [3] verwendete Methode identisch ist, die Schlussfolgerungen auf Grund der stark unterschiedlichen Datensätze aber nicht übereinstimmen. Insbesondere wurde in [6] im Gegensatz zu [3] gefunden, dass die globale Erwärmung in der zweiten Hälfte des 20. Jahrhunderts „unnatürlicher“ als in der ersten Hälfte ist, was von [6] nicht bestätigt werden kann. Die Publikation [6] erfuhr hohe Resonanz, einige ihrer Besprechungen sind in [14-20] aufgeführt. 6. Zur heutigen Klimadiskussion Bis heute gibt es keine begutachtete Fachpublikation, die einen anthropogenen Einfluss auf das Klimageschehen stringent nachzuweisen vermag. Die heutige Klimadiskussion dreht sich daher im Wesentlichen nur noch um die modelltheoretische Frage, ob die aus Labormessungen hergeleitete, unmaßgeblich kleine Klimasensitivität des CO2 – sie liegt grob zwischen 0,5 °C und 1,1 °C – durch Mitkoppelungen verstärkt oder durch Gegenkoppelungen abgeschwächt wird. Eine verlässliche Antwort können nach dem bisher gültigen Paradigma physikalischer Forschung nur Messungen geben. Bis heute weisen bereits eine Reihe von Publikationen Gegenkoppelungen auf der Basis von Ballon- und Satellitenmessungen nach [7]-[11]. Messungen, die eindeutig Mitkoppelungen belegen, gibt es dagegen nicht, nur Klimamodelle mit dieser Eigenschaft. So ist beispielsweise der von diesen Klimamodellen geforderte Hot-Spot (eine Erwärmung in mehreren km Höhe über dem tropischen Gürtel der Erde) unauffindbar. Das vom IPCC entworfene Szenario einer durch anthropogenes CO2 verursachten, gefährlichen globalen Erwärmung wird infolgedessen zunehmend unwahrscheinlicher. Diese Einschätzung wird durch die in [6] publizierten Ergebnisse auf der Basis der modernen Persistenzanalyse gestützt. 7. Zusammenfassung Die moderne Persistenzanalyse von Lennartz und Bunde stellt einen wesentlichen Fortschritt gegenüber der „klassischen“ Persistenzanalyse dar [3], [4]. Sie erlaubt es erstmalig, die kumulierte Wahrscheinlichkeit anzugeben, mit der ein in einer Temperaturreihe auftretender linearer Trend externe Ursachen hat und daher nicht auf natürliche Weise durch Persistenz der Temperaturreihe entstanden sein kann. Mit historischen Temperaturreihen aus dem GISS-Pool wurde für den Zeitraum 1906-2005 mit der Methode von LB nachgewiesen, dass nur etwa 30% aller Reihen von Messtationen mit weniger als 1000 Einwohnern und Höhenlagen unter 800 müNN externe Trends aufweisen [6]. Die Ursachen dieser Trends sind unbekannt. Neben anthropogenem CO2 kommen ungewöhnliche Sonnenaktivität und weitere noch nicht näher bekannte Antriebe in Frage. Infolgedessen kann das anthropogene CO2 bei der in klimahistorischem Maßstab ohnehin geringfügigen Erwärmung im 20. Jahrhundert nur eine unbedeutende Nebenrolle gespielt haben. Dieser Befund wird durch die jüngste globale Abkühlung, die nunmehr bereits etwa 17 Jahre andauert, untermauert.

10

8. Literaturnachweise [1] D.L. Turcotte: Fractals and Chaos in Geology and Geophysics, 2nd ed., Cambridge University Press, Cambridge, 1997 [2] J.W. Kantelhardt: Fluktuationen in komplexen Systemen, Habilitationsschrift, Univ. Gießen, 2004: www.physik.uni-halle.de/Fachgruppen/kantel/habil.pdf [3] S. Lennartz and A. Bunde: Trend evaluation in records with long-term memory: application to global warming, Geophys. Res. Lett., 36, L16706, doi:10.1029/2009GL039516, 2009 [4] S. Lennartz and A. Bunde: Distribution of natural trends in long-term correlated records: a scaling approach, Phys. Rev. E84, 021129, doi:10.1103/PhysRevE84.021129, 2011 [5] J.F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin, and H.-J. Schellnhuber: Power-law persistence and trends in the atmosphere: A detailed study of long temperature records, Phys. Rev. E68, 046133, 2003 [6] H.-J. Lüdecke, R. Link, and F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10, 2011, http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf [7] G. Paltridge, A. Arking, and M. Pook: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol., 98, p. 351-359, 2009 [8] R.W. Spencer, and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth's radiant energy balance, Remote. Sens. 3, p. 1603-1613, 2011 [9] R.S. Lindzen and Y.-S. Choi: On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705, 2009 [10] R. Allan: Combining satellite data and models to estimate cloud radiative effect at the surface and in the atmosphere, Meteorol. Appl., 18, p. 3245-333, 2011 [11] H. Harde: How much CO2 really contributes to global warming? Spectroscopic studies and modelling of the influence of H2O, CO2 and CH4 on our climate, Geophys. Res. Abstracts, 13, EGU2011-4505-1, 2011 [12] R. Muller, BEST, Berkeley University, 2011 [13] http://de.wikipedia.org/wiki/ARMA-Modell [14] http://judithcurry.com/2011/11/07/two-new-papers-vs-best/ [15] http://judithcurry.com/2011/11/08/tols-critique-of-the-ludecke-et-al-papers/ [16] http://judithcurry.com/2011/11/10/ludecke-et-al-respond/ [17] http://judithcurry.com/2011/11/15/ludecke-et-al-respond-part-ii/ [18] wmbriggs.com/blog/?p=4630 [19] http://www.focus.de/wissen/wissenschaft/klima/weltklimakonferenz_2011/tid-24293/weltklimakonferenz-viel-laerm-um-nichts_aid_687885.htm [20] WUWT: http://tinyurl.com/ae342yp [21] A. Bunde und J.W. Kantelhardt: Langzeitkorrelationen in der Natur: von Klima, Erbgut und Herzrythmus, Physikalische Blätter 57, Nr. 5, S. 49-54, 2001 [22] E. Steirou and D. Koutsoyiannis: Investigation of methods for hydroclimatic data homogenisation, European Geosciences Union General 2012, Vienna Austria 22-27 April 2012, Session HS.4/AS4.17/CL2.10, http://itia.ntua.gr/en/docinfo/1212/, 2012 [23] http://tinyurl.com/an65tf3 [24] H. Makse et al.: Method for Generating Long-Term Correlations for Large Systems, ArXiv, http://arxiv.org/abs/cond-mat/9512024

1

Der Wolkeneffekt, wie funktioniert er?

Die Spencer Hypothese über den Einfluss der Wolken bei der Suche nach dem richtigen Feedbackwert

Horst-Joachim Lüdecke

Sept. 2011 1. Roy Spencer WIKIPEDIA schreibt: Roy W. Spencer (* 20. Dezember 1955) ist Forschungsleiter an der Universität Alabama in Huntsville und Leiter des US Wissenschaftlerteams für das Advanced Microwave Scanning Radiometer (AMSR-E) des NASA-Satelliten Aqua. Er war am NASA Marshall Space Flight Center im Bereich der Klimaforschung tätig. Spencer ist vor allem wegen seiner Arbeiten im Bereich der Satelliten-gestützten Temperaturmessung bekannt, für die er mit dem Special Award der American Meteorological Society ausgezeichnet wurde. Spencer steht dem wissenschaftlichen Konsens bezüglich der menschengemachten globalen Erwärmung skeptisch gegenüber und ist zudem ein Anhänger von Intelligent Design. Die nachfolgende kleine Studie bezieht sich insbesondere auf seine Veröffentlichungen [1-3]. 2. Kochtöpfe und unsere Erde Ausgangspunkt der Arbeiten von Roy Spencer ist die geläufige physikalische Erkenntnis, dass ein Körper eine Temperaturänderung erfährt, wenn seine Wärmezufuhr nicht mit seinem Wärmeverlust im Gleichgewicht steht (Bild 1). Das Wasser in einem Kochtopf erwärmt sich so lange, bis schließlich ein Gleichgewicht zwischen der Wärmezufuhr zum Topf, verursacht durch die heiße Herdplatte und dem Wärmeverlust des Kochtopfs an seine Umgebung erreicht ist. Kurz gesagt „Energiefluss-Ungleichgewicht bewirkt Temperaturänderung“ Die Wärmeverluste des Kochtopfs erfolgen durch Verdampfung seines Inhalts – dabei wird latente Wärme an die Umgebungsluft übertragen –, durch Konvektion infolge der Luftumströmungen des Topfs und schlussendlich durch Infrarotabstrahlung.

2

Bild 1: Die Temperatur des Kochtopfinhalts ist erst dann konstant, wenn der dem Kochtopf zugeführte Wärmefluss gleich dem vom Kochtopf an die Umgebung abgegebenen Wärmefluss ist. Bei der Erde entfallen alle Verlustarten des Kochtopfs, mit Ausnahme der Infrarot-Abstrahlung ins Weltall. Die Herdplatte entspricht der Sonne. Weitere denkbare Energiequellen der Erde spielen keine Rolle, etwa der Wärmefluss aus dem warmen Erdinneren in die Atmosphäre, der nur etwa 1% der Sonnenheizung ausmacht. Unter welchen Umständen sich die Erde erwärmt oder sich abkühlt, wird jetzt sofort verständlich. Erwärmung erfolgt, wenn sich die Sonneneinstrahlung erhöht – etwa durch weniger abschirmende Wolken –, oder wenn sich die IR-Abstrahlung verringert – etwa durch stärkere Wolkenbedeckung, durch Aerosole bei globalweit spürbaren Vulkanausbrüchen, oder durch zunehmende Treibhausgase. Abkühlung erfolgt, wenn sich die eingestrahlte Sonnenenergie verringert, oder wenn sich das abgestrahlte IR erhöht. In allen Fällen wird, wie im Beispiel des Wassertopfs auf dem Herd, ein neues Temperaturgleichgewicht der Erde erreicht. Die Wirkung einer sich hypothetisch verdoppelnden CO2-Konzentration, die die IR-Abstrahlung ins Weltalle verringert, ist freilich sehr klein, und die Erde erwärmt sich dabei – wie es die Klimawissenschaft angibt – gerade einmal um grob 1 °C. Die Zeitskalen von Herdtöpfen und Erde sind allerdings extrem verschieden. Wassertöpfe erreichen ihre neue Gleichgewichtstemperatur in Minuten, die Erde erst in Jahren. 3. Rückkoppelung (Feedback) Wolken (nicht zu verwechseln mit Wasserdampf!) werden heute als eine der maßgebenden Klimatreiber angesehen. Leider weiß man über sie trotz intensiver Forschung und unzähliger Satellitenmessungen immer noch viel zu wenig. Durch Satellitenmessungen ist gesichert, dass eine geringere niedrige Wolkenbedeckung mit lokaler Erwärmung einhergeht – eine triviale Feststellung, denn die Abschirmungswirkung der Sonneneinstrahlung wird dabei kleiner. Die alles entscheidende Frage, die uns noch beschäftigen wird und auf die bis heute niemand eine verlässliche Antwort geben kann, lautet aber: Was ist Ursache, was Wirkung? Ist es eine abnehmende Wolkenbedeckung, die eine Erwärmung induziert, oder ist es umgekehrt die Erwärmung, die zu einer geringeren Wolkendichte führt? Es wird sich zeigen, dass in der Lösung dieses Problems auch der Schlüssel zur Lösung der Frage liegt, ob anthropogenes CO2 maßgebend unser Klima beeinflusst oder nicht.

3

Es gibt gute Gründe anzunehmen, dass Feedback (Rückkoppelung) das einfache „Kochtopf-Bild“ einer Erde im Strahlungsgleich-, bzw. -ungleichgewicht ergänzt. So kann, wie bereits erwähnt, eine Erwärmung der Atmosphäre die Wolkenbedeckung beeinflussen, und umgekehrt kann eine sich ändernde Wolkenbildung auf die Erdtemperaturen einwirken. Bei Erwärmung bildet sich insbesondere in den Tropen über dem Meer mehr Wasserdampf, und die Luft wird feuchter. Der Wasserdampf verändert wiederum über seine Treibhaus-wirkung das Strahlungsgleichgewicht der Erde, denn Wasserdampf ist das stärkste natürliche Treibhausgas. Um zuerst ein anschauliches Bild von Feedback zu erhalten, stellen wir uns ein Auto mit einer halb geöffneten Seitenscheibe vor. Bei stark bewölktem Himmel, also fehlender Sonneneinstrahlung, stellt sich in etwa die Außentemperatur auch im Wageninneren ein. Verschwinden die Wolken und kommt jetzt die Sonne heraus, erhöht sich die Innentemperatur solange, bis ein neues Wärme-Gleichgewicht erreicht ist, wobei der Wärmeabfluss aus dem Seitenfenster angestiegen ist. Um keine Missverständnisse aufkommen zu lassen: im Autobeispiel werden Temperaturänderungen praktisch nur durch Konvektionsbehinderung bewirkt – erwärmte Luft kann nicht entweichen –, bei der Erde jedoch, die keine geschlossene Hülle aufweist, ausschließlich durch Strahlungsvorgänge. Für unser Beispiel ist dieser Unterschied aber unwesentlich.

Bild 2: Ein Auto mit halb geöffnetem Seitenfenster bei herauskommender Sonne Feedback kann man sich in Bild 2 durch ein weiteres Zu- oder Aufdrehen des halb geöffneten Seitenfensters ab dem Moment klarmachen, in dem die Sonne herauskommt und sich der Innenraum des Fahrzeugs zu erwärmen beginnt. Wird es im Auto wärmer, könnte ein Temperaturfühler zusammen mit einem Fenster-Steller das Seitenfenster ein wenig weiter öffnen. Dann fließt mehr Wärme durch das Seitenfenster ab, und die Innentemperatur steigt vergleichsweise weniger an, man spricht in diesem Zusammenhang von negativem Feedback. Der Steller könnte das Seitenfenster aber bei Temperaturerhöhung auch etwas weiter schließen. Damit wird die Erwärmung im Autoinneren verstärkt, und dies wird in der Klimatologie positiver Feedback genannt. Zu betonen ist, dass es in keinem Fall zu einem „Run Away“ der Auto-Innentemperatur kommt. Bei positivem Feedback erhöht sie sich über den Temperaturwert hinaus, der sich bei unbewegter Seitenscheibe eingestellen würde, bei negativem Feedback erniedrigt sie sich vergleichsweise. Analog verhält es sich mit Erdtemperaturen bei einem plötzlich eintretenden Strahlungsungleichgewicht, wie es bei einem extrem großen, globalweit spürbaren

4

Vulkanausbruch mit riesigen Mengen ausgestoßener Aerosole, oder bei sich globalweit verändernder Wolkenbedeckung oder bei zunehmenden Treibhausgasen erzeugt wird. Auch hier gibt es keinen „Run Away“. Nur das Temperaturgleichgewicht verschiebt sich zu einem neuen Wert hin. Das einfache Autofensterbeispiel erlaubt unmittelbar noch eine weitere wichtige Erkenntnis, die uns weiter unten bei der Interpretation von Satellitenmessungen hilfreich sein wird. Hierzu tragen wir die Abweichung der Autoinnentemperatur vom ursprünglichen stationären (= zeitkonstanten) Gleichgewichtswert auf der x-Achse und die Abweichung des Energieflusses vom anfänglichen Energiefluss durch das Seitenfenster auf der y-Achse eines Diagramms auf - solche Abweichungen vom Mittelwert werden als „Anomalien“ bezeichnet.

Bild 3: Stationäre Gleichgewichtszustände von Auto-Innentemperatur- und Energiefluss-anomalie infolge etwas weiter schließenden oder etwas weiter öffnenden Seitenfensters nach Herauskommen der Sonne (für das Auto-Beispiel ist nur der positive Anomaliebereich relevant). Die sich einstellenden Gleichgewichtspunkte nach beginnender Sonneneinstrahlung sind: Z – unbewegtes Seitenfenster, N – das Seitenfenster wird weiter geöffnet (negatives Fedback), P – das Seitenfenster wird weiter geschlossen (positives Feedback). Der Nullpunkt des Diagramms in Bild 3 entspricht dem ursprünglichen Gleichgewichts-zustand im Auto, in welchem sich weder die Temperatur im Innenraum noch der konstante Energieverlust durch das Autofenster ändern. Nun kommt die Sonne hervor, und es beginnt im Innenraum wärmer zu werden. Bleibt das Seitenfenster unbewegt (halb offen), bewegt sich in Bild 3 der Zustandspunkt solange auf der nach Z gerichteten Geraden, bis schließlich Z als neues Gleichgewicht erreicht ist. Wird das Seitenfenster dagegen etwas weiter geöffnet (negatives Feedback), erhöht sich der Energieabfluss, so dass die Innentemperatur vergleichsweise weniger zunimmt und sich der neue Zustandspunkt auf der zu N gerichteten Geraden bewegt, bis N erreicht ist. Wird das Fenster umgekehrt weiter geschlossen, fließt weniger Energie durchs Fenster ab, und die Innentemperaturanomalie wird größer – es ergibt sich schließlich der neue Zustandspunkt P. Wir behalten im Auge, dass im Diagramm von Bild 3 flache Geraden positives Feedback und steile Geraden negatives Feedback anzeigen.

5

Dieser Zusammenhang wird später bei der Interpretation von Satellitendaten eine entscheidende Rolle spielen. 4. Die dynamische (zeitabhängige) Strahlungsbilanzgleichung Leider ist es praktisch unmöglich, ohne nähere Betrachtung der Strahlungsbilanzgleichung eine zielstellende Beschreibung des Feedback vorzunehmen. Die Gleichung ist zum Glück sehr einfach und enthält folgende Größen: t - Zeit [s] Cp - Wärmekapazität des Klima maßgebenden Teils der Erde [J/K/m2], von der Physik definiert als Quotient von Energiezufuhr ∆E zu resultierender Temperaturänderung ∆T eines Körpers T(t) - Temperaturabweichung des Strahlungsgleichgewichtszustands von der zeitgemittelten globalen Oberflächentemperatur [K] F(t) - Energiefluss [W/m2] λ - Feedback-Faktor [WK-1m-2] Zur Wärmekapazität Cp: Sie wird für den Teil der Erdoberfläche genommen, der klimarelevant ist. Dies sind etwa 50 m Wassertiefe, wenn man die Erde - in guter Näherung - als „Wasserplanet“ ansieht, denn 2/3 der Erde sind von Ozeanen bedeckt. Da F(t) pro m2 angegeben ist, müssen auch alle anderen Größen auf 1 m2 bezogen sein. Für Cp ist daher nicht die gesamte Wasseroberfläche der Erde sondern nur 1 m2 zu nehmen, also die Wärmekapazität eines 50 m hohen Blocks Wasser, der eine Fläche von 1 m2 aufweist (≈ 209000000 J/K). Im Zeitraum ∆t ist nun die Änderung des globalen Strahlungsgleichgewichts ∆E = Cp·∆T gleich der Energieänderung F(t)·∆t aus dem Forcing abzüglich eines Feedback-Terms λ·T(t)·∆t. Dies führt zu der Differenzengleichung (bzw. für ∆t →0 zur entsprechenden Differentialgleichung)

( ) ( ) ( )pT tC F t T t

tλΔ

= − ⋅Δ

(1)

Glg.(1) vereinfacht sich, wenn man nur den sich nach einer Temperaturänderung einstellenden stationären Endzustand betrachtet. Dann gilt ∆T/∆t = 0, und es folgt F Tλ= ⋅ (2) An Hand von Glg. (1) und (2) ist die bisher nur anschaulich hergeleitete Situation von Bild 3 bestens bestätigt. Zwischen F – im angloamerikanischen Sprachgebrauch „Forcing“ – und der Temperatur T besteht ein linearer Zusammenhang, und der Quotienten F/T ist als Steigung der entsprechenden Geraden der Feedback-Faktor λ. Ein großes λ liefert gemäß Glg. (2) eine steile Gerade im F-T Diagramm (Bild 3), und, da λ mit negativem Vorzeichen in Glg.(1) eingeht, ein negatives Feedback. Ein kleines λ dagegen wirkt weniger abschwächend, dies wird, obwohl kein Vorzeichenwechsel von λ erfolgt, dennoch als positives Feedback bezeichnet. Die Benennungen sind somit nicht ganz stimmig, aber in der Klimatologie eben so üblich. Wir halten nochmals für das Anomalie-Diagramm Wärmefluss gegen Temperatur fest: Der Feedback-Faktor λ ist die Steigung der zugehörigen Geraden

6

Glg. (1) kann problemlos numerisch gelöst werden, wenn man ausreichend nahe beieinanderliegende Zeitpunkte t0, t1, .... mit konstanten Abständen ∆t = ti+1 – ti betrachtet. Sie ist schrittweise mit einem Verfahren lösbar, das erstmals von dem berühmten Mathematiker Leonard Euler (1707-1783) angewandt wurde und zu dessen Ehren „EULER’sches Streckenzugverfahren genannt wird. Hierbei entsprechen die Differenzen ∆ den Zeitdifferenzen ti+1 - ti, ∆T wird zu Ti+1 – Ti usw. Aus Glg. (1) wird damit die Iterationsvorschrift mit den Indizes i = 0,1,2,......

[ ]11

i i i ip

T T F T tC

λ+ = + − ⋅ ⋅Δ (3)

mit dem Startwert T0 und mit der konstanten Zeitdifferenz ∆t = ti+1 – ti. Zur Vereinfachung wählen wir willkürliche Werte ohne konkrete Bedeutung und zwar λ = 2, Falt = 2.4, Fneu = 3 (Fneu ab dem Zeitpunkt t6) und Cp = 1.3. Um einen stationären Anfangszustand mit ∆T/∆t = 0 einzustellen, muss nach Glg. (2) als erster Temperaturwert T0 = F/λ genommen werden. Um ferner eine von T0 ausgehende Anomalie-Skala zu erhalten, wird als Ergebnis an Stelle von Ti die Anomalie (Ti – T0) grafisch aufgetragen. Beispiele für λ = 1.2 und λ = 2.5 zeigen Bild 4. Zur Erläuterung: betrachten wir das linke Teilbild. Im stationären Zustand vor Einsetzen der Störung (von F = 2.4 auf F = 3) ist 2.4/λ = 2.4/1.2 = 2 =T0. Nach Einsetzen der Störung ergibt sich nach ausreichend langer Zeit 3/λ = 3/1.2 = 2.5 = T sowie T - T0 = 0.5. Diese Werte können gut aus Bild 4 abgelesen werden.

Bild 4: Temperaturänderung auf Grund eines veränderten Forcing (man denke an einen großen, plötzlichen Vulkanausbruch, oder an langsam ansteigendes CO2) von F = 2.4 auf F = 3, das hier plötzlich zum Zeitpunkt t = 0.6 einsetzt, einmal mit dem Feedback-Faktor λ = 1.2 (linkes Teilbild), zum zweiten mit λ = 2.5 (rechtes Teilbild). Ein größeres λ entspricht, da es mit negativem Vorzeichen in Glg .(1) eingeht, einem abschwächenden (negativen) Feedback, ein kleineres λ einem verstärkenden (positiven) Feedback. Daraus folgt, wie das rechte Teilbild zeigt, die kleinere Temperaturanomalie (Ti – T0) für λ = 2.5 verglichen mit λ = 1.2 .

7

Die alles entscheidende Kernfrage, um die es bei der Auseinandersetzung zwischen AGW-Verfechtern mit ihren Klimamodellen und den die Messwerte favorisierenden Forschern, wie Roy Spencer geht, lautet „Wie groß ist das reale λ der Erde?“. Diese Frage sollte eigentlich schnell entschieden werden können. Und so ist es auch – leider aber ohne die Zusatzeffekte, um die es in der Auseinandersetzung geht. Das λ der Erde, in der Literatur ist von „black-body response“ oder „Stefan-Boltzmann radiativ damping“ die Rede, wird zu λ = 3.3 Wm-2K-1 angegeben [11]. Der Wert ist im Grunde gut bekannt, so werden z.B. in [4], [8] aus 3.7 Wm-2 Forcing des sich verdoppelnden anthropogenen CO2 1.1 °C globaler Temperaturerhöhung abgeleitet. Daraus folgen dann für 1 °C in etwa die bereits genannten 3.3 Wm-2K-1. Erläuterung: Die genannten 3.7 Wm-2, die aus Labormessungen über die Infrarotabsorption von CO2 hergeleitet werden, sind unsicher. In [9] werden wesentlich kleinere Werte nachgewiesen. Die 3.3 Wm-2K-1 sind der Referenzwert, an dem man sich orientiert. Werte darüber bedeuten negatives Feedback, Werte darunter positives. Die Abweichungen vom Referenzwert entstehen, wenn sich dem „black-body response“ andere Effekte überlagern, wie z.B. die vom IPCC bevorzugte Wasserdampfrückkoppelung oder Effekte, die nicht verstärkend, sondern umgekehrt dämpfend wirken [10], [11]. Um jetzt einige Zahlenwerte zu nennen, so verwenden die IPCC-Klimamodelle λ Werte zwischen 0.89 J/(Ks) und 1.89 J/(Ks). Damit sind die Temperaturkatastrophen-Projektionen gut verständlich. Es stellt sich aber die Frage, ob diese IPCC-Projektionen realistisch sind. 5. Kann man das reale Feedback der Erde ermitteln? Wie schon erwähnt und wie es das IPCC und seine wissenschaftlichen Meinungsgegner gleichermaßen bestätigen, bewirkt eine (hypothetische) Verdoppelung der CO2 Konzentration in unserer Atmosphäre eine Verringerung des IR-Energieabflusses von der Erde in den Weltraum von grob 3,7 W/m2, was zu einer globalen Temperaturerhöhung von ebenfalls grob 1 °C führt. Dieser Wert versteht sich ohne Feedback, und er ist direkt nicht messbar. Praktisch ist er harmlos und völlig unbedenklich, denn um CO2 Verdoppelung zu erreichen, müsste die Menschheit schon alle fossilen Brennstoffreserven verfeuern, was unrealistisch erscheint. Eine weitere Konzentrationserhöhung wirkt sich außerdem in etwa logarithmisch aus, so dass jede weitere Konzentrationsverdoppelung immer nur die genannten 1 °C globaler Erwärmung bewirken, also bei einer Vervierfachung und Verachtfachung der CO2-Konzentration. All dies bezieht sich auf den Fall des „natürlichen“ Feedback, also den bereits genannten 3.3 Wm-2K-1 als „black-body response“. Kommt zusätzliches Feedback ins Spiel, wird es undurchsichtig. Woran liegt das? Wenn wir auf der Erde eine globale Temperaturänderung messen, muss diese von einem veränderten Energieflussgleichgewicht der Erde verursacht worden sein. Leider kennt man das verursachende Forcing aber nicht, sieht man von Ausnahmen, wie globalweit spürbaren, extrem starken Vulkanausbrüchen ab, deren Forcing man aus Messungen zumidest grob abschätzen kann. Die Temperaturänderungen der Erde kann man dagegen heute mit Hilfe von Satelliten recht genau messen. Sie können entweder durch ein starkes Forcing verursacht worden sein, oder aber durch ein schwaches Forcing, das durch positives Feedback noch verstärkt wurde. Und schließlich ist noch der dritte Fall möglich, dass das Forcing zwar stark ist, aber durch negatives Feedback abgeschwächt wurde. Die Natur bevorzug, wenn Spencer, Paltridge, Lindzen und ihre Mitautoren recht haben, diesen dritten Weg. Da man, wie schon betont wurde, das verursachende Forcing nicht oder nur sehr schwer messen kann, scheiden sich jetzt die „Geister“. Wenn man ein Forcing nicht kennt, liegt es nahe, nach Indizien zu suchen, die etwas über seinen unbekannten Wert aussagen. Dabei ergeben sich widersprüchliche Signale, wobei, wie sich herausstellen wird, dem IPCC der

8

Vorwurf zu machen ist, Indizien, die negatives Feedback anzeigen, zu ignorieren [11]. Aber der Reihe nach! Betrachten wir als erstes das vom IPCC angeführtes Indiz der extrem wechselnden Erdtemperaturen der letzten 400.000 Jahre, also die Warm- und Kaltzeiten, wie sie uns aus Eisbohrkernanalysen der Arktis bekannt sind (Bild 5).

Bild 5: Globale Mitteltemperaturanomalie, rekonstruiert aus Eisbohrkernen der Antarktis. Die Temperaturfluktuationen werden gemäß der Hypothese des serbischen Forschers Milankovitch gewöhnlich mit langfristigen Veränderungen der Erdumlaufbahn in Zusammen-hang gebracht. In neuerer Zeit sind insbesondere die Veröffentlichungen [12], [13] hinzuge-kommen. Da dieses Forcing nur äußerst schwach sein kann, die sich hieraus ergebenden Temperaturänderungen aber sichtbar dramatisch sind, liegt die Annahme von einem starken positiven Feedback – insbesondere einem von CO2 verursachten – nahe. Ein näheres Eingehen auf dieses Argument würde hier zu weit führen, es reicht aber aus, darauf hinzuweisen, dass gemäß dem bekannten MIT Mathematiker Carl Wunsch die Milankovitch-Zylen mit den Erdtemperaturen nicht besser als zufällig korrelieren [5]. Am Rande: C. Wunsch ist auch für eine pikante wissenschaftlich Auseinandersetzung mit Stefan Rahmstorf vom PIK bekannt. Rahmstorf gelangte über wissenschaftliche Fachkreise hinaus mit seiner Hypothese vom möglicherweise infolge anthropogener Erwärmung abbrechenden Golfstrom in die Medien. Widerlegende Fachveröffentlichungen von C. Wunsch haben dieser Hypothese schnell den „Garaus“ gemacht, heute spricht niemand mehr vom „abbrechenden“ Golfstrom. Man darf daher vermuten, dass Rahmstorf nicht gerade als enger Freund von C. Wunsch bezeichnet werden kann. Der sehr gute Gleichlauf (Korrelation) von Temperaturen mit CO2-Konzentration (nicht in Bild 5 enthalten) entpuppt sich bei feinerer Zeitauflösung im Übrigen als ein Hinterherlaufen des CO2 den Temperaturen um etwa 800 Jahre. So lange braucht ein Weltmeer um sich umzuwälzen, so dass der beobachtete Zusammenhang bestens mit der verminderten Löslichkeit von CO2 in wärmeren Meerwasser erklärbar ist und gemäß dem bewährten Ockham-Prinzip keine neue Hypothese benötigt. Die Frage, welches Forcing denn nun die erdhistorischen Warm- und Kaltzeiten verursacht hat, ist infolgedessen bis heute noch nicht entschieden. Wesentlich stichhaltiger ist dagegen das IPCC-Argument, das sich aus einer (naiven) Betrachtung von Satellitendaten ergibt, wie sie in nachfolgendem Bild 5 gezeigt werden, das aus [2] entnommen wurde.

9

Bild 6: Satellitenmessungen von Strahlungs- gegen Temperaturanomalien. Die Graphiken entsprechen der erläuternden Situation in Bild 3. Zum besseren Verständnis sei etwas genauer erläutert, was in Bild 6 dargestellt ist. Der CERES Satellit hat ein Auge auf die Sonne SW (short wave) und ein anderes auf die Erde LW (long wave) gerichtet. Die Differenzen der beiden Strahlungsflüsse (LW-SW) sind auf der y – Achse aufgetragen. Ferner misst CERES die Temperaturen T der tiefen Atmosphäre, diese Wert sind auf der x – Achse aufgetragen. Jeder Punkt ist ein Zustandspunkt (LW-SW) gegen T zu einem bestimmten Zeitpunkt t. Die Zeit t kommt in den Diagrammen von Bild 6 nicht vor. Die Satellitendaten in Bild 6 deuten mit ihren vorwiegend flachen Regressionsgeraden auf ein kleines λ von Glg. (1) und damit auf ein stark positives Feedback hin, so dass der Einbau dieser Art von starkem (unbekannten) Feedback in die Klimamodelle des IPCC sogar nachvollziehbar ist. Das IPCC spricht in seinen fiktiven „Modellprojektionen“ mit solchen ebenso fiktiven, kleinen λ Werten von Temperatursteigerungen infolge CO2-Verdoppelung von bis zu 6 °C und sogar noch darüber hinaus. Die erdgeschichtliche Vergangenheit zeigt

10

indes, dass die IPCC-Modelle (drücken wir es einmal vorsichtig aus) fragwürdig sind. Niemals ist ein so starkes Feedback schlüssig nachgewiesen worden. Was stimmt hier nicht? 6. Wolken Spencer teilt das „Forcing“ von Glg. (1) in ein „Strahlungs-Forcing“ N(t) und ein „Nicht-Strahlungs-Forcing“ auf. Glg. (1) wird mit F(t) = N(t) + S(t) dann zu

( ) ( ) ( ) ( )pT tC N t S t T t

tλΔ

= + − ⋅Δ

(4)

Das Strahlungs-Forcing N(t) entsteht im Wesentlichen durch die relativ schnell fluktuierende Wolkenbedeckung, die damit eine entsprechend rasch fluktuierende Temperaturänderung bewirkt. Feedback spielt bei diesem Mechanismus keine Rolle. Nicht-Strahlungs-Forcing ist zum Beispiel durch die Fluktuationen im Temperaturaustausch zwischen der Oberflächenschicht und dem Tiefenwasser in Ozeanen bedingt. S(t) stellt einen wesentlich langsameren Prozess als das N(t) durch Wolken dar. Ferner enthält S(t) Feedback. Um im vorgenannten Ozean-Beispiel zu bleiben, beeinflusst die Wassertemperatur des Ozeans die Temperatur der Atmosphäre, diese wirkt wiederum auf die Wassertemperatur zurück usw. Der entscheidende Punkt, den Spencer betont, ist nun Satelliten messen das Strahlungs-Forcing N(t) zusammen mit dem Feedback λ·T(t), d.h. die Überlagerung beider Effekte! Es gibt ohne weiteres keine Möglichkeit, das gesuchte λ·T(t) in dieser Mischung zu erkennen. Ermittelt man daher, wie es uns das IPCC naiv(?) vormacht, aus der Steigung einer Regres-sionsgeraden in Bild 5 (s. auch Bild 3 bzw. Glg. (2)) den gesuchten Feedback-Parameter λ, so ermittelt man unvermeidbar und fälschlicherweise das gesuchte λ aus einer vom Satelliten gemessenen Mischung von N(t) und λ·T(t). Spencer weist nach, dass das schnell fluktuierende N(t) die Geradensteigungen in Bild 5 bzw. Bild 3 generell zu viel zu kleinen Werten λ herunter zieht, die dann in die IPCC-Modelle eingehen. Infolge des Wolkeneinflusses, der sich in N(t) manifestiert, verwenden somit die IPCC-Modelle zu kleine Feedback-Parameter, oder anders ausgedrückt, ein in der Realität gar nicht vorhandenes, stark positives Feedback. Bemerkenswert ist, dass die Argumentation von Spencer mit jedem PC, auf dem EXCEL läuft, leicht nachvollzogen werden kann. Extrem teure Superrechner, wie sie in der Klimaforschung eingesetzt werden, sind gar nicht nötig! Spencer hat nämlich auf seiner Website ein EXCEL-Spreadsheet zum Herunterladen zur Verfügung gestellt, mit welchem die Differenzengleichung Glg. (4) mit unterschiedlichen Parameterwerten und Verläufen von S(t) und N(t), die per Zufallsgenerator erzeugt werden, ganz allgemein gelöst werden kann [6]. Für Leser, die ein wenig mit EXCEL-Program-mierung und der einfachen Numerik bei der Lösung von Glg. (4) vertraut sind, bereitet die Anwendung dieses Spread-Sheets keine Probleme. Man kann durch entsprechend unterschiedliche Forcings, die dann jeweils mehr oder weniger das N(t) gegenüber dem S(t) betonen, die gleichen Verteilungen simulieren, wie sie auch in den realen Satellitenmessungen beobachtet werden. Mit dem Spreadsheet von Spencer lässt sich daher anschaulich demonstrieren, wie die Geradensteigungen λ (Bild 3 und Bild 5) bei zunehmenden Anteilen des Strahlungs-Forcings N(t), d.h. bei fluktuierender Wolkenbedeckung, immer kleiner werden und wie erst mit sehr kleinem N(t) der tatsächliche Feedback-Parameter λ überhaupt verlässlich zu ermitteln ist. Leider tut uns die Natur nicht den Gefallen, nur das λ·T(t) den

11

Satelliten zu liefern, das die Auswertung der Messung zerstörende N(t) ist immer dabei. Bild 7 zeigt zwei vom Autor gerechnete Beispielfälle mit dem Spread-Sheet von Spencer.

Bild 7: Links eine mit dem EXCEL-Spread-Sheet von Spencer [6] simulierte Satellitenmes-sung mit starkem „Wolkenanteil“ N(t), der zu kleiner Geradensteigung und damit zu starkem positiven Feeback führt. Rechts die gleiche Rechnung mit schwachem Wolkenanteil, also negativem Feedback. Aus dem Vergleich wird deutlich, dass die stets vorhandene, fluktuierende Wolkenbedeckung den gesuchten Geradenverlauf ∆F / ∆T = λ und damit das gesuchte λ in den realen Satellitenmessungen bis zur Unkenntlichkeit maskiert. Die Arbeiten von Spencer und Braswell schildern weiterhin nicht nur, wie ein naturgemäß immer vorhandenes N(t) es extrem schwierig macht, das gesuchte Feedback λ sauber zu ermitteln, sie versuchen auch zu zeigen, wie sich das Wolkenforcing N(t) im Detail auswirkt. Hierzu wird insbesondere der zeitliche Verlauf der in Bild 6 bzw. Bild 7 dargestellten Messpunkte herangezogen, der bisher nicht berücksichtigt wurde. Zu diesem Zweck werden zeitlich aufeinanderfolgende Messpunkte in Bild 6 miteinander verbunden, so dass Zeittrajektorien entstehen, die zusätzliche Informationrn enthalten [2]. In [2] und [3] werden zudem Kreuzkorrelationen („lead and lag regression“) zwischen den monatlichen Temperaturanomalien und den Flux-Anomalien analysiert. Mit „Kreuzkorrelation“ ist gemeint, dass die Korrelation von zueinander zeitverschobenen T und (LW-SW) Werten ermittelt wird. An dieser Stelle ist in der vorliegenden Beschreibung die wissenschaftliche Front erreicht. Die Auseinandersetzung von Spencer (zusammen mit seinen Mitautoren und weiteren Autoren) mit dem IPCC, das sich in nicht nur im Falle Spencer mit bemerkenswerter Schnelligkeit und Heftigkeit an Widerlegungen macht, ist komplex, und die Argumente gehen über eine vereinfachte Beschreibung der Zusammenhänge, wie sie hier versucht wurde, weit hinaus. Zur weiteren Information muss daher auf die Originalarbeiten von Spencer und die

12

diese Arbeit (angeblich) widerlegende Arbeit von Dessler [14] und die insbesondere hierauf folgenden Diskussionen auf der Webseite von „Wattsupwiththat“ verwiesen werden. Es sei erwähnt, dass hinter dem heftigen „Gegenfeuer“ des IPCC die begründete Befürchtung steht, dass Forscher wie Spencer, Braswell, Lindzen, Choi, Paltridge, Arking, Pook (und weitere) die bereits seit längerem stark abnehmende politische Wirkung der AGW-Hypothese noch weiter schwächen könnten. Literaturhinweise: [1] R. Spencer, The great global warming blunder; how mother nature fooled the world’s top climate scientists, Encounter books (2010) [2] R. Spencer, and W.D. Braswell, On the diagnosis of radiative feedback in the presence of unknown radiative forcing, Jour. Geophys. Res., Vol. 115, D16109 (2010) [3] R. Spencer, and W.D. Braswell, On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sensing 2011, 3, p. 1603 (2011) [5] C. Wunsch, Quantitative estimat of the Milankovitch-forced contribution to observed Quaternary climate change, Quaternary Science Reviews 23, p. 1001 (2004) [6] http://www.drroyspencer.com/2010/04/simple-climate-model-release-version-1-0/ [7] Wegen der zahlreichen Kommentare am besten in Wattsupwiththat [8] R. Link, and H.-J. Lüdecke, A New Basic 1-Dimensional 1-Layer Model obtains excellent Agreement with the observed Earth Temperature, International Journal of Modern Physics C, Vol. 22, No. 5, p. 449 (2011) [9] H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011), http://meetingorganizer.copernicus.org/EGU2011/EGU2011-4505-1.pdf [10] G. Paltridge, A. Arking, and M. Pook, Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol 98, p. (2009) [11] R.S. Linzen, and Y-S. Choi, On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett., Vol. 36, L16705 (2009) [11] P.M. Forster, and G.M. Gregory, “The climate sensitivity and its Components from Earth Radiation Budget Data”, J. Clim. 19, p. 39 (2006) [12] A. Berger, Milankovitch theory and climate, Reviews of Geophysics, Vol. 26, No. 4, p. 624 (1988) [13] A. Berger, and M.F. Loutre, Insolation values for the climate of the last 10 Million years, Quaterny Science Rev., Vol. 10, p. 297 (1991) [14] A.E. Dessler, A determination of the cloud feedback from climate variations over the past decade, science, Vol. 330, p. 1523 (2010) Anmerkung: Viele Arbeiten sind aus dem Internet herunterladbar. Zur Suche ist insbesondere „Google scholar“ zu empfehlen. Hier reicht es oft aus, in das Suchfeld die Nachnamen der Autoren und ein paar Stichworte des Titels ihrer Arbeit einzugeben.

Eigene, begutachtete Klima-Publikationen

R. Link and H.-J. Lüdecke: A new basic 1-dimension 1-layer model obtains excellent agreement with the observed Earth temperature, Int. J. Mod. Phys. C 22, No. 5, p. 449 (2011), doi:10.1142/S0129183111016361, http://tinyurl.com/d8fl4ce

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011), arxiv.org/PS_cache/arxiv/pdf/1110/1110.1841v1.pdf

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011), http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf Besprechungen dieser Veröffentlichung im Internet: http://judithcurry.com/2011/11/07/two-new-papers-vs-best/ http://judithcurry.com/2011/11/08/tols-critique-of-the-ludecke-et-al-papers/ http://judithcurry.com/2011/11/10/ludecke-et-al-respond/ http://judithcurry.com/2011/11/15/ludecke-et-al-respond-part-ii/ wmbriggs.com/blog/?p=4630 http://www.focus.de/wissen/wissenschaft/klima/weltklimakonferenz_2011/tid-24293/weltklimakonferenz-viel-laerm-um-nichts_aid_687885.htm http://wattsupwiththat.com/2013/01/10/unique-paper-looks-for-natural-factors-in-station-datashows-significant-probabilities-of-natural-signal/ (WUWT 10.Jan.2013) H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past. 9, 447-452 (2013), http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf

Geänderte oder verschwundene Internet-Links 22.Juni 2013: Internet-Link in [236) http://ecocast.arc.nasa.gov.pubs/pdfs/1997/Myneni.Nature.pdf nicht mehr erreichbar. An Stelle davon R.B. Myneni et al.: Increased plant growth in the northern high latitudes from 1981 to 1991, Nature 386, Issue 6626, S. 698-702 (1997) 11.Sept. 2013: Internet-Link [176] geändert zu http://tinyurl.com/87yp9rv

Errata S. 281 [236] B.A. Kimball (an Stelle von Komball) S. 204, 2. Absatz: In einem offenen Brief vom Juli 2009 ... S. 204, 3. Absatz, Zeile 5 ... als mehr als 100 fachnahe Wissenschaftler ... S. 204, 4. Absatz, Zeile 1 .... Ministerpräsidenten, am 11.4.2006 ...