Der Weg zur Energiewende

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

5 Klimadiskussion: Treibhausgase

Hintergrund für die in Kap. 4, Wahrnehmung und Beginn einer Klimapolitik, beschriebenen Entwicklungen war das zunehmende Wissen um das Klima. Bereits im 19.Jahrhundert untersuchten und erkannten Wissenschaftler verschiedene, auf das Klima einwirkende Faktoren. J.-B. FOURIER kam im Jahr 1824 in seinem Aufsatz „Remarques générales sur les températures du globe terrestre et des espaces planétaires“ zu dem Schluss, dass die solare Einstrahlung verantwortlich zu machen sei für die Temperatur der Erdoberfläche.1 Und er formulierte hier den entscheidenden Satz: „c’est ainsi que la temperature est augmentée par l’interposition de l’atmosphère, parce que la chaleur trouve moins d’obstacle pour pénétrer l’air, étant à l’état de lumière, qu’elle n’en trouve pour repasser dans l’air lorsqu’elle est convertie en chaleur obscure.”2 In freier Übersetzung: Ein Teil der eingestrahlten Energie bleibt aufgrund der Eigenschaften der Atmosphäre als Wärme gespeichert.

Warum das so ist, wurde erst später verstanden, aber dass es so ist, war FOURRIER, der sich für seine Messungen auch des vom Schweizer Physiker H.-B. DE SAUSSURE schon 1774 gebauten „Héliothermomètre” bediente, bewusst. DE SAUSSURE hatte bereits herausgefunden, dass sich Luft unter Glasabdeckung stark aufheizte, wenn er seine „Boite chaude” (Abb. 5‑1) dem Sonnenlicht aussetzte.

Abb. 5‑1:

„Héliothermomètre” des H.-B. de Saussure von 1774, Prinzipskizze; Quelle: G. Hoffmann, IMAU ‒ University Utrecht

Danach muss man also unterscheiden: der physikalische Treibhauseffekt geht auf DE SAUSSURE und das 18. Jh. zurück, während die Auffindung des atmosphärischen Treibhauseffektes wohl FOURRIER und damit dem frühen 19. Jh. zuzuordnen ist.

Der Ire J. TYNDALL machte in den Jahren 18591–863 den nächsten Schritt3, indem er die Absorptionseigenschaften der atmosphärischen Gase näher beschrieb bzw. experimentell ermittelte. Er benutzte hierfür ein selbstgebautes Spektralphotometer und fand große Unterschiede bei den untersuchten Gasen: Sauerstoff, Stickstoff und Wasserstoff waren praktisch transparent, während Wasserdampf, „carbonic acid” (= Kohlensäure, CO2) und Ozon stark absorbierten, vor allem im infraroten Bereich (Wärmestrahlung).4 Den Wasserdampfgehalt der Atmosphäre sah er für das Temperaturgleichgewicht als maßgeblich an, noch vor CO2. Später weitete er seine Ergebnisse auch zu Spekulationen über Klimaänderungen aus.

Drei Jahrzehnte später griff der schwedische Chemiker und spätere Nobelpreisträger S. AR-RHENIUS die Frage nach der Klimawirksamkeit des Gases CO2 auf. Er war wohl der erste Wissenschaftler, der quantitative Antworten auf die Frage diskutierte, wie sich eine Veränderung des CO2-Gehaltes infolge der Verbrennung fossiler Energie auf das Klima auswirken könnte. Zunächst am noch ungelösten Problem des Entstehens und Vergehens von Eiszeiten interessiert, kam er bei einer angenommenen Halbierung des atmosphärischen Kohlendioxids auf eine Temperaturerniedrigung von 4–5 °C in Europa.

Mit der Annahme einer Verdopplung des CO2-Gehaltes, vielen weiteren Annahmen und Abschätzungen kam er in seiner Veröffentlichung „On the influence of carbonic acid in the air upon the temperature of the ground“ von 1896 schließlich dann zum Ergebnis einer Temperaturerhöhung von 4–6 °C.5 Im kalten Skandinavien hatte man allerdings wenig Angst vor höheren Temperaturen und war optimistisch: „Der Menschheit wird es zweifellos gelingen, dieses Problem zu lösen.” (ARRHENIUS).

Die Ergebnisse stießen im frühen 20.Jahrhundert auf viele Einwände; einer der Skeptiker war der Physiker K. ÅNGSTRÖM, der nach Labormessungen mit veränderlichen CO2-Konzentrationen nur sehr kleine Veränderungen fand und zu dem Schluss kam, dass die Absorptionsbänder des Kohlendioxids, in denen Wärmestrahlung absorbiert wird, schnell gesättigt waren ‒ also sozusagen verstopften, wodurch die Absorption ihr Ende fand.

ARRHENIUS und andere kritisierten zwar die Messungen ÅNGSTRÖMS, jedoch blieb es dann in der Wissenschaft common sense, dass er, ARRHENIUS, falsch gelegen hatte.

So geriet die CO2-Hypothese für die nächsten Jahrzehnte praktisch in Vergessenheit.6 Zur Gesamtschau gibt Abb. 5‑2 eine Zeitleiste der bis ca. 1930 angewachsenen Kenntnisse.

Anfang der 1930er Jahre gewannen der Treibhauseffekt und seine möglichen Folgen wieder neue Aufmerksamkeit. Im Jahre 1931 widerlegte der US-Physiker E. O. HULBURT die Findungen ÅNGSTRÖMS und betonte die Klimarelevanz des atmosphärischen Kohlendioxids.

Abb. 5‑2:

Zeitleiste zur Auffindung des atmosphärischen Treibhauseffektes, bis ca. 1930; Quelle: Grafik jg in J. Mason, Zwei Jahrhunderte Klimageschichte, Teil 1

Sieben Jahre später war es der Engländer G. CALLENDER, der die Problematik wieder aufgriff. Er war eigentlich Ingenieur, hatte aber ein Faible für Meteorologie und war in Thermodynamik geschult. Sein Ausgangspunkt waren Temperaturaufzeichnungen der letzten 50 Jahre von 200 meteorologischen Stationen, aus denen er eine statistisch signifikante Temperaturerhöhung ermitteln konnte, s. Abb. 5‑3.

Abb. 5‑3:

Die von Callendar ermittelten Temperaturkurven, seinerzeit die besten verfügbaren Daten; sie zeigen einen weltweiten Anstieg von den 1880er Jahren bis zur Mitte der 1930er; Quelle: Quarterly J. Royal Meteorological Society 64, S.223 (1938).

Für den Anstieg der CO2-Konzentration fand er eine Rate von 10 % im untersuchten Zeitraum. Zum ersten Male gab es damit einen durch Messwerte belegten statistischern Zusammenhang. Hierauf gestützt, ergaben seine Berechnungen für die Verdopplung der aktuellen CO2-Konzentration einem Temperaturanstieg von 2 °C. Seine Veröffentlichung von 19387 beeindruckte den deutschen Meteorologen H. FLOHN, der fortan die Klimaproblematik in aller Welt ansprach.8

FLOHN selbst ging in seiner Habilitationsvorlesung in Würzburg 1941 auf das Thema ein und erörterte die Möglichkeit einer Großklimaänderung durch das CO2.9

Er versuchte nach dem Krieg das Thema auf nationalen und internationalen Tagungen unterzubringen, ohne auf großes Interesse zu stoßen, wie er selbst in seinen Erinnerungen sagt. „Aktuell wurde das CO2-Klima-Problem erst wieder 1956, als G. N. PLASS, ein amerikanischer Autor, ein Modell über die Erwärmung durch CO2 veröffentlicht hatte“ (FLOHN).10

Inzwischen standen Computer zur Verfügung, wenn auch mit begrenzter Rechenleistung. G. PLASS machte sich das für sein Modell zunutze und konnte so zeigen, dass eine höhere Kohlendioxid-Konzentration die Erde aufheizen würde. Konkret errechnete er eine Erwärmung zwischen 3 und 4 °C bei einer Verdopplung der CO2-Konzentration.

Bei den noch geringen Emissionsraten Mitte der 1950er Jahre hätte dies einen Temperaturanstieg von ungefähr 1,1 °C pro Jahrhundert zur Folge gehabt. Immer noch fanden sich Skeptiker, von denen die einen bemängelten, dass Wasserdampf und Bewölkung in PLASS’ Modell keine Rolle spielten, während andere die CO2-Aufnahmefähigkeit der Ozeane als natürliches Korrektiv sahen.

Das zweite Argument war verbreitet, bis der Amerikaner R. REVELLE 1953 fand, dass die Meerwasser wegen eines leicht basischen Zustandes in ihrer Aufnahmefähigkeit eng begrenzt sind. REVELLE wertete 14C-Messungen an Eiskernen aus und errechnete hieraus den Anteil des atmosphärischen CO2, der sich tatsächlich im Meer löste. Er kam auf nur 20 %. Seine Schlussfolgerung war daraufhin, dass ein Anstieg des atmosphärischen CO2 von etwa 40 % in den folgenden Jahrhunderten möglich wäre.

Die zwei schwedischen Meteorologen B. BOLIN und E. ERIKSON fanden parallel hierzu heraus, dass die Zeiträume eine große Rolle spielen und die Vermischung in die Tiefe sich über hunderte bis tausende von Jahren vollzieht. Wie es sich um die CO2-Konzentration verhielt, konnten nur Messungen über größere Zeiträume zeigen. Messungen an Stationen in Skandinavien misslangen – sie waren vom Rauschen überlagert.

In Kalifornien war es CH. D. KEELING jedoch gelungen, eine rauschfreie Messtechnik zu entwickeln. REVELLE und SUESS holten ihn zu ihrer Scripps Institution of Oceanography und verschafften ihm einen Etat11. Eine geeignete Messstelle wurde am Mona Loa auf Hawaii gefunden, und KEELING begann seine Messungen, die zunächst auf die Ermittlung einer Referenzkonzentration abzielten.

1958 war KEELING damit fertig, und zwei Jahre später konnte er mitteilen, dass in der Tat die Konzentration anstieg, und auch noch mit Steigerungsraten, die mit den von REVELLE errechneten Werten übereinstimmte. Die Messungen am Mona Loa werden bis in die Gegenwart fortgesetzt. Der sich ergebende Kurvenverlauf ist heute unter dem Begriff Keeling-Kurve bekannt und in der Grafik der Abb. 5‑4 wiedergegeben.

Die Keeling-Kurve stellt unter Beweis, dass und wie die CO2-Konzentration ansteigt. Dies ist ihre einzige, jedoch überaus bedeutsame Aussage. Über die Erdtemperatur, das Meeresspiegelniveau und andere zivilisatorisch relevante Parameter und insbesondere deren weitere Entwicklung sind aus der Keeling-Kurve allein keine Aussagen möglich – hierzu bedarf es weiterer Nachweise, wie sie heute in den sogenannten Klimamodellen geliefert werden.

Abb. 5‑4:

 

links die KEELING-Kurve, fortgeführt bis in die Gegenwart; Quelle: Scripps CO2-Programm; rechts Charles Keeling bei der Verleihung der National Medal of Science durch Präsident George W. Bush; Quelle: National Science Foundation

Über die bis zu KEELING erreichten Fortschritte in der Atmosphärenforschung gibt die Zeitleiste der Abb. 5‑5 in der Zusammenfassung Auskunft.

Abb. 5‑5:

Zeitleiste zur Atmosphärenforschung 1930–1960; Quelle: Grafik jg in J. Mason, Zwei Jahrhunderte Klimageschichte, Teil 2

Die Jahre nach 1970 waren in der Klimaforschung vor allem fünf Gebieten gewidmet:

 Dem Nachweis der anthropogenen Herkunft des CO2-Anstiegs,

 der Gewinnung einer verlässlichen Datengrundlage in den zivilisationsrelevanten Klimaparametern wie Temperatur und Meeresspiegel, Eisbedeckung, Sättigung der Meere,

 der Rückschau in die tiefe Vergangenheit der Klimageschichte der Erde,

 ein tieferes Verständnis der klimarelevanten Bestandteile der Atmosphäre, nicht nur von CO2,

 der Simulation der Zukunft mit immer komplexeren Klimamodellen.

Da die von KEELING gemessenen Steigerungsraten ziemlich genau den durch Verbrennung fossiler Brennstoffe erwarteten Werten entsprach, wurde schnell unterstellt, dass der Anstieg auf die Tätigkeit und Wirtschaftsweise des Menschen zurückgeführt werden kann, also anthropogen ist. Dass dies nicht nur ein statistischer Zusammenhang ist, wurde auf folgende Weise nachweisbar:

 Berechnung der freigesetzten Mengen aus nationalen Statistiken,

 Ermittlung des aus Verbrennung stammenden CO2-Anteils aus dem Isotopenverhältnis und

 Hinzunahme der O2-Konzentration als Indikator für Verbrennung / Vulkaneruptionen12

Abb. 5‑6 zeigt in der Tat, dass sich die anthropogenen CO2-Emissionen aus Verbrennung und die atmosphärische CO2-Konzentration im Gleichlauf bewegen.

Systematische Temperaturmessungen im heutigen Sinn wurden erst seit den 80er Jahren des 19. Jahrhunderts durchgeführt (Deutschland 1881). Echte Messungen waren erst seit G. GALILEI zuverlässig möglich, der mit seinem Thermoskop ein erstes Thermometer baute; G. F. SAGREDO fügte eine Skala hinzu und soll am 12. Juli 1613 mit systematischen Messungen begonnen haben – sie gelten als die erste Aufzeichnung von Wettertemperaturdaten. Für die Jahrhunderte davor gibt es einzelne Klimaberichte oder -erwähnungen in historischen Dokumenten.

Abb. 5‑6:

Jährliche globale Kohlenstoffemissionen aus fossilen Brennstoffen und Zementherstellung gegen Werte in der Atmosphäre; Quelle: u.a. Keeling und Whorf 1999; WI 2000b

Abb. 5‑7:

Die reale „Fieberkurve“ der Erde, nördliche Halbkugel, gewichteter Durchschnitt Land-Luft-Meer; die gestrichelte Kurve verbindet (korrigierte) Messungen, die dick ausgezogene ist ein gleitendes 9-Jahresmittel, das die Tendenzen deutlicher macht, genormt auf den Mittelwert 1961–1990; Quelle: Jones u.a. 2000, 2001

Anmerkung: Die absolute Temperatur erhält man durch Addition von 14,0 °C

Abb. 5‑8:

Temperaturen der letzten 1000 Jahre, nördliche Halbkugel, nach verschiedenen Autoren und Recherchetechniken (Baumjahresringe, Bohrkerne etc.); man vergleiche die Daten der Abb. 4-3; Quelle: Mann u.a. 1999, Jones u.a. 1998, 2000, 2001, Briffa u.a.1998, Huang u.a. 2000, Pollack u. Huang 2001

Für weiter zurückliegende Zeiten halfen die Analyse von Baumringen oder Fluss-Sedimenten, und vor allem die die Analyse von Bohrkernen im Eis der Antarktis. Über was man gesichert verfügt, zeigen Abb. 5‑7 und Abb. 5‑8.

Die Veränderung des Meeresspiegels lässt sich seit ca. 1995 recht einfach über Satellitenmessungen beobachten; mit der Ergänzung aus Tidenmessungen in früheren Jahren ergibt sich auch hier ein zunächst nur statistisch gesicherter Anstieg, s. Abb. 5‑9. Er wird durch die zunehmende Schmelze des polaren Eises erklärt.

1971 wurde durch die Untersuchungen von S. I. RASOOL und S. H. SCHNEIDER13 klar, dass es auch Gegenspieler für das CO2 gibt: Aerosole in der Atmosphäre sorgen für Abkühlung und kupieren damit den Temperaturanstieg, was der renommierte R. BRYSON 1974 unterstützte. Sogar eine neue Eiszeit durch Aerosole schien vorstellbar.

Ihre Ergebnisse spielten auch eine Rolle, als es 2013 darum ging, die durch Messergebnisse belegte Pause im Temperaturanstieg zwischen 1998 and 2012 („Hiatus”) zu erklären. Das Intermezzo, das zu vielen Spekulationen Anlass gab, wurde schließlich offiziell mit der Kurzformel zu Ende gebracht:

 „Heating is still going on. It’s just not in terms of the surface air temperature.”14

Abb. 5‑9:

Veränderung des Meeresspiegels. Daten der Tidemesser sind in rot und Satellitenmessungen in blau dargestellt. Die graue Fläche zeigt die Projektionen des dritten Sachstandberichts des IPCC; Quelle: Copenhagen Diagnosis 2009

Klimamodelle entstanden aus Modellen für die Wettervorhersage, die ab etwa 1940 bekannt wurden. Die Modellierung der Atmosphäre hat damit eine lange Tradition; sie lässt sich in ihrer Aussagefähigkeit so beschreiben: „Ein Klimamodell ist, wie jedes mathematische Modell von Naturvorgängen, eine Vereinfachung. Der Grad der Vereinfachung bestimmt die Komplexität des Modells und ist maßgebend, ob dieses Modell für die vorliegende Fragestellung überhaupt verwendet werden kann. Die Komplexität eines gewählten Modells legt somit die Grenzen des Einsatzes fest. Diese Grenzen zu bestimmen, erfordert gewisse Erfahrung, da es keine objektiven Regeln oder Gesetze gibt.”15

Die Klimamodelle wuchsen mit den Möglichkeiten der Rechentechnik. In den 1940er und 1950er Jahren stand hierfür der erste elektronische Computer (ENIAC, Electronic Numerical Integrator and Computer) im Auftrag der US Army in Princeton zur Verfügung. Ab 1980 waren die ersten PC der IBM im Einsatz, deren gewachsene Rechenleistung heute für einfache Modelle durchaus ausreicht.

Die Modelle selbst wurden immer komplexer und durchliefen verschiedene Stadien der Integration, s. Abb. 5‑10. Seit 1990 sind die Klimamodelle vollständiger geworden. Der Kohlenstoff- und andere Stoffkreisläufe, die Dynamik der Vegetationstypen sowie die Chemie der Atmosphäre gehören zu den Prozessen, die jüngst in die bestehenden und zunächst physikalischen Zirkulationsmodelle integriert werden konnten.

Was die sog. Erd-Modelle leisten müssen, illustriert Abb. 5‑11. Und was solche Klimamodelle dann schließlich ergeben, zeigt Abb. 5‑12 an einem Beispiel aus dem Jahr 2013, in dem beobachtete und simulierte Klimainformationen miteinander verglichen werden.

Abb. 5‑10:

Chronologie der Klimamodellentwicklung. Die Berücksichtigung verschiedener neuer Komponenten (Kohlenstoffkreislauf, Vegetation, und Atomsphärenchemie) führt zu einer drastischen Erhöhung der Komplexität und der benötigten Computerressourcen; Quelle: globalchange.govreportappendices

Abb. 5‑11:

Komplexes Erdsystemmodell MPI-ESM mit Uvic-Modell als Emulator; Quelle DFG-MPI f. Meteorologie-GEOMAR

Abb. 5‑12:

Vergleich des beobachteten und simulierten Klimawandels basierend auf drei großräumigen Indikatoren in der Atmosphäre, der Kryosphäre und dem Ozean:

Änderungen der kontinentalen Landoberflächentemperaturen (gelb unterlegte Boxen), der Ausdehnung des arktischen und antarktischen Meereises jeweils im September (weiße Boxen mit schwarzem Rahmen) sowie des Wärmegehalts der oberen Ozeanschicht in den großen Ozeanbecken (weiße Boxen mit blauem Rahmen). Die mittleren globalen Änderungen sind ebenfalls dargestellt (die drei Diagramme in der unteren Reihe). Alle Zeitreihen sind Zehn-Jahres-Mittel, welche in der Mitte des Jahrzehnts markiert sind. Die schwarze Linie zeigt jeweils real beobachtete Temperaturen, die rot schraffierten Flächen die Ergebnisse jener Klimamodelle, die natürliche und menschliche Faktoren berücksichtigen ‒ die Übereinstimmung ist augenfällig. Quelle: IPCC 2013, WG1, Figure SPM.6

Den Überblick über die Entwicklung seit den 1970er Jahren vermittelt Abb. 5‑13. Fasst man das Ergebnis knapp zusammen, so ist festzustellen, dass wir in der Gegenwart in einem deutlich wärmeren Erdklima leben als in den letzten 1000 Jahren und die Erdoberflächentemperatur weiter zunimmt. Und da der sog. Atmosphärische Treibhauseffekt, verursacht u.a. durch CO2, als real unterstellt werden kann, werden wir mit weiter zunehmender CO2-Produktion

 den Treibhauseffekt verstärken,

 und zur weiteren Erwärmung des Erdklimas und den daraus folgenden Veränderungen beitragen.

Abb. 5‑13:

Zeitleiste zur Atmosphärenforschung 1960–2010; Quelle: Grafik jg in J. Mason, Zwei Jahrhunderte Klimageschichte, Teil 3

Die Frage ist allerdings immer noch, wie groß die Erwärmung tatsächlich ausfallen wird und ob es hierfür eine kritische Grenze gibt, bei deren Überschreiten sich kein neues Gleichgewicht ergeben, das System also „kippen“ würde. Die Frage ist auch, welche Folgen und Folgekosten das haben wird. Es schließen sich weitere Fragen an: Können wir etwas tun, um den Temperaturanstieg zu begrenzen? Und was wäre das, wie schnell kann das gehen, und was würde das kosten?

5.1 Klimakonvention und Kyoto-Protokoll

Für den Klimaschutz war die auch als erster Weltgipfel bekannte UN-Konferenz von Rio 1992 ein Meilenstein, s. Kap. 4, Wahrnehmung und Beginn einer Klimapolitik. Dort wurde die sogenannte Klimarahmenkonvention verabschiedet, deren Ziel es ist, eine gefährliche anthropogene ‒ also eine vom Menschen verursachte ‒ Störung des Klimasystems zu verhindern. Im Originaltext der UNFCC (United Nations Framework Convention on Climate Change) heißt es: „Das Endziel dieses Übereinkommens und aller damit zusammenhängenden Rechtsinstrumente, welche die Konferenz der Vertragsparteien beschließt, ist es, in Übereinstimmung mit den einschlägigen Bestimmungen des Übereinkommens die Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau zu erreichen, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird. Ein solches Niveau sollte innerhalb eines Zeitraums erreicht werden, der ausreicht, damit sich die Ökosysteme auf natürliche Weise den Klimaänderungen anpassen können, die Nahrungsmittelerzeugung nicht bedroht wird und die wirtschaftliche Entwicklung auf nachhaltige Weise fortgeführt werden kann.”1

Die Klimakonvention wurde parallel zum Weltgipfel vorbereitet und von 159 Regierungen in Rio unterzeichnet. Nur wenige Staaten blieben außen vor: die USA, die ihre nationale Wirtschaft schützen wollten, und einige der OPEC-Staaten. Da noch die jeweils nationale Ratifizierung einzuholen war, konnte sie nicht umgehend rechtsverbindlich werden. Dies geschah erst 2 Jahre später, am 21. März 1994, nachdem 50 Staaten die Konvention offiziell verabschiedet hatten.

Die Klimarahmenkonvention war nicht das einzige Ergebnis von Rio 1992: Daneben wurde auch eine Walddeklaration als Grundsatzerklärung verabschiedet, die Leitsätze für die Bewirtschaftung, Erhaltung und nachhaltige Entwicklung der Wälder der Erde aufstellte. Gemäß dieser eher unverbindlichen Absichtserklärung sollten Wälder nach ökologischen Maßstäben genutzt, erhalten und geschützt werden.

Zur Überwachung der Umsetzung der UN-Klimaschutz-Konvention fanden (und finden) seit 1994 jährliche Konferenzen der Vertragsstaaten der Konvention statt (Conference of the Parties – COP), oft auch und auch etwas irreführend als Weltklimakonferenzen bezeichnet:

 

 1995: Berlin (COP 1)

 1996: Genf (COP 2)

 1997: Kyoto (COP 3)

 1998: Buenos Aires (COP 4)

 1999: Bonn (COP 5)

 2000/2001: Den Haag (COP 6) und Bonn (COP 6-2)

 2001: Marrakesch (COP 7)

 2002: Neu-Delhi (COP 8)

 2003: Mailand (COP 9)

 2004: Buenos Aires (COP 10)

 2005: Montreal (COP 11/CMP 1)

 2006: Nairobi (COP 12/CMP 2)

 2007: Bali (COP 13/CMP 3)

 2008: Posen (COP 14/CMP 4)

 2009: Kopenhagen (COP 15/CMP 5)

 2010: Cancún (COP 16/CMP 6)

 2011: Durban (COP 17/CMP 7)

 2012: Doha (COP 18/CMP 8)

 2013: Warschau (COP 19/CMP 9)

 2014: Lima (COP 20/CMP 10)

 2015: Paris (COP 21/CMP 11)

 2016: Marrakesch (COP 22/CMP 12/CMA 1-1)

 2017: Bonn (COP 23/CMP 13/CMA 1-2)

 2018: Katowice (COP 24/CMP 14/CMA 1-3)

 2019: Madrid (COP 25/CMP 15/CMA 2)

 2020: Glasgow (COP 26/CMP 16/CAM 3), vertagt

Sie wurden und werden von weiteren Begleitkonferenzen bzw. Verhandlungsgesprächen der Vertragsstaaten begleitet. Wichtiges Ziel der COP war und ist die quantitative Umsetzung der Konvention von Rio.

Hier ragt COP 3 heraus, veranstaltet vom 1.–10. Dezember 1997 in Kyoto, Japan. Das sog. Kyoto-Protokoll, 1997 in der Konferenz angenommen, trat 2005 in Kraft.

 Es verpflichtete die beteiligten Staaten, den Ausstoß klimaschädlicher Gase nach quantitativen Vorgaben zu senken.

Abb. 5‑14

Kyoto-Ziele auf dem Prüfstand: Emissionen 2007, Veränderung in % seit 1990, Kyoto-Ziel in %, in Auswahl; Quelle: UNFCCC u. a.

Das Kyoto-Protokoll sah sogenannte Verpflichtungsperioden vor, als erste die von 2008 bis 2012. Für diesen Zeitraum verpflichteten sich die Unterzeichner, ihre Treibhausgasemissionen um insgesamt 5,2 % gegenüber dem Stand von 1990 zu senken. Die Europäische Union, die sich als Vorreiter empfand, ging darüber mit 8 % hinaus. Dieses Gesamtziel wurde im EU-internen Lastenteilungsverfahren unter den damalig 15 EU-Mitgliedsstaaten aufgeteilt. Deutschland hat sich in diesem Rahmen verpflichtet, insgesamt 21 % weniger klimaschädliche Gase zu produzieren.2 Abb. 5‑14 zeigt die quantitativ vereinbarten Minderungsziele für die EU 15 (und den im Jahr 2004 erreichten Stand).

Das Kyoto-Protokoll und seine Umsetzungsregeln von Marrakesch (COP 7) sind am 16. Februar 2005 in Kraft getreten. Dazu mussten 55 Staaten das Protokoll ratifiziert haben, die 1990 für mindestens 55 % der Emissionen der Industriestaaten verantwortlich waren. Inzwischen haben 191 Staaten und die EU als regionale Wirtschaftsorganisation das Protokoll ratifiziert. Die USA haben das Protokoll als einziges Industrieland nicht ratifiziert.3

Das Kyoto-Protokoll enthält neben der Minderung zuhause die Möglichkeit, die Verpflichtung auch im Ausland über sogenannte „Flexible Mechanismen“ zu erfüllen. Dahinter verbergen sich Emissionshandel zwischen den beteiligten Staaten, Clean Development Mechanism (CDM) und Joint Implementation (JI).

Das folgt dem wirtschaftsnahen Ansatz, dass die Emissionsminderung dort stattfinden soll, wo sie am kostengünstigsten ist. Denn es ist entscheidend, dass die Emissionen überhaupt gemindert werden, und nicht, wo dies geschieht. Die beiden projektbasierten Mechanismen (CDM, JI) sind dabei so konstruiert, dass Emissionsminderungsmaßnahmen im Ausland zu Emissionsgutschriften führen, die in einem bestimmten Umfang auf die eigene Zielerfüllung oder im Europäischen Emissionshandelssystem angerechnet werden.

Wichtig war es, die Fortführung in die Zukunft zu erreichen, über 2012 hinaus. Dies gelang nach schwierigen Verhandlungen mit COP 18 in Doha/Katar, wo eine zweite Verpflichtungsperiode (2013–2020) verabschiedet wurde. Die teilnehmenden Länder verpflichteten sich jetzt, ihre Emissionen bis 2020 um 18 % gegenüber 1990 zu senken, die EU wiederum zu mehr, nämlich um 20 %.

Zentrale Änderungen im Vergleich zur ersten Verpflichtungsperiode sind darüber hinaus in Auswahl:

 Japan, Kanada, Neuseeland und Russland waren in der zweiten Verpflichtungsperiode nicht dabei. Die USA nahmen auch diesmal nicht teil.

 Die zweite Verpflichtungsperiode umfasste nun acht Jahre (2013–2020), im Vergleich zur fünfjährigen ersten Verpflichtungsperiode.

 Überschüssige Emissionsrechte aus der ersten Verpflichtungsperiode konnten vollständig übertragen und im Emissionshandelssystem gehandelt werden.

 Überschusszertifikate in der zweiten Verpflichtungsperiode erhielten eine neue Begrenzung.

Nach Kyoto bildete sich eine neue Konferenzrunde aus: das CMP-Format (Meeting of the Parties to the 1997 Kyoto Protocol). Hier sind alle Unterzeichner des Kyoto-Protokolls versammelt, also ein „Kreis der Willigen“. Die Mitglieder tagen jährlich, gemeinsam mit dem COP-Kongress. Nichtmitglieder sind als Beobachter zugelassen. Die CMP überwacht die Implementierung das Kyoto-Protokolls. Ihr erstes Meeting hielt die CMP im Jahr 2005 in Montreal ab, in Verbindung mit der elften Sitzung der Unterzeichner der Klimakonvention (COP 11).

Die Fortsetzung der Konferenzrunden war, dem jährlichen Turnus folgend, für das Jahr 2020 in Glasgow geplant (COP 26/CMP 16/CAM 3). Der Termin wurde, wie so vieles, unter den von der Covid 19-Pandemie erzwungenen Bedingungen auf das Jahr 2021 verschoben.