Depuis une dizaine d’années, l’effet de serre est au premier plan de la politique internationale de l’environnement. Il pose la question des rapports entre les activités humaines et lesbouleversements de la biosphère sur Terre.
C’est un sujet de recherches et de débats qui lance à la science le défi de comprendre la planète Terre comme écosystème global. La dimension de l’enjeu humain et social, c’est-à-dire politique, rend nécessaire l’intelligence de ces problèmes par le plusgrand public, en des termes respectant les études scientifiques. C’est à cela que le présent article voudrait contribuer.
1. Qu’est-ce quel’effet de serre ?
L’effet de serre
L’énergie solaire atteint la Terre principalement sous forme de lumière. Réfléchie par la Terre sous forme de rayonnement infra-rouge, elle est retenue par l’atmosphère qui protège ainsi notre planète du froid de l’espace et assure au sol une température moyenne de 15C. qui permet la vie (voir schéma ci-contre). Curieusement ce sont des composants mineurs de l’atmosphère qui absorbent la chaleur. Les gaz dits à effet de serre sont le gaz carbonique CO2 qui ne constitue que le 0,035% (350 parties parmillion/ppm) de l’air mais contribue pour 55% à l’effet de serre, le méthane (1,9 ppm/15% de l’effet), le protoxyde d’azote N2O (0,4 ppm), lesCFC (24% de l’effet) et la vapeur d’eau.
L’analogie avec une serre n’est que partielle. Dans une serre aussi les vitres sont transparentes à la lumière du soleil mais absorbent la chaleur réfléchie par le sol. Par contre, l’essentiel de la chaleur dans la serre est dû au fait que les vitres sont fermées et empêchent donc l’air chaud du dedans de se refroidir en se mélangeant à l’air froid du dehors. Rien de tel dans l’atmosphère : notre planète est un système ouvert sur l’espace. Chaque couche de l’air se réchauffe par en dessous et se refroidit par en dessus. Le système est en équilibre : toute la chaleur reçue du soleil est en fin de compte réfléchie par la Terre dans l’espace.
La question posée est : dans quelle mesure les émissions de gaz dues auxactivités humaines (industrie, transports, chauffage, etc.)contribuent-elles à une augmentation de l’effet de serre ?
Le gaz carbonique
La molécule de gaz carbonique contient 2 atomes d’oxygène pour 1 atome decarbone. Sa formule chimique est donc CO2. Il est aussi appelé dioxyde de carbone. C’est un gaz inodore, incolore et non toxique. Il ne faut pas le confondre avec le monoxyde de carbone CO qui se forme dans des combustions mal alimentées en oxygène, qui est un poison violent, pouvant provoquer des accidents mortels lorsque les chauffages sont mal réglés ou lors de l’inhalation de gaz d’échappement de voitures. Le monoxyde de carbone participe aux pollutions des villes (trafic motorisé, etc.).
Le CO2 a une longue durée de vie dans l’atmosphère, de l’ordre de plusieurs siècles. Il est émis chaque fois que sont brûlées des matières organiques, c’est-à-dire à base de carbone : bois, paille, papier, pétrole, charbon,lignite, tourbe, gaz naturel, comme lors de la respiration des êtres vivants et de la décomposition des matières organiques mortes au contact del’air, qui toutes deux équivalent à des combustions [1].
En utilisant l’énergie solaire grâce à la chlorophylle qu’ils contiennent,les végétaux vivants extraient de l’air le carbone qui s’y trouve sous laforme de CO2 et le combinent à l’eau qu’ils puisent autour d’eux pourfabriquer les molécules organiques qui constituent leur propre substance etserviront d’aliment à tous les animaux [2]. Ce processus chimique propulsé parl’énergie solaire est le moteur fondamental de la biosphère : c’est la photosynthèse.
La photosynthèse rejette de l’oxygène. C’est ainsi que les premiersvégétaux, il y a 3 milliards d’années, ont commencé à introduire dans l’atmosphère l’oxygène qui ne s’y trouvait pas auparavant. Les végétaux ontété et continuent d’être la source de l’oxygène de l’air.
Les autres gaz à effet de serre
Le méthane (ou gaz naturel) est émis dans l’air par les marais et les tourbières, par la digestion des ruminants, par les rizières, les décharges d’ordures, les mines de charbon, et les fuites de canalisations. La comptabilité des émissions tant naturelles qu’artificielles est mal connue. Depuis la fin du XVIIIe siècle, son taux dans l’air est passé de 0,8 partie par million (ppm) à 1,9 ppm. A quantité égale, le méthane a un effet de serre supérieur au CO2, mais le méthane a une durée de vie courte dans l’atmosphère et une réduction de 10% de ses émissions suffirait par conséquent à stabiliser sa teneur dans l’air.
Le protoxyde d’azote ou oxyde nitreux est émis par les sols ; l’utilisation d’engrais azotés augmente cette émission.
Les CFC sont les chlorofluorocarbones se trouvant dans les tuyauteries des réfrigérateurs et dans les sprays. Leur utilisation a été interdite dansles pays industrialisés par le protocole de Montréal de 1987.
Si les émissions de ces différents gaz continuent de croître au même rythme, leur contribution à l’effet de serre pourrait devenir équivalente àcelle du CO2 vers 2030.
2. Histoire de l’effet de serre
C’est le mathématicien et physicien français Jean-Baptiste Fourier (1772-1830) qui le premier a recours à l’analogie de la serre pour décrire le phénomène en 1827. En 1863, le physicien irlandais John Tyndall (1820-1893) l’attribue à la vapeur d’eau présente dans l’air.
En 1896, le chimiste suédois Svante Arrhénius (1859-1927), prix Nobel de chimie en 1903, découvre que le gaz carbonique peut absorber de grandes quantités de chaleur. Il émet l’hypothèse que la combustion du charbon, du pétrole et du gaz naturel peut aboutir à rejeter suffisamment de gaz carbonique pour réchauffer la Terre. Il estime que le doublement du taux de CO2 pourrait entraîner une élévation de la température moyenne de 4C. à 6C. Cela n’est pas loin des prévisions actuelles ! [3]
L’inquiétude d’Arrhénius sembla confirmée par la hausse de la température moyenne à la surface de la Terre constatée de 1880 à 1940. Plusieurs savants se préoccupent alors de ce qui leur paraît un effet de serre dû àla grande consommation de charbon puis à la croissance de la consommation de pétrole. La baisse de la température moyenne de 1940 à 1970, alors quele boom économique de l’après Deuxième Guerre mondiale consacre la croissance impétueuse de la consommation de pétrole, parut démentir leurs craintes.
Le taux de CO2 dans l’air augmente
L’année géophysique internationale 1957-1958 voit le lancement de nombreux programmes d’étude de la planète. La Scripps Institution of Oceanography, à San Diego, en Californie, est chargée de mesurer le taux de CO2 dans l’atmosphère. Son directeur, Roger Revelle, se préoccupait depuis longtemps de l’effet de serre dû aux combustibles fossiles. Il charge un de ses étudiants, David Keeling, de monter une station de mesure en un lieu éloigné des sources de pollution industrielle où l’on peut considérer que l’air est bien brassé : au sommet du Mauna Loa (3600 m) à Hawaï. En 1957, le taux mesuré est de 315 ppm. Il est aujourd’hui de 360 ppm. Les mesures de Keeling révèlent année après année que le taux de CO2 dans l’air ne cesse de croître (voir graphique ci-dessus).
La courbe du taux de CO2 dans l’air montre un maximum et un minimum chaqueannée. Le maximum correspond à la fin de l’hiver dans l’hémisphère nord et le minimum à la fin de l’été dans l’hémisphère nord. La végétation absorbeplus de CO2 en été. L’hémisphère nord prédomine car il comprend beaucoupplus de terres émergées, et donc de végétation, que l’hémisphère sud.
Quand la température moyenne à la surface de la Terre remonte de nouveau dès le milieu des années 70, l’évolution de l’effet de serre redevient unepréoccupation.
Quel était auparavant le taux de CO2 ?
On a cherché à établir quel avait été le taux de CO2 dans l’atmosphère avant la révolution industrielle soit en gros avant 1750. On l’a fait de deux manières.
D’une part, on a étudié la composition des bulles d’air prises dans les glaces dont les couches successives peuvent être datées. Hans Oeschger de l’Université de Berne et Claude Lorius du Laboratoire de glaciologie et géophysique de l’environnement (Grenoble) ont entrepris ces analyses dès les années 70. D’autre part, à partir des statistiques de consommation decombustibles fossiles, on a estimé la quantité brûlée depuis 1750 et la quantité de CO2 que cela a pu ajouter à l’atmosphère. Les deux méthodes concordent pour indiquer qu’en 1750 le taux de CO2 dans l’air était d’environ 280 ppm.
Sur cette base, les projections indiquent pour le XXIe siècle un taux de CO2 dans l’atmosphère se situant à hauteur d’environ le double de celui estimé pour la période antérieure à la révolution industrielle. Dès lors, on considère aujourd’hui que, si rien n’est entrepris, le taux de CO2 dansl’air atteindra 600 ppm entre 2030 et 2080 [4].
Les calculs ont révélé que la moitié du CO2 dégagé par les activités humaines s’ajoute au CO2 contenu dans l’atmosphère. L’autre moitié estabsorbée, un tiers par l’océan, le solde par la végétation. Mais ici, on touche aux incertitudes et aux débats sur le cycle global du carbone (voir encadré « Le cycle du carbone », p. 6).
La température s’élève-t-elle ?
Dès les années 60, divers chercheurs entreprennent d’établir exactement l’évolution de la température moyenne à la surface de la Terre depuis le XIXe siècle à partir de toutes les mesures archivées. Dans les années 80, deux équipes obtiennent des résultats qui font autorité : celle de James Hansen de l’Institut Goddard de la Nasa et celle de Tom Wigley de l’Unitéde recherche climatique de l’Université d’East Anglia, à Norwich en Angleterre.
L’équipe de Wigley, qui collaborait avec le Département de l’énergie et la NOAA des Etats-Unis (Administration Nationale de l’Océan et de l’Atmosphère/ National Oceanic and Atmospheric Administration), a retrouvé plus de 3000 stations météorologiques sur terre où la température avait été régulièrement mesurée depuis 1850, époque où les agences météorologiquesont systématisé leurs mesures. Elle les a triées selon des critères sévères de fiabilité et de cohérence et en a gardé finalement 1584 situées dans l’hémisphère nord (sur 2666) et 293 situées dans l’hémisphère sud (sur 610). Il a fallu affecter un facteur de correction à certaines, par exemple à celles situées dans une zone devenue urbanisée et qui s’est donc réchauffée. Wigley et ses collaborateurs ont ensuite divisé le globe enrégions de 5 degrés de latitude sur 10 degrés de longitude et ont calculé une moyenne annuelle pour chacune d’entre elles, puis finalement une moyenne pour chaque hémisphère, nord et sud, et enfin la moyenne des deux hémisphères. Résultat : la température moyenne à la surface des terres s’est élevée de 0,5C depuis la fin du XIXe siècle.
L’équipe de Wigley a effectué le même travail pour les mesures faites en mer et est arrivée à la même conclusion. Elle a exploité deux banques de données informatiques construites à partir d’archives de journaux de bord de bateaux - celle de la NOAA et celle du Meteorological Office britannique- réunissant 80 millions de mesures en mer depuis 1853.
De son côté l’étude de Hansen, elle, a abouti à un réchauffement légèrement supérieur, de 0,5C à 0,7C, depuis 1860 (voir graphique ci-dessous).
Le réchauffement a été particulièrement remarquable depuis 1980. Les 10 années les plus chaudes, depuis les débuts des mesures scientifiques au XIXe siècle, ont été dans l’ordre : 1995, 1990, 1994, 1993, 1996, 1989,1988, 1987, 1983, 1981.
Lorsque l’on établit la comparaison de la courbe des températures avec celle du taux de CO2 dans l’air, deux fameuses énigmes apparaissent : 1.Pourquoi n’a-t-on constaté aucun réchauffement entre 1940 et 1975 ? 2. Pourquoi la plus grande partie du réchauffement a-t-elle eu lieu avant 1940 alors que la plus grande partie de l’accumulation de CO2 est postérieure à 1940 ? Il n’existe aucun consensus parmi les climatologistes pour répondre à ces questions. Elles renvoient à des problèmes plus généraux : comment interagissent les différents facteurs du climat ? comment se combinent les causes naturelles des variations et l’effet de serre d’origine humaine ?
Les modèles informatiques de l’effet de serre
C’est en 1950 qu’a été calculée la première prévision du temps à 24 heures sur un ordinateur électronique par Jule G. Charney sur l’ENIAC, l’un des premiers ordinateurs électroniques de l’histoire. Celui-ci avait servi aux calculs de la première bombe atomique et était exploité par l’US Army. Charney faisait partie de l’équipe du célèbre mathématicien d’origine hongroise du Manhattan Project (programme américain de fabrication debombes atomiques durant la Deuxième Guerre mondiale), John von Neumann (1903-1957). Ce dernier avait entrepris, à côté de divers projets guerriers futuristes, de modéliser l’atmosphère par ordinateur. Un autre membre de l’équipe, Norman Phillips, a réalisé le premier modèle informatique del’atmosphère globale. Un troisième membre de l’équipe, Joseph Smagorinsky, prenait la tête en 1963 du nouveau laboratoire créé par la NOAA, le Geophysical Fluid Dynamics Laboratory, à Princeton, consacré à la modélisation mathématique de l’atmosphère sur les plus grands et les plus rapides ordinateurs disponibles. Cela a conduit aux prévisions météorologiques d’aujourd’hui de 5 à 10 jours.
C’est dans ce laboratoire qu’un jeune savant japonais, Syukuro Manabe, entreprend dès les années 60, en collaboration avec Richard T. Wetherald, de mettre au point des modèles du climat et de calculer les effets de l’accroissement du taux de CO2 dans l’air. En 1967 ils arrivent à la conclusion que le doublement du taux de CO2 dans l’atmosphère produirait un réchauffement global moyen de 3C. (Sur la modélisation plus récente, voir encadré « Puisssance et limites de la modélisation », p. 9.)
Années 70 : la prise de conscience
Les observations de Keeling et le calcul de Manabe et Wetherald déclenchent dans le monde entier un effort accru d’étude du climat et de l’effet de serre.
En septembre 1970, dans le numéro spécial de Scientific American consacré à la biosphère, Bert Bolin - alors professeur de météorologie àl’Université de Stockholm (et aujourd’hui président du Groupe intergouvernemental sur l’évolution du climat - Intergovernmental Panel on Climate Change (IPCC) - écrit dans un article consacré au cycle du carbone : « Depuis environ 1850, l’homme a mené par inadvertance une expérience géochimique globale en brûlant de grandes quantités de combustibles fossiles, réintroduisant ainsi dans l’atmosphère du carbone qui avait été fixé par la photosynthèse il y a des millions d’années... L’accélération de la consommation de combustibles fossiles implique que la quantité de dioxyde de carbone dans l’atmosphère va continuer de croître de sa valeur actuelle de 320 ppm pour atteindre 375 à 400 ppm en l’an 2000, malgré les grandes absorptions de dioxyde de carbone par la végétation terrestre et par l’océan auxquelles on peut s’attendre. Reste une question fondamentale:que va-t-il se passer dans les 100 ans ou les 1000 ans qui viennent ? (...) »
En 1979, l’Organisation Météorologique Mondiale (OMM) réunit la première Conférence internationale sur le climat.
Années 80 : l’inquiétude s’organise
En 1985, les scientifiques sonnent l’alarme lors d’une Conférence conjointe du Programme des Nations Unies pour l’Environnement (PNUE), de l’OMM et du Conseil international des unions scientifiques, à Villach en Autriche.
C’est en 1988 qu’une large couverture médiatique popularise l’effet de serre. L’Assemblée générale des Nations Unies en reconnaît l’importance par sa résolution 43/53. Cette même année a lieu à Toronto la première Conférence mondiale sur le climat (World Conference on the Changing Atmosphere). L’OMM et le PNUE créent conjointement le Groupe intergouvernemental sur l’évolution du climat (GIEC/IPCC) qui réunit des scientifiques nommés par les gouvernements en un réseau de 2500 collaborateurs environ. Son rapport de 1994 a été rédigé par 25 auteurs de 11 pays, à partir de contributions de 120 auteurs ; il a été relu par 230 scientifiquesde 31 pays.
En 1990, l’IPCC publie un rapport qui fait sensation. Pour avoir le moindre espoir de stabiliser le taux de CO2 dans l’atmosphère à environ le double de sa valeur préindustrielle, c’est-à-dire environ 580 ppm, il faudrait réduire les émissions annuelles de CO2 de 60%. Dans son rapport de 1995, l’IPCC écrit qu’« un effet climatique produit par les activités humaines est décelable dans les données historiques climatologiques ». Selon lui, « il est improbable que (les changements récents dans les tendances du climat global) soient dus entièrement à des causes naturelles » [5]. Son évaluation, qui en 1995 prend pour la première fois en compte l’effet refroidissant des aérosols de sulfates (voir plus bas), prédit une hausse moyenne globale de la température d’ici à l’an 2100 comprise entre 0,8 et 3,5C.
Le dernier rapport de l’IPCC paru en juin 1996 estime que la température moyenne à la surface de la terre va probablement s’élever de 2 d’ici àl’an 2100, ce qui entraînera une élévation du niveau des mers d’un peu moins de 50 cm et des conséquences difficiles à estimer sur la répartition des précipitations et des climats. Suite à sa publication, les ministres de l’environnement de l’Union européenne ont décidé qu’il ne faudra pas accepter que la température moyenne monte de plus de 2C, c’est-à-dire que le CO2 dans l’air dépasse 550 ppm. Pour atteindre ce but, il faudrait réduire les émissions de CO2 de plus de 50% [6] !
Années 90 : l’effet refroidissant des sulfates
Début des années 90, un phénomène est mieux appréhendé. En effet, les émissions soufrées dans l’atmosphère - d’origine volcanique ou sous forme de dioxyde de soufre (SO2) qui est un autre rejet de la combustion descombustibles fossiles - s’y transforment en acide sulfurique formant avecl’eau des goutelettes. Ces goutelettes dispersées dans l’atmosphèrereflètent les rayons du soleil et refroidissent le climat. Tom Wigleypublie en 1989 dans la revue Nature un article remarqué sur cephénomène. Ainsi, paradoxalement, l’emploi croissant dès les années 70 de combustibles fossiles à faible teneur en soufre et la réduction souhaitable de la consommation de combustibles fossiles affaiblissait un facteur de refroidissement et accentuait l’effet de serre. En avril 1994, à Berlin-Dahlem, un colloque international est consacré à ces aérosols de sulfates.
Ce phénomène compense 30% de l’effet de serre, mais il ne lui est pas comparable. Les sulfates ne séjournent que quelques semaines dans l’atmosphère avant d’être lessivés par la pluie. Ils ne contre balancent pas l’effet de serre mais le masquent un temps et le repoussent à plus tard. En1995, deux GCM (modèles de circulation globale utilisés dans la recherche atmosphérique), au Centre Hadley du Britain Metorological Office et à l’Institut Max Planck de Météorologie de Hambourg, aboutissent à mieux reproduire la courbe de hausse des températures au XXe siècle en intégrant cet effet refroidissant des sulfates : la plus petite augmentation réelle et l’absence de réchauffement entre 1940 et 1975 semblent trouver une explication ; « selon toute probabilité », écrit Wigley [7] (voir graphique ci-dessous). Ce dernier a des doutes car le phénomène n’est pas distribué de manière égale dans l’atmosphère du globe. En effet, 90% des sulfates sont concentrés au-dessus de l’hémisphère nord plus industrialisé alors que le réchauffement observé est égal dans les deux hémisphères. En outre, la part des causes naturelles à l’évolution du siècle écoulé n’est pas éclaircie pour autant.
3. Histoire du climat
Dans son article du Scientific American d’août 1990 sur le réchauffement climatique, Tom Wigley conclut : « L’accord entre les tendances historiques au réchauffement et les prédictions des modèles de l’effet de serre ne signifie pas toutefois que l’effet de serre a été détecté d’une manière concluante ni qu’il est relativement faible. Etant donné la dimension de la variabilité naturelle du climat et les autres facteurs externes susceptibles d’affecter le climat, le réchauffement observé pourrait malgré tout être attribué à d’autres facteurs que l’effet de serre, ou, bien entendu, il se pourrait également qu’un effet de serre plus substantiel encore se soit trouvé masqué par d’autres fluctuations climatiques. »
Le réchauffement dû aux gaz à effet de serre émis par l’activité humaine peut-il vraiment être perçu précisément sur le fond des variations naturelles du climat, épisodiques ou périodiques ? Ces variations obéissent à des cycles historiques connus ou connaissables. Mais personne ne peut démontrer avec certitude comment la température aurait évolué exactement sans les rejets de gaz à effet de serre.
La préoccupation concernant l’effet de serre a fortement stimulé l’étude des mécanismes du climat terrestre. Ces investigations se sont inscrites dans le contexte du développement de la recherche dans divers domaines liés : l’écologie scientifique ; l’étude des planètes du système solaire avec leur exploration grâce à divers engins automatiques (satellites, sondes,etc.) ; l’examen au cours des années 80 des conséquences climatiques possibles d’une guerre nucléaire ; l’enquête sur les causes des grandes extinctions de l’histoire de la vie et principalement de la dernière, il ya 65 millions d’années, qui a vu s’éteindre les dinosaures.
Tous ces domaines d’étude ont en commun de considérer la planète Terre, et sa biosphère, comme un tout cohérent dont il s’agit d’élucider les mécanismes globaux de régulation et d’évolution.
Reconstituer des cycles de température
Au Xe siècle, quand les Vikings partis de Norvège atteignent le Groenland après avoir colonisé l’Islande, ils rencontrent rarement des icebergs. La température est suffisamment chaude pour cultiver du blé en Islande. A la fin du XIIe siècle toutefois, les conditions se détériorent. Durant l’hiver, les bateaux rencontrent de plus en plus de glace et dès le XIVe siècle les routes maritimes doivent être décalées considérablement vers le sud. A la fin du XVe siècle, les communications sont interrompues avec le Groenland et on ne peut plus cultiver le blé en Islande. La chaleur du Moyen Age a fait place à ce qu’on a appelé le « petit âge glaciaire » quis’étend sur la période allant de 1450 à 1860 ; il a été caractérisé par une température moyenne inférieure de 1C à celle d’aujourd’hui.
Les archives, plus précises et détaillées à partir de 1600, établissent qu’il y eut une longue époque d’expansion glaciaire et donc de climat froid qui a duré jusqu’en 1860. C’est le recul des glaciers constaté en de nombreux points à la fin du XIXe siècle qui a signalé la fin du petit âge glaciaire. Les glaciers continuent de reculer et ont reculé de manière spectaculaire durant le XXe siècle, puisque moins de la moitié de leur volume de 1860 subsiste aujourd’hui. Ce n’est donc qu’au XXe siècle qu’est revenu le climat doux qui avait caractérisé le Moyen Age.
Le point décisif, c’est que le réchauffement global qui a mis fin au petit âge glaciaire brouille les tentatives d’évaluer avec une certaine précision quelle part du réchauffement depuis un siècle provient de l’évolution naturelle et quelle part a été provoquée par l’injection dans l’atmosphère de gaz à effet de serre dus aux activités humaines.
Les sceptiques chercheront à en attribuer la cause avant tout à la longue tendance au réchauffement qui commence dès 1700. Par contre, les climatologistes qui s’alarment de l’effet de serre soulignent la contribution des entreprises humaines. La question ne peut donc être résolue que par l’établissement des cycles de la température de la Terre depuis plusieurs milliers d’années afin de déterminer si une périodicité peut être constatée. Si une périodicité cyclique peut être confirmée, ilsera possible, en l’extrapolant au XXe et XXIe siècles, d’évaluer ce qu’aurait été le destin de la température terrestre en l’absence de la Révolution industrielle.
Wallace Broecker, de l’Observatoire terrestre Lamont-Doherty de l’Université de Columbia, a entrepris cette démarche en 1975. A cette date, la seule source d’information détaillée sur un passé ancien était le forage profond creusé dans la calotte glaciaire du Nord du Groenland à un endroit appelé Camp Century. Dans les années 50, un géochimiste danois, Willi Dansgaard, a démontré que la proportion des isotopes 18 et 16 de l’oxygène dans la composition de l’eau de la neige qui tombe dans les régions polaires reflète la température de l’air. En analysant les couches de glace accumulée, et en sachant combien de centimètres s’accumulent en une année, Dansgaard a pu établir la température de l’air chaque année aucours des siècles. Dansgaard et ses collègues ont déterminé deux cycles : un de 80 ans environ ; un second d’effet plus faible de quelque 180 ans.
En considérant la combinaison probable des cycles de 80 ans et de 180 ans avec l’effet de serre présumé au XXe siècle, Broecker arrivait en 1975 à une conclusion qui expliquait la stabilisation énigmatique de la température depuis 1940 : le cycle de 80 ans aurait provoqué un réchauffement naturel de 1895 à 1935 et aurait dû produire un refroidissement naturel de 1935 à 1975. C’est l’accentuation de l’effet de serre dû aux émissions humaines qui annula ce refroidissement. Mais Broecker prédisait alors que dès 1975 l’effet réchauffant du cycle naturel allait se combiner à l’effet de serre et produire une vive hausse des températures dans les années 80. Cela s’est effectivement produit (voir graphique ci-dessus). Ainsi, l’effet de serre que la période 1940-1975 avait paru démentir, est remis sur le devant de la scène. Pour Broecker l’idée de bon sens que l’augmentation des émissions de gaz carbonique et autres devait élever la température ne pourrait être infirmée avec certitude, ou confirmée, qu’au moment où la hausse de température attribuable à l’effet de serre serait telle qu’elle dépasserait nettementce que le cycle naturel suffirait à expliquer [8].
Le forage profond de Camp Century semblait donc permettre une reconstitution cohérente de l’histoire du climat. Cependant, les analyses similaires effectuées dans les glaces de l’Antarctique, dans les glaciers de Chine ou du Pérou, ainsi que trois autres forages au Groenland ne confirmèrent pas l’interprétation issue de ceux de Camp Century. De plus,les résultats ne concordaient pas entre eux.
Les fluctuations des taches solaires
Les taches solaires connaissent des variations cycliques. Elles deviennent très nombreuses puis leur nombre tombe presque à zéro avant de semultiplier à nouveau, selon un cycle de 11 ans observé depuis le début du XVIIe siècle. Grâce aux satellites les astronomes ont pu mesurer directement le flux d’énergie émis par le soleil durant les cycles les plusrécents. Le flux diminue de 0,1% quand les taches solaires disparaissent. Ce n’est pas négligeable mais la possibilité que cela influe sur le climatest très controversée. On connaît encore une périodicité de 80 à 90 ans et une de 200 ans.
En 1890 Edward Maunder avait constaté qu’entre 1660 et 1720 les taches solaires avaient disparu complètement. C’est le « minimum de Maunder » (voir graphique ci-dessous). On estime aujourd’hui qu’il a correspondu à une baisse de 0,4% de l’intensité du flux solaire. En l’absence de taches solaires, la Terre est frappée par un flux plus intense de rayons cosmiquesqui produisent dans l’air la formation de carbone 14. La composition en carbone 14 des cernes des arbres (cercles de croissance concentriques du tronc d’un arbre que l’aubier forme chaque année) a permis d’établir le cycle solaire pour des périodes antérieures à 1600. Cela a révélé le « minimum de Wolf », environ entre 1260 et 1320, et celui de Spörer de 1400 à 1540. Ces trois minimum - 1260-1320, 1400-1540, 1660-1720 - couvrent une grande partie du petit âge glaciaire. En sont-ils l’explication ? Le réchauffement du climat n’a commencé qu’au milieu du XIXe siècle. L’écart paraît trop grand. Et pourtant la superposition partielle accrédite l’hypothèse d’une origine solaire des variations naturelles de la température de la Terre qui a fait l’objet de débats et d’explications intéressants récemment.
4. Scepticisme et laisser-faire
L’effet de serre fait l’objet de multiples débats et d’intenses controverses où les aspects scientifiques et politiques s’interpénètrent.
Certains spécialistes de l’atmosphère considèrent qu’il y a une claire disproportion entre un danger probable mais non prouvé et le coût, lui certain, des mesures de réduction des émissions de CO2. Cette objection est formulée de manière très vive aux Etats-Unis et avant tout pour deux raisons. La première a trait à la dimension particulière que devrait prendre une politique de réduction des émissions de CO2 dans un pays où la consommation élevée de combustibles fossiles est un aspect structurel de l’économie. La seconde est liée au fait que les recherches historiques sur l’évolution de la température ont révélé qu’à la différence des autres régions du globe la température moyenne est restée la même aux Etats-Unis depuis un siècle ; ce particularisme est utilisé dans le plaidoyer des sceptiques.
La terrible sécheresse de l’année 1988 a déclenché aux Etats-Unis une intense polémique au sujet de l’effet de serre. D’un côté, 52 prix Nobel et plus de 700 membres de l’Académie nationale des sciences appelaient le gouvernement à agir contre les émissions de CO2 tandis qu’au Congrès le sénateur Al Gore (devenu depuis le vice-président des Etats-Unis) proposait une série d’initiatives législatives dans ce sens pour affirmer son profil écologiste. L’administration Bush (1988-1992) était divisée : l’Agence de la protection de l’environnement poussait à prendre des mesures tandis que le conseiller scientifique du président prêchait la retenue. Quant à John Sununu, secrétaire-général de la Maison-Blanche de 1988 à 1991, il se faisait une spécialité de guerroyer contre la « panique millénariste » de l’effet de serre.
Un lobby influent a été créé en 1989, la Global Climate Coalition, alimenté entre autres par les fonds des industries charbonnières, pétrolières, automobiles, ainsi que des compagnies électriques, de la Dow Chemical et de la National Association of Manufacturers. La Global Climate Coalition écrivait en 1994 en réponse à une consultation du Département d’Etat : « Le coût de l’inaction est très hypothétique et très éloigné dans letemps. » [9] Un institut d’étude de la droite républicaine, l’Institut George C. Marshall, publiait un rapport démontrant que sans le supplément d’effet de serre dû aux émissions récentes d’origine humaine, la planète refroidirait en réalité au siècle prochain.
Les deux plus prestigieux météorologistes des Etats-Unis, Richard S. Lindzen du MIT et Jerome Namias du Scripps, écrivaient une lettre auprésident Bush pour appeler à ne rien faire. Trois autres membres de l’Académie nationale des sciences, dont son ancien président, Frederick Seitz, cosignèrent un rapport publié par le Marshall Institute, mettant en doute les éléments scientifiques invoqués pour justifier un programme de réductions des émissions de CO2. A leur avis, les données scientifiques permettaient tout au plus d’affirmer que la faible hausse de la température moyenne observée pouvait être conforme avec les prédictions les plus basses des modèles de l’effet de serre dû au CO2. Ils soulignaient que ces modèles étaient incertains et qu’il pouvait y avoir de nombreuses autres causes, naturelles celles-là, pour expliquer la hausse de température constatée. Ils appelaient à un grand programme de recherche pour perfectionner les modèles mathématiques avant d’émettre des conclusions tranchées. Selon Lindzen, « premièrement, aucune preuve de l’existence de l’effet de serre ne peut être décelée dans les mesures de température des 100 ans écoulés ; et deuxièmement, les prévisions actuelles de réchauffement global pour leXXIe siècle sont si imprécises et grevées d’incertitudes qu’elles en sont inutilisables par les responsables politiques pour définir une orientation... Il est difficile d’argumenter contre l’affirmation que »la seule question concernant le réchauffement est combien, et quand. « Toutefois... la réponse à la question »combien« pourrait se révéler être très peu. Notre seconde recommandation (est) qu’aucune action politique importante ne soit entreprise tant que les implications ne sont pasréellement comprises. » [10]
Les optimistes spéculent sur la mise en culture de terres nordiques. D’autres, que 40 ans de guerre froide ont préparés à des solutions radicales, proposent de tirer dans le ciel avec les canons de marine des dizaines de milliers d’obus d’une tonne pour y injecter poussières et sulfates nécessaires à produire l’effet refroidissant susceptible de compenser l’effet de serre et de répéter autant que nécessaire ce « volcanisme artificiel » au XXIe siècle. La proposition a été faite sérieusement en 1992 dans un comité du National Research Council [11]. D’autres encore expérimentent l’ensemencement des mers tropicales avec du fer afin d’y stimuler le développement des algues vertes susceptibles d’absorber du CO2 [12]. D’autres encore ont proposé de mettre en orbite des dizaines de milliers de feuilles d’aluminium pour réfléchir les rayons du soleil.
Certains économistes plus classiques proposent de ne point contrecarrer un réchauffement du climat mais de se contenter d’une politique d’adaptation. En effet, le réchauffement n’est pas certain ; s’il se produit, c’est peut-être pour des causes naturelles contre lesquelles on ne peut de toute façon rien entreprendre. Une politique de restriction des émissions de CO2 coûte trop cher en investissements de reconversion économique et technologique ; une telle entreprise nécessiterait aussi une intervention de l’Etat dans le marché. Il vaut dès lors mieux se contenter de s’adapter au fur et à mesure au réchauffement du climat : modifier l’aménagement du territoire dans les zones côtières au fur et à mesure d’une éventuelle montée du niveau des eaux ; déplacer les cultures selon le déplacement des zones climatiques ; transformer les réseaux d’adduction d’eau et d’irrigation au gré des déplacements de pluviosité. On évite ainsi des investissements massifs fondés sur des prédictions scientifiques non prouvées. On les remplace alors par des investissements répartis dans le temps, au cas par cas, dispersés et laissés à la libre réaction des acteurs du marché placés face aux changements graduels du climat.
Toute une officialité scientifico-administrative des Etats-Unis a choisi de se rallier prudemment à une voie moyenne, celle d’une politique dite de« non-regrets ». Elle propose de prendre uniquement les mesures de réductiondes émissions de CO2 qui offrent d’autres avantages (par exemple, les économies d’énergie) et d’éviter toute mesure radicale qui pourrait serévéler avoir été prise en vain si l’effet de serre ne se confirmaitfinalement pas, au cours du siècle prochain.
Wallace S. Broecker a procédé dans un article fort pédagogique de la revue new-yorkaise Natural History d’avril 1992 à une discussioncomparée des arguments des uns et des autres, en accordant beaucoup d’importance aux limites des connaissances et aux incertitudes existantes. Il concluait que l’extrême difficulté de mettre clairement en évidence l’effet réchauffant du CO2 émis par l’industrie humaine face aux fluctuations naturelles du climat « fournit une excuse pour retarder des actions visant à réduire les émissions de dioxyde de carbone. D’un autre côté, Hansen (le climatologiste de la Nasa cité plus haut) pourrai tassurément maintenir qu’en l’absence de preuve que le monde n’est pas entrain de se réchauffer au rythme prédit par les simulations informatiques, nous devrions suivre les préceptes appliqués à d’autres dangers de l’environnement et décider selon le principe de précaution. Au lieu d’exiger des écologistes qu’ils apportent la preuve, les partisans du »laisser-aller« (business as usual) devraient être obligés d’apporter la preuve que l’émission incontrôlée des gaz à effet de serre ne va pas réchauffer significativement la planète. Or cette preuve n’existe pas ;parmi les scientifiques, le balancier penche vers la conviction que le business as usual va modifier le climat. » [13]
En janvier 1996, Tom Wigley, devenu directeur de l’Office of Interdisciplinary Earth Studies de la University Corporation for Atmospheric Research de Boulder, Colorado, a fait scandale avec un article publié dans la revue Nature. Sans minimiser le problème de l’effet de serre, il propose de repousser de 30 ans la prise de mesures visant la réduction des émissions de CO2. Par rapport aux objectifs pour 2100, cela ne fera pas grande différence (voir graphique ci-dessous), cela laisse le temps de développer des technologies moins coûteuses, au tiers monde d’accroître sa consommation de combustibles fossiles pour s’industrialiser ;et, réparti sur un plus long délai, l’effort sera moins coûteux. Les critiques ont fusé. On lui a répliqué entre autres que le développement et la généralisation de technologies plus économes en énergie ne seront pas facilités par l’attente, mais au contraire par une forte pression sur le court terme exercée sur l’industrie. Wigley répond : « Ici (auxEtats-Unis), faire les choses trop radicalement peut décourager les gens, leur faire chercher des raisons de ne jamais rien faire du tout, y compris leur faire dire que l’effet de serre n’existe pas. C’est pourquoi nous devons agir d’une manière qui ne soit pas économiquement perturbatrice. » [14]
5. Evaluation etprise en compte des risques
Une hausse de la température de 0,8 à 3,5 C d’ici 2100 paraît modeste. En réalité c’est le changement de température moyenne le plus important que l’humanité civilisée aura jamais connu. Une hausse de 2C. nous ramènerait à une température moyenne que la Terre n’a plus connu depuis 120’000 ans. La fin du dernier âge glaciaire, il y a 14’000 ans, s’est traduite par un réchauffement moyen de toute la Terre d’une amplitude comparable, entre 3 et 5C. Mais il s’était alors étalé sur plusieurs milliers d’années. Le réchauffement prédit pour le XXIe siècle sera immensément plus rapide, 10 à 50 fois plus, puisqu’il s’étalera sur environ100 ans. Ses conséquences ne vont donc pas seulement découler de son amplitude mais également de sa rapidité.
Ce qui est déterminant pour les conséquences, ce sont les températures locales. Pour une hausse entre 0,8 et 3,5C de la température moyenne, la température des régions tropicales va s’élever de 2 à 3, en moyenne annuelle, tandis que la température des régions tempérées et celle des régions boréales va s’élever de plusieurs degrés, aux pôles de 9 en moyenne annuelle. Ce sont surtout les hivers qui y seront plus chauds.
Certaines régions vont profiter d’un climat plus doux. On pense qu’au Canada et en Russie la culture du blé pourrait s’étendre vers le Nord. Mais la plupart des habitants de notre planète vont souffrir du bouleversement de leur climat local, quelque soit le sens dans lequel il change. Ici i ldeviendra plus sec, là plus humide, à d’autres endroits il peut même devenir plus froid, car les zones climatiques vont se modifier (voir graphique p. 16). Or les conditions d’existence des communautés et civilisations humaines ont toujours dépendu d’une stabilité du climat local à l’échelle au moins de quelques générations successives, soit quelques siècles. Certaines cultures ne seront plus possibles ici mais deviendront possibles là. Les conditions d’existence des gens vont être bouleversées ; cela va entraîner des migrations et la société humaine sera profondément perturbée. Les plus pauvres souffriront le plus, en particulier les pays sous-développés fortement agricoles qui dépendent plus du climat. De plus, ils n’auront pas les moyens d’investir dans des travaux de protection ou d’adaptation.
Le réchauffement va accroître l’évaporation. Les précipitations augmenteront mais les sols deviendront plus secs et les précipitations ne compenseront pas cela. Les sécheresses s’aggraveront donc. Se multiplieron tles phénomènes extrêmes et leur intensité s’accentuera. Selon le rapport 1995 de l’IPCC, « on s’attend à l’accroissement de l’incidence des inondations, sécheresses, feux et vagues de chaleur dans certaines régions » [15].
La hausse du niveau des mers ne sera pas due pour l’essentiel à la fonte des calottes polaires, qui restera relativement faible, mais à la dilatation de l’eau réchauffée. Les calottes de glaces polaires pourraient même s’accroître, l’atmosphère dans les hautes latitudes devenant plus humide. On pense que le niveau des mers s’élèvera de 10 à 150 cm d’ici la fin du siècle prochain. Paul Crutzen, prix Nobel en 1995 pour ses travaux sur la chimie de l’atmosphère, prédit 20 cm d’ici 2030 et 45 cm d’ici 2070 [16]. Depuis un siècle le niveau de la mer est monté déjà de 20 à 40 cm.
Plus de la moitié de la population mondiale vit sur les côtes ou les estuaires. La hausse du niveau des mers va rendre inhabitables certaines régions côtières, elle va démultiplier les dégâts causés par les tempêtes et les typhons, elle va introduire plus d’eau salée dans les nappes phréatiques. Elle va surtout frapper avec cruauté certaines des région scôtières les plus pauvres et les plus peuplées. On pense tout de suite au Bangladesh où 120 millions des habitants les plus pauvres de notre planète vivent dans le delta du Gange et du Brahmapoutre. Les cyclones de 1970 et d’avril 1991 y ont fait des centaines de milliers de morts. La politique économique implacable imposée depuis 1974 par le FMI et la Banque mondiale y a démultiplié la pauvreté et la crise économique ne cesse de refouler un nombre croissant de paysans sans terres vers les zones inondables.
La hausse de la température ne peut pas être réduite à un simple passage de l’état actuel à un autre un peu plus chaud, auquel on pourra s’adapter. La rapidité du passage est primordiale et les difficultés d’adaptation en découlent. Sera-t-il possible de réaliser si vite les investissements et les grands travaux nécessaires, de réimplanter si vite des cultures déplacées ou les populations émigrées ?
Le même défi est posé à la nature. 1C de réchauffement équivaut à un décalage vers le nord des zones de végétation de 100 à 150 km. La forêt boréale, la forêt de conifères et de bouleaux qu’on appelle la taïga, pourra-t-elle s’étendre si vite vers le nord ? Ce serait réjouissant puisqu’un accroissement de la superficie de cette forêt entraînerait unaccroissement substantiel de l’absorption du CO2 atmosphérique par la photosynthèse. Mais la forêt pourra-t-elle occuper le terrain disponible dans des délais si courts ? Le vent y dispersera-t-il les semences si vite ? Dans un tel laps de temps, les jeunes pousses deviendront-elles des arbres ? Les spécialistes pensent une telle évolution tout à fait peu probable. Ils pronostiquent dès lors non pas une extension de la végétation mais des extinctions des espèces végétales subissant un tel stress.
Enfin, le changement ne conduira pas à un nouvel état stable, mais se poursuivra sans interruption pendant des générations. Comment les humains vivront-ils dans un contexte climatique qui change continuellement ?
Les effets en cascade
Les effets en cascade - nommés feedbacks ou rétroactions - sont l’objet des plus grandes interrogations et incertitudes. Ils suscitent aussi les plus grandes inquiétudes.
Examinons d’abord les rétroactions négatives, celles qui atténueraient le problème et sur lesquelles les optimistes se plaisent à parier. On peut les énumérer ainsi.
1. L’accroissement du taux de CO2 dans l’air stimule la photosynthèse et la croissance des plantes. Une végétation plus abondante absorbe plus de CO2 et ralentit l’augmentation du taux de ce dernier dans l’air. Cette hypothèse est contestée. En effet, le réchauffement semble favoriser chez les plantes plus la respiration que la photosynthèse ; dès lors, le srétroactions ne seraient donc pas aussi favorables que d’aucuns l’espèrent.
2. Le réchauffement accroît l’évaporation et augmente la couverture nuageuse, ce qui refroidit l’atmosphère en augmentant la réflexion de la lumière du soleil vers l’espace. Effectivement les nuages contribuent àrefroidir l’atmosphère.
Passons aux rétroactions positives qui aggraveraient le réchauffement.
1. L’évaporation accrue due à la température plus élevée augmente la teneur de l’atmosphère en vapeur d’eau qui est un gaz à effet de serre très efficace.
2. Le réchauffement de l’océan diminue son absorption de CO2 atmosphérique.
3. La température plus élevée accélère la décomposition des matières organiques mortes dans l’humus des sols et les marécages, qui dégage du CO2 et du méthane contribuant à élever leur teneur dans l’atmosphère et donc l’effet de serre. Un effet boule de neige, une réaction en chaîne de l’effet de serre, pourrait se produire si les immenses quantités de méthane actuellement bloquées dans le permafrost (la terre gelée) des régions arctiques venaient à être libérées.
4. Enfin, le pire effet possible serait une modification du système des courants océaniques si la zone arctique de l’Atlantique, qui en est le moteur, se réchauffait et devenait plus pluvieuse. Il y a des raisons de penser que ce système, comme tous les systèmes complexes, ne se modifie pas graduellement mais bascule d’un coup vers un tout autre état une fois un seuil dépassé. Les modèles les plus récents montrent que cela se produiraitsi le taux de CO2 venait à quadrupler. L’humanité ferait alors face à un scénario catastrophe : on entrerait, paradoxalement, dans une longue époque très froide.
6. Nord et Sud
La plus grande partie du CO2 a été produite dans les pays industrialisés et non dans les pays sous-développés. Actuellement ces pays, dans lesquels trois quarts de la population mondiale résident, contribuent à un peu plus du quart de la production totale de CO2 liée à des activités humaines.
Or, le CO2 s’accumule durablement dans l’atmosphère. Quand on considère les chiffres cumulés durant les décennies écoulées, la différence entre les pays industrialisés et les autres est encore plus impressionnante. Comme Anil Agarwal, le directeur du Center for Science and Environment de New Dehli le souligne, c’est la seule manière correcte de répartir les responsabilités entre Nord et Sud en cette matière [17]. De 1950 à 1986, la somme cumulée du CO2 émis par les Etats-Unis, le Japon, l’Allemagne fédérale, la France et l’Italie représente 45,9% du total mondial. Leurs populations additionnées ne font que 10,6% du total mondial.
Durant la même période la Chine et l’Inde, ensemble, ont émis 8,8% du total mondial alors que ces deux pays totalisent 37,3% de la population du globe. Et ils sont parmi les plus industrialisés du tiers monde.
La conclusion s’impose : les pays riches ont utilisé l’atmosphère de la planète tout entière comme décharge des émissions de leur industrie et cela leur a servi à externaliser à l’échelle planétaire des coûts de la combustion de combustibles fossiles ayant alimenté leur croissance économique depuis deux siècles. Ce faisant, dans le cadre des rapports asymétriques dominant entre Nord et Sud, ils ferment la porte à un développement analogue pour trois quarts de la population du globe qui vit dans les pays pauvres. Ces derniers accroissent leur consommation de combustibles fossiles et donc leurs émissions de CO2. Mais ils se heurtent, dès maintenant, à un constat émis par des acteurs socio-politiques puissants : les capacités d’absorption de l’atmosphère ont déjà été épuiséespar le Nord. « Si tous les citoyens de cette Terre émettaient autant de CO2 que les Allemands, l’humanité aurait besoin de cinq planètes Terre pour que la Nature puisse digérer ces rejets gazeux. » [18] L’exemple de la Chine sert à argumenter de façon convaincante ce point de vue. Elle est aujourd’hui le troisième plus grand émetteur de CO2 après les Etats-Unis et la Russie. Mais par tête d’habitant elle émet presque 8 fois moins que le Canada et les Etats-Unis. Or sa production est promise à croître avec l’industrialisation rapide qu’elle connaît. D’autant plus qu’elle brûle les combustibles fossiles d’une manière particulièrement peu économe par unité de valeur produite. Elle a des réserves massives de charbon qu’elle compte bien exploiter.
Toutefois, si l’on prend en compte la dimension historique du problème et les responsabilités respectives qui en découlent, deux questions se posent : la première porte sur les rapports inégalitaires Nord-Sud, les développements technologiques au Nord et au Sud et la définition de concepts de développement qui ne se superposent pas à ceux ayant fourni la matrice de la croissance du Nord industriel ; la seconde a trait à l’ampleur et à la priorité des efforts dans le domaine de la réduction des émissions de CO2.
En ce sens, même la Convention sur le Climat signée à Rio en juin 1992 reconnaît que ce sont les pays industrialisés qui doivent, en tout cas dan sun premier temps, porter seuls la charge de réduire leurs émissions de CO2 tandis que les pays pauvres se voient reconnu le droit de les accroître dans un premier temps, selon les besoins de leur développement économique.
Joint implementation et certificats de CO2
Les articles 3.3. et 4.2 de la Convention sur le climat permettent aux pays signataires de réaliser leurs engagements non seulement individuellement mais en groupes. Une formule qui a la faveur de plusieurs gouvernements e tparticulièrement celui des Etats-Unis est la joint implementation (application conjointe) entre un pays développé et un pays en développement. Comme l’atmosphère est un tout, on en a tiré l’idée qu’un pays riche peut réaliser un objectif de réduction du CO2 non pas chez lui mais dans un autre pays. Les pays riches émettent moins de CO2 par unité de valeur produite que les pays en développement ou les pays de l’Est européen. Par conséquent chaque unité de réduction des émissions de CO2 coûte plus cher au Nord qu’au Sud ou à l’Est. En outre, il serait possible de compenser une réduction des émissions de CO2 dans un pays riche par exemple en finançant le reboisement dans un pays en développement.
Cette formule semble concrétiser le transfert de technologies auquel les pays riches se sont engagés et offrir aux pays en développement l’avantage de réductions importantes de leurs émissions de CO2 sans frais pour eux. Pour les pays riches, cette formule offre l’avantage de pouvoir comptabiliser en leur faveur des réductions à moindre coût tout en leur permettant d’exporter leur technologie, et en s’économisant des mesures coûteuses chez eux. Ainsi la production d’une tonne d’acier consomme de 2 à 6 fois plus d’énergie en Chine qu’aux Etats-Unis [19].
Cette formule est violemment critiquée de toutes parts, en particulier par les pays du Sud, comme étant en réalité une façon pour les pays riches de ne pas réaliser leurs engagements et de maintenir à tout prix aux dépens du Sud leur mode de vie dispendieux en combustibles fossiles. En outre, à supposer que cette formule soit mise en pratique à large échelle et produise des résultats importants dans les pays en développement, il se produirait après l’an 2000 une situation très défavorable pour eux. En effet, au cours de la deuxième étape de mise en œuvre de la Convention sur le climat, les pays du Sud devront s’engager à des objectifs de réduction de leurs émissions de CO2. Les premières réductions les plus faciles et les moins chères à réaliser l’auront été grâce à l’aide des pays riches. Mais les pays pauvres devront s’engager dans la deuxième étape plus coûteuse et plus complexe en la finançant eux-mêmes.
Dès 1993, les Etats-Unis ont pris la tête d’initiatives de Joint Implementation. Ainsi, des grandes compagnies électriques US financent avec l’aide du gouvernement de Washington des reforestations au Costa-Rica et en Russie [20]. Toutefois, la Conférence de Berlin sur le climat en avril1995 a refusé d’entériner la Joint Implementation. Pour l’instant, seule une phase pilote a été décidée jusqu’en 1999, phase durant laquelle les pays « donateurs » ne sont pas autorisés à comptabiliser ces réalisations comme des réductions de leurs émissions de CO2.
Une autre formule a été soutenue en janvier 1995 par la Conférence des Nations Unies sur le Commerce et le Développement (CNUCED) : les certificats de CO2 aliénables. Le modèle de référence est le système des permis aliénables d’émission dans l’air du SO2, permis délivrés depuis quelques années aux industries polluantes par le gouvernement des Etats-Unis. A chaque pays serait accordé pour une période de quelques années, gratuitement ou contre paiement, un certificat fixant le tonnage de CO2 qu’il a le droit d’émettre durant cette période. La somme totale des certificats constituerait un plafond global d’émissions autorisées en fonction d’un objectif de réduction globale et ce plafond diminuerait de période en période. Idéalement le tonnage par habitant serait le même pour chaque pays, au moins après une première période transitoire. Mais les certificats seraient aliénables. Les pays pourraient les vendre et les acheter.
On peut douter de la mise en œuvre de cette solution. D’un point de vue général, elle implique de considérer l’environnement comme une marchandise. De plus, une difficulté élémentaire se pose dans l’application : quicontrôle, et comment, que chaque pays n’émet que la quantité que lui autorisent les certificats qu’il a gardés ou acquis ? En fait, toute approche sérieuse visant à une réduction drastique de l’émission de CO2 implique l’établissement de normes strictes et la mise en place d’un organisme (ou d’organismes) de pouvoir et de contrôle démocratique à l’échelle mondiale.
7. De quelques solutionspratiques
D’innombrables études ont démontré la faisabilité et l’efficacité de solutions permettant de réduire les émissions de CO2 sans diminuer le niveau de vie. Des plans ont été proposés dans plusieurs pays. Ils portent sur : les économies d’énergie dans les technologies industrielles, dans les moteurs automobiles, l’isolation des bâtiments, des appareils et machines consommant moins d’énergie, l’accroissement de la part du gaz naturel aux dépens du charbon et du pétrole, la réduction de la vitesse sur les routes, l’accroissement de la part du rail aux dépens de la route, la cogénération de chaleur et d’électricité, le développement de l’énergie solaire, etc. L’étude intitulée Zukunftsfähiges Deutschland du Wuppertal Institut für Klima, Umwelt, Energie (1996) multiplie des exemples concrets. Ainsi, elle présente deux scénarios de politique énergétique alternative aboutissant à une diminution de la consommation de combustibles fossiles en Allemagne de 28% à 38,7% d’ici l’an 2010, et de 40,7% à 56,6% d’ici l’an 2020, entraînant une réduction des émissions de CO2 de 37% à 46,5% d’ici 2010, et finalement de 50% à 63% d’ici l’an 2020.
Les économies d’énergie offrent l’avantage de diminuer les dépenses en combustibles. Des innovations technologiques indiquent des possibilités d emodification des modes de production et de consommation. Toutefois, une telle « révolution éco-technologique » exige des investissements très élevés, chiffrés à plusieurs centaines de milliards de dollars pour l’ensemble des pays industrialisés. Et dès lors, seule une programmation politique, sociale, économique et écologique pourrait faire aboutir, dans des délais raisonnables, un tel projet. A son tour, cette programmation implique une modification des rapports de forces socio-politiques et culturels dominants aujourd’hui. Autrement dit, l’orientation néo-libérale hégémonique devrait être battue en brèche.
8. De Rio à Berlin
1992 : Rio
En décembre 1990, l’Assemblée générale des Nations Unies a créé un Comité de négociation pour une « convention-cadre » sur le changement climatique. Il prépara la conférence qui s’est tenue à Rio de Janeiro du 3 au 14 juin 1992.
Dans ce cadre, l’Union européenne proposait que les pays développés s’engagent à réduire d’ici l’an 2000 leurs émissions de CO2 au niveau de 1990. Jusqu’au bout, l’administration américaine s’opposa à l’inclusion dans la convention de cet objectif. Bush déclarait : « Le mode de vie américain n’est pas négociable. » Les Etats-Unis menacèrent plusieurs fois de ne pas signer la convention. Ils visaient à imposer des objectifs stricts de réduction aux pays en développement. De plus, ils proposaient que la protection des forêts - qui absorbent du CO2 - et le reboisementsoient mis au même niveau que la réduction des émissions de CO2. L’Union européenne et les pays en développement - représentés par le Groupe des 77- s’y sont opposés. Le Groupe des 77 exigeait que la Convention offre les sauvegardes nécessaires contre le risque d’avoir à limiter leur croissance économique. Enfin, ils ne voulaient point être contraints d’acheter à desprix élevés les technologies modernes susceptibles de réduire leurs émissions de CO2.
Pour faire diversion, l’administration Bush mit toute son énergie à tenter de faire signer à Rio une autre convention, celle sur les forêts. Cette dernière visait à imposer aux pays où se situent les forêts tropicales humides - c’est-à-dire principalement le Brésil, le Zaïre, l’Indonésie et la Malaisie - le blocage de leur déforestation en instituant des réserves forestières internationalement contrôlées. L’administration Bush entendait ainsi combattre l’effet de serre sur le front de la déforestation chez lesautres afin d’éviter d’avoir à restreindre la consommation des combustibles fossiles aux Etats-Unis. Le Groupe des 77 fit échouer la manœuvre en invoquant le principe de la souveraineté nationale. De plus, ils ont dénoncé le fait que les Etats-Unis avaient sur leur territoire d’immenses forêts dont ils n’étaient même pas capables de freiner la déforestation, voire dont ils subventionnaient la coupe. La signature de la Convention sur le Climat fut sauvée au dernier moment par la formulation de l’article 4.2 imaginée par le secrétaire d’Etat britannique à l’environnement. Le texte évoque la réduction des émissions de CO2 au niveau de 1990 de la manière la plus vague possible, tandis que le délai de l’an 2000 est remplacé par l’engagement à un réexamen avant le 31 janvier 1998 :
« 4.2.b : Dans le but de servir au progrès vers cet objectif, chacune de ces parties [les pays développés] communiquera (...) une information détaillée sur ses politiques et mesures (...) dans le but de revenir individuellement ou collectivement aux niveaux de 1990 de ces émissions d’origine humaine de dioxyde de carbone et autres gaz à effet de serre (...). » [21] Il est difficile de trouver dans ce texte l’engagement dont les médias se sont fait l’écho.
Le texte définitif de la Convention put ainsi être achevé en mai 1992 afin que les gouvernements puissent le signer à Rio. Tout le texte de 17 pages et 26 articles est d’un juridisme prudent et byzantin. On y lit quand même à l’article 3.3 : « Quand il y a des menaces de dommage sérieux ou irréversible, le manque de pleine certitude scientifique ne devrait pasêtre invoqué comme raison pour repousser de telles mesures (...) »
A l’issue de la conférence, 150 pays l’avaient signée et elle est entrée envigueur en mars 1994.
1995 : Berlin
En 1994, les émissions de CO2 avaient déjà atteint, dans certains paysindustrialisés, un seuil supérieur de 5% à celui de 1990 ; et de 10%, 20%,voire 40% dans certains pays en voie de développement. Parmi eux, on peut citer ceux connaissant la croissance la plus forte et donc la consommationde combustibles fossiles la plus abondante : 13% en Chine, 16% au Brésil,24% en Inde, 44% en Corée du sud.
Les pays de l’Est européen étaient en termes relatifs de très gros consommateurs de combustibles fossiles. Sous l’impact d’une crise économique profonde, accentuée par des programmes d’ajustement structurel violents, leur consommation de combustibles s’est effondrée. Ainsi, de 1986à 1994 les émissions de gaz carbonique ont baissé de 20% en Russie, de 27% en Pologne, de 38% en Ukraine. Toutefois, on peut douter qu’ils fournissen tun exemple de développement écologique !
Un groupe de pays industrialisés, qui ont en commun un prix du pétrole bas, de grandes maisons mal isolées, un fort usage de l’automobile, accroissent depuis 1990 les émissions de gaz carbonique. Ces dernières ont augmenté de 4,4% aux Etats-Unis, de 5,3% au Canada et de 4,2% en Australie. Les tendances les plus récentes indiquent que les Etats-Unis dépasseront en l’an 2000 de 10% leurs émissions de 1990.
Du 28 mars au 7 avril 1995 s’est réunie à Berlin la première Conférence des pays signataires de la Convention sur le climat. 120 pays étaient représentés, dans un contexte dominé par l’inaction, c’est-à-dire le non-respect, voire le mépris généralisé des principes signés à Rio. L’Agence internationale de l’énergie calculait que, si aucune nouvelle mesure n’était prise, le niveau d’émissions de CO2 de 1990 serait dépassé de 30% à 40% en l’an 2010. C’est le scénario du « Business as usual », du laisser-faire, laisser-aller [22].
Dans son discours d’ouverture, le chancelier Kohl, en bon représentant de commerce, vanta les promesses de la technologie « propre » allemande e tannonça que l’Allemagne avait décidé de réduire ses émissions de CO2 de 30% au-dessous du niveau de 1990 d’ici l’an 2005 par un Plan national pour le climat ; ce plan combine de multiples mesures d’économie d’énergie et la baisse est en partie imputable à la diminution de la consommation de combustibles des Länder de l’Est. Peu avant la Conférence, l’Allemagne avait élevé ses taxes sur le pétrole. John Gummer, le ministre de l’Environnement du Royaume-Uni annonça que son pays s’engageait à réduire ses émissions de 5% à 10% d’ici 2010.
L’IPCC s’est réunie à Berlin peu avant la tenue de la conférence. Dans la nouvelle capitale allemande, compagnies d’assurances et divers lobbiesindustriels - par exemple la Global Climate Coalition, le Business Council for a Sustainable Energy Future - préparèrent la conférence. En contrepoint, des ONG, regroupées dans le Climate Action Network, organisaient leur propre lobby auquel les Verts et autres écologistes allemands assuraient un écho militant.
John Houghton, président du groupe de travail scientifique de l’IPCC, a proposé qu’on stabilise le taux de CO2 dans l’air au double de sa valeur pré-industrielle de la manière suivante : pendant 25 ans les pays développés réduisent leurs émissions de 20% tandis que les pays en développement doublent les leurs. Puis dès 2020 les émissions globales sont réduites de 50% par un effort de tous les pays [23]. Une proposition intéressante dont les modalités d’application devraient être au centre d’une discussion publique.
L’Alliance des petits Etats insulaires (AOSIS), 36 pays, dont quelques-uns disparaîtraient si le niveau des océans montait de 1 mètre seulement, proposa que les pays industrialisés s’engagent à réduire leurs émissions de 20% d’ici l’an 2005. L’AOSIS était soutenue par l’ensemble des ONG. Après quelques réticences initiales, le Groupe des 77, emmené par la Chine et l’Inde, décida à mi-conférence de se rallier à cette proposition et l’intégra à son Green Paper. L’Union européenne s’opposa à cette proposition, ainsi que la Russie. Quant aux Etats-Unis et à l’Australie, ou encore l’Arabie saoudite et le Koweit, ils menacèrent à diverses reprises d’opposer leur veto - les décisions ne peuvent être prises qu’à l’unanimité- aussi bien à la proposition de l’AOSIS qu’aux diverses propositions de compromis.
En effet, les diplomates européens formulèrent une solution de compromis. En dernière minute a été adopté un texte de 3 pages, le « Mandat de Berlin ». Mandat est donné aux groupes de travail réunissant les diplomates spécialisés de préparer un projet de protocole qui sera soumis à la prochaine Conférence internationale sur le climat agendée pour 1997 à Kyotoau Japon. Ce protocole devra « fixer des limitations quantifiées et des objectifs de réductions pour des dates spécifiées », soit 2005, 2010 et 2020. Jusqu’à 3 heures du matin de la nuit du jeudi 6 au vendredi 7 avril 1995, les Etats-Unis s’opposèrent au mot réductions [24] ! A Berlin on n’a donc rien décidé sauf de décider qu’on décidera en 1997 à Kyoto !
Le vendredi matin, une manifestation d’écologistes de 30 pays défilait devant le siège de la Conférence et envahissait brièvement la tribune officielle. Au nom du Global Action Network, le porte-parole de Greenpeace qualifiait ainsi la Conférence : « un échec et une occasion manquée ». De son côté, la Global Climate Coalition qualifiait le « Mandat de Berlin » de « carte blanche donnée aux pays en développement pour ne rien faire pour la protection du climat » |25].
NOTES
1. La réaction de combustion est représentée par l’équation chimique suivante : CH4 + 2O2 -> CO2 + 2H2O (méthane ou autre molécule organique contenant du carbone et de l’hydrogène + oxygène de l’air -> gaz carbonique + eau). La respiration des animaux brûle du glucose selon l’équation suivante, structurellement identique à la précédente : C6H12O6 +6O2 -> 6CO2 + 6H2O (glucose + oxygène-> gaz carbonique + eau).
2. La molécule organique la plus fréquemment produite est le glucose. Le bilan de la photosynthèse peut dans ce cas être résumé par l’équation suivante : 6CO2 + 6H2O -> C6H12O6 + 6O2 .
3. Jacques Grinevald, « De Carnot à Gaïa : Histoire de l’effet de serre », La Recherche, mai 1992.
4. Stephen Schneider, « The Changing Climate », Scientific American, September 1989.
5. Cité par Christopher Flavin, « Facing Up to the Risks of Climate Change », in State of the World 1996, Worldwatch, Earthscan, London 1996.
6. New Scientist, 6 July 1996.
7. Robert J. Charlson and Tom M. L. Wigley, « Sulfate Aerosol and Climate Change », Scientific American, Février 1994.
8. Wallace S. Broecker, « Global Warming on Trial », Natural History, Avril 1992.
9.Cité par C. Flavin, op. cit.
10. Cité dans Art Hobson, Physics, Concepts and Connections, Prentice-Hall, 1995, p. 243.
11. New Scientist, 12 October 1996.
12. Idem.
13. Wallace S. Broecker, « Global Warming on Trial », Natural History, Avril 1992.
14. New Scientist, 20 January 1996.
15. Cité dans Christopher Flavin, « Facing Up to the Risks of Climate Change », in State of the World 1996, Worldwatch, Earthscan, London1996.
16. Thomas E. Graedel et Paul J. Crutzen, Atmosphere, Climate, and Change, Scientific American Library, New York, 1995.
17. Anil Agarwal, « Pour un juste calcul des responsabilités », La Recherche, mai 1992.
18. Zukunftsfähiges Deutschland, Studie des Wuppertal Instituts fürKlima, Umwelt, Energie, 1996.
19. New Scientist, 21 January 1995.
20. Il Manifesto, 31 mars 1995.
21.The Earth Summit : The United Nations Conference on Environment and Development (UNCED), Introduction and Commentary by Stanley P. Johnson, Graham & Trotman/Martinus Nijhoff, 1993. (Nous avons traduit en français le texte officiel anglais.RL)
22. Cité dans Christopher Flavin, « Facing Up to the Risks of Climate Change », in State of the World 1996, Worldwatch, Earthscan, London 1996.
23. New Scientist, 8 April 1995.
24. New Scientist, 15 April 1995.
25. Süddeutsche Zeitung, 8-9 avril 1995.