Le Groupe d’experts internationaux sur l’évolution du climat (Giec) se réunit pour une semaine à Paris, depuis ce 1er février 2007. Les connaissances scientifiques accumulées depuis des années sont importantes. Les recherches portant sur l’évolution du climat depuis 150 ans, évolution en rapport avec les émissions de gaz à effet de serre propres aux «activités humaines», ont abouti à des résultats fiables. Au même titre que pour ce qui a trait au rôle du gaz carbonique.
Ainsi pour le chercheur Philippe Ciais – laboratoire des sciences du climat et de l’environnement, responsable pour le Giec des liens entre le système climatique et la biogéochimie – la réponse à ces questions est la suivante: «La teneur en gaz carbonique de l’air est passée de 280 parties par million (ppm) avant l’ère industrielle à 379 ppm en 2005. Cette augmentation est responsable à 70 % du réchauffement en cours. Elle provient directement de la combustion du charbon, du pétrole et du gaz naturel, qui représentent 80 % des sources d’énergie de nos sociétés. Nos émissions de gaz carbonique ont augmenté de plus de 3 % par an entre 2000 et 2005, contre moins de 1 % entre 1990 et 1999. Elles ont atteint 7,9 milliards de tonnes de carbone en 2005, 28 % de plus qu’en 1990. Cette croissance risque de se poursuivre durant plusieurs décennies, en raison des gigantesques réserves de charbon. Il faut y ajouter 1,5 milliard de tonnes de carbone par an, dues à la déforestation tropicale. Ce phénomène est cumulatif: le CO2 émis aujourd’hui ne sera pas totalement résorbé avant un siècle. En outre, si aujourd’hui près de 55 % des émissions sont stockées par les océans et la végétation, cette part pourrait baisser à cause d’une circulation océanique moins intense et d’une accélération de l’activité microbienne du sol. D’autres gaz émis par l’homme (méthane, CFC, protoxyde d’azote) contribuent à l’effet de serre, mais le CO2 constitue le principal facteur du changement climatique.»
Anny Cazenave – directrice adjointe du laboratoire d’études en géophysique et océanographie spatiales., en charge pour le rapport du GIEC (qui doit paraître ce 1er février) du «chapitre» changements océaniques et le niveau marin – souligne que: «D’après les marégraphes, la mer s’est élevée de 15 à 20 cm au cours du XXe siècle. Depuis 1993, les satellites altimétriques (Topex-Poseidon et Jason-1, son successeur) montrent que le niveau moyen global s’élève actuellement d’environ 3 millimètres par an. Cette hausse n’est pas uniforme. Dans certaines régions, la mer a monté plus vite que la moyenne (jusqu’à 20 millimètres par an). L’océan s’est réchauffé au cours des dernières décennies, provoquant une dilatation thermique. Pour les années récentes, ce réchauffement explique 50 % de la hausse de son niveau. Le réchauffement climatique entraîne la fonte des glaces continentales. La plupart des glaciers de montagne ont perdu une quantité considérable de leur volume et contribuent pour 30 % à la hausse actuelle du niveau de la mer. Le Groenland a perdu environ 150 gigatonnes de glaces par an depuis quinze ans, le phénomène semblant s’accélérer, en particulier dans les régions côtières du sud de la calotte. Sa contribution à la hausse actuelle du niveau de la mer est de l’ordre de 10 %. En Antarctique, les précipitations produisent une croissance de sa partie Est, alors que dans l’Ouest, la calotte perd une quantité à peu près équivalente par écoulement des glaciers vers la mer. De grandes incertitudes demeurent sur le
comportement futur du Groenland et de l’Antarctique de l’Ouest qui pourraient contribuer de manière importante à la hausse du niveau marin, s’ajoutant à celle, inéluctable, due à la poursuite de sa dilatation thermique. De ce fait, les prévisions actuelles – entre 20 et 80 centimètres d’ici à 2100 – pourraient être dépassées.»
Quant à Patrick Criqui – du laboratoire d’économie de la production et de l’intégration internationale, Cnrs – Université Pierre-Mendès-France à Grenoble – il considère que les différents rapports du GIEC, entre autres: «Le rapport spécial du Giec pour les scénarios d’émission de CO2 a permis d’explorer le futur de la consommation d’énergie et des émissions associées, en jouant des principales incertitudes pour faire apparaître des images contrastées. Il s’agissait d’identifier les futurs possibles, sans se prononcer sur leur probabilité d’occurrence. Dans ce rapport, les scénarios sont construits “sans politiques” et conduisent en 2050 à une multiplication des émissions mondiales par deux dans le meilleur des cas, et par quatre dans le pire. Avec de tels niveaux d’émission, le changement climatique à attendre est considérable, au moins une augmentation de 4°C des températures à long terme. On a reproché à ces scénarios d’exagérer la croissance de l’économie et des émissions mondiales, afin de dramatiser la situation et de justifier des politiques fortes de réduction des émissions. Or, les prospectives conduites selon une autre démarche, qui consiste au contraire à tenter de construire un jeu d’hypothèses cohérentes pour un scénario “central”, confirment l’importance du danger: si rien n’est fait, le développement du système énergétique mondial conduira à une raréfaction progressive du pétrole et du gaz et donc à un grand retour du charbon, qui soutiendra le doublement des émissions en 2050. Seules des politiques très vigoureuses de réduction des émissions permettront donc au système énergétique mondial d’éviter de tomber de Charybde en Scylla: du risque d’épuisement du pétrole dans le risque climatique massif.»
Il ne s’agit pas de tomber dans le catastrophisme, mais de saisir l’urgence d’un changement de système dont la dimension économique, sociale et politique renvoie directement à l’exigence d’une transformation à la racine du capitalisme mondialisé. A lire l’entretien, mesuré, d’Edouard Bard, c’est une des conclusions qu’une lectrice et un lecteur peut (et devrait) tirer, sans que cela soit celle que le scientifique, qui reste sur son terrain, laisse entendre.
Certes, pour les classes dominantes, deux problèmes sont immédiatement au centre du débat. D’une part, toute l’approche néoclassique en termes d’externalisation négative aboutit à estimer le coût du «changement climatique». Ainsi, l’ancien économiste en chef de la Banque mondiale Sir Nicholas Stern, dans un rapport publié en octobre 2006, a estimé à 5’500 milliards d’euros le «coût du déréglement du climat si rien n’est fait» (Les Echos, 29.1.2007). Le quotidien économique français parle d’un «électrochoc dans les milieux d’affaires» et affirme que «plusieurs entreprises américaines, dont General Electric, DuPont, Carterpillar et Lehman Brothers [banque], ont ainsi exigé la semaine dernière que le gouvernement américain fixe des objectifs de réduction des émissions de 10% à 15% dans les quinze ans qui viennent». Cette simple remarque indique qui donne des ordres à l’administration aux Etats-Unis. En Europe, Angela Merkel, sous l’aiguillon du lobby puissant des cinq grandes firmes automobiles (BMW, Volkswagen-Porsche, DaimlerChrysler et Ford-Opel), soutient la position selon laquelle des «limites écologiques» trop drastiques, telles que définies par la Commission européenne, mettraient en question la «compétitivité» de l’industrie automobile et porteraient un coup à l’emploi (Il Sol-24 Ore, 31.1.2007).
D’autre part, des secteurs industriels envisagent déjà les nouveaux marchés qui vont s’ouvrir grâce à des prétendues mesures conservatoires au plan climatique. Le business écologique fait déjà la une des hebdomadaires de Wall Street. (Réd)
________
Q. Les scientifiques sont à l’origine de la convention des Nations unies sur le climat, signée en 1992. L’opinion publique a souvent l’impression qu’ils se répètent depuis lors. Est-ce le cas ?
Edouard Bard. C’est une impression vraie… et fausse ! Les scientifiques donnent le sentiment de se répéter, car, par une sorte d’ironie de la nature, l’estimation de l’ordre de grandeur de la perturbation du climat par l’homme a été bonne avant même que l’on puisse l’étudier de manière quantitative. On peut même remonter jusqu’aux travaux du chimiste suédois Svante Arrhenius: dès 1896, il prévoit l’augmentation de la température moyenne de la Terre comme conséquence de l’utilisation des combustibles fossiles. Arrhenius estimait qu’un doublement de la teneur en gaz carbonique de l’air se traduirait par un réchauffement de la planète de l’ordre de 5 à 6 °C. Il est assez stupéfiant de constater que cette prévision n’est pas très éloignée de celles publiées aujourd’hui. Cet accord est quasiment miraculeux, car Arrhenius ne disposait pas de données très fiables sur les gaz à effet de serre et n’avait pas envisagé la multitude de rétroactions climatiques. Le peu d’écart apparent entre les résultats des premières, et rudimentaires, simulations informatiques du climat futur dans les années 80 et celles d’aujourd’hui, beaucoup plus réalistes, s’explique de même. Cette apparente continuité cache un énorme effort de recherches et de nombreuses découvertes scientifiques.
Q. L’alerte lancée à la fin des années 80 était fondée sur des simulations informatiques. Comment ont évolué ces simulations et leurs résultats ?
E.B. Il y a vingt ans, les modèles numériques ne prenaient en compte que la dynamique de l’atmosphère. De plus, les simulations se limitaient à un calcul du climat «à l’équilibre» pour un doublement de la teneur atmosphérique en gaz carbonique (environ 550 parties par million). Aujourd’hui, les capacités des ordinateurs autorisent des représentations beaucoup plus complètes et ces modèles ont fait d’immenses progrès. L’océan mondial, avec sa circulation profonde, est mieux représenté. Des interactions plus réalistes s’instaurent entre l’atmosphère, l’océan, les glaces, les cycles géochimiques et la biosphère, qui constituent d’ailleurs de nouvelles sources d’incertitudes. Des points délicats, comme l’action multiple et complexe des aérosols et des nuages, ont fait l’objet d’intenses recherches. Notre compréhension des phénomènes physico-chimiques et biologiques ainsi que leur représentation mathématique ont aussi fait des progrès significatifs. Même s’il demeure des simplifications et l’impossibilité de représenter de manière explicite les processus se déroulant à petites échelles spatiales. En outre, de nombreuses équipes, notamment en France ou en Chine, ont réalisé des simulations complètes avec des modèles différents. Si l’ordre de grandeur du changement climatique prévu n’a pas changé – un réchauffement d’entre 2 et 6 °C en moyenne planétaire en fonction des scénarios d’émissions et de la sensibilité plus ou moins grande du climat à cette perturbation –, cette conclusion est donc bien plus solide qu’à l’époque. La menace d’un bouleversement climatique, au cours de la seconde moitié du siècle, d’une ampleur et d’une rapidité dangereuses pour les sociétés humaines, a donc été confirmée.
Q. L’évolution du climat mesurée depuis 1990 a-t-elle conforté ou réduit la confiance que vous placez dans les simulations informatiques ?
E.B. Il s’est passé plus de quinze ans depuis le premier rapport du GIEC (le Groupe d’experts intergouvernemental sur l’évolution du climat) qui a débouché sur la signature de la convention de l’ONU. C’est une durée significative. Durant cette période, la croissance des émissions de gaz carbonique issu du charbon, du pétrole et du gaz naturel a suivi les scénarios les plus élevés, avec plus de 3 % par an entre 2000 et 2005, contre moins de 1 % entre 1990 et 1999. Si l’on y ajoute la déforestation, on atteint 9 milliards de tonnes de carbone par an, contre moins de huit dans les années 90. En conséquence, la teneur en gaz carbonique de l’atmosphère atteint aujourd’hui 383 parties par millions, mesurée à Hawaii, contre 280 avant la révolution industrielle, un niveau sans précédent depuis un million d’années. Les températures moyennes ont continué d’augmenter, sur un rythme proche de ce qui est prévu par les modèles, toutes les années 2000 sont nettement au-dessus de la moyenne 1960-1990. Le niveau marin global poursuit sa progression de 3,1 millimètres par an depuis 1993, selon les satellites, un phénomène lié à sa dilatation thermique et à la fonte des glaces continentales. La réponse de la flore et de la faune au changement climatique devient plus nette: allongement des durées de croissance végétale, déplacement des animaux sauvages. Si l’amplitude de ces changements reste encore petite par rapport à celle que nous craignons pour la seconde moitié du siècle, ils plaident tous en faveur de la fiabilité des modèles.
Q. Des éléments naturels (volcans, Soleil) pourraient-ils compenser l’influence humaine ?
E.B. L’astronomie et la géologie nous renseignent sur la probabilité et l’ampleur des variations possibles de ces forçages. Une éruption majeure comme celle du Pinatubo (Philippines) en 1991 peut entraîner un refroidissement mondial de l’ordre d’un demi-degré. L’effet climatique ne dure que quelques années et il faudrait subir une éruption majeure presque tous les ans pour contrecarrer le réchauffement anthropique. Le forçage solaire peut fluctuer dans le temps. Les données des satellites montrent des variations très faibles depuis trente ans. Des séries plus longues, mais moins précises, permettent de conclure que le Soleil était moins actif qu’aujourd’hui, mais l’impact climatique de ces fluctuations semble limité. Néanmoins, ces variations irrégulières semblent responsables de tendances climatiques à l’échelle de quelques siècles. Si l’activité solaire augmentait à l’avenir, ceci viendrait amplifier, et non compenser, un réchauffement dominé par les gaz à effet de serre d’origine anthropique.
Q. Faut-il craindre le risque de changements catastrophiques à brève échéance ?
E.B. Cette perception erronée est liée à deux événements médiatisés à l’échelle mondiale. Le film le Jour d’après, qui met en scène la survenue dramatique d’une glaciation. Et le rapport commandé par le Pentagone pour un wargame de généraux sur le thème d’une crise climatique provoquée par un arrêt du Gulf Stream. Dans les deux cas, l’ampleur et l’imminence des changements climatiques sont totalement exagérés. L’idée d’un coup de froid glaciaire sur l’Europe provient d’une déformation spectaculaire de nos résultats. Le réchauffement devrait intensifier le cycle de l’eau, augmenter les précipitations aux hautes latitudes, ainsi que les flux d’eau douce via les fleuves, la fonte des glaces continentales et du Groenland. Tout ceci diminuera la salinité et donc encore plus la densité des masses d’eau de l’Atlantique Nord, déstabilisant des zones de plongée d’eau de surface vers les fonds océaniques. Cette circulation profonde qui s’accompagne d’un réchauffement au-dessus et autour de l’Atlantique Nord devrait donc diminuer en intensité, de 10 à 50 % d’ici à 2150 selon les simulations climatiques. D’ici à 2100, l’effet sera un moindre réchauffement dans la région du nord de l’Atlantique. Au pire, si la perturbation passe un seuil, à un refroidissement localisé sur l’Atlantique Nord. Mais en aucun cas à une glaciation, même régionale.
Q. Les événements météo (canicule de 2003, cyclones) sont souvent utilisés comme preuves du changement climatique, est-ce justifié ?
E.B. Il faut éviter d’entretenir une confusion entre la variabilité météorologique naturelle et le changement climatique. Et se garder de commentaires simplistes qui suivent chaque événement extrême, une tempête, un ouragan, une vague de chaleur estivale, une pluie intense suivie de crues et d’inondations. Indépendamment de l’action de l’homme, le climat peut se révéler cruel et destructeur. En outre, il est impossible d’évaluer l’influence du réchauffement en cours sur la genèse de ces événements singuliers, elle peut très bien ne pas être en cause. Toutefois, ces exemples illustrent la sensibilité des sociétés humaines aux aléas du climat. Par ailleurs, certains événements, qualifiés d’extrêmes actuellement en raison de leur rareté, pourraient ne plus l’être dans le climat que nous léguerons aux générations futures. La canicule de 2003 en Europe pourrait représenter un été moyen à la fin du siècle.
Q. N’êtes-vous pas tenté de dramatiser la situation pour mieux financer vos labos ?
E.B.Le vocabulaire catastrophiste n’est généralement pas utilisé par les climatologues. Les slogans un peu simplistes «sauvons la planète et les ours polaires» sont plutôt le fait d’ONG, de militants dont la bonne foi est réelle et qui espèrent ainsi mobiliser l’opinion publique, mais sans toujours se soucier de l’exactitude ou de la rigueur du propos. On peut déjà noter que les recherches sur l’atmosphère, l’océan, les sédiments marins et les glaces polaires, qui ont mis en évidence la menace climatique, ont été financées à partir des années 70… avant que cette menace ne soit reconnue par les scientifiques. Votre question peut toutefois s’éclairer à l’aide d’un paradoxe qui provient de la comparaison des situations en Europe et aux Etats-Unis. En Europe, les scientifiques ont réussi à convaincre leur classe politique. A tel point que la recherche de la variabilité climatique naturelle ou l’amélioration des performances des modèles ne sont plus prioritaires, alors que des crédits importants sont attribués pour limiter les émissions de gaz à effet de serre, prévoir l’impact local du réchauffement mondial et rechercher des solutions industrielles afin de s’y adapter. Outre-Atlantique, c’est presque l’inverse. Bien que les conclusions du rapport publié en 2001 par l’Académie des sciences des Etats-Unis soient similaires à celles du GIEC, la Maison Blanche refuse de s’engager dans la voie de la réduction des émissions. Pour tenir cette position, délicate au plan diplomatique, le gouvernement américain avance qu’il augmente le financement de la recherche, en prétendant qu’il faudrait d’abord mieux comprendre et réduire les sources d’incertitudes avant d’agir. La conséquence, paradoxale, est que le financement de la recherche fondamentale sur le climat se porte mieux aux Etats-Unis qu’en Europe.
Q. Maintenez-vous votre recommandation de limiter les émissions de gaz à effet de serre ?
E.B. Bien sûr, mais il faudrait aller bien au-delà de la chasse au gaspi. Pour stabiliser avant la fin du siècle la concentration atmosphérique en gaz carbonique, nous devrions réduire notre consommation d’énergie fossile de façon drastique. Selon nos calculs, il faudrait diviser par deux les émissions mondiales d’ici 2050, pour les réduire au niveau de la capacité de pompage par les océans et la biosphère. Un tel objectif, s’il veut rester compatible avec l’objectif de conditions de vie meilleures pour les milliards d’êtres humains qui souffrent aujourd’hui d’une pauvreté inacceptable, et n’utilisent encore que très peu d’énergie fossile, suppose une action continue, de grande ampleur, coordonnée au plan international. Certes, économiser l’énergie fossile, comme l’exemple simple de l’isolation des bâtiments le montre. Mais aussi développer des technologies alternatives de production d’électricité et de transport. Décourager la division mondiale du travail fondée sur le transport massif à longue distance. Mettre en cause des modes de vie et de consommation fondés sur le pétrole bon marché. Revoir l’urbanisme extensif. Développer le stockage géologique du gaz carbonique issu de centrales électriques au charbon et au gaz… Ces pistes, parmi celles avancées par mes collègues des sciences humaines et sociales, suffisent pour prendre conscience du caractère volontariste de la mutation nécessaire, si nous voulons atténuer le risque climatique majeur que nous faisons courir à nos descendants.
________
Edouard Bardest professeur au Collège de France depuis 2001, Edouard Bard, 45 ans, y occupe la chaire d’évolution du climat et des océans. Océanographe, paléoclimatolo-gue et géochimiste, il dirige une équipe au Centre européen de recherche et d’enseignement en géosciences de l’environnement (Cerege), à Aix-en-Provence. Ses recherches ont donné lieu à plus de cent articles scientifiques. Multimédaillé par l’European Union of Geosciences, l’American Geophysical Union, French citation laureate (1981-1998) de l’Institute of Scientific Information, il vient de recevoir le premier prix Gérard Mégie du CNRS et de l’Académie des sciences. Cet entretien a été publié dans le quotidien français Libération le 27 janvier 2007.
_______
Sept chercheurs ont accepté de confier à Libération leurs conclusions sur sept problèmes essentiels.
L’évolution du climat depuis 150 ans est-elle due à nos émissions de gaz à effet de serre ? Pourquoi le gaz carbonique est le principal coupable ?
Philippe Ciais, du laboratoire des sciences du climat et de l’environnement. Auteur principal du Giec pour les liens entre le système climatique et la biogéochimie.
«La teneur en gaz carbonique de l’air est passée de 280 parties par million (ppm) avant l’ère industrielle à 379 ppm en 2005. Cette augmentation est responsable à 70 % du réchauffement en cours. Elle provient directement de la combustion du charbon, du pétrole et du gaz naturel, qui représentent 80 % des sources d’énergie de nos sociétés. Nos émissions de gaz carbonique ont augmenté de plus de 3 % par an entre 2000 et 2005, contre moins de 1 % entre 1990 et 1999. Elles ont atteint 7,9 milliards de tonnes de carbone en 2005, 28 % de plus qu’en 1990. Cette croissance risque de se poursuivre durant plusieurs décennies, en raison des gigantesques réserves de charbon. Il faut y ajouter 1,5 milliard de tonnes de carbone par an, dues à la déforestation tropicale. Ce phénomène est cumulatif: le CO2 émis aujourd’hui ne sera pas totalement résorbé avant un siècle. En outre, si aujourd’hui près de 55 % des émissions sont stockées par les océans et la végétation, cette part pourrait baisser à cause d’une circulation océanique moins intense et d’une accélération de l’activité microbienne du sol. D’autres gaz émis par l’homme (méthane, CFC, protoxyde d’azote) contribuent à l’effet de serre, mais le CO2 constitue le principal facteur du changement climatique.»
Le niveau des océans monte-t-il ?
Anny Cazenave, directrice adjointe du laboratoire d’études en géophysique et océanographie spatiales. Auteur principal du Giec pour les changements océaniques et le niveau marin.
«D’après les marégraphes, la mer s’est élevée de 15 à 20 cm au cours du XXe siècle. Depuis 1993, les satellites altimétriques (Topex-Poseidon et Jason 1 son successeur) montrent que le niveau moyen global s’élève actuellement d’environ 3 millimètres par an. Cette hausse n’est pas uniforme. Dans certaines régions, la mer a monté plus vite que la moyenne (jusqu’à 20 millimètres par an). L’océan s’est réchauffé au cours des dernières décennies, provoquant une dilatation thermique. Pour les années récentes, ce réchauffement explique 50 % de la hausse de son niveau. Le réchauffement climatique entraîne la fonte des glaces continentales. La plupart des glaciers de montagne ont perdu une quantité considérable de leur volume et contribuent pour 30 % à la hausse actuelle du niveau de la mer. Le Groenland a perdu environ 150 gigatonnes de glaces par an depuis quinze ans, le phénomène semblant s’accélérer, en particulier dans les régions côtières du sud de la calotte. Sa contribution à la hausse actuelle du niveau de la mer est de l’ordre de 10 %. En Antarctique, les précipitations produisent une croissance de sa partie Est, alors que dans l’Ouest, la calotte perd une quantité à peu près équivalente par écoulement des glaciers vers la mer. De grandes incertitudes demeurent sur le comportement futur du Groenland et de l’Antarctique de l’Ouest qui pourraient contribuer de manière importante à la hausse du niveau marin, s’ajoutant à celle, inéluctable, due à la poursuite de sa dilatation thermique. De ce fait, les prévisions actuelles entre 20 et 80 centimètres d’ici à 2100 pourraient être dépassées.»
La réaction des nuages au réchauffement est-elle comprise ?
Sandrine Bony-Léna, du laboratoire de météorologie dynamique. Auteur principal du Giec pour les modèles climatiques et leur évaluation.
«Richard Lindzen (professeur au Massachusetts Institute of Technology) a émis des hypothèses différentes des premiers modèles sur le rôle des nuages et de la vapeur d’eau. Elles ont été publiées, testées puis réfutées pour l’essentiel par la communauté scientifique. On lui doit donc d’avoir ainsi fait progresser la recherche selon nos règles de la discussion qui ne censurent pas les idées ou résultats contradictoires, mais exigent que le débat se déroule en termes rigoureux. Le troisième rapport du Giec, en 2001, pointait des incohérences sur l’augmentation de la température déduite de différents types de mesures (surface, radiosondages et satellites). La recherche a permis de mieux interpréter les mesures, des erreurs ont été corrigées, et ces incohérences ont été éliminées. L’analyse et la synthèse de tous les travaux publiés par le Giec permettent d’identifier les points de consensus comme les controverses et ainsi de progresser dans la connaissance du système climatique.»
Les scénarios du Giec sont-ils réalistes ?
Patrick Criqui, du laboratoire d’économie de la production et de l’intégration internationale, Cnrs Université Pierre-Mendès-France à Grenoble.
«Le rapport spécial du Giec pour les scénarios d’émission de CO2 a permis d’explorer le futur de la consommation d’énergie et des émissions associées, en jouant des principales incertitudes pour faire apparaître des images contrastées. Il s’agissait d’identifier les futurs possibles, sans se prononcer sur leur probabilité d’occurrence. Dans ce rapport, les scénarios sont construits “sans politiques” et conduisent en 2050 à une multiplication des émissions mondiales par deux dans le meilleur des cas, et par quatre dans le pire. Avec de tels niveaux d’émission, le changement climatique à attendre est considérable, au moins une augmentation de 4°C des températures à long terme. On a reproché à ces scénarios d’exagérer la croissance de l’économie et des émissions mondiales, afin de dramatiser la situation et de justifier des politiques fortes de réduction des émissions. Or, les prospectives conduites selon une autre démarche, qui consiste au contraire à tenter de construire un jeu d’hypothèses cohérentes pour un scénario “central”, confirment l’importance du danger: si rien n’est fait, le développement du système énergétique mondial conduira à une raréfaction progressive du pétrole et du gaz et donc à un grand retour du charbon, qui soutiendra le doublement des émissions en 2050. Seules des politiques très vigoureuses de réduction des émissions permettront donc au système énergétique mondial d’éviter de tomber de Charybde en Scylla: du risque d’épuisement du pétrole dans le risque climatique massif.»
Peut-on prévoir le climat sur cent ans ?
Hervé Le Treut, directeur du Laboratoire de météorologie dynamique. Auteur principal et coordinateur du Giec pour les sciences du changement climatique.
«La prévision météo ne dépasse pas dix jours et pourtant les climatologues prétendent simuler l’évolution du climat sur un siècle. La contradiction apparente vient de ce que la prévision climatique ne porte pas sur les fluctuations journalières du temps qu’il fait mais sur ses statistiques de températures, vents, précipitations. Or, ces dernières, à l’inverse du chaos atmosphérique à petite échelle de temps et d’espace, sont déterminées par les circulations à grande échelle de l’atmosphère et des océans, produites par l’énergie solaire, la rotation de la Terre, la disposition des continents, les calottes glaciaires, l’effet de serre naturel. C’est pour cette raison que les modèles peuvent simuler les traits principaux du climat terrestre à partir des lois de la physique. Dès la fin des années 80, malgré leur simplisme, ils ont donné l’ordre de grandeur des effets climatiques de nos émissions de gaz à effet de serre en terme de réchauffement planétaire moyen: plus 2 à 5 °C pour un doublement de la teneur en gaz carbonique. Les modèles récents mettent à profit les supercalculateurs les plus puissants pour mieux représenter océans, atmosphère et nuages, calottes glaciaires. Ils incluent la végétation, la biochimie océanique, la chimie atmosphérique dans les facteurs climatiques. Ils ont confirmé l’alerte lancée il y a vingt ans, celle d’un risque majeur, mais ils ne peuvent pas encore en fournir une vue détaillée des conséquences régionales ou de ses effets sur des phénomènes météo extrêmes.»
Les scénarios catastrophes sont-ils possibles ?
Jean-Louis Dufresne, du laboratoire de météorologie dynamique.
«Ces scénarios catastrophes prévoient que le réchauffement climatique nous fasse rentrer dans une période glaciaire à cause d’une modification de la circulation océanique. Le point de départ, une modification des courants océaniques dans l’Atlantique Nord à cause du réchauffement climatique, est réaliste, par contre le scénario catastrophe ne l’est pas. Ce phénomène est popularisé sous le nom d'”arrêt du Gulf Stream”, appellation très incorrecte car le Gulf Stream lui-même ne s’arrêtera pas. Ces courants océaniques transportent beaucoup de chaleur vers le nord et une diminution de ces courants peut donc refroidir ces régions. C’est ce que simulent les modèles climatiques, mais ce refroidissement est limité à une partie de l’Atlantique Nord ou du nord de l’Europe. De façon plus générale, les changements de circulation atmosphérique et océanique font que le réchauffement climatique n’est pas uniforme sur tout le globe, mais une entrée en glaciation prochaine et brutale n’a pas aujourd’hui de base scientifique.»
Soyez le premier à commenter