La conjugaison du climat

Pierre Sepulchre

Dès leur première édition en 1990, les rapports du Groupe intergouvernemental d’experts sur l’évolution du climat (Giec) ont mis en évidence un changement climatique qui a commencé au début du XXe siècle. Parmi les nombreux indicateurs de ce changement, les augmentations respectives de la température globale et du niveau marin sont fréquemment mises en avant. On déduit l’évolution de la température globale depuis la fin du XIXe siècle grâce à l’analyse et au traitement d’enregistrements de milliers de stations météorologiques, continentales et océaniques (bateaux, bouées météorologiques). Plusieurs groupes de climatologues traitent et homogénéisent ces données de façon indépendante ; tous s’accordent pour observer un réchauffement en cours depuis 1880. Le Giec note également que les trois dernières décennies ont été les plus chaudes de toutes celles écoulées depuis 1850. L’année 2016 a ainsi été la plus chaude jamais enregistrée, à plus de 1,2 °C au-dessus des températures de l’ère préindustrielle. L’évolution du niveau marin est quant à elle observée à partir de l’altimétrie spatiale (mesures radar et laser faites par satellite) et de centaines de marégraphes disséminés à travers le monde. Ces données indiquent une élévation du niveau global au rythme de 3,2 millimètres par an depuis 1990, en raison du réchauffement des océans et de la fonte des glaces continentales. De telles mesures font l’objet de nombreuses vérifications et publications, et un très large consensus émerge dans la communauté scientifique internationale quant à ces deux tendances.

Ce consensus contraste néanmoins avec les échos de la place publique et les déclarations de certains décideurs politiques, d’industriels ou de vulgarisateurs qui traduisent un climato-scepticisme et une défiance exacerbée vis-à-vis de la communauté des climatologues. Dès 1993, Robert Kandel, alors directeur de recherche au Laboratoire de Météorologie dynamique de Paris (LMD, CNRS), disait ainsi les climatologues « sous surveillance », après la parution de plusieurs ouvrages qui contestaient leurs conclusions au sujet des effets de l’activité industrielle sur le climat. De nos jours, les mises en question des travaux scientifiques fleurissent sur les réseaux sociaux et le démontage de contre-vérités est devenu une part importante du métier de climatologue. Si la persistance du climato-scepticisme dans le temps est sans doute multifactorielle, il est probable qu’elle tienne à la fois à la confusion sémantique qui existe pour le grand public entre climatologie et météorologie, et à la difficulté de percevoir, à l’échelle temporelle d’une génération et à l’échelle spatiale des paysages, les conséquences du changement climatique en cours. La variabilité climatique et la non-linéarité du signal de réchauffement réduisent également les possibilités d’une simplification à outrance du message scientifique et favorisent par conséquent le doute. Cet article souhaite apporter un éclairage sur les notions fondamentales du changement climatique en cours et de l’histoire du climat, selon plusieurs temporalités distinctes, en vue de permettre aux non-spécialistes d’appréhender au mieux la soudaineté, l’importance et les conséquences à long terme de la transition climatique provoquée par l’activité humaine.

Évolution, entre 1880 et 2017, de l’anomalie de température annuelle globale par rapport à la période de référence 1880-1899. Les points bleus indiquent les données annuelles, la courbe rouge est un lissage sur cinq ans.
Température et CO2

Plus de cinquante ans avant le premier rapport du Giec, en estimant la quantité de dioxyde de carbone émise par l’activité industrielle au cours de cette période, Callendar a suggéré que l’augmentation de température observée était liée à celle du CO2.

La tendance au réchauffement a été mise en évidence il y a près de soixante ans par Guy S. Callendar. En utilisant des enregistrements de température de 200 stations météorologiques en Amérique du Nord et en Europe de l’Ouest, ce météorologue a été le premier à montrer qu’il existait une augmentation de la température moyenne dans la première partie du XXe siècle. Plus de cinquante ans avant le premier rapport du Giec, en estimant la quantité de dioxyde de carbone (CO2) émise par l’activité industrielle au cours de cette période, Callendar a suggéré que l’augmentation de température observée était liée à celle du CO2 – qui était passée de 280 à 307 parties par million en volume d’air (ppmv) entre 1880 et 1936. De nos jours, l’une des courbes de référence de la mesure de la concentration en CO2 atmosphérique est issue d’analyseurs à infrarouge installés à la station de Mauna Loa, dans l’archipel d’Hawaï. Sous l’impulsion de Charles D. Keeling, la teneur en CO2 a pu être mesurée quotidiennement depuis mars 1958 (toutes les heures depuis les années 1970). La première mesure à Mauna Loa indiquait 313 ppmv. Au moment d’écrire ces lignes, la teneur en CO2 à Mauna Loa s’élève à 409,1 ppmv. La danse synchronisée des courbes de températures et de CO2, alliée à la connaissance historique de l’effet de serre de ce dernier depuis la fin du XIXe siècle, a ainsi mené les climatologues à établir un lien de causalité entre augmentation de CO2 dans l’atmosphère et réchauffement climatique.

Météorologie et climat

La prévision météorologique s’intéresse au temps qu’il fera, à l’échelle temporelle d’une heure ou de quelques jours, à l’échelle spatiale d’une ville, d’une région ou d’un pays : il s’agit de prévoir l’état de l’atmosphère dans un avenir très proche. Dès les années 1910, le mathématicien anglais Lewis F. Richardson posait les bases de la prévision numérique du temps. À partir de mesures de vitesse du vent et de pression de surface, il proposait d’en prévoir l’évolution sur vingt-quatre heures en résolvant les équations complexes qui régissent la dynamique atmosphérique. Sa tentative lui demanda plusieurs semaines de calcul manuel, qui se conclurent par des solutions erronées. Elle eut néanmoins le mérite de montrer que les solutions de ces équations divergeaient rapidement si les conditions initiales, c’est-à-dire les mesures météorologiques utilisées en entrée du modèle, variaient, même extrêmement faiblement. Le manque de résolution spatio-temporelle et d’homogénéité des mesures météorologiques, l’absence de certains concepts de dynamique atmosphérique et surtout l’inexistence de moyens de calculs automatisés ont conduit à abandonner, pendant plusieurs décennies, l’idée que l’on puisse prévoir le temps numériquement. Celle-ci a repris forme dans les années 1950 avec le développement des premiers calculateurs électroniques aux États-Unis. L’enjeu de la prédictibilité du temps est alors devenu central, avec en point d’orgue la question posée en 1972 par le météorologue du MIT Edward N. Lorenz : « Prédictibilité : le battement d’ailes d’un papillon au Brésil peut-il déclencher une tornade au Texas1 ? » Dans la lignée de Richardson, une des conclusions de Lorenz fut que, même avec des modèles et des conditions initiales quasi parfaites, l’atmosphère, du fait de son comportement chaotique, avait une prédictibilité limitée à environ deux semaines.

Si l’« effet papillon », symbole des limites de la météorologie prédictive, est passé dans le langage courant, il ne concerne finalement qu’assez peu la climatologie. Le climat diffère de la météorologie dans le sens où il est défini comme une distribution statistique (le plus souvent une moyenne) des variables météorologiques. Les climatologues étudient notamment l’évolution du climat à l’échelle globale via l’écart de température annuel par rapport à une moyenne sur plusieurs années. Détecter un changement climatique global revient donc à détecter une tendance dans ces moyennes globales, ce qui est radicalement différent de la prédiction du temps.

La forecast factory imaginée en 1922 par Lewis Fry Richardson, dessinée par Stephen Conlin, 1986. Outre ses tentatives pionnières de modélisation, Richardson est resté célèbre pour avoir imaginé, presque comme un jeu de l’esprit, une usine géante de prédiction météorologique, qu’il décrit comme un grand hall circulaire sur le plafond et les murs duquel seraient peintes les régions du monde. Des dizaines de milliers de computers – personnes calculant – conduiraient en parallèle les calculs pour la localité à proximité de laquelle ils seraient installés, permettant un calcul rapide du temps qu’il fait. Il est troublant de voir à quel point cette vision du début du XXe siècle est proche des outils actuels de modélisation du climat. Les équations de la dynamique des modèles de circulation générale, dits modèle de Système Terre, sont en effet « discrétisées » sur un globe terrestre maillé ; cette maille définit la résolution spatiale du modèle. Le nombre d’opérations à effectuer dépend de cette résolution et du nombre de « compartiments » (océan, atmosphère, biosphère, cryosphère) pris en compte et les codes sont exécutés sur des supercalculateurs – supercomputers –, des machines dites « massivement parallèles » parce qu’elles effectuent des opérations de façon simultanée sur des centaines de processeurs.
Les climats passés comme référentiels

Le climat diffère de la météorologie dans le sens où il est défini comme une distribution statistique (le plus souvent une moyenne) des variables météorologiques.

L’observation du changement climatique d’origine anthropique révèle un système en transition. Celle-ci ne peut être quantifiée que par la détermination de son état initial (« Comment se comporte le système climatique avant la perturbation humaine ? ») et de son état final (« À quoi s’attendre dans le futur ? »). Une telle démarche revient à contextualiser le climat actuel, à en prédire l’évolution et à en rechercher des analogues dans le passé. Seule l’étude des climats anciens offre de telles perspectives. Les référentiels proposés par l’étude des climats passés sont en fait multiples : ils se déclinent selon une temporalité gigogne, de l’échelle historique à l’échelle géologique. Tentons de discerner les apports de chacune dans la compréhension de la transition climatique anthropique.

L’échelle historique est essentielle pour deux aspects : d’une part, en documentant la variabilité du climat avant l’ère industrielle, elle en quantifie l’enveloppe « naturelle » (entendre : hors influence humaine) ; d’autre part, elle informe sur les méthodes employées par les sociétés pour appréhender les changements climatiques par le passé. Les travaux fondateurs2 d’Emmanuel Le Roy Ladurie, père de l’histoire du climat en tant que discipline, sur les changements climatiques du dernier millénaire en Europe, s’inscrivent dans ce cadre. Son analyse méthodique des archives historiques a fourni une description précise des fluctuations climatiques depuis le Moyen Âge. Comme le note son disciple et successeur Emmanuel Garnier, ces archives peuvent être directes ou indirectes. Les archives directes sont par exemple des relevés météorologiques mesurant la pluviométrie et la température3, l’observation d’événements particuliers (embâcles, gelées ou canicules exceptionnelles) ou les notes qui traduisent les avancées et les reculs des glaciers. Daniel Rousseau a ainsi pu élaborer la série thermométrique française, la plus ancienne du monde, qui remonte à 1658. En Angleterre, Gordon Manley a établi une série de températures mensuelles de 1659 à 1973. Les archives indirectes se fondent par exemple sur la phénologie, ou cycle de vie, de la végétation, le climat imprimant son rythme à la croissance des plantes, notamment aux dates de maturité des fruits. Les bans de vendanges et les dates de moissons ont ainsi montré une excellente corrélation avec les températures enregistrées, repoussant notre connaissance du climat européen bien avant la période instrumentale.

Les référentiels proposés par l’étude des climats passés sont en fait multiples : ils se déclinent selon une temporalité gigogne, de l’échelle historique à l’échelle géologique.

L’histoire du climat s’adosse également à la « climatologie historique », discipline qui concerne cette fois l’analyse d’archives naturelles. Les paléoclimatologues travaillent avec des indicateurs indirects des fluctuations climatiques – dénommés proxies – dont la nature et l’information déduite sont variées. Un des piliers de cette science est la mesure du fractionnement des isotopes stables de l’eau. Dans la nature, l’atome d’oxygène et l’atome de carbone existent sous plusieurs formes qui varient par leur nombre de neutrons, et qu’on appelle isotopes stables. Le rapport qu’entretiennent par exemple les deux isotopes 16O et 18O dans la molécule d’eau varie en fonction des changements d’état de l’eau : on parle alors de fractionnement isotopique, noté δ18O. Ce fractionnement peut être mesuré dans l’eau des carottes de glace, dans la cellulose des cernes d’arbres, mais aussi dans la calcite (CaCO3) des micro-organismes fossiles de l’océan que l’on trouve dans les carottes sédimentaires des fonds marins. Dans les carottes de glace, cette mesure définit un « paléo-thermomètre » à partir duquel on peut suivre l’évolution de la température polaire sur toute la longueur d’une carotte, soit 800 000 ans pour les plus anciennes. Mesuré dans les cernes d’arbres, le δ18O peut informer sur la température, ou sur les précipitations, selon la région et l’essence sur laquelle on travaille. Appliquée à des poutres en chêne du château de Fontainebleau et à des arbres séculaires de la même forêt, cette méthode a rendu possible la reconstruction des températures maximales moyennées d’avril à septembre remontant à l’an 1306. Effectuées sur des genévriers millénaires de l’ouest himalayen, ces mesures ont témoigné d’alternances de périodes sèches et humides remontant jusqu’avant l’an mil. Le fractionnement des isotopes du carbone, mesuré sur la cellulose de pins à cônes épineux de Californie, documente quant à lui les événements El Niño sur les mille dernières années. Dans le domaine océanique, enfin, les paléoclimatologues se fondent sur le rapport entre certains éléments chimiques (par exemple magnésium/calcium) mesuré dans la coquille de micro-organismes marins (par exemple les foraminifères4) ayant sédimenté pour reconstruire la température dans le temps.

Cette brève description n’offre qu’une vue très partielle de la quantité de proxies utilisés pour décrire le climat du dernier millénaire. Leur combinaison avec les archives historiques permet de décrire les grandes fluctuations climatiques du dernier millénaire : la période entre 950 et 1250, baptisée par Le Roy Ladurie « petit optimum médiéval », se traduit en France par des étés plus chauds et des hivers plus doux que la moyenne. De 1300 à 1855, les historiens du climat considèrent que l’Europe a connu un « petit âge glaciaire », marqué par un rafraîchissement global des températures, mais aussi par de grandes fluctuations et des extrêmes climatiques. À titre d’exemple, le grand hiver de 1364 s’est traduit entre décembre 1363 et mars 1364 dans les paysages français par le gel du Rhône, de la Seine, des eaux gelées entre Sète et Mèze et le gel généralisé des vignobles et arbres fruitiers. Ces données mettent donc en évidence une variabilité naturelle du climat, due à une interaction complexe entre différents types de forçages. Les variations de température décrites par cette approche historique entrent dans une fourchette de 0,5 °C à 1 °C à l’échelle globale, ce qui met en évidence que le réchauffement amorcé à la fin du XIXe siècle et les records de chaleur de la dernière décennie sortent du bruit de fond de cette variabilité naturelle du climat. Ce fait s’illustre parfaitement dans la fameuse courbe en « crosse de hockey » des températures moyennes de l’hémisphère Nord. Publiée pour la première fois par Michael Mann en 1998, revisitée en 2009, elle montre sans ambivalence la phase de réchauffement qui caractérise le dernier siècle par rapport aux siècles précédents.

Il y a six mille ans, le Sahara était vert, parsemé de végétation et constellé de lacs, dont le plus grand représentant, le mégalac Tchad, faisait la taille de la mer Caspienne.

Si les variations climatiques des deux derniers millénaires ne sont pas du même ordre de grandeur que le changement actuel et n’en contiennent donc pas d’analogue, qu’en est-il des variations plus anciennes ? Répondre à cette question requiert un changement de temporalité et de passer à une échelle préhistorique. Étendre l’échelle temporelle implique une perte de précision dans la reconstruction du climat. Néanmoins, les proxies et les avancées en datation absolue des sédiments et fossiles ont conduit à des découvertes robustes. Le climat de l’Holocène, période qui couvre les douze derniers milliers d’années, est ainsi très bien documenté. On découvre à la lecture de cette période qu’il y a six mille ans, le Sahara était vert, parsemé de végétation et constellé de lacs, dont le plus grand représentant, le mégalac Tchad, faisait la taille de la mer Caspienne. L’homme était présent dans ces régions avec de grands mammifères, domestiqués ou non, comme l’ont montré les restes de poteries, les peintures et les enregistrements archéologiques du sud saharien. Dès les années 1950, l’application de la géochimie isotopique aux micro-organismes marins fossiles retrouvés dans les carottes sédimentaires océaniques a également permis une avancée majeure dans les connaissances des variations climatiques multimillénaires de notre planète, en documentant une cyclicité dans la température et le volume des calottes de glace avec des périodes chaudes (interglaciaires) et des périodes froides (glaciaires). Ces périodes glaciaires avaient été suggérées grâce à l’étude de moraines et blocs erratiques dans les paysages alpins, dès le XVIIIe siècle. On sait désormais qu’au cours des trois derniers millions d’années, la périodicité des cycles glaciaires-interglaciaires a varié entre 40 000 et 100 000 ans. Il a été suggéré très tôt que les variations orbitales de la Terre jouaient un rôle prépondérant dans ces oscillations, mais les mécanismes fins en sont encore mal compris et une théorie synthétique incluant les variations d’insolation, du cycle du carbone et de la circulation océanique manque pour expliquer les fluctuations du volume des glaces et du niveau marin au cours de ces périodes. Néanmoins, les avancées en datation absolue de la seconde moitié du XXe siècle et l’analyse de carottes de glace groenlandaise et antarctique ont permis d’établir une chronologie précise des variations de température et de concentration en CO2 atmosphérique depuis 800 000 ans. On a pu dater le dernier maximum glaciaire à environ 21 000 ans avant notre ère. À cette époque, on estime que la température globale était entre 4 °C et 7 °C moins élevée que l’actuelle, et que le niveau marin était globalement 120 mètres plus bas, en raison de la présence de calottes de glace gigantesques en Amérique du Nord, en Scandinavie et en Sibérie. Une constatation flagrante des enregistrements glaciaires est que la concentration en CO2 n’a jamais dépassé 300 ppmv au cours de ces 800 000 dernières années de variation naturelle du climat. Si ce référentiel préhistorique offre une vue élargie de la variabilité climatique naturelle, malgré sa plus faible résolution temporelle, il conduit aux mêmes conclusions que l’historique : le changement climatique actuel semble sans précédent. Ce référentiel est abondamment utilisé par les archéologues pour tenter de comprendre les liens entre variations naturelles du climat et les différentes civilisations qui se sont succédé sur la planète, depuis les prémices du genre humain. Que cela concerne le remplacement des Néandertaliens par l’homme Homo sapiens il y a environ 35 000 ans, ou les effondrements de civilisations (Mayas, mésopotamiennes, khmères) chers à Jared Diamond5, la question de savoir s’il existe un déterminisme climatique dans l’histoire de l’humanité est omniprésente. La réponse est toujours complexe et très débattue, car elle dépend de la qualité des enregistrements mais aussi de notre connaissance des capacités de résilience des sociétés anciennes.

Les deux temporalités exposées plus haut fournissent une contextualisation du changement climatique anthropique, en le comparant à la variabilité naturelle du climat et en informant des liens entretenus entre les variations de ce dernier et les sociétés modernes et anciennes. Cependant elles ne répondent pas à la question de l’analogue au changement actuel, dont la recherche dans les référentiels historiques et préhistoriques s’est avérée vaine. Un nouveau saut temporel s’avère nécessaire pour tenter de trouver cet analogue.

À l’échelle des millions d’années, l’essentiel de ce que nous connaissons des changements climatiques est contenu dans les foraminifères des sédiments marins. Grace aux carottages réalisés au sein de grands programmes internationaux (Ocean Drilling Program, Deep Sea Drilling Project), on peut construire une courbe retraçant l’évolution du δ18O et accéder à l’évolution du volume des glaces et des températures océaniques pour tout le Cénozoïque – soit les 65 derniers millions d’années de l’histoire de la Terre. Un rapide regard sur cette courbe révèle que le climat de l’ère tertiaire est loin d’avoir été constant dans le temps et que des variations de températures bien plus élevées que celles enregistrées aux échelles historiques ont eu lieu. On sait désormais que les vingt premiers millions d’années de cette période étaient caractérisés par l’absence de calottes glaciaires aux pôles. À l’Éocène, on trouve ainsi des palmiers et des reptiles aux latitudes du Canada, et le continent Antarctique, encore relié à l’Amérique du Sud, était couvert d’une forêt de Nothofagus, le hêtre austral dont on retrouve de nos jours des représentants en Patagonie. Au cours de cette période, le maximum thermique du Paléocène-Éocène (PETM) est un événement de réchauffement global particulier. Il a eu pour conséquence des modifications profondes de tous les compartiments du système climatique avec une augmentation de 4 °C à 6 °C des températures du fond des océans et de 8 °C à 10 °C de celles des mers des hautes latitudes. Il est également corrélé à plusieurs bouleversements de la vie à la surface du globe : l’apparition des ordres de mammifères actuels et l’extinction de 50 % des espèces de foraminifères benthiques. Les reconstructions de la teneur en CO2 atmosphérique de l’époque suggèrent des concentrations très élevées, comprises entre 700 et 1 000 ppm. Outre l’amplitude importante de ces changements climatiques, c’est leur vitesse qui, à l’échelle géologique, est frappante : l’essentiel du réchauffement a en effet pu avoir lieu en quelques milliers d’années. Le PETM serait l’analogue tant recherché du bouleversement climatique actuel ! Hélas, quelques chiffres appellent à la retenue. On estime que 4 000 gigatonnes (milliards de tonnes de carbone – GtC) ont pu être largués dans l’océan et l’atmosphère au cours du PETM, sur environ 4 000 ans, soit un rythme d’une gigatonne de carbone par an. En 2017, l’humanité a émis un peu plus de… 10 gigatonnes de carbone, une augmentation de 2 % par rapport à 2016, et de 62 % par rapport à 1990 ; mais aussi et surtout à un rythme dix fois supérieur à celui estimé pour le PETM. Il n’y a donc pas dans le passé géologique « récent », d’événement climatique enregistré dont la brutalité atteigne celle du changement actuel.

Température moyenne annuelle pour la période de référence 1976-2005. Expérience IPSL-INERIS/LSCE2014 : modèle WRF utilisé par l’Institut Pierre Simon Laplace. Température moyenne annuelle simulée avec le même modèle à l’horizon lointain (2071-2100) pour le scénario avec une politique climatique visant à stabiliser les concentrations en CO2 (RCP 4.5).

Les conséquences du changement climatique anthropique sur les paysages seront certainement multiples, mais il est encore difficile de les envisager dans leur intégralité. Les rapports du Giec, qui incluent des simulations numériques du climat futur, permettent de quantifier le changement à venir à l’échelle globale et s’intéressent aux conséquences environnementales. Mais en raison de la faible résolution spatiale des modèles, ils informent encore assez peu sur l’échelle locale, celle des paysages. L’utilisation de modèles à plus haute résolution couplés à des scénarios précis d’activité anthropique est donc devenue un enjeu majeur. Au niveau européen, le projet Euro-Cordex progresse dans cette direction, avec des simulations à 12,5 kilomètres de résolution spatiale. Ces travaux ont notamment abouti à la remise au gouvernement français d’un rapport dirigé par le climatologue Jean Jouzel, qui cherche à quantifier de manière fine le changement climatique sur le territoire au XXIe siècle. L’avenir des sciences du climat passe donc par une double priorité : améliorer la résolution spatiale des modèles pour passer de l’échelle de l’environnement à celle du paysage, mais aussi maintenir l’effort de recherche fondamentale sur les climats anciens pour comprendre le système climatique et quantifier le caractère exceptionnel de la transition en cours.

L’avenir des sciences du climat passe donc par une double priorité : améliorer la résolution spatiale des modèles pour passer de l’échelle de l’environnement à celle du paysage, mais aussi maintenir l’effort de recherche fondamentale sur les climats anciens pour comprendre le système climatique et quantifier le caractère exceptionnel de la transition en cours.

Article paru dans Les Cahiers n° 16, « Métamorphoses », 2018.
Photo de couv. : La forecast factory imaginée en 1922 par Lewis Fry Richardson, dessinée par Stephen Conlin, 1986.

  1. Selon le titre de sa conférence présentée le 29 décembre 1972 devant l’American Association for the Advancement of Science.
  2. Emmanuel Le Roy Ladurie, Histoire du climat depuis l’an mil, Paris, Flammarion, 1967.
  3. Emmanuel Garnier, Les Dérangements du temps : 500 ans de chaud et de froid en Europe, Paris, Plon, 2010.
  4. Les foraminifères sont des organismes unicellulaires marins qui ont la particularité de former une coquille, appelée « test » en calcite. Certains vivent proches de la surface (planctoniques) ou du fond océanique (benthiques). À leur mort, ils se déposent sur les fonds marins et sont fossilisés. Lors des carottages sédimentaires, on retrouve les tests calcaires fossiles. Ils sont datés et analysés géochimiquement.
  5. Jared Diamond, Effondrement. Comment les sociétés décident de leur disparition ou de leur survie, trad. de l’anglais (États-Unis) par Agnès Botz et Jean-Luc Fidel, Paris, Gallimard, 2006.

Top