Réchauffement global : les prévisions de James Hansen, 30 ans plus tard

Le 23 juin 1988 : ce jour-là, presque partout aux Etats-Unis, on étouffe déjà sous une chaleur accablante. On redoute un été interminable, brûlant et sec – il le sera, comme jamais de mémoire d’homme. Ce jour là, James Hansen directeur du Goddard Institute for Space Studies (GISS), un laboratoire de la NASA, est auditionné par une commission du Sénat. Il déclare que les températures anormalement élevées, la sécheresse qui dure, tout cela ne relève pas de la variabilité naturelle du climat mais des activités humaines. Et qu’avec le temps, cette tendance va immanquablement s’accentuer. Jim Hansen ajoute qu’il est sûr de lui “à 99 %”, l’affirmation défraie la chronique.

Le texte qui suit est la traduction d’un article publié le 03 juillet sur le site de Judith Curry dans lequel Ross McKitrick (professeur d’économie à l’université de Guelph),  et John Christy (professeur en  Science de l’Atmosphère à l’Université d’Alabama) analysent la valeur des prédictions de James Hansen, 30 ans après.


Quelle est la valeur des prédictions de “Réchauffement global“ faites par James Hansen dans son témoignage devant le sénat des Etats Unis en 1998 et dans l’article publié ensuite dans la revue JGR.

Un article laudatif de Seth Borenstein journaliste de l’agence Associated Press  assure que ces prédictions sont devenues des réalités ; d’autres scientifiques assurent que leur exactitude est « époustouflante » et « incroyable ».

Pat Michaels et Ryan Maue dans le Wall Street Journal, et Calvin Beisner dans le Daily Caller, contestent ces appréciations.

James Hansen

Il y a a deux difficultés avec ce débat, tel qu’il s’est déroulé. D’abord l’emploi de l’année 2017 comme référence est trompeur à cause des différences entre les éruptions volcaniques et les El Niño supposés et observés, qui, vers la fin de l’échantillon, ont artificiellement rapproché les observations des scénarios. Ce qui compte, c’est la tendance calculée sur tout l’intervalle de temps couvert par la prédiction et c’est là que les difficultés apparaissent. Ensuite l’application d’une correction après-coup au « forçage » [1] ignore le fait que la conversion d’une augmentation de la teneur en gaz à effet-de-serre  en « forçage » est un élément essentiel de la « modélisation ». S’il fallait seulement corriger la prévision de la teneur en CO2, ce serait admissible, mais la teneur en CO2 prévue a finalement été assez proche de ce qui a été observé.

Hansen n’a pas indiqué les concentrations en CO2 associées à ses projections, mais en a donné l’algorithme dans son annexe B. Il a pris les valeurs observées de 1958 à 1981 et les a extrapolées. Ce qui signifie que sa prévision démarre en 1982 et non pas en 1988, quoi qu’il ait pris en considération les aérosols stratosphériques observés jusqu’en 1985.

En utilisant ses formules d’extrapolation nous calculons que les concentrations prévues pour 2017 étaient : scénario A, 410 ppm, scenario B, 403 ppm et scénario C, 368 ppm.  (Cette dernière valeur est confirmée dans le texte de l’Annexe B). Les concentrations en COenregistrée à Mauna Loa en 2017 a été de 407 ppm, à mi-chemin entre les scenarios A et B.

Les scénarios A et B diffèrent aussi par la prise en compte, ou non, des gaz autres que le CO2. Le scénario A inclut tous les gaz traces, le scénario B les seuls méthane et CFC, tous deux surestimés. Il n’y a donc pas de justification à une réduction après-coup des teneurs en CO2 ; pas plus que pour une réduction du « forçage » associé, qui est une partie essentielle du calcul du « modèle ». Attribuer entièrement l’erreur sur la tendance au réchauffement à des niveaux surestimés de CFC et de méthane implique que CFC et méthane ont, dans le modèle, énormément d’influence..

Notons encore que Hansen n’a pas inclus d’effet des évènements El Niño. En 2015 et 2016 un El Niño extrêmement fort a fait monter les températures moyennes globales d’un demi-degré Celsius, qui est actuellement en cours de résorption avec le refroidissement observé des océans. Si Hansen avait inclus ce pic transitoire El Niño dans ses scénarios, ses scénarios A et B auraient largement surestimé les températures de 2017.

Hansen a, pour l’année 2015, ajouté un événement volcanique de type Agung [NdT : grande éruption volcanique de février 1963 à janvier 1964] dans ses scénarios B et C, ce qui a fait descendre les températures en dessous de la tendance,  effet encore sensible dans ses prédictions pour 2017. Mais ce n’était pas là une prévision, seulement une hypothèse arbitraire, et il n’y a pas eu d’explosion volcanique de ce genre [NdT : pas d’explosion notable depuis celle du Pinatubo en juin 1991, dont les cendres stratosphériques ont eu un effet jusqu’ en 1993]

Donc, si nous voulons comparer ce qui est comparable, il nous faut retirer des scénarios B et C le refroidissement volcanique venant de l’explosion imaginaire de 2015, et ajouter aux trois scénarios  l’effet du El Niño de 2015/16. Ce faisant on trouve en 2017, pour les deux scénarios A et B, un gros désaccord entre prédictions et observations.

La principale prédiction de l’article de Hansen portait sur une tendance, et non un niveau de température. Il nous faut donc comparer les tendances prévues à celles observées. Pour ce faire nous avons numérisé les données annuelles de sa figure 3. Nous nous sommes concentrés sur la période allant de 1982 à 2017 qui couvre tout l’intervalle des prévisions des teneurs en CO2.

Les tendances au réchauffement sur la période 1982-2017 des prédictions de Hansen sont en degré Celsius par décennie :

  • Scenario A: 0,34 +/- 0,08,
  • Scenario B: 0,29 +/- 0,06, et
  • Scenario C: 0,18 +/- 011.

A comparer aux tendances de la série GISTEMP de la NASA (appelée Goddard Institute of Space Studies, ou GISS) et la série UAH/RSS moyenne des températures de la basse troposphère observée par les appareils MSU [NDT Microwave Sounding Units qui observent le rayonnement de l’oxygène sur des raies entre 50 GHz et 58 GHz] portés par des satellites météorologiques

  • GISTEMP: 0,19 +/- 0,04 °C/décennie
  • MSU: 0,17 +/- 0,05 °C/décennie

(Les intervalles de confiance sont robustes par rapport aux auto corrélations, grâce à l’emploi de la méthode de  Vogelsang-Franses [2])

Donc le scenario qui correspond le mieux aux observations après 1980 est le C. Le test d’hypothèses (avec la méthode VF) montre que les scénarios A et B surestiment le réchauffement, même si on veut ignorer les effets des El Niño et des volcans. Pour expliciter ce résultat : le scénario A surestime la croissance du CO2 et des autres gaz à effet de serre, et est démenti par les observations ; le scénario B sous-estime légèrement  la croissance du CO2  surestime méthane et CFC  et ne prend pas en compte les autres gaz-à-effet-de-serre [3].

La tendance correspondant au scénario C est acceptable par rapport aux observations, et les deux tendances du scénario et des observations sont presque égales. Mais ce scénario est celui qui arrête la croissance des gaz à effet-de-serre après l’an 2000. Les teneurs en COont atteint 368 ppm en 1999 et crû ensuite jusqu’à 407 ppm en 2017. La teneur en CO2 pour ce scénario C atteint 368 ppm en 2000 et est fixe ensuite. Pourtant c’est ce scénario qui propose un réchauffement comparable à celui du monde réel.

Comment cela peut-il se faire ? Voici une possibilité. Supposons que Hansen nous ait donné un scénario D, dans lequel les gaz à effet de serre auraient continué à croître, mais presque sans effet « climatique » après les années 1990. Ça se passerait comme dans le scénario C et serait compatible avec les données d’observation.

Les “modélisateurs“ nous objecteront que ça ne correspond pas à leurs théories du changement climatique. Mais ce sont ces théories là que Hansen a employées et elles ne collent pas avec les observations.

Pour conclure, la science du climat telle qu’elle est codée dans les modèles est bien loin d’être bien établie.


[1] [NdT  On appelle forçage radiatif (Wm-2) du système climatique toute variation de l’énergie transmise à l’ensemble du système Terre atmosphère, causée par des changements des facteurs de forçage ]

[2] [NdT : voir surla détermination des intervalles de confiance de tendances

Vogelsang, T. J. (1998) “Trend function hypothesis testing in the presence of serial correlation”. Econometrica, v. 66, p. 123-148. Vogelsang, T.J. and P. H. Franses (2005) “Testing for Common Deterministic Trend Slopes,” Journal of Econometrics 126, 1-24, partiellement à  http://www.informath.org/apprise/a7300/b53.pdf  et http://www.econ.queensu.ca/files/event/mckitrick-vogelsang.RM1_.pdf]

[3] [NdT :  rappelons que de très loin le principal gaz absorbant et rayonnant en infrarouge thermique est la vapeur d’eau, très opaque (épaisseur optique en centaines) sur tout le spectre de 1 THz à 70 THz  -hors la fenêtre de la vapeur d’eau entre 22 et 35 THz ; elle assure – en vapeur et en  nuages- presque tout le rayonnement infrarouge thermique du globe vers le cosmos, les contributions de la surface et du CO2 surtout stratosphérique étant d’un facteur dix et plus petites. Il est étonnant que ce simple fait soit ignoré.]

 

Partager