Résumé
Selon une nouvelle étude parue dans la revue Science (Ocean Warming in Climate Models Varies Far More than Recent Study Suggests par Cheng et al.), l’augmentation entre 1971 et 2010 de la teneur en chaleur de l’océan (OHC) de la surface à 2 000 m de profondeur serait de 40% supérieure à celle de la dernière estimation officielle du GIEC.
Le Dr Roy Spencer (*) a analysé cette publication dans deux articles de son site (ici et là). Il montre que même en conservant les données de l’étude, la hausse de la teneur en chaleur de l’océan est de 11% et non de 40%. Il s’étonne d’autre part que les données d’observations ré analysées par les auteurs s’ajustent aussi bien à la moyenne de 33 modèles du climat utilisés dans l’étude alors même que l’écart entre les deux modèles extrêmes est dans un rapport de 1 à 8. Il ironise enfin de l’insistance de la communauté scientifique à exprimer le réchauffement des océans en zetta joules (un zettajoule est égal à un milliard de milliards de joules) plutôt que dans l’unité de ce qui est réellement mesuré à savoir la température. La raison en est selon lui que les changements de température de l’océan sont si faibles (centièmes ou de millièmes de degré C selon de la couche océanique analysée et la période considérée) que l’expression du réchauffement en en milliard de joules apparaît plus spectaculaire et anxiogène.
(*) Le Dr Roy Spencer est chercheur à l’Université de l’Alabama à Huntsville. Il est connu pour son travail sur la surveillance de la température par satellite. Avec le Dr John Christy, Il a reçu de la NASA une médaille pour accomplissement scientifique exceptionnel.
Un réchauffement de 11% et non de 40% (même en conservant les données de l’étude)
Le diagramme ci-dessous (extrait de l’article de Science et annoté en rouge par Roy Spencer) montre comment l’augmentation de 40% a été obtenue :
Figure 1
L’augmentation du réchauffement a été calculée sur la base de la moyenne de cinq estimations du GIEC (barres grises) sont environ 40% inférieures aux estimations des trois jeux de données d’observations récemment ré analysées (barres bleues). Or le GIEC dans son rapport AR5 n’avait retenu sur les cinq estimations que la plus élevée (Domingues et al., 2008).
Du diagramme de la figure 1 on peut déduire que l’ estimation faite par l’AR5 de la vitesse d’accumulation de chaleur dans la couche océanique entre 0 m et 2000 m de profondeur pendant la période 1970-2010 est de 0,5 W/m² (non rapportée à la surface totale de la Terre).
Ce chiffre de 0,5 W/m² est à comparer aux nouvelles estimations calculées à partir des données disponibles sur le site web de Cheng (données que les auteurs disent employées dans l’article de Science) et qui sont 0,52 W/m2 (DOM), 0,51 W/m2 (ISH) et 0,555 W/m2 ( CHG).
On obtient ainsi une augmentation maximale de 11% par rapport au jeu de données d’observation de Cheng qui donne le taux de réchauffement le plus élevé (CHG).
Un accord entre modèles et données d’observation trop beau pour être honnête
Selon l’étude Cheng et al, les données d’observations ré analysées pour la période 1971-1980 s’ajustent presque parfaitement à la moyenne des 33 modèles de climat CMIP5 inclus dans l’étude. La moyenne des 33 modèles est de 0,549 W/m2 (avant application de la correction de 0,7 [1]), une valeur qui est proche de 0,555 W/m2 obtenu par Cheng par la ré analyse des données de température de l’océan profond.
Les auteurs y voient la preuve que les modèles fonctionnent bien.
Il est remarquable note Roy Spencer, que lorsqu’elles sont ré analysées, les données d’observation sont toujours poussées vers le haut qu’il s’agisse de la température de surface, de la température de l’océan en profondeur, ou de la température atmosphérique mesurées par satellite ou par radiosondes.
Des divergences considérables entre les modèles
Les estimations des 33 modèles sont montrées sur le graphique ci-dessous établi par Roy Spencer à l’aide de données disponibles sur le site Web de l’auteur principal de l’étude (Cheng) :
Figure 2
Les divergences entre les modèles sont considérables variant dans un rapport de 1 à 8 (de 0,11 W/m2 à 0,92 W/m2) pour la période 1971-2010.
Selon Roy Spencer, ces divergences sont dues d’une part à l’incertitude persistante sur la sensibilité du climat (de 1 à 3 selon le GIEC), mais aussi aux incertitudes sur l’ampleur du forçage des aérosols, en particulier dans la première moitié de la période étudiée. Si les modèles étaient basés sur les lois fondamentales de la physique, comme on nous le dit souvent, ils ne donneraient pas un éventail de résultats aussi large.
A l’évidence nous dit Roy Spencer, certains processus physiques sont mal connus, notamment la manière dont les nuages et la vapeur d’eau de la troposphère supérieure rétroagissent avec le réchauffement.
Une présentation trompeuse des incertitudes
Un des problèmes des résultats de Cheng et al. nous dit Roy Spencer est la façon dont ils calculent l’intervalle de confiance à 90%.
Les intervalles de confiance donnés dans l’article sont ceux du calcul des paramètres de la droite de régression pour chacune des séries de données, que ces données soient celles d’une série d’observation ou qu’elles soient tirées des modèles (via la moyenne des modèles !) .
Dans le graphique de la Figure 2 ci-dessus, Roy Spencer compare l’intervalle à 90% cité dans l’article pour les modèles (calculé pour la moyenne des résultats des modèles), et l’intervalle à 90% qui représente la variabilité des tendances (régression linéaires) au réchauffement des modèles qui divergent fortement entre eux (facteur 1 à 8). L’écart entre les deux (représenté par les deux barres verticales bleues du graphique) est considérable.
Cheng et al affirment dans leur article que la moyenne des modèles montre une tendance linéaire au réchauffement de l’océan de 0,39 ± 0,07 W/m2, les observations récentes allant quant à elles de 0,36 à 0,39 W/m2 (après application de la correction de 0,7 [2]). Mais cette intervalle de +/- 0.07 n’est pas un intervalle de confiance sur la valeur de cette tendance mais la plage d’erreur quand on calcule une droite de régression sur la moyenne du réchauffement des 33 modèles sur 1971-2010. Cela ne renseigne en rien sur la confiance que l’on peut avoir quant à la tendance (linéaire) au réchauffement de l’un des modèles ou même sur la plage des différentes tendances au réchauffement entre les différents modèles
Les intervalles de confiance fournies par Cheng et al. ne sont donc pas faux mais trompeurs pour quiconque essaierait de se faire une idée de la qualité des données d’observation ou sur le niveau d’incertitude des tendances calculées par les modèle climatiques.
La moyenne des modèles climatiques est-elle meilleure que les modèles pris individuellement ?
Il ne faut pas croire qu’il y aurait un « vrai modèle exact » idéal dont les incarnations sont imparfaites parce chacun des groupes qui ont fait un modèle a, en quelque manière, ajouté du bruit ou son bruit au modèle idéal. Si bien que le bruit serait réduit quand on fait la moyenne des résultats [3] de ces différents modèles.
En réalité les divers groupe de modélisateurs font ce qu’ils estiment être leur meilleure estimation d’une grande variété de forçages et de processus physiques qu’ils introduisent dans les modèles, obtenant ainsi une grande variété de résultats. On ne sait pas lequel d’entre eux est le plus proche de la vérité. Il se pourrait même qu’un modèle « aberrant » soit le meilleur. Ainsi par exemple, le modèle qui s’accorde le mieux aux températures troposphériques des relevés par satellite (UAH) depuis 1979 est un modèle russe, qui n’a même pas été inclus dans l’étude. Sur plus de 100 modèles testés par l’équipe de Roy spencer, c’est le modèle russe qui a le taux de réchauffement troposphérique le plus faible depuis 1979.
Compte tenu de toutes ces incertitudes, nous sommes encore loin de comprendre l’ampleur du réchauffement futur induit par l’augmentation des concentrations de CO2 dans l’atmosphère conclut Roy Spencer.
[1] Cheng et al prennent la surface des océans (361 M km²) la normalisent par la surface totale du globe (510 M km²) ce qui applique un facteur 0,7 sur les flux de chaleur calculés. (les W/m² de « forçage radiatif » valent sur les 510 M km² mais leur conséquence va se cacher dans les seuls 360 M km²)
[2] La normalisation des flux de chaleur calculés par application du facteur 0,7 (cf. note [1] supra)
[3] Prétendre que les différents modèles sont des tirages d’une variable aléatoire qui serait le modèle idéal et que l’on réduit le bruit ou l’erreur d’estimation en faisant des moyennes est à l’évidence infondé. Les conditions d’application du théorème central limite ne semblent pas assurées (La moyenne de N tirages d’une variable aléatoire x et son espérance ou moyenne vraie Ex suppose que la variance soit connue. Proba[ |moyenne de N tirages – moyenne vraie| > epsilon] < Variance /(N epsilon²). De plus les modèles pris individuellement sont instables par rapport aux conditions initiales car déduits de modèles météorologiques qui souffrent des effets des erreurs d’arrondi et de comportements « chaotiques », etc.