Les prévisions climatiques à très long terme (2100) sont établies à l’aide de modèles qui ne sont rien d’autre des logiciels très complexes, dont le but est de reproduire le comportement du climat terrestre. Comme on ne peut pas décrire ce qui se passe en tous les points de la terre, celle-ci est découpée en mailles de quelques centaines de kilomètres de côté. Les modèles utilisés par le GIEC pour son cinquième rapport d’évaluation (2013) avaient des résolutions relativement grossières (supérieures à 100 km). La situation évolue toutefois rapidement et les modèles climatiques les plus récents auraient une résolution plus fine (de l’ordre de 20 km). Les premiers modèles ne prenaient en compte que la circulation de l’atmosphère. Les modèles actuels intègrent l’océan et sont appelés pour cela « modèles de circulation générale atmosphérique et océanique » (MCGA). Les modèles utilisés par le GIEC s’inscrivent dans un projet dit CMIP (Coupled model intercomparison project) dont la cinquième phase (CIMP5) associe 20 centres climatiques et près de 50 modèles climatiques.
Que prédisent les modèles ?
Les modèles prédisent l’augmentation de la température sur la période 2000-2100 en fonction de quatre scénarios (RCP) de concentration de GES dans l’atmosphère. Selon le scenario le plus pessimiste, dit « business as usual » (celui où l’on ne fait rien), la température de la planète augmenterait sur la période 2000-2100 de 4,8°C, comme le montre le diagramme ci-dessous issu du cinquième rapport du GIEC.
Modéliser le climat : une entreprise démiurgique
Exploiter un modèle climatique, c’est faire tourner sur elle-même un Terre virtuelle, munie d’une atmosphère, d’océans, d’un relief, la faire orbiter autour du soleil et enregistrer ce qui s’y passe pendant 1 an, 10 ans, 100 ans, c’est donc l’ensemble des mécanismes intimes d’échange de matière et de chaleur entre l’atmosphère, les océans et les terres émergées, ainsi que les nombreuses boucles de rétroaction qu’il faut introduire dans les modèles pour pouvoir établir des prédictions.
Compte tenu de la diversité des processus (rayonnement, convection, formation des nuages, fonte des glaciers, transpiration des plantes, ruissellement, infiltration des eaux dans le sol, etc.), de la multiplicité des échelles spatiales (du centimètre pour la turbulence de la couche limite à des ondulations de 10000 kms pour les zones de haute et de basse pression) et temporelles (de la seconde pour les vagues de surface à plusieurs siècles pour les courants océaniques), et des interactions que les diverses parties du système climatique ont les unes sur les autres, l’entreprise des modélisateurs apparaît comme démiurgique (ou pour le dire plus sobrement, relève du scientisme).
Rappelons de plus que le climat est un système chaotique et que par conséquent toute prévision à long terme est impossible ce que le GIEC reconnaissait déjà dans son rapport de 2007[1].
Les principales incertitudes
Le paramétrage des modèles
Les processus mis en jeu dans la machine climatique n’étant pas tous connus ou compris, ou bien ayant lieu à des échelles beaucoup plus fines que les mailles d’une centaine de kilomètres du modèle (développement de nuages, turbulence, échanges avec la surface), les modélisateurs ont donc recours à des paramètres ajustables (une dizaine) qui ont une signification statistique et compensent les incertitudes. La convection est un bon exemple de phénomène atmosphérique dont la complexité et l’échelle spatiale (10 kms) interdit une représentation exacte et qui sera donc pris en compte par la paramétrisation. Dans leur essai « Incertitudes sur le climat » (Belin 2013), Katia et Guy Laval décrivent ainsi le travail des modélisateurs : « ainsi, si le rayonnement solaire est trop faible à la surface de la terre, le modélisateur changera le paramètre contrôlant l’absorption de ce rayonnement par les nuages pour remédier à ces défauts. Il pourra jouer sur le paramètre des aérosols pour réduire le rayonnement solaire, et refroidir la température de surface si elle est trop élevée. Si les précipitations ne sont pas assez fortes, il jouera sur la représentation de la convection pour obtenir des pluies plus fortes ». Comme le dit M. de Rougemont, cette manière de faire conduit au tautologisme : « j’ai raison parce que j’ai raison, le modèle, artefact de l’homme incluant toutes ses impérities, sert alors de référence : si le système ne répond pas comme le prévoirait une tendance calculée sui generis, alors toute déviation constatée sera anthropique ».
La surestimation de l’humidité dans l’atmosphère, une faiblesse partagée par tous les modèles.
L’humidité relative de la troposphère est nettement surestimée dans les modèles. Les observations confirment que l’atmosphère n’est pas saturée, spécialement dans les couches de la troposphère où l’humidité est fortement variable, et qu’elle peut être de l’ordre de 30 % seulement estiment Katia et Guy Laval (en page 209 de leur essai ) pour lesquels ce biais est dû à une représentation irréaliste des cellules convectives, processus par lequel l’eau évaporée est transportée de la surface vers la troposphère qui engendre trop de diffusion et humidifie la haute et moyenne troposphère. La surestimation de la vapeur d’eau conduit à amplifier le réchauffement dû à l’augmentation de la concentration des gaz à effet de serre.
La représentation des nuages, le grand casse tête des modélisateurs
Le rôle des nuages dans les modèles reste une question très controversée parmi la communauté scientifique et constitue une source réelle d’incertitude. Les nuages interviennent dans les rétroactions susceptibles d’amplifier ou d’atténuer la réponse du climat aux variations des gaz à effet de serre. Ils sont responsables d’une grande part des écarts dans les résultats des modèles sur l’effet du doublement de la concentration de CO2.
L’évaluation de l’évaporation sur les continents au cœur de la difficulté pour évaluer les sécheresses
Pour les études climatiques il est essentiel d’évaluer l’évaporation pour connaître la température d’été de nos régions et pour évaluer le risque de sécheresse des sols. Quand la terre se réchauffe, elle revoie de l’énergie à l’atmosphère et atteint une température d’équilibre. Cette énergie peut prendre deux formes : la conduction thermique qui réchauffe la couche d’air superficielle, ou la perte d’énergie par évaporation. Or la température d’équilibre varie de quelques degrés (et même de plus de 10 °C en situation de sécheresse des sols) quand on modifie le rapport entre ces deux pertes d’énergie. Si sur l’océan la répartition entre ces deux processus est bien évaluée, cette répartition est plus difficile à simuler sur les continents car le sol comporte un couvert végétal l’évaporation s’effectuant par la transpiration des plantes. Il faut donc calculer le flux d’eau que les racines sont capables de pomper dans le sol, puis de le transférer vers le feuillage, où l’évaporation aura lieu à travers les pores de la feuille, plus ou moins ouverts selon les conditions environnementales. Si de plus, le sol et la zone racinaire s’assèchent, les plantes en situation de stress hydrique freinent l’évapotranspiration en fermant leurs stomates pour diminuer le flux entre le système racinaire et les feuilles de plante.
Calculer le flux d’eau que les racines sont capables (en fonction des propriétés physiologiques des plantes) de pomper dans le sol, puis de le transférer vers le feuillage où l‘évaporation aura lieu à travers les pores de la feuille plus ou moins ouvertes selon les conditions environnementales, tel est le défi que doivent relever les modélisateurs du climat.
Les boucles de rétroaction, à l’origine des plus grands écarts entre les modèles
Les estimations fournies par les modèles divergent considérablement lorsqu’elles concernent la puissance des différentes rétroactions du système climatique (GIEC 2007).
Les principales boucles de rétroaction sont les suivantes :
- la rétroaction vapeur d’eau : l’augmentation de la température tend à augmenter le contenu en vapeur d’eau de l’atmosphère ce qui augmente l’effet de serre et la température de surface;
- la rétroaction des nuages : les changements de vapeur d’eau et de circulation atmosphérique modifient la couverture nuageuse et ses propriétés radiatives, et donc la fraction de rayonnement solaire qu’ils réfléchissent;
- la rétroaction due à l’albédo de surface : l’augmentation de la température de surface peut changer les propriétés radiatives de la surface (car la neige ou la glace de mer fondent plus vite), qui absorbera plus de rayonnement solaire et réchauffera d’avantage son environnement.
Un doublement de la concentration de CO2 seul (sans rétroactions), induirait une augmentation de température de l’ordre de 1°C. ; cela fait consensus dans la communauté scientifique. Or tous les modèles postulent une rétroaction positive de la vapeur d’eau selon le mécanisme suivant : plus il y a de CO2 plus la température augmente, plus la température croît et plus la teneur en eau dans I ‘air s’élève conduisant à une recrudescence de la température : cette boucle de rétroaction augmente donc le réchauffement. C’est sur cette hypothèse d’une rétroaction positive de la vapeur d’eau que le GIEC en arrive à la conclusion qu’un doublement de la teneur en CO2 à une augmentation de température pouvant aller jusqu’à 4,8 °.
L’existence d’une rétroaction positive de la vapeur d’eau est mise en question : l‘analyse de diverses mesures effectuées par satellites indiquerait une augmentation de température de O,8°C et donc une rétroaction «négative» car plus faible que 1,1°C (Lindzen et Choi, 2009). Cette rétroaction négative s’expliquerait ainsi : l’augmentation de température participe à une diminution de la couverture nuageuse qui, d’une part, réfléchit moins le rayonnement solaire incident et, d’autre part, laisse davantage passer de rayonnement infrarouge. Le résultat global, sur base des observations, semble être un abaissement de la température du globe (« effet Iris »).
Les modèles surchauffent
Pour un même scénario d’émissions, les modèles se contredisent mutuellement et divergent de plus en plus des mesures, comme me montre le diagramme ci dessous issu du 5ème rapport du GIEC (page 981).
Pour vérifier la validité des modèles, l’évolution du climat doit être reconstruite a posteriori (technique du « hindcasting » ou validation à rebours ). Il est alors possible de comparer les résultats des modèles avec la réalité observée. J. C. Christy, Professeur à l’Université d’Alabama (Huntsville) s’est livré à cet exercice et a présenté ses conclusions lors d’une audition par le Sénat américain en 2016. La reconstruction faite avec 102 modèles issus d’institutions différentes de par le monde, comparées avec des séries d’observations faites par des ballons sondes et des satellites entre 1979 et 2016 apparaît dans le diagramme suivant (commenté en français par M. de Rougemont dans cet article).
Sur les 38 dernières années l’écart entre la courbe de réchauffement des modèles et celle des données d’observation est très significatif démontrant de la façon la plus évidente que les modèles sont trop sensibles aux émissions supplémentaires de gaz à effet de serre.
Pas de Hot spot sous les tropiques
John Christy a réitéré devant la Chambre des représentants en 2017 en présentant les courbes de température de la moyenne troposphère sous les tropiques.
Comparaison de l’évolution des anomalies de température de la troposphère moyenne entre la moyenne des 102 modèles climatiques du programme CIMP5 utilisés par le GIEC (courbes rouge) et les observations fournies par les ballons sondes (courbe bleue) et les satellites (courbe verte) pour la période 1979-2015.
Dans le modèle d’effet de serre, la troposphère (partie basse de l’atmosphère) devrait se réchauffer au moins autant que la Terre. Or les satellites et les ballons d’observation montrent une élévation de température de la troposphère au dessus des tropiques bien moins élevée que celle de la Terre (en fait 2,4 fois plus petite que ne l’indiquent les modèles). Le « point chaud » au dessus des tropiques qui constituerait la seule et authentique signature de l’effet de serre et donc absent comme l’explique Roy Spencer dans cet article et le physicien François Gervais dans son essai (« L’innocence du carbone ») : « les mesures ne confirment pas l’existence d’un tel « point chaud », ni d’ ailleurs ne témoignent d’ un quelconque échauffement significatif dans la haute troposphère sous les tropiques depuis trente ans. (D.H. Douglass et al 2004-2008). C’est en revanche un point plus froid qui est observé (J.R. Christy et al ; 2010), en contradiction avec les modèles retenus par le GlEC ».
Vincent Gray ancien professeur émérite à l’université du Colorado et spécialiste de la prévision des ouragans (décédé en 2016) indiquait en 2006 dans cet article que la température de la troposphère n’a jamais augmenté et que cela dément complètement l’effet de serre du CO2. Il concluait : « Tous les modèles de circulation globale qui prédisent le futur sont faux. Ils ne prennent pas en compte les variations d’humidité dans la haute troposphère et la couverture nuageuse. Ils prévoient des humidités et des températures trop élevées, irréalistes, dans la haute atmosphère, en cas de doublement du taux de CO2. Ils négligent à tort les oscillations multi décennales des océans. Ces modèles sont notre pire guide pour prévoir Je futur ».
Doit-t- on confier notre avenir à des modèles ?
Nous laissons la conclusion à trois scientifiques :
Selon Pierre Morel[2] fondateur du Laboratoire de Météorologie Dynamique et ancien secrétaire général du programme mondial de recherche sur le climat, les modèles climatiques ne sont pas fondés sur les lois de la physique :
« Aucun modèle ne peut, en l’état actuel de l’art, représenter fidèlement la totalité des processus physiques en Jeu. Au contraire, ces modèles sont fondamentalement empiriques et font nécessairement appel à des paramètres arbitraires qui doivent être ajustés … Par conséquent, actuellement, les modèles de la science climatique théorique, tout cela est engagé sur une voie sans issue… malheureusement, les modélisateurs, qui ont une connaissance détaillée des codes numériques et formules physiques, n’ont plus une compréhension approfondie du fonctionnement de l’environnement réel dans tous ses aspects physiques. Je dois dire qu’il est facile de perdre de vue la multiplicité des processus dynamiques, physiques, chimiques, géologiques qui influencent le climat ».
Paul Deheuvels, Membre de l’Institut, Directeur du LSTA à l’Université Pierre et Marie Curie (UPMC) écrit dans un article publié sur le site du CNRS :
« Les modèles sur lesquels s’appuient la plupart des conclusions des climatologues paraissent ajustés de manière assez sommaire, et sur des données, le plus souvent indisponibles. Leurs conclusions sont présentées par des organismes officiels, tel que le GIEC, comme vérité d’Evangile, sans que de telles affirmations soient systématiquement assises sur des vérifications statistiques crédibles ».
Citons enfin l’océanographe américain Carl Wunsh qui dans un article publié dans la revue PNAS [3](2013) fustigeait la prétention des prévisions climatiques à long terme
« Même si le climat s’avérait théoriquement prévisible (ce qui est tout sauf certain) la quasi-absence d’observations adéquates empêchera sa compréhension, et par là même tout espoir de prévisions utiles ».
[1] In climate research and modelling, we should recognise that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible (IPCC Working Group I: The Scientific Basis §14.2.2.2 -2007)
[2] P. Morel : « Réchauffement planétaire et science du climat, conférence au Bureau des Longitudes, 7 octobre 2009) http://www.canalacademie.com/ida5110-Rechauffement-planetaire-et-science-du-climat.html
[3] Carl Wunsch : La changement climatique : un problème inter générationnel, PNAS 2013. Traduction française sur ce site.