https://friendsofscience.org/pages/essay.html

 

 

Essai scientifique sur le changement climatique

par Ken Gregory

 

INTRODUCTION

L'un des objectifs de la Friends of Science Society est d'éduquer le public sur la science du climat et les mérites scientifiques de l'hypothèse du réchauffement climatique induit par l'homme. La science du changement climatique est complexe. Malheureusement, la politique et les médias ont infecté la science. Les instituts de recherche sur le climat savent qu'ils doivent présenter des prévisions climatiques effrayantes pour recevoir un financement continu - pas de crise, signifie, pas de financement. Les médias présentent des histoires de catastrophe climatique pour vendre leurs produits. La recherche scientifique qui suggère que le changement climatique est principalement naturel ne reçoit pas beaucoup de couverture médiatique, voire aucune. Ces facteurs ont amené le grand public à être sérieusement induit en erreur sur les questions climatiques, ce qui a entraîné des dépenses inutiles de milliards de dollars dans une tentative inefficace de contrôler le climat.

Températures globales de la basse troposphère et moyenne du modèle

Le graphique ci-dessus montre les changements de température [MT1] de la basse troposphère depuis la surface jusqu'à environ 8 km, tels que déterminés par les  données satellitaires de l'Université de l'Alabama à Huntsville (UAH) . La ligne de meilleur ajustement (bleu foncé) de janvier 1979 à septembre 2022 indique une tendance de 0,134 °Celsius/décennie. Les fortes pointes de température de 1998, 2010 et 2016 sont des événements El Niño. Les données de température de surface sont contaminées par les effets du développement urbain. L'activité du Soleil, qui a augmenté pendant la majeure partie du 20siècle, est récemment devenu calme. Le flux magnétique du Soleil a atteint un pic en 1991. Le flux magnétique élevé réduit la couverture nuageuse et provoque un réchauffement. Depuis lors, le Soleil s'est calmé, mais il continue de provoquer un réchauffement pendant quelques décennies après son pic d'intensité en raison de l'énorme capacité calorifique des océans. Les données sont obtenues à partir d'unités de sondage micro-ondes (MSU) sur les satellites de la National Oceanic and Atmospheric Administration, qui relient l'intensité ou la luminosité des micro-ondes émises par les molécules d'oxygène dans l'atmosphère à la température. L'ensemble de données MSU représente les températures d'une couche de l'atmosphère qui s'étend de la surface à environ 8 kilomètres (5 miles) au-dessus de la surface. La ligne rouge foncé est la moyenne centrée sur 5 ans de la basse troposphère des modèles climatiques. La tendance du modèle est de 201% des mesures. La ligne UAH UHIE corr (bleu clair) est la tendance corrigée de l'effet d'îlot de chaleur urbain basée sur cette étude qui donne une correction de -0,017 °C/décade.

La science en résumé

L'histoire de la Terre nous apprend que le climat change constamment; des périodes chaudes où les dinosaures ont prospéré, aux nombreuses périodes glaciaires où les glaciers couvraient une grande partie de la terre. Le climat a toujours changé en raison des cycles naturels sans aucune aide humaine.

Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) des Nations Unies est une organisation politique qui promeut une théorie selon laquelle les récentes augmentations mineures de température pourraient être causées en grande partie par les émissions de dioxyde de carbone (CO 
2) d'origine humaine. Le CO 2 est un gaz infrarouge, et des concentrations croissantes peuvent potentiellement augmenter la température globale moyenne car le gaz absorbe le rayonnement à ondes longues de la Terre et réémet l'énergie absorbée. Cependant, la capacité de réchauffement du CO2 est limité car une grande partie du spectre d'absorption est presque saturée. Lorsque les concentrations de CO2 étaient dix fois plus élevées qu'aujourd'hui, la Terre était aux prises avec l'une des périodes glaciaires les plus froides. Le système climatique est dominé par de fortes rétroactions négatives des nuages ​​et de la vapeur d'eau qui compensent les effets de réchauffement des émissions de CO2.

L'histoire du climat et de la concentration de CO
2 montre que les changements de température précèdent les changements de CO2 et ne peut pas être un moteur majeur du climat. Les changements de température sur différentes échelles de temps ont été bien corrélés aux cycles solaires, au flux de rayons cosmiques et à la couverture nuageuse. Des recherches récentes montrent que les rayons cosmiques agissent comme un catalyseur pour créer des nuages ​​​​bas, qui refroidissent la planète. Lorsque le Soleil est plus actif, le vent solaire repousse les rayons cosmiques, réduisant la couverture nuageuse basse permettant au Soleil de réchauffer la planète.

Les résultats des modèles informatiques présentés dans le cinquième rapport d'évaluation du GIEC prédisent que le réchauffement climatique entraînera un profil de température distinctif dans l'atmosphère avec un taux de réchauffement accru dans la haute atmosphère à une altitude de 8 à 12 km au-dessus des tropiques. Le profil de température prévu est le résultat d'une augmentation attendue de la vapeur d'eau dans la haute atmosphère qui triplerait le réchauffement CO2 induit. Les modèles informatiques sont programmés pour prévoir une humidité relative constante de la vapeur d'eau avec l'augmentation du CO
2 résultant en une importante rétroaction de la vapeur d'eau. Les données de température réelles ne montrent pas un telle amplification du réchauffement profil. Par conséquent, la comparaison des données observées aux résultats des modèles informatiques prouve qu'aucune amplification du réchauffement induite par la vapeur d'eau n'existe, de sorte que le CO2 n'est pas le principal facteur climatique. Dans les couches d'atmosphère proches de 8 km, la tendance de température modélisée à partir de 1980 est de 2000 à 400 % supérieure à celle observée. Les données des ballons météorologiques montrent que l'humidité spécifique a chuté de 9% depuis 1960 dans la haute troposphère (niveau de pression de 400 mbar) où les modèles prédisent la plus grande rétroaction. L’ajout de CO²à l'atmosphère peut réduire la vapeur d'eau de la haute atmosphère, le gaz à effet de serre le plus important, ce qui n'entraîne qu'une faible augmentation de l'effet de serre.

Une analyse des données satellitaires montre que les nuages ​​provoquent une forte rétroaction négative sur la température, mais les modèles climatiques supposent que les nuages ​​provoquent une rétroaction positive. Les modélisateurs ont supposé que tous les changements de nuages ​​sont causés par des changements de température, ce qui leur permet de déduire une rétroaction positive. Mais l'évolution de la couverture nuageuse peut également entraîner des changements de température. Les scientifiques peuvent maintenant séparer ces deux effets. L'analyse correcte montre que les nuages ​​provoquent une forte rétroaction négative, donc si les températures augmentent, la couverture nuageuse augmente, renvoyant l'énergie solaire vers l'espace et réduisant considérablement l'effet de réchauffement des émissions de CO
2.

Plusieurs planètes et lunes se sont réchauffées récemment avec la Terre, confirmant une tendance naturelle au réchauffement causée par le soleil. Sur des périodes plus longues, à mesure que le système solaire entre et sort des bras galactiques, le flux de rayons cosmiques change, provoquant des périodes glaciaires et des périodes chaudes. Une comparaison des données indirectes sur la température et l'activité solaire suggère que les effets solaires peuvent expliquer au moins 75 % du réchauffement de la surface au cours des 100 dernières années.

Le CO 
2 est un aliment végétal et l'augmentation de la concentration de CO2 a peut-être augmenté la production alimentaire mondiale de 15 % depuis 1950, ce qui a entraîné d'énormes avantages pour les personnes. Pour le Canada, tout effet de réchauffement du CO2 nous profiterait également en réduisant nos coûts de chauffage des locaux et en rendant le climat plus agréable.

Le GIEC prévoit que les températures moyennes mondiales augmenteront de 0,17 à 0,38 °C par décennie jusqu'à la fin du siècle en fonction du taux de croissance du CO 
2 dans l'atmosphère et d'autres hypothèses. Les projections supposent qu'aucune mesure n'est prise pour limiter les émissions de CO2Cependant, ces prédictions sont irréalistes car elles supposent à tort que les récents changements de température sont uniquement dus au CO2 et que le Soleil a peu d'effet sur le climat. Une étude récente des changements climatiques passés utilisée par le GIEC s'est avérée erronée en raison de l'utilisation d'un algorithme défectueux et d'une sélection inappropriée des données.

Le record de température terrestre est contaminé par l'effet d'îlot de chaleur urbain. Corriger complètement le record de température terrestre réduirait de moitié la tendance au réchauffement de 1980 à 2002
L'enregistrement historique du CO 2 du GIEC peut être incorrect en raison d'ajustements inappropriés des données des carottes de glace et de l'ignorance des mesures historiques directes du CO2. Le GIEC sélectionne et ajuste les données pour se conformer à son hypothèse de réchauffement du CO2 et ignore les théories climatiques alternatives. C'est la mauvaise façon de faire de la science. De nombreux scientifiques sont fortement en désaccord avec les conclusions du GIEC.

Les données sur le niveau de la mer ne montrent aucune augmentation du taux récent d'élévation du niveau de la mer, et aucune augmentation de ce type n'est attendue au cours des cent prochaines années. Il n'y a pas eu d'augmentation détectée des tempêtes violentes et il n'y a aucune raison de s'attendre à une augmentation du nombre ou de l'intensité des ouragans résultant d'un réchauffement supposé être dû aux émissions de CO
2 d'origine humaine

Toute augmentation des températures due aux émissions de CO
2 d'origine humaine sera probablement bénéfique pour la santé humaine. L'effet de fertilisation du CO2 augmentera le taux de croissance des forêts et les augmentations de rendement des cultures induites par le CO2 réduiront les pressions pour abattre les forêts pour l'expansion des terres agricoles. Cela profitera grandement aux animaux en ralentissant la destruction de l'habitat.

Les avantages des émissions du CO
2 dépassent largement tous les effets nocifs probables. Plusieurs autorités qui ont étudié les cycles solaires ont averti que la Terre pourrait bientôt entrer dans une phase de refroidissement car le Soleil devrait devenir moins actif. L'atmosphère peut se réchauffer à cause de l'activité humaine, mais si c'est le cas, le changement attendu ne devrait pas dépasser 0,8 °C, et probablement moins, au cours des 100 prochaines années.

L'effet de serre[MT2] 

Ce graphique, de  Trenberth et al  2009, illustre l'échange d'énergie entre l'espace, le Soleil, l'atmosphère et la Terre.

Flux énergétiques mondiaux

Les gaz à effet de serre sont principalement la vapeur d'eau, le dioxyde de carbone et l'ozone. Les gaz à effet de serre sont pour la plupart transparents au rayonnement solaire entrant, mais absorbent le rayonnement sortant à grande longueur d'onde. L'énergie absorbée est ensuite transférée à des molécules plus froides ou rayonnée à des longueurs d'onde plus longues que l'énergie précédemment absorbée. Ce processus rend la Terre plus chaude qu'elle ne le serait autrement sans les gaz à effet de serre (mais avec l'atmosphère et les nuages) d'environ 33 degrés Celsius.
[MT3] 
La vapeur d'eau et les nuages ​​représentent ensemble plus de 70 % de l'effet de serre total actuel
[MT4] . Cependant, en termes de modifications de l'effet de serre dues aux activités humaines, la vapeur d'eau est généralement considérée comme une rétroaction et non comme un agent de forçage. Des simulations informatiques montrent qu'un changement uniforme de 1,8 % de la vapeur d'eau a le même effet sur le rayonnement à ondes longues sortant qu'un changement de 10 % de la concentration de CO2.

Plus de gaz à effet de serre réduisent la transparence de l'atmosphère au rayonnement à ondes longues de la surface.

Rayonnement transmis

Le panneau supérieur du graphique ci-dessus montre l'intensité spectrale d'absorption des gaz à effet de serre. La majeure partie du rayonnement solaire à courte longueur d'onde dans la partie visible du spectre est transmise à la surface. La majeure partie du rayonnement thermique ascendant à ondes longues de la surface est absorbée, sauf dans la fenêtre atmosphérique indiquée par la région bleue. Environ 16% du rayonnement à ondes longues est transmis directement dans l'espace et le reste est absorbé par les gaz à effet de serre.[MT5]  Le panneau du milieu montre les bandes d'absorption totales par longueur d'onde du rayonnement solaire descendant et du rayonnement thermique ascendant. L'ombrage gris à 100 % indique que l'énergie est entièrement absorbée à cette longueur d'onde. Le panneau inférieur montre l'absorption des principaux gaz à effet de serre. 

Comparaison du CO2 et du H2O

 Les spectres d'absorption d'H2O montrent qu'une grande partie du spectre du CO2 chevauche celui de l'eau. Certaines parties du spectre du CO2 sont déjà entièrement saturées. L'ajout de plus de CO2 entraînera des effets de plus en plus faibles à mesure que davantage de longueurs d'onde disponibles deviendront saturées. La réponse de la température à l'ajout de CO2 dans l'atmosphère dépend de la quantité de rétroactions positives et négatives de la vapeur d'eau, des nuages ​​et d'autres sources. L'effet de la température de l'augmentation de la concentration de CO2 est approximativement logarithmique. Cela signifie que si le doublement du CO2 concentration de 300 ppm à 600 ppm, une augmentation de 300 ppm, fait augmenter la température de 1 °C, [MT6] il faudrait une autre augmentation de 600 ppm pour ajouter un gain de température supplémentaire de 1 °C. Le méthane a une bande d'absorption (à 8 micromètres) qui chevauche largement la vapeur d'eau, de sorte qu'une augmentation du méthane a peu d'effet sur la température.

Le diagramme ci-dessus montre le spectre de rayonnement ascendant du haut de l'atmosphère à 20 km avec 300 ppm de CO2 et 600 ppm de CO2 [MT7] tel que calculé par le code radiatif MODTRAN. (Notez que l'axe horizontal de ce diagramme montre le nombre d'ondes, ou le nombre de longueurs d'onde par cm, qui est l'inverse de la longueur d'onde en micromètres utilisée dans le diagramme précédent.) Ce modèle calcule le rayonnement est très similaire à ce qui est réellement mesuré par les satellites depuis espace. La courbe verte montre le spectre d'émissions avec 300 ppm de CO2 dans l'atmosphère et la courbe bleue montre le spectre avec 600 ppm de CO2 avec la même température de surface et le même profil de vapeur d'eau. Le modèle montre que doubler le CO2la concentration modifie le spectre uniquement aux bords de la bande principale d'absorption du CO2, à 600 et 740 cm -1. Le forçage résultant de 3,39 W/m 2 entraînerait une augmentation des températures de surface si elle n'était pas compensée par des rétroactions négatives.

CO2 par rapport à la contribution de l'eau

Le CO 2 , la vapeur d'eau et les nuages ​​contribuent le plus à l'effet de serre. Diverses sources donnent des estimations contradictoires des contributions de ces composants à l'effet de serre. Le spectre d'absorption infrarouge des gaz à effet de serre atmosphériques est très complexe. Dans certaines régions, les fréquences d'absorption de divers gaz à effet de serre se chevauchent, de sorte que les contributions de chaque composant ne s'additionnent pas de manière linéaire. Le rayonnement à une fréquence particulière peut être absorbé par la vapeur d'eau ou le CO2. La concentration de vapeur d'eau dépend de la température et varie considérablement selon la latitude et l'altitude. De plus, l'eau passe d'un liquide à un gaz avec de l'énergie thermique pour la chaleur latente d'évaporation nécessaire à la transformation.

La plupart des sources placent l'effet de serre à 33 °C
[MT8] . Il s'agit de la différence entre la température actuelle de la surface de l'air (15 °C) et la température sans l'effet de serre des gaz et des nuages, mais les nuages ​​continuant à refléter 31 % du rayonnement solaire entrant.

La nature n'attribue pas la contribution des différents gaz à effet de serre - seul l'effet total est significatif. Néanmoins, une estimation approximative des contributions peut être faite. La contribution relative de l'eau, des nuages ​​et du CO2  à l'effet de serre peut être estimée de deux manières; en estimant à partir de modèles de rayonnement le changement de l'effet de serre en supprimant un composant, et en estimant l'effet de serre d'avoir seulement ce composant dans l'atmosphère. Si l'on supprime l'effet de serre de la vapeur d'eau et des nuages, les composants restants piégeraient 34 % de la chaleur, ce qui implique que la vapeur d'eau et les nuages ​​piégeraient 66 %, comme indiqué dans la colonne "Chaleur non piégée" du tableau ci-dessous. La somme des composantes calculées de cette façon n'est que de 80 % de l'effet de serre dû au chevauchement des spectres d'absorption. De même, si l'on n'inclut que la vapeur d'eau et les nuages ​​(pas de CO
2, O3 ou autre), ils piégeraient 85 % du rayonnement à ondes longues. Cependant, les contributions de chaque composant totalisent 126 % de l'effet de serre.

Il est raisonnable d'allouer simplement le chevauchement proportionnellement à chaque composant, de sorte que l'effet est normalisé dans les colonnes "Effet relatif" de sorte que la somme des effets soit égale à 100 %. Ce calcul suggère que la vapeur d'eau et les nuages ​​contribuent de 70 % à 80 % et que le CO
2 contribue de 10 % à 20 % à l'effet de serre, comme indiqué dans le tableau ci-dessous [MT9] :

Modification de l'absorption des ondes longues

Composant

Retirer le composant emprisonné par la chaleur

Chaleur non emprisonnée

Effet relatif

Composant uniquement emprisonné par la chaleur

Effet relatif

Moyenne des méthodes

Aucun

100

0

 

 

 

 

Eau & Nuages

34

66

82.5%

85

67.5%

75.0%

CO2 _

91

9

11.3%

26

20.6%

15.9%

3

97

3

3.8%

7

5.6%

4.7%

Autre

98

2

2.5%

8

6.3%

4.4%

Total

 

80

100.0%

126

100.0%

100.0%

Cela donne une estimation approximative de la contribution des composants à l'effet de serre total actuel, mais cela ne nous dit presque rien de l'effet supplémentaire de la modification de la concentration d'un composant.

La vapeur d'eau est le gaz le plus important de l'effet de serre. La vapeur d'eau est généralement considérée comme une rétroaction, tandis que le CO
2 est considéré comme un forçage car le temps de séjour d'un changement de concentration de vapeur d'eau est très court par rapport au CO2 . Les émissions d'origine humaine dans l'eau (autres que les avions à haute altitude) n'ont pas d'effet significatif sur le climat, mais l'eau peut avoir un effet significatif en tant que rétroaction sur un changement de température initié par le soleil ou les émissions de CO2.

Si l'on enlevait comme par magie 20% de toute la vapeur d'eau dans l'atmosphère, l'eau s'évaporerait rapidement des océans pour la remplacer de sorte qu'en 20 jours la concentration en eau serait de 99% de la valeur d'origine comme le montre le graphique ci-dessous.

De même, si les humains doublaient soudainement nos émissions d'eau de la surface, en  quelques jours, l'augmentation de la vapeur d'eau pleuvrait, laissant la concentration de vapeur d'eau presque inchangée. Le graphique ci-dessus et les valeurs d'absorption ont été calculés à l'aide du  modèle de circulation générale du Goddard Institute for Space Studies .

Ces calculs n'incluent pas les effets des avions. Il fait si froid à l'altitude à laquelle les avions volent qu'il n'y a pratiquement pas de vapeur d'eau. La seule fois où l'eau devient aussi élevée, c'est lorsque les températures élevées du sol provoquent un soulèvement thermique entraînant de l'eau avec elle. Il fait trop froid là-haut pour que l'eau existe sous forme de vapeur, donc des gouttelettes se forment et nous voyons cela comme des traînées de vapeur d'avion. Ce sont des nuages ​​artificiels d’un type tel qu’ils piègent le rayonnement infrarouge mais laissent passer la lumière du soleil, créant ainsi un effet de réchauffement. La vapeur d'eau injectée dans la haute atmosphère a un temps de séjour beaucoup plus long que l'eau injectée dans l'atmosphère près de la surface, elle peut donc avoir un effet mineur sur le climat.

Le climat change constamment

L'histoire de la Terre montre que le climat a toujours changé, à court et à long terme[MT10] . Ces changements ont parfois été brusques et sévères, sans aucune aide humaine. Les reconstructions de la température climatique sont déterminées à partir de diverses sources, telles que des études sur la largeur des cernes des arbres et les sédiments du fond océanique. Au cours des 2 derniers milliards d'années, la Terre a alterné des périodes fraîches comme aujourd'hui, et des périodes chaudes comme lorsque les dinosaures parcouraient la planète. La figure ci-dessous à gauche est une reconstruction de la température de la Terre sur 2 milliards d'années. Les températures sur cette période sont déterminées en cartographiant la répartition des charbons anciens, des dépôts désertiques, des sols tropicaux, des dépôts salins et glaciaires, ainsi que la répartition des plantes et des animaux sensibles au climat, tels que les alligators, palmiers et mangroves. Voir ici pour plus d'informations .

  Température au fil du temps géologique

Température au fil du temps géologique

Le graphique ci-dessus à droite vient d' ici et montre que les niveaux de CO2 ont diminué depuis la fin de la période jurassique jusqu'au début de l'ère industrielle. Le changement de CO2 indiqué par la ligne rouge dans le cercle rouge est le changement de CO2 depuis la révolution industrielle.

Le graphique ci-dessous montre cinq millions d'années de changement climatique en combinant les mesures de 57 carottes de sédiments marins profonds réparties dans le monde. La quantité mesurée est la fraction isotopique de l'oxygène 18, qui est une approximation de la température.

Cinq années MM de CC

Les données proviennent de  Lisiecki et Raymo , 2005. L'échelle de température a été définie en ajustant les variations de température signalées à Vostok, en Antarctique, aux variations isotopiques observées, de sorte que l'échelle de température est représentative des changements de Vostok.

Historique des températures au Groenland

Le graphique ci-dessus à partir d'ici montre 25 000 ans d'histoire de la température du Groenland déterminée à partir du deuxième projet de l'inlandsis du Groenland (GISP2). Après 5 ans de forage à travers la calotte glaciaire dans le substratum rocheux jusqu'en juillet 1993, une carotte de glace de 3053 m a été récupérée. En mesurant le rapport de deux isotopes de l'oxygène (spécifiquement 18 O au bien plus commun 16O) on peut en déduire la température de l'air au moment de la cristallisation de la neige de chaque couche annuelle. Cette technique est considérée comme assez précise. Un réchauffement fort et brusque se manifeste par une élévation presque verticale des températures, un fort refroidissement par une chute presque verticale des températures (Modifié de Cuffy et Clow, 1997). Le Dr Don Easterbrook écrit:  "Les changements de température enregistrés dans la carotte de glace GISP2 ... montrent que le réchauffement climatique subi au cours du siècle dernier est insignifiant par rapport à l'ampleur des profonds renversements climatiques au cours des 25 000 dernières années. De plus, de petites des changements de température allant jusqu'à un degré environ, semblables à ceux record observés au 20e du siècle, se produisent de manière persistante tout au long de l'ancien record climatique. ... Au cours des 25 000 dernières années, au moins trois événements de réchauffement ont été de 20 à 24 fois l'ampleur du réchauffement au cours du siècle dernier et quatre ont été de 6 à 9 fois l'ampleur du réchauffement au cours du siècle dernier."

Résultats des carottes de glace du Nord Groenland Eemian Ice Drilling (NEEM) publié en janvier 2013 pour la période chaude du dernier interglaciaire d'il y a 128 000 à 122 000 ans, connue sous le nom d'Eemian, était de 8 +/- 4 °C plus chaude que le dernier millénaire. Une carotte a été forée de 2008 à 2012. Les résultats complets sont présentés dans " 
Eemian interglacial reconstruit à partir d'une carotte de glace plissée du Groenland ".

  Historique des températures dans l'hémisphère nord

Historique de la température de l'Holocène

Le graphique ci-dessus montre l'historique des températures de l'hémisphère nord depuis la dernière période glaciaire.

Groenland GISP2 Histoire de la carotte de glace 10 000 ans

Le graphique ci-dessus montre les températures du Groenland telles que déterminées par la carotte de glace GISP2. Il s'agit d'une version détaillée d'un graphique précédent ci-dessus, à partir d'  ici .

  Historique de la température des sédiments de l'océan Atlantique Nord

Historique de la température des sédiments de l'océan Atlantique Nord

Le graphique ci-dessus montre les variations de température des 3 000 dernières années (au cours de l'histoire enregistrée), telles que déterminées à partir d'études sur les sédiments océaniques dans l'Atlantique Nord. [Keigwin, 1996]. Notez les variations rapides, ainsi que les températures beaucoup plus chaudes il y a 1 000 et 2 500 ans.

Une nouvelle reconstruction de température avec une résolution décennale, couvrant les deux derniers millénaires, est présentée ci-dessous pour l'hémisphère Nord extratropical (90-30 N), utilisant de nombreux enregistrements proxy de paléo-température, de Ljungqvist 2010  
ici . L'ombrage représente 2 écarts type.

Variations de la température du Nord au cours des 3 000 dernières années

RWP = période chaude romaine AD 1-300

DACP = période froide de l'âge sombre 300-900

MWP = période chaude médiévale 800-1300

LIA = Petit âge glaciaire 1300-1900

CWP = période chaude actuelle 1900-présent

 

Les données indirectes montrent que certaines parties de la période chaude romaine et de la période chaude médiévale étaient aussi chaudes que les années 1940. La figure 3 de l'article de Ljungqvist 2010 montre que les températures décennales exotropes du nord HadCRUT3 des années 1990 étaient supérieures d'environ 0,15 °C au pic du MWP, mais les données indirectes n'ont pas enregistré la hausse de température de la seconde moitié du XXe siècle.

Le climat est en constante évolution, comme le montre l'histoire de la température de l'Europe au cours des mille dernières années dans le graphique ci-dessous.

  1000 ans d'histoire de la température IPCC 1990

GIEC FAR Historique des températures

L'historique des températures ci-dessus a été publié dans le premier rapport du GIEC en 1990, basé sur l'histoire climatique estimée de Lamb pour le centre de l'Angleterre.
De toute évidence, l'activité humaine n'a pas pu avoir d'effet significatif sur les changements de température avant 1900. Ces changements sont le résultat de processus naturels.
Les graphiques de température GISS de la NASA depuis 1880 peuvent être trouvés  
ici . Le graphique ci-dessous montre l'historique des températures mondiales annuelles du GISS. La dernière année affichée est 2021

GISTemp4

Le graphique ci-dessous montre les températures annuelles HadCRUT5 de 1850 à 2022.

HadCRUT5

HadCrut5 est l'indice global de température de surface produit par le Hadley Center et le Climate Research Unit, Angleterre. Il combine les données de température terrestres et marines. Le graphique ci-dessus à partir d'ici montre les températures annuelles de l'hémisphère nord, de l'hémisphère sud et de la surface mondiale de 1850 à 2022. 2022 est basé sur une année partielle.

La moyenne multi-modèle ne représente pas bien les oscillations multi-décennales mais correspond par ailleurs assez bien à la température mesurée jusqu'en 2000. Les modélisateurs utilisent un forçage négatif élevé des aérosols pour compenser la trop grande sensibilité des modèles aux gaz à effet de serre. Les modèles chauffent trop au 21e siècle malgré des mesures trop élevées en raison de la contamination due au réchauffement urbain.

Température de surface mondiale et projection du modèle climatique

L'ensemble de données HadCRUT3 a été interrompu en mai 2014. L'ensemble de données HadCRUT4 a été introduit pour ajouter plus de couverture dans la région polaire nord. L'ensemble de données HadCRUT5 est une analyse statistique remplie qui étend la couverture dans les régions où les données sont rares. Le graphique ci-dessous montre une comparaison sur les jeux de données HadCRUT3, versions HadCRUT4.0 et 4.2 à 4.6 et HadCRUT5.0.

HadCRUT température globale annuelle 21 siècle par version

Le graphique ci-dessous montre les températures mensuelles mondiales du 21e siècle à partir des ensembles de données HadCRUT4.6 et HadCRUT5.0, avec les tendances linéaires les mieux ajustées.

HADCRUT4.6 et 5.0 Historiques des températures mondiales du 21e siècle

La zone de glace de mer a fait l'objet de beaucoup d'attention, car il est prévu que l'AGW réchauffe les régions polaires beaucoup plus que les autres zones. Le graphique ci-dessous montre l'étendue mondiale de la banquise par mois et annuellement à partir des données satellitaires trouvées  ici . L'étendue de la glace de mer est définie comme la zone de chaque pixel de données satellitaires qui contient au moins 15 % de glace de mer.

Étendue mondiale de la glace de mer

L'étendue mondiale de la banquise a été variable avec une faible étendue en 2007 et 2011. L'étendue de la banquise a augmenté en 2013 mais était plus faible en 2016 et a augmenté en 2020 et 2021[MT11] . Voir ici pour les graphiques de l'étendue de la banquise arctique et antarctique.

La température entraîne les changements de CO2

La température de la Terre s'est légèrement réchauffée, d'environ 0,8 degrés Celsius, au cours du 20 e siècle. Au cours de cette période, la concentration de CO2 dans l'atmosphère a augmenté, principalement en raison de l'utilisation accrue de combustibles fossiles. Cependant, le Soleil a augmenté d'intensité depuis 1900, ce qui peut avoir induit une grande partie du réchauffement observé depuis lors. Scafetta et West estiment que le Soleil pourrait avoir causé 10 à 20 % de l'augmentation du CO2 au cours du siècle dernier. (Voir [7] dans leur  article .) Une corrélation à court terme n'implique pas que l'augmentation du CO2 ait causé l'augmentation de la température. La causalité peut être déduite s'il existe une corrélation sur plusieurs cycles de changements de concentration de CO2, avec le changement de CO2 précédant le changement de température. L'histoire climatique réelle ne montre pas une telle corrélation, et il n'y a aucune preuve convaincante que la récente augmentation de la température ait été causée par le CO2. Les températures ont été variables au fil du temps et ne sont pas corrélées à la concentration de CO2.  Lorsque les concentrations de CO 2 étaient 10 fois plus élevées qu'elles ne le sont aujourd'hui, nous étions dans une grande ère glaciaire. En tant que gaz à effet de serre, le CO2 est largement compensé par la vapeur d'eau (naturelle) et les nuages, qui représentent plus de 70 % de l'effet de serre. Les émissions de CO2 d'origine humaine ont grimpé en flèche après 1940. Pourtant, la plus grande partie de l'augmentation de la température mondiale du 20 e siècle s'est produite avant. Voir  ici pour un graphique du cycle du carbone.

La concentration de CO 
2 avec les températures de la basse troposphère de l'UAH est indiquée ci-dessous. La concentration annuelle moyenne de CO 2 est passée de 376,8 parties par million (ppm) en 1979 à 416,5 ppm en 2021.

L'augmentation réelle de la concentration de CO2 a été en moyenne de 0,5 % par an depuis 1990 et est actuellement d'environ 0,6 %/an.

Fischer et al. (1999) ont examiné les relevés du CO
2 atmosphérique et de la température de l'air tirés des carottes de glace de l'Antarctique Vostok qui remontent dans le temps sur un quart de million d'années. Au cours de cette immense période de temps, les trois événements de réchauffement les plus spectaculaires sur terre ont été ceux associés à la fin des trois dernières périodes glaciaires ; et pour chacun de ces énormes réchauffements planétaires, la température de l'air terrestre a augmenté bien avant qu'il y ait eu une augmentation du CO2 atmosphérique. En effet, le CO2   contenu dans l’air n'a commencé à augmenter que 400 à 1 000 ans après le début du réchauffement de la planète. Les carottes de glace fournissent un enregistrement détaillé de la température locale et des concentrations de CO2.  Une étude de Caillon et al. (2003) constatent que l'augmentation du CO2 a retardé le réchauffement de l'Antarctique de 800 + ou - 200 ans. Les auteurs ont mesuré la composition isotopique de l'argon 40 et la concentration de CO2 dans les bulles d'air du noyau de Vostok à la fin de la troisième période glaciaire la plus récente (Termination III), 240 000 ans avant le présent. L'isotope argon 40 s'avère être un excellent indicateur de température.

Les données des carottes de glace de Vostok sur la fin du troisième âge glaciaire BP Les échelles d'âge du
  CO 
2 et de l'argon (température) sont décalées de 800 ans

La concentration de CO2 indiquée par la ligne noire est tracée en fonction de l'âge en années avant le présent (BP) sur l'axe inférieur, et l'Argon 40, un proxy de température, indiqué par la ligne grise est tracée en fonction de l'âge sur l'axe supérieur. L'échelle d'âge du CO2 a été décalée de 800 ans constants pour obtenir la meilleure corrélation des deux ensembles de données. La corrélation montre que les changements de température précèdent les changements de concentration de CO2 d'environ 800 ans.

Ces découvertes confirment qu'une augmentation du CO 
2 n'a jamais provoqué initialement une augmentation de la température lors d'une déglaciation. L'augmentation de la température entraîne le dégazage du CO2 par les océans car le CO2 est plus soluble dans l'eau froide, ce qui augmente le CO2 contenu de l'atmosphère. Lorsque la température atteint son maximum à chaque cycle et commence à chuter, les concentrations de CO2 continuent d'augmenter pendant encore 800 ans ! Lorsque le CO2 augmente, les températures chutent. C'est le contraire de ce à quoi on pourrait s'attendre si le CO2 était le principal facteur climatique. Les données des carottes de glace prouvent que le CO2 n'est pas le principal facteur climatique. Il faut invoquer une causalité temporelle inverse pour affirmer que les données des carottes de glace montrent que le CO2 provoque des changements de température, comme suggérer que les actions prises aujourd'hui peuvent affecter les conquêtes du chef mongol Gengis Khan. La logique exige que la cause précède l'effet. L'augmentation de la température de l'air entraîne une augmentation de la concentration atmosphérique de CO2.

Une partie plus récente de l'enregistrement des carottes de glace de Vostok du Skeptics Handbook #1 de Joanne Nova, trouvé  
ici , est présenté ci-dessous.

Voir  CO 2 Science pour plus d'informations. Voir  ici pour l'article de Cailion et al (2003). Un graphique des données de la carotte de glace de Vostok sur 420 000 ans est présenté ci-dessous. Une grande version est  ici .

Carotte de glace Vostok 420 ky

L'activité solaire est en corrélation avec la température

De nombreux articles publiés dans les principales revues scientifiques à comité de lecture montrent que le Soleil est le principal moteur du changement climatique. Il existe une très forte corrélation entre l'activité solaire et la température.

Au début du XIXe siècle, William Herschel (1738-1822), découvreur d'Uranus, a constaté que cinq périodes de faible nombre de taches solaires correspondaient à des prix élevés du blé lorsque les températures étaient froides. (Le climat froid réduit l'offre de blé, entraînant une hausse de son prix.) Voir " 
The Varying Sun & Climate Change ", Soon & Baliunas, 2003.

E. Friis-Christensen et K.Lassen ont montré que la longueur du cycle moyen des taches solaires de 11 ans est corrélée à la température de l'hémisphère nord au cours des 130 dernières années. La durée du cycle des taches solaires est connue pour varier avec l'activité solaire, alors qu'une activité solaire élevée implique une courte durée du cycle des taches solaires. Voir  
ici pour plus d'informations .

Voir  
ici pour un graphique mis à jour basé sur la méthodologie de Friis-Christensen et Lassen.

Voici une corrélation entre la durée du cycle des taches solaires, la température globale et les concentrations de CO 
2 .

  Durée du cycle des taches solaires Température et CO 2

Durée du cycle des taches solaires

Les carrés rouges sur le graphique représentent les durées du cycle des taches solaires. Un point est la longueur du cycle depuis le moment du nombre maximum de taches solaires jusqu'au moment du nombre maximum de taches solaires du cycle suivant, et le point suivant est la longueur du cycle depuis le moment avec un nombre minimum de taches solaires jusqu'au moment avec le nombre minimum de taches solaires du prochain cycle. Les cycles de taches solaires sont rétrofiltrés en utilisant la pondération 1,2,3,4 appliquée à chaque point de cycle, à la fois min à min et max à max. Cela suppose que le cycle actuel a le plus d'effet sur la température (poids 4) et que les demi-cycles précédents affectent les températures actuelles en quantités décroissantes, mais que les cycles futurs n'ont aucun effet sur la température actuelle. La courbe de température en bleu a utilisé les données terrestres et maritimes HadCRUT3 jusqu'en 1978, les données satellitaires MSU de 1984 à 2006, et la moyenne des ensembles de données pour 1979 à 1983. Cela élimine une grande partie des effets d'îlots de chaleur urbains. Les températures sont annuelles non filtrées. Le CO2 concentrations (ppmv) de 1958 à 2007 sont dérivées d'échantillons d'air prélevés à l'observatoire du Mauna Loa, à Hawaï. Les concentrations de CO2 avant 1958 sont incertaines.

Notez qu'il existe une correspondance entre la durée du cycle des taches solaires et la température. Les courbes de température et de durée de cycle commencent à augmenter à 1910, et les températures chutent après 1945 à 1975 lorsque la courbe de durée de cycle tombe, et les deux courbes augmentent à nouveau après 1975. Les températures ont augmenté depuis 1980 plus rapidement que ce qui peut être expliqué par la durée du cycle des taches solaires, indiquant une éventuelle contribution de CO2  d’origine humaine. L'augmentation récente des longueurs de cycle explique pourquoi il n'y a pas eu de réchauffement depuis 2002. Les changements de température devraient suivre les changements d'activité solaire en raison d'un décalage temporel résultant de la grande capacité thermique des océans.

N. Scafetta de Duke University, Durham, NC et BJ West du US Army Research Office, NC ont étudié l'impact solaire sur 400 ans des températures de l'hémisphère nord depuis 1600. Ils trouvent une bonne correspondance entre la température et les reconstructions proxy d'irradiance solaire jusqu'en 1920 comme indiqué sur le graphique ci-dessous.

  Température de l'hémisphère nord vs rayonnement solaire 400 ans

Température et STI de Moberg NH

La courbe de température est dérivée des enregistrements proxy jusqu'en 1850 par Moberg et al. [2005], et à partir de données instrumentales sur la température de surface de 1850 à environ 1980. L'enregistrement de la température de surface comprend l'îlot de chaleur urbain (UHI) et les effets des changements d'utilisation des sols. L'enregistrement de la basse troposphère MSU de l'hémisphère nord est affiché à partir de 1979 en bleu, ce qui élimine la plupart des effets UHI. Deux reconstructions proxy d'irradiance solaire différentes sont présentées : Lean, 2000 ; Wang et al., 2005. Les deux courbes fusionnent les données satellitaires ACRIM depuis 1980 avec les données proxy. En supposant ACRIM, l'activité solaire a une tendance à la hausse durant la seconde moitié du 20ème siècle. Ce graphique est une modification de la version créée par Scafetta et West, qui utilise l'enregistrement de l'instrument mesuré après 1979 au lieu des données satellitaires. Voir la version originale  ici .

Notez les périodes de faible activité solaire se produisant pendant le minimum de Maunder (1645 à 1715, le petit âge glaciaire) et pendant le minimum de Dalton (1795 à 1825).

Notez l'excellente corrélation de 1600 à 1900 lorsque les humains étaient peu susceptibles d'affecter le climat. Au cours du 
XXe siècle, on continue d'observer une corrélation significative entre les modèles solaires et thermiques : les deux enregistrements montrent une augmentation de 1900 à 1950, une diminution de 1950 à 1970, et à nouveau une augmentation de 1970 à 2000.

Une divergence des courbes par rapport au graphique original de Scafetta et West indique que le Soleil est responsable de 56% en utilisant Lean 2000, et de 69% en utilisant Wang 2005, du réchauffement de l'hémisphère nord de 1900 à 2005. Les auteurs estiment l'erreur à 20% .

Deux bases de données solaires sont disponibles à partir des données satellitaires. L'ACRIM est obtenu directement à partir de données satellitaires de haute précision.

Il y a une lacune (1989 - 1992) dans l’enregistrement du satellite qui était due à un retard dans le lancement d'un nouveau satellite ACRIM après la catastrophe du challenger de la navette spatiale de 1986. Le retard a causé un écart de deux ans dans le système ACRIM qui mesure l'irradiance solaire. Les seules données disponibles pour combler le vide provenaient d'un moniteur différent appelé système de bilan radiatif terrestre (ERB), qui n'était pas conçu pour surveiller le Soleil. Il avait peu de précision et n'avait une vue du soleil que pendant de brefs intervalles de temps sur son orbite. L'enregistrement de l'ACRIM a suggéré une augmentation de l'irradiance solaire du début des années 1980 à la fin des années 1990. Un groupe rival appelé PMOD a affirmé que les capteurs ERB avaient connu une augmentation de sa sensibilité au cours de la période d'intervalle, ils ont donc ajusté à la baisse les données du deuxième satellite ACRIM pour montrer une baisse de l'intensité solaire. Dr Douglas Hoyt, le scientifique qui avait été en charge de la mission du satellite ERB, a déclaré « qu'il n'y a aucun changement physique connu dans le [système] calibré électriquement qui aurait pu le rendre plus sensible. Et personne n'a jamais proposé de théorie physique pour l'instrument qui pourrait le rendre plus sensible. Les rapports du GIEC ont minimisé le rôle de l'activité solaire dans le changement climatique récent en utilisant uniquement l'interprétation de l'irradiance solaire PMOD.

Les auteurs ont fait une analyse similaire en utilisant la reconstruction de la température de Mann et Jones 2003. Cette histoire de température montre peu de variation avant 1900 et montre une forme de bâton de hockey. Cette reconstruction a été sévèrement critiquée pour plusieurs raisons. Voir la section Le bâton de hockey du GIEC de cet essai. Les auteurs ont découvert que la reconstruction de Mann et Jones 2003 (par rapport aux données Lean 2000) se traduit par un temps de réponse nul non physique au forçage solaire. La grande capacité calorifique de l'océan devrait entraîner un décalage temporel des températures de surface par rapport aux changements solaires de plusieurs années, de sorte que cette reconstruction ne peut pas être correcte.

L'analyse des auteurs montre que le Soleil a contribué de 50 à 69% au réchauffement de la surface selon les reconstructions utilisées. Le reste peut être dû au CO
2, UHI et changements d'utilisation des terres. Les auteurs comparent l'irradiance solaire aux températures de la surface terrestre de l'hémisphère nord, qui sont contaminées par l'effet d'îlot de chaleur urbain. Les températures globales du satellite MSU, qui ne sont pas contaminées par l'effet UHI, ont augmenté de moitié moins que les températures de l'hémisphère Nord depuis 1980. Si l'analyse Scafetta et West utilisait les données satellitaires non contaminées depuis 1980, les résultats montreraient que le Soleil a contribué à au moins 75% du réchauffement climatique du siècle dernier. En savoir plus sur l' effet UHI plus loin dans cet essai. Voir  ici pour l'article de novembre 2007.

Les alarmistes climatiques ont affirmé que l'activité solaire n'avait rien à voir avec le réchauffement de la fin du 
20ieme siècle parce que le nombre de taches solaires a culminé vers 1960 puis a diminué tandis que les températures mondiales ont augmenté au cours de la 2e moitié du 20 e siècle. La courbe d'activité solaire, qui a été mise à jour en 2015, montre que l'irradiance solaire totale a culminé en 1990 avec le cycle solaire 22. L'activité solaire n'est pas seulement le nombre de taches solaires. Lüning et Vahrenholt écrivent "Le soleil a non seulement atteint son maximum à la fin du 20 e siècle, mais il était apparemment plus fort qu'à tout moment au cours des 10 000 dernières années." Le graphique ci-dessous montre le nombre de taches solaires et l'irradiance solaire totale (TSI),  origine .

TSI et taches solaires

Un groupe de scientifiques de la NASA et d'universités ont trouvé des preuves convaincantes d'un lien entre l'activité solaire et le climat en comparant les enregistrements du niveau d'eau historique du Nil au nombre d'aurores observées dans le nord de l'Europe et l'Extrême-Orient entre 622 et 1470. UN D. Les aurores sont des lueurs brillantes dans le ciel nocturne après les éruptions solaires et constituent un excellent moyen de suivre l'activité solaire. Voir  ce lien pour plus d'informations .

Une étude de WJR Alexander et al, publiée en juin 2007 a comparé les données hydrométéorologiques à la variabilité solaire. L'étude a examiné les précipitations, le débit des rivières et les données sur les inondations. Les auteurs concluent qu'il existe "un lien synchrone sans équivoque entre ces processus en Afrique du Sud et ailleurs, et l'activité solaire". L'étude comprenait une analyse du niveau du lac Victoria, qui a été soigneusement surveillé depuis 1896. Au début des années 1960, une augmentation spectaculaire des précipitations a considérablement élevé le niveau du lac, et le niveau depuis lors a baissé d'environ 29 mm par an. La baisse a été supprimée des données tracées ci-dessous. Le graphique montre deux périodes de forte corrélation entre le niveau du lac et le nombre de taches solaires, correspondant à des périodes de niveaux élevés de poussière volcanique.

Niveau d'eau du lac Victoria et nombre de taches solaires

Niveau d'eau du lac Victoria et nombre de taches solaires

Voir l'article " Liens entre l'activité solaire, la prévisibilité du climat et le développement des ressources en eau "  ici .

A plus long terme, voici une corrélation d'un proxy solaire à un proxy de température pour une période de 3000 ans. Les valeurs de carbone 14 (produit par les rayons cosmiques, donc un indicateur de l'activité solaire) sont extrêmement bien corrélées avec l'oxygène 18 (indicateur de température). Le graphique du bas montre un intervalle de temps particulièrement bien résolu de 8 350 à 7 900 ans BP.

Activité solaire et climat 3500 ans

Le graphique ci-dessus résume les données obtenues à partir d'une stalagmite d'une grotte à Oman, comme indiqué dans l'article, Neff, U., et al. 2001.

Une équipe de chercheurs dirigée par des scientifiques de l'Institut Max Planck pour la recherche sur le système solaire a analysé les isotopes radioactifs dans les arbres et a découvert que le Soleil a été plus actif dans la dernière moitié du 20 
e siècle qu'à n'importe quel moment au cours des 8 000 derniers années. Cette étude a montré que l'épisode actuel de forte activité solaire depuis environ 1940 est unique au cours des 8000 dernières années. Voir un communiqué de presse  ici . Un graphique de l'étude est ci-dessous. Le graphique du bas est un détail de la période ombrée du graphique du haut de 9300 à 8600 ans avant le présent.

Activité solaire 11 500 ans

Une étude publiée par l'Institut météorologique danois compare l'indice de glace de Koch, qui décrit la quantité de glace observée depuis l'Islande, entre 1150 et 1983 après JC, à la durée du cycle solaire, qui est une mesure de l'activité solaire. L'étude révèle qu'"une corrélation étroite (R = 0,67) de haute signification (probabilité de 0,5 % d'occurrence fortuite) est trouvée entre les deux modèles, suggérant un lien entre l'activité solaire et le climat de l'océan Arctique".

Indice de glace de Koch et durée du cycle solaire
Source .

Tim Patterson, un conseiller du FoSS, a étudié les enregistrements climatiques à haute résolution de l'Holocène des fjords et des lacs côtiers de la Colombie-Britannique et a démontré un lien entre la température et les cycles solaires.

Analyse spectrale de Patterson

L'analyse spectrale présentée ici provient de carottes de sédiments obtenues à Effingham Inlet, île de Vancouver, Colombie-Britannique. Les laminations déposées annuellement du noyau sont liées aux conditions climatiques changeantes. L'analyse montre une forte corrélation avec le cycle des taches solaires de 11 ans.
Voir  
ici pour un diaporama powerpoint de Tim Patterson.

Un article de Soon et al 2015 intitulé "Réévaluer le rôle de la variabilité solaire sur les tendances de la température de l'hémisphère nord depuis le 19e siècle" dans la section 5 compare une reconstruction mise à jour de l'irradiance solaire totale de Hoyt & Schatten aux composites de température de l'hémisphère arctique et nord qui sont basés sur des données de température essentiellement rurales pour éliminer les effets du développement urbain. L'accord général entre les tendances de la température et de l'activité solaire est frappant. Le graphique ci-dessous montre une corrélation de R2 = 0,48, ce qui implique que la variabilité solaire a été l'influence dominante sur les tendances de température de l'hémisphère nord depuis au moins 1881.

TSI par rapport aux températures de l'Arctique et du NH

N. Shaviv et J. Veiser utilisant des thermomètres à coquillage montrent une forte corrélation entre la température et le flux de rayons cosmiques au cours des 520 derniers millions d'années.

Flux de rayons cosmiques et variation de température tropicale au cours des 520 millions d'années du Phanérozoïque

Flux de rayons cosmiques et variation de température tropicale

Les courbes supérieures décrivent le flux de rayons cosmiques (CRF) en utilisant les données d'âge d'exposition aux météorites de fer. La ligne bleue représente le CRF nominal, tandis que l'ombrage jaune délimite la plage d'erreur autorisée. Les deux courbes en pointillés sont des reconstructions CRF supplémentaires qui s'inscrivent dans la plage acceptable. La courbe rouge décrit la reconstruction nominale du CRF après que sa période a été affinée pour s'adapter au mieux à l'anomalie de température des basses latitudes. La courbe noire du bas représente le changement de température lissé dérivé des coquilles calcitiques au cours du Phanérozoïque. La ligne rouge est le modèle de température prévu pour la courbe rouge ci-dessus. La ligne verte est le résiduel. Les barres bleues supérieures indiquent les périodes glaciaires.

Un article de  
Nicola Scafetta, mai 2012, intitulé "Un ensemble de fréquences partagées entre les enregistrements historiques d'aurores des latitudes moyennes et la température de surface mondiale" compare les enregistrements historiques des aurores des latitudes moyennes de 1700 aux enregistrements de température de surface. Il montre que les enregistrements d'aurores partagent les mêmes fréquences d'oscillation évidentes dans les enregistrements de température et dans plusieurs enregistrements planétaires et solaires. L'auteur soutient que les enregistrements d'aurores révèlent un lien physique entre le changement climatique et les oscillations astronomiques. 

Le résumé indique :

"En particulier, un grand cycle de quasi-60 ans est tout à fait évident depuis 1650 dans tous les enregistrements climatiques et astronomiques ici étudiés ... L'existence d'une modulation cyclique naturelle de 60 ans de la température de surface globale induite par des mécanismes astronomiques, par le seul, impliquerait qu'au moins 60 à 70% du réchauffement observé depuis 1970 est d'origine naturelle. De plus, le climat pourrait rester à peu près stable au cours des prochaines décennies car le cycle de 60 ans est entré dans sa phase de refroidissement."

Plus d'analyses sont présentées par Scarfetta dans sa présentation de 2011 "Les oscillations héliosphériques et leur implication pour les oscillations climatiques et les prévisions climatiques" à la  3e Conférence de Santa Fe sur le changement climatique mondial et régional .

Un article publié par Moffa-Sánchez et al dans 
Nature Geoscience , mars 2014, intitulé "Solar Forcing of North Atlantic Surface Temperature and Salinity Over the Past Millennium" a révélé que l'activité solaire est bien corrélée avec les températures de l'Atlantique Nord. 

Le résumé indique :

"Il y a eu plusieurs fluctuations à l'échelle centennale du climat et de l'océanographie de la région de l'Atlantique Nord au cours des 1 000 dernières années, y compris une période de refroidissement relatif d'environ 1450 à 1850 après JC connue sous le nom de petit âge glaciaire. Ces variations peuvent être liées à des changements dans l'irradiance solaire, amplifiée par les rétroactions, y compris la circulation méridienne de retournement de l'Atlantique. ... une faible irradiance solaire favorise le développement d'événements de blocage atmosphérique fréquents et persistants, dans lesquels un système anticyclonique quasi stationnaire dans l'est de l'Atlantique Nord modifie le flux des vents d'ouest. Nous concluons que ce processus pourrait avoir contribué aux hivers froids consécutifs documentés en Europe pendant le petit âge glaciaire.

Le graphique ci-dessous, adapté de la figure 2, présente l'enregistrement de température lissé en trois points RAPiD-17-5P en noir. Au-dessus se trouve l'irradiance solaire totale (ΔTSI) qui a été décalée avec un décalage de 12,4 ans. Cela montre clairement une forte corrélation entre la température et la TSI.

Température de la mer de l'Atlantique Nord et irradiance solaire totale

Un examen plus approfondi du travail de Moffa-Sánchez est fourni à  THE HOCKEY SCHTICK .

Le graphique du nombre de taches solaires de l'indice des taches solaires et des observations solaires à long terme (SILSO) montrant six cycles est présenté ci-dessous. Les données proviennent de l'Observatoire Royal de Bruxelles. Le cycle des taches solaires 24 a un nombre maximum de taches solaires lissé d'environ 115 en 2014.

numéros de taches solaires depuis 1964

Le nombre moyen mensuel de taches solaires et la moyenne centrée sur 13 mois sont affichés. Les données sont  ici . L'image du cycle solaire de la NOAA ci-dessous provient d' ici .

nombre de taches solaires du cycle solaire

Un nouveau modèle du soleil a produit des prédictions d'une précision sans précédent des cycles solaires variables du soleil. Le modèle utilise deux dynamos solaires, une près de la surface solaire et une plus en profondeur dans la zone de convection. Le modèle a été décrit dans un article de Shepherd et al 2014  ici et décrit  ici . Le modèle prédit que l'activité solaire passera de l'activité du cycle 24 de 60 % au cours des années 2030 aux conditions observées pour la dernière fois au cours de la « mini ère glaciaire » qui a commencé en 1645.

Soleil et rayons cosmiques

Au cours du 20 e siècle, le Soleil a continué à se réchauffer et a peut-être contribué directement à un tiers du réchauffement au cours des cent dernières années. La variation de la production solaire est trop faible pour expliquer directement la majeure partie du réchauffement observé. Cependant, la connexion Soleil-Rayon Cosmique fournit un mécanisme d'amplification par lequel un petit changement dans l'irradiance solaire aura un effet important sur le climat.

Un article de H. Svensmark et E. Friis-Christensen du Centre de recherche sur le soleil et le climat du Centre spatial national danois à Copenhague a montré que les rayons cosmiques sont fortement corrélés à la formation de nuages ​​bas. Les changements d'intensité des rayons cosmiques galactiques modifient la nébulosité de la Terre.

Une expérience en 2005 montre l'effet des rayons cosmiques dans une chambre de réaction contenant de l'air et des traces de produits chimiques trouvés au-dessus des océans. Les électrons libérés dans l'air par les rayons cosmiques agissent comme un catalyseur dans la fabrication des aérosols. Ils accélèrent considérablement la formation d'amas stables et ultra-petits de molécules d'acide sulfurique et d'eau, qui sont la pierre angulaire des noyaux de condensation des nuages.

Des scientifiques danois ont rapporté en mai 2011 qu'ils avaient réussi pour la première fois à observer directement que les particules chargées électriquement venant de l'espace et frappant l'atmosphère à grande vitesse contribuent à créer les aérosols qui sont les conditions préalables à la formation des nuages. Dans une chambre climatique de l'Université d'Aarhus, les scientifiques ont créé des conditions similaires à l'atmosphère à la hauteur où se forment les nuages ​​bas. Cette atmosphère artificielle a été irradiée avec des électrons rapides du plus grand accélérateur de particules ASTRID Danemark. Les expériences montrent que l'augmentation du rayonnement des rayons cosmiques conduit à plus d'aérosols. Dans l'atmosphère, ces aérosols se transforment en véritables noyaux nuageux au fil des heures ou des jours. La vapeur d'eau se concentre sur les noyaux formant de petites gouttelettes nuageuses. Voir le papier  
ici .

Une équipe de 63 scientifiques a publié en août 2011 les résultats d'une expérience beaucoup plus sophistiquée qui a étudié les effets des rayons cosmiques sur la formation des nuages. L'expérience CLOUD (Cosmics Leaving OUtdoor Droplets) au CERN (Organisation européenne pour la recherche nucléaire) à Genève montre les grands effets des pions d'un accélérateur, qui simulent les rayons cosmiques et ionisent l'air dans la chambre expérimentale. L'expérience CLOUD est le test le plus rigoureux de l'hypothèse des rayons cosmiques jamais conçu. Les expériences montrent que les rayons cosmiques augmentent fortement le taux de formation des aérosols jusqu'à dix fois, et confirment les résultats antérieurs de l'expérience danoise. Les aérosols peuvent se transformer en noyaux de condensation nuageuse sur lesquels se forment des gouttelettes nuageuses. Voir le communiqué de presse du CERN  
ici .

Le  
graphique ci-dessous montre la croissance de la concentration des particules d'aérosol dans la chambre CLOUD. Lors d'une expérience expérimentale au CERN, à partir de 03h45, la lumière ultraviolette a commencé à produire des molécules d'acide sulfurique dans la chambre, tandis qu'un champ électrique puissant nettoyait l'air des ions. Dès que le champ électrique a été éteint à 04h33, les rayons cosmiques naturels pleuvant à travers le toit ont contribué à la formation d'amas à un rythme plus élevé. Lorsque CLOUD a simulé des rayons cosmiques plus forts avec un faisceau de particules de pions chargés commençant à 4:58, le taux de production d'amas est devenu encore plus rapide. Les différentes couleurs correspondent à des amas de différents diamètres (en nanomètres) enregistrés par divers instruments. Le plus grand (noir) a mis plus de temps à pousser que le plus petit (bleu).

Aérosols à chambre CLOUD

Les éjections de masse coronale du soleil provoquent une forte diminution du nombre de rayons cosmiques, appelée diminution de Forbush. Ces diminutions dramatiques et à court terme des rayons cosmiques peuvent être utilisées pour confirmer les effets des rayons cosmiques sur les nuages. Les nuages ​​de plasma magnétique provenant des éjections de masse coronale solaire fournissent un bouclier temporaire contre les rayons cosmiques galactiques.

Une étude de Svensmark et al en 2009 montre que la diminution des rayons cosmiques a un effet important sur la quantité d'aérosols, la couverture nuageuse et la teneur en eau liquide des nuages. Les auteurs concluent "De l'activité solaire à l'ionisation des rayons cosmiques en passant par les aérosols et les nuages ​​d'eau liquide, une chaîne causale semble fonctionner à l'échelle mondiale."

La figure ci-dessous montre l'évolution des particules fines d'aérosols dans la basse atmosphère (AERONET), de la teneur en eau des nuages ​​(SSM/I), de la fraction nuageuse dans l'eau liquide (MODIS) et des nuages ​​détectés à faible IR (ISCCP), en moyenne pour les 5 plus forts Forbush diminue dans la période 1987-2007. La ligne pointillée rouge montre le changement moyen en pourcentage du nombre de rayons cosmiques. Le nombre d'aérosols le plus bas se produit 5 jours après le minimum de Forbush, et le minimum de teneur en eau du nuage se produit 4 jours plus tard. La réponse de la teneur en eau des nuages ​​pour les événements plus importants est d'environ 7 %.

Les lignes horizontales brisées indiquent la moyenne des 15 premiers jours avant le minimum de Forbush de chacun des quatre ensembles de données.

Forbush diminue dans la période 1987-2007
Source .

Les données du projet international de climatologie des nuages ​​par satellite et de la station de rayons cosmiques de Huancayo montrent une corrélation remarquable entre les nuages ​​bas (en dessous de 3 km) et les rayons cosmiques. Il y a plus qu'assez de rayons cosmiques à haute altitude, de sorte que les changements dans les rayons cosmiques n'affectent pas les nuages ​​​​élevés. Mais moins de rayons cosmiques pénètrent dans les nuages ​​inférieurs, ils sont donc sensibles aux changements des rayons cosmiques.

  Rayons cosmiques et nuages ​​bas

La ligne bleue montre les variations de la couverture nuageuse mondiale recueillies par l'International Satellite Cloud Climatology Project. La ligne rouge est l'enregistrement des variations mensuelles du nombre de rayons cosmiques à la station Huancayo.

Les nuages ​​bas couvrent plus d'un quart de la surface de la Terre et exercent un fort effet de refroidissement sur la surface. Un changement de 2 % des nuages ​​bas au cours d'un cycle solaire modifiera l'apport de chaleur à la surface de la Terre de 1,2 watts par mètre carré (W/m
2). Cela se compare au réchauffement total de 1,4 W/m2 cité par le GIEC au 20 e siècle. (Le GIEC ne reconnaît pas l'effet du soleil et des rayons cosmiques et attribue le réchauffement au CO2.)

Le flux de rayons cosmiques peut être déterminé à partir d'isotopes radioactifs tels que le béryllium-10 ou le champ magnétique coronal ouvert du Soleil. Les deux proxies de rayons cosmiques indépendants confirment qu'il y a eu une réduction spectaculaire du flux de rayons cosmiques au cours du 20 
e siècle alors que le Soleil a gagné en intensité et que le champ magnétique coronal du Soleil a doublé en intensité.

  Flux de rayons cosmiques depuis 1700

Flux de rayons cosmiques depuis 1700

Les changements dans le flux de rayons cosmiques galactiques depuis 1700 sont ici dérivés de deux proxys indépendants, 10 Be (bleu clair) et le flux coronal solaire ouvert (bleu foncé) (Solanki et Fligge 1999). La faible quantité de nuages ​​(orange) est mise à l'échelle et normalisée par rapport aux données d'observation des rayons cosmiques de Climax (rouge) pour la période 1953 à 2005 (seuil de 3 GeV). Les deux échelles sont inversées pour correspondre à la hausse des températures. Notez que le flux de rayons cosmiques élevé vers 1700 correspond à la fin du petit âge glaciaire. A noter également l'augmentation du flux de rayons cosmiques après 1780 au moment des Hivers de Dicken.

Le graphique ci-dessous montre une corrélation entre le nombre de rayons cosmiques et les données de radiosondage de la température globale de la troposphère. L'échelle des rayons cosmiques est inversée pour correspondre à l'augmentation des températures. Une activité solaire élevée correspond à un faible nombre de rayons cosmiques, à une faible couverture nuageuse réduite et à des températures plus élevées. Le panneau supérieur montre les températures de la troposphère en bleu et le nombre de rayons cosmiques en rouge. Le panneau inférieur montre la correspondance obtenue en supprimant El Nino, l'oscillation nord-atlantique, les aérosols volcaniques et une tendance linéaire de 0,14 degrés Celsius/décennie.

température de la troposphère et rayons cosmiques

La corrélation négative entre le nombre de rayons cosmiques et les températures de la troposphère est très forte, ce qui indique que le Soleil est le principal moteur climatique. H. Svensmark et E. Friis-Christensen ont publié le graphique ci-dessus dans un article d'octobre 2007 en réponse à un article de M. Lockwood et C. Frohlich, dans lequel ils soutiennent que le lien historique entre le Soleil et le climat a pris fin il y a 20 ans. Cependant, l'article de Lockwood présentait plusieurs lacunes, notamment le problème qu'il utilisait des données de température de surface contaminées par l'effet d'îlot de chaleur urbain (voir ci-dessous). Ils ne tiennent pas non plus compte du grand décalage temporel entre les changements d'intensité solaire à long terme et la réponse de la température climatique.

Voir  la réfutation de 
Svensmark et  Gregory critique de l'article de Lockwood.

Au cours du 20 
e siècle, le Soleil a augmenté son activité et son intensité d'irradiance, fournissant directement un certain réchauffement. Le graphique ci-dessous à partir d'  ici montre l'augmentation du flux solaire pendant la majeure partie du XXe siècle.

  Flux solaire ouvert

Flux solaire ouvert

Le Dr UR Rao de Bangalore, en Inde, montre que les rayons cosmiques galactiques, en utilisant des mesures de 10 Be dans la glace polaire profonde comme approximation, ont diminué de 9 % au cours des 150 dernières années. La diminution des rayons cosmiques entraîne une diminution de 2,0 % de la couverture nuageuse basse entraînant un forçage radiatif de 1,1 W/m2, soit environ 60 % de celui dû à l'augmentation du CO2 au cours de la même période.


Source .

Dans le panneau supérieur montrant l'intensité des rayons cosmiques, la ligne continue représente le taux de comptage estimé du moniteur de neutrons Climax (1956-2000), les cercles vides indiquent les mesures de la chambre d'ionisation pendant (1933-1956) et les cercles pleins représentent l'intensité des rayons cosmiques dérivée de 10 Be (1801 -1932). 10 Be est un isotope radioactif à longue durée de vie du béryllium produit par les rayons cosmiques. Le panneau du milieu montre le champ hélio-magnétique proche de la Terre et le panneau inférieur montre le nombre de taches solaires.

Une reconstruction de l'intensité du champ magnétique héliosphérique proche de la Terre de 1900 à 2009 à partir d' 
ici par Svalgaard et Cliver (2010) est présentée ci-dessous.

La courbe rouge représente les mesures directes par satellite de l'intensité du champ magnétique héliosphérique (HMF) proche de la Terre résultant du vent solaire. La courbe bleue est l'indice de variabilité interdiurne (IDV) calculé à partir des observations du champ géomagnétique une heure après minuit. L'IDV est fortement corrélé avec le HMF proche de la Terre. Les valeurs vertes sont des estimations de HMF par Lockwood et al 2009.

Lorsque le Soleil est actif, il a un plus grand nombre de taches solaires et émet plus de vent solaire - un flux continu de particules chargées à très grande vitesse. L'augmentation du vent solaire et du champ magnétique repousse les rayons cosmiques qui, autrement, frapperaient l'atmosphère terrestre, entraînant moins d'aérosols dans la basse atmosphère, réduisant ainsi la formation de nuages ​​bas. Les nuages ​​bas ont une réflectivité élevée et ont un fort effet de refroidissement en renvoyant la lumière du soleil dans l'espace.

En résumé, le processus est :
Soleil plus actif → plus de taches solaires → plus de vent solaire → moins de rayons cosmiques → moins d'aérosols →
   
moins de nuages ​​bas → plus de lumière solaire à la surface → plus de réchauffement climatique.

La théorie du CO
2 le réchauffement implique que l'Arctique et l'Antarctique devraient se réchauffer à peu près de la même manière, et les régions polaires devraient se réchauffer plus que le reste de la Terre. Cependant, l'Antarctique ne s'est pas réchauffé depuis 1975, ce qui est un gros problème pour la théorie du CO2. La glace recouvrant l'Antarctique a une réflectivité encore plus élevée que les nuages ​​bas, donc moins de nuages ​​bas refroidissent l'Antarctique, tandis que moins de nuages ​​bas réchauffent le reste de la planète. (La calotte glaciaire du Groenland est beaucoup plus petite et n'est pas si réfléchissante.) Cette tendance de la température de l'Antarctique est une preuve solide que le Soleil, et non le CO2, est le principal moteur climatique.

  Tendances des températures en Antarctique et en Amérique du Nord

Tendances des températures en Antarctique et en Amérique du Nord

La courbe du haut est la température de surface nord-américaine et la courbe du bas est la température de surface de l'Antarctique (64 S - 90 S) au cours des 100 dernières années. Les données antarctiques ont été moyennées sur 12 ans pour minimiser les fluctuations de température. Les lignes bleues et rouges sont des ajustements polynomiaux du quatrième ordre aux données. Les courbes sont décalées de 1 K pour plus de clarté; sinon ils traverseraient et retraverseraient trois fois.

Le flux de rayons cosmiques n'est pas seulement influencé par le vent solaire, il varie également avec la position du système solaire dans les bras galactiques. Le système solaire traverse les bras de la galaxie de la Voie lactée environ tous les 140 millions d'années. Lorsque le système solaire est dans les bras galactiques, l'intensité des rayons cosmiques augmente, à mesure que nous nous rapprochons de plus de supernovas qui émettent de puissantes rafales de rayons cosmiques. Les variations du flux de rayons cosmiques dues au passage du système solaire dans
[MT12]  les quatre bras de la galaxie de la Voie lactée au cours des 550 derniers millions d'années sont dix fois supérieures à celles provoquées par le Soleil. La corrélation entre les rayons cosmiques et les températures sur 520 millions d'années par N. Shaviv et J. Veiser a été montrée précédemment. Vous trouverez ci-dessous un graphique similaire basé sur leur travail, mais avec les temps des croisements de bras galactiques indiqués.

  Flux de rayons cosmiques et changements de température avec les croisements de bras galactiques

Flux de rayons cosmiques et changements de température avec les croisements de bras galactiques

Quatre passages des conditions de serre chaude à des conditions de glacière froide au cours du Phanérozoïque sont représentés par des variations de plusieurs degrés K des températures de surface de la mer tropicale (courbe rouge). Ils correspondent à quatre rencontres avec des bras spiraux de la Voie lactée et aux augmentations résultantes du flux de rayons cosmiques (courbe bleue, échelle inversée). (D'après Shaviv et Veizer 2003) Les changements de température sur cette plage de temps ne peuvent pas être expliqués par la théorie

du CO
2.

  Concentrations de CO 2 500 millions d'années

Le graphique montre la concentration de CO 2 au cours des 500 derniers millions d'années. Le CO 2 n'est pas corrélé à la température. Notez que lorsque les concentrations de CO 2 étaient plus de 10 fois les niveaux actuels, il y a environ 175 millions d'années et il y a 440 millions d'années, la Terre était dans deux périodes glaciaires très froides.

Sources :
1.  
Cosmoclimatologie : une nouvelle théorie émerge article de Henrik Svensmark, 2007
2.  Moteur 
céleste du climat phanérozoïque ? article de Shaviv et Veizer, 2003
3.  
National Post de Tim Patterson, juillet 2003, examen de l'article de Shaviv et Veizer

Cycles de Milankovitch

Les changements orbitaux Terre-Soleil sont les principales causes du changement climatique à long terme. Au cours des 800 000 dernières années, huit périodes de glaciations se sont produites. Chaque période glaciaire dure environ 100 000 ans avec des périodes interglaciaires chaudes de 10 000 à 12 000 ans. Milutin Milankovitch (1879-1958) a identifié trois grandes variables cycliques qui sont maintenant reconnues comme les principales causes du changement climatique. La quantité de rayonnement solaire atteignant la Terre dépend de la distance de la Terre au Soleil et de l'angle d'incidence des rayons du Soleil sur la surface de la Terre. L'inclinaison de l'axe de la Terre change sur un cycle de 40 000 ans, la précession de l'équinoxe change sur un cycle de 21 000 ans et l'excentricité de l'orbite elliptique de la Terre change sur un cycle de 100 000 ans.

L'inclinaison de l'axe de la Terre (également connue sous le nom d'obliquité de l'écliptique) passe de 22 à 24,5 degrés sur un cycle de 40 000 ans. Les extrêmes d'été à hiver sont plus grands lorsque l'inclinaison de l'axe est plus grande. La précession de l'équinoxe fait référence à l'oscillation de la Terre lorsqu'elle tourne sur son axe. Actuellement, l'axe nord pointe vers l'étoile polaire, Polaris. Dans 13 000 ans, il pointerait vers l'étoile Vega, puis reviendrait à Polaris dans 13 000 ans, créant un cycle de 26 000 ans. Lorsque cela est combiné avec l'avancée du périhélie (le point où la Terre est la plus proche de son orbite par rapport au Soleil), cela produit un cycle de 21 000 ans. La variation de la forme elliptique de l'orbite terrestre autour du soleil va d'un cercle presque exact (excentricité = 0,0005) à une forme légèrement allongée (excentricité = 0,0607) sur un cycle de 100 000 ans. La terre' L'excentricité de s varie principalement en raison des interactions avec les champs gravitationnels d'autres planètes. L'impact de la variation est un changement de la quantité d'énergie solaire de l'approche la plus proche du Soleil (périhélie, vers le 3 janvier) à la plus éloignée du Soleil (aphélie, vers le 4 juillet). Actuellement, l'excentricité de la Terre est de 0,016 et il y a une augmentation d'environ 6,4 % de l'énergie solaire entrante de juillet à janvier. Dans l'hémisphère nord, l'hiver se produit lors de l'approche la plus proche du Soleil. Le graphique ci-dessous montre les trois cycles en fonction du temps. La ligne verticale représente le présent, le temps négatif est le passé et le temps positif est le futur. L'impact de la variation est un changement de la quantité d'énergie solaire de l'approche la plus proche du Soleil (périhélie, vers le 3 janvier) à la plus éloignée du Soleil (aphélie, vers le 4 juillet). Actuellement, l'excentricité de la Terre est de 0,016 et il y a une augmentation d'environ 6,4 % de l'énergie solaire entrante de juillet à janvier. Dans l'hémisphère nord, l'hiver se produit lors de l'approche la plus proche du Soleil. Le graphique ci-dessous montre les trois cycles en fonction du temps. La ligne verticale représente le présent, le temps négatif est le passé et le temps positif est le futur.  L'hiver se produit lors de l'approche la plus proche du Soleil. Le graphique ci-dessous montre les trois cycles en fonction du temps. La ligne verticale représente le présent, le temps négatif est le passé et le temps positif est le futur.

variation orbitale
Source .

L'analyse des carottes en eau profonde montre des changements de température de la mer correspondant à ces cycles, le cycle de 100 000 ans étant le plus fort.

Ces cycles solaires ne provoquent pas suffisamment de changement dans le rayonnement solaire atteignant la Terre pour provoquer le changement climatique majeur sans effet amplificateur. Un amplificateur plausible est le vent solaire variable du Soleil qui modifie la quantité de rayons cosmiques atteignant l'atmosphère terrestre.

Le taux de changement du volume global de glace varie inversement avec l'insolation solaire due aux changements orbitaux. Le graphique ci-dessous compare l'anomalie d'insolation solaire de juin au nord de 65 degrés de latitude au taux de changement du volume global de glace au cours des 750 000 dernières années. Les reconstructions des volumes de glace mondiaux reposent sur la mesure des isotopes de l'oxygène dans les coquilles de foraminifères à partir de carottes de sédiments en eau profonde. Les enregistrements reflètent également en partie les températures des océans profonds. Deux records de glace sont affichés; SPECMAP et HW04.

Les taux de fonte et de sublimation de la glace sont très sensibles aux températures estivales. Les fortes corrélations et l'absence d'un décalage temporel important démontrent essentiellement des variations concurrentes dans le changement des volumes de glace et l'insolation estivale dans les hautes latitudes du nord. Les deux reconstructions du volume de glace soutiennent donc l'hypothèse de Milankovitch et montrent que le Soleil est le moteur climatique dominant. Le graphique est tiré de l'article de 2006 " In defense of Milankovitch " de G. Roe.

Chauffage de la troposphère

Les modèles informatiques basés sur la théorie du réchauffement du CO 2 prédisent que la troposphère sous les tropiques devrait se réchauffer plus rapidement que la surface en réponse à l'augmentation des concentrations de CO2, car c'est là que l'effet de serre du CO2 opère. Le réchauffement des rayons Soleil-Cosmique réchauffera la troposphère plus uniformément.

Le quatrième rapport d'évaluation du GIEC de l'ONU comprend un ensemble de tracés du taux de changement de température prévu par le modèle informatique de la surface à 30 km d'altitude et sur toutes les latitudes pour 5 types de forçages climatiques, comme indiqué ci-dessous.

  Changement de température prévu par le modèle informatique

Changement de température prévu par le modèle informatique
Source :  
Réchauffement à effet de serre ? Quel réchauffement à effet de serre ? par Christopher Monckton.

Les six graphiques montrent les changements de température prévus dus à :
 a) le Soleil
 b) l'activité volcanique
 c) le CO 
2 anthropique et d'autres gaz à effet de serre
 d) l'ozone anthropique
 e) les particules d'aérosol de sulfate anthropique
 f) tous les forçages ci-dessus combinés

Le taux de changement de température est représenté par la couleur en degrés Celsius par siècle.

Il est évident que le graphique c) du réchauffement causé par les gaz à effet de serre est remarquablement distinct des autres causes de réchauffement. Le graphique f) est similaire au graphique c) uniquement parce que le GIEC suppose que le CO
2 est la principale cause du réchauffement climatique.

Les modèles informatiques montrent que le réchauffement à effet de serre provoquera un point chaud à une altitude comprise entre 8 et 12 km au-dessus des tropiques entre 30 N et 30 S. La température à ce point chaud devrait augmenter à un taux de deux à trois fois plus vite qu'en surface.

Cependant, le graphique du monde réel des observations de température de radiosondage du Centre Hadley présenté ci-dessous ne montre pas du tout le point chaud projeté du réchauffement climatique induit par le CO
2. Le point chaud prédit est totalement absent du dossier d'observation. Cela montre que la théorie du réchauffement de l'atmosphère programmée dans les modèles climatiques est erronée.

  Données de radiosondage HadAT2 1979 - 1999

Données de radiosondage HadAT2 1979-1999échelle
Source :p.116, fig. 5.7E, observations de radiosondage CCSP  
HadAT2 , 2006.

L'échelle de gauche est la pression atmosphérique en hPa et l'échelle de droite est l'altitude en km. Les couleurs représentent -0,6 à 0,6 °C/décade.

Le graphique ci-dessous compare les températures annuelles globales de la troposphère aux mesures de surface. Les mesures de la basse troposphère de l'Université de l'Alabama à Huntsville (LT UAH v.6). Il mesure la température de la troposphère jusqu'à environ 8 km. La courbe HadCRUT5 est l'ensemble de données sur les températures de surface des terres et des mers du Met Office britannique. La courbe GISS4 représente les températures de surface du Goddard Institute of Space Studies. Les trois courbes sont mises à l'échelle de sorte que les lignes de tendance soient égales à 0 degrés Celsius en 1979. Le graphique montre les températures GISS4 et HadCRUT5 augmentant à 0,19 °C/décennie et la basse troposphère se réchauffant à seulement 0,132 °C/décennie. Tous les modèles climatiques prévoient que la basse troposphère se réchauffera plus rapidement que la surface en raison de l'augmentation de la vapeur d'eau.

températures globales annuelles de la troposphère et mesures de surface

Le graphique ci-dessous compare les températures annuelles de la troposphère aux mesures de surface sous les tropiques. Les données de basse troposphère proviennent de UAH6 et les données de surface proviennent de HadCRUT5 et GISS4. La plage de latitude pour les trois ensembles de données va de 20 degrés nord à 20 degrés sud.

Températures tropicales annuelles de la troposphère et mesures de surface

Une comparaison des enregistrements montre que la surface s'est réchauffée plus vite que la troposphère, contrairement à ce que prédit la théorie du réchauffement du CO2. Le modèle GISS AF réchauffe la basse troposphère 30 % plus vite qu'en surface.

La réponse prédite du réchauffement de la troposphère dans les tropiques au réchauffement climatique est l'empreinte de la rétroaction positive hypothétique de la vapeur d'eau qui est programmée dans les modèles climatiques.

L'analyse UAH provient de l'Université de l'Alabama à Huntsville. Il utilise la mesure micro-onde de plusieurs satellites. Les projections du GIEC ne concordent pas avec les données.

Refroidissement stratosphérique

Le graphique "HadAT2 Radiosonde Data 1979-1999" dans la section précédente montre que la stratosphère (au-dessus de 16 km) s'est refroidie, ce qui pourrait sembler indiquer un effet de gaz à effet de serre. Cependant, un refroidissement stratosphérique devrait se produire en raison à la fois des gaz à effet de serre et de l'appauvrissement de la couche d'ozone. La concentration d'ozone dans la stratosphère a diminué de 1970 à 1995, et n'a pas diminué du tout depuis lors en raison de la mise en œuvre du Protocole de Montréal, qui limite les émissions de CFC réduisant la couche d'ozone. Les températures de la stratosphère indiquées ci-dessous proviennent d' ici .

basse stratosphère

La température de la stratosphère inférieure n'a pas diminué du tout depuis 1995 (lorsque les niveaux d'ozone sont stables ou en légère augmentation), de sorte que les données du ballon météo n'indiquent aucun refroidissement de la stratosphère par les gaz à effet de serre. En fait, il semble qu'il y ait eu un léger réchauffement de la basse stratosphère depuis 1995, à l'opposé de ce que prédisent les modèles informatiques des effets des gaz à effet de serre. Le refroidissement de la stratosphère indiqué par les données de radiosondage est causé par l'évolution de la concentration d'ozone, et non par les gaz à effet de serre.

Vous trouverez ci-dessous un graphique de la température de la basse stratosphère à partir des données satellitaires de l'Université de l'Alabama à Huntsville. Il ne montre aucun changement de température de 1994 à 2015, puis une légère baisse en 2016. Les deux pics importants de 1982 et 1991 ont été causés par de grandes éruptions volcaniques.

Température de la statosphère inférieure de UAH

Le CO 2 contre les théories du réchauffement solaire

Le tableau suivant présente une comparaison des prédictions de deux théories climatiques - la théorie du réchauffement par le CO 2 et la théorie Soleil/Rayons cosmiques - et les données réelles du monde réel.

Publier

Prédiction -  Théorie du CO 2

Prédiction - Soleil / Théorie des rayons cosmiques

Les données réelles

Quelle théorie gagne

Températures de l'Antarctique et de l'Arctique

Les températures en Arctique et en Antarctique augmenteront de manière symétrique

Les températures vont initialement se déplacer dans des directions opposées

Les températures évoluent dans des directions opposées

Soleil / Rayon cosmique

Température de la troposphère

Le réchauffement le plus rapide se produira dans la troposphère au-dessus des tropiques

Le réchauffement de la troposphère sera uniforme

Le réchauffement de surface est similaire ou supérieur au réchauffement de la troposphère

Soleil / Rayon cosmique

Calendrier des changements de CO 2 et de température à la fin de la période glaciaire

Le CO 2 augmente puis la température augmente

La température augmente puis le CO 2 augmente

Les concentrations de CO 2 augmentent environ 800 ans après l'augmentation de la température

Soleil / Rayon cosmique

Température en corrélation avec le conducteur au cours des 400 dernières années

déjà

déjà

Le flux de rayons cosmiques et l'activité solaire sont en corrélation avec la température, pas le CO 2

Soleil / Rayon cosmique

Températures pendant la période ordovicienne

Très chaud en raison des niveaux de CO 2 > 10X présents

Très froid en raison du flux élevé de rayons cosmiques

Période glaciaire très froide

Soleil / Rayon cosmique

Le climat des autres planètes

Pas de changement

D'autres planètes vont se réchauffer

Un réchauffement a été détecté sur plusieurs autres planètes

Soleil / Rayon cosmique

 

Projections du GIEC et modèles

Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) présente des projections du changement climatique basées sur des modèles informatiques. Le groupe de travail 1 du cinquième rapport d'évaluation (AR5), "Climate Change 2013: The Physical Science Basis" a été publié en ligne ici le 30 janvier 2014. Les projections présentées dans le rapport sont basées sur quatre scénarios, ou voies de concentration représentatives (RCP) qui comprennent différentes hypothèses d'émissions de CO2 et d'autres gaz à effet de serre. Les noms des scénarios correspondent à différents forçages cibles à 2100 (par rapport à 1750), 2,6, 4,5, 6,0 et 8,5 W/m2. Ces RCP remplacent les scénarios d'émissions utilisés dans le quatrième rapport d'évaluation.

RCP2.6 est un scénario d'atténuation fort.
RCP4.5 est un scénario d'atténuation où le forçage radiatif est stabilisé avant 2100.
RCP6.0 est un scénario d'atténuation plus lent où le forçage radiatif est stabilisé après 2100.
RCP8.5 est un scénario d'émissions extrêmes où le taux d'émissions de gaz à effet de serre augmente.

Le graphique ci-dessous montre la concentration de CO 
2 dans l'air jusqu'en 2050 pour chaque scénario RCP. La courbe bleu clair représente les concentrations historiques de CO 2 .

Les concentrations de CO 2 de RCP2.6, RCP4.5 et RCP6.0 sont similaires jusqu'en 2030. RCP2.6 Le CO 2 se stabilise peu après 2040. La concentration réelle de CO 2 a augmenté de 0,54 %/an de 2005 à 2013. Le RCP8 .5 Les concentrations de CO 2 augmentent de 1,00 %/an d'ici 2050 et de 1,16 %/an d'ici 2070, soit plus du double du taux de croissance historique.

 .

Scénarios RCP du GIEC - CH4

La concentration réelle de CH 4 a augmenté de 0,2 %/an de 2005 à 2010. RCP 4.5 et RCP6.0 montrent également une faible croissance des concentrations de CH 4 . Les concentrations de CH 4 chutent significativement dans le scénario d'atténuation forte RCP2.6, mais augmentent de 1,34 %/an d'ici 2050 dans le scénario RCP8.5. Le RCP8.5 est un scénario extrême et irréaliste car le CO 2 et le CH 4 augmentent beaucoup plus rapidement que les changements historiques.

Le rapport AR5 montre que les effets de refroidissement des aérosols sont bien inférieurs à ce que l'on croyait auparavant, mais le temps manquait pour inclure ces nouvelles estimations dans les modèles climatiques utilisés pour le rapport. Une réduction du refroidissement des aérosols devrait également réduire l'estimation du forçage par effet de serre. Aucun modèle climatique n'a été ajusté pour correspondre à l'absence de réchauffement au cours des 16 dernières années, communément appelée «pause» ou «hiatus» du réchauffement climatique. Par conséquent, le GIEC a réduit ses prévisions de réchauffement à court terme de 400 par rapport aux projections du modèle climatique. Le graphique suivant montre la prévision moyenne du modèle climatique RCP4.5 et les prévisions basses, moyennes et hautes du GIEC basées sur le "jugement d'experts". Les températures mondiales réelles estimées par HadCRUT4 sont indiquées ci-dessous.

Prévision à court terme du GIEC AR5 - fourchette probable évaluée

Le résumé technique du RE5 donne le tableau TS.1 qui montre les changements de température prévus par le modèle climatique pour chaque scénario RCP sur des périodes de 20 ans de 2046-2065 et 2081-2100 par rapport à la moyenne 1986-2005. Le tableau ci-dessous montre l'augmentation prévue de la température au milieu de l'année par rapport à la moyenne 1986-2005 et par rapport à 2013. La température HadCRUT4 en 2013 était de 0,19 °C supérieure à la moyenne 1986-2005.

  Changement global moyen de la température de surface en degrés Celsius

 

par rapport à 1986 à 2005

par rapport à 2013

Scénario

2055

2090

2055

2090

RCP2.6

1.0

1.0

0.8

0.8

RCP4.5

1.4

1.8

1.2

1.6

RCP6.0

1.3

2.2

1.1

2.0

RCP8.5

2.0

3.7

1.8

3.5

Kevin Trenberth est à la tête du grand centre national américain de recherche atmosphérique et l'un des conseillers du GIEC. Trenberth affirme "... il n'y a pas du tout de prévisions (climatiques) du GIEC. Et il n'y en a jamais eu". Au lieu de cela, il n'y a que des projections "et si" du climat futur qui correspondent à certains scénarios d'émissions. Selon Trenberth, les MCG "... ne tiennent pas compte de beaucoup de choses comme le rétablissement de la couche d'ozone, par exemple, ou les tendances observées dans les agents de forçage. Aucun des modèles utilisés par le GIEC n'est initialisé à l'état observé et aucun des paramètres climatiques états dans les modèles correspond même de loin au climat actuel observé." Cependant, Scott Armstrong et Kesten Green ont vérifié le chapitre pertinent dans le dernier rapport du GIEC. Ils trouvent que "

Les modèles informatiques échouent

Le GIEC suppose que le Soleil a peu d'effet, même si les preuves d'observation montrent clairement que le Soleil a un effet significatif sur le climat.

Les modèles supposent que l'augmentation de la température au 20 e siècle est causée uniquement par l'augmentation de la concentration des gaz à effet de serre, et les paramètres sont définis dans les modèles pour faire augmenter la température en réponse au forçage des gaz à effet de serre. L'effet direct de l'augmentation de la concentration de CO 2 sur le réchauffement climatique est très faible. Tous les modèles amplifient une augmentation initiale de la température due au CO 2 en utilisant la vapeur d'eau et les nuages ​​comme grande rétroaction positive. Cependant, rien ne prouve que la vapeur d'eau et les nuages ​​fournissent une rétroaction positive importante. Ils peuvent fournir une rétroaction négative.

Les modèles climatiques utilisent de grands blocs de grille pour simuler le climat, qui sont trop grands pour inclure des orages ou des ouragans, ils utilisent donc la paramétrisation pour en tenir compte. Ces paramétrisations ignorent les transferts réels d'énergie, d'humidité et de quantité de mouvement qui pourraient modifier considérablement les résultats et limiter considérablement l'utilité des projections des modèles climatiques. Les modèles informatiques utilisent des approximations pour représenter des processus physiques qui ne peuvent pas être directement calculés en raison de limitations de calcul. Étant donné que de nombreux paramètres empiriques peuvent être sélectionnés pour forcer un modèle à correspondre aux observations, la capacité d'un modèle à correspondre aux observations ne peut pas être citée comme preuve que le modèle est réaliste et n'implique pas qu'il est fiable pour prévoir le climat. Voir le résumé indépendant du Fraser Institutes  For Policy Makers.

Le méthane est un gaz à effet de serre important. De 1990 à 2019, le forçage radiatif du méthane était de 5,6 % de celui du CO 2 . La concentration de méthane, telle que décrite ci-dessous, était stable de 2000 à 2005 et a recommencé à augmenter en 2006. Le GIEC a publié le graphique ci-dessous montrant les plages de prévisions de concentration de méthane des rapports d'évaluation 1 à 4 ainsi que les valeurs réelles. Dans chaque rapport, les prévisions de concentration de méthane ont été grossièrement surestimées. Les valeurs réelles de méthane ont été ajoutées en noir pour la période depuis la publication du RE5 et la prévision du RE5 RCP8.5.

Méthane ipcc ar5 draft fi1.7

  Tendances de température du modèle informatique par rapport aux observations

Le Dr John Christy, professeur de sciences atmosphériques à l'Université de l'Alabama à Huntsville (UAH), affirme que le travail principal d'un scientifique consiste à tester des hypothèses. Étant donné que les climatologues regroupent toutes leurs connaissances dans des modèles climatiques, les modèles doivent être testés. La température de surface moyenne mondiale ne convient pas pour tester les modèles car ils sont déjà réglés pour correspondre à peu près à cela. La caractéristique la plus prononcée dans tous les modèles est un fort réchauffement dans la haute troposphère tropicale.

Le graphique à barres ci-dessous montre les tendances au réchauffement des modèles et des observations climatiques sur la période 1979-2021 de la couche atmosphérique sous les tropiques des niveaux de pression de 300 à 200 hPa, soit de 9 à 12 km d'altitude.

Tropical 300-200 hPa Tendances des modèles et des observations

La tendance moyenne des modèles climatiques est de 0,41 °C/décennie et la moyenne des observations (radiosondage par ballon météo et données de réanalyse) est de 0,17 °C/décennie. Les modèles surchauffent l'atmosphère tropicale d'un facteur 2,40. Le modèle canadien est le pire car la tendance moyenne au réchauffement de ses deux versions est de 3,6 fois les observations.

Le graphique ci-dessous montre les moyennes sur 5 ans des températures de la troposphère tropicale de 1979 à 2021 des modèles climatiques individuels, leur moyenne (moyenne du modèle) et les observations par radiosonde, satellites et réanalyse.

Tendances de la troposphère tropicale des modèles et des observations

La tendance moyenne du modèle est de 0,32 °C/décennie et la moyenne des trois types d'observations (radiosondes, satellites et réanalyse) est de 0,17 °C/décennie. La tendance moyenne du modèle de la troposphère tropicale est de 2,03 fois la moyenne des observations. Les tropiques sont de 20°S à 20°N et la troposphère s'étend de la surface à environ 16 km d'altitude. La variabilité des modèles climatiques est 3 fois plus grande que les observations indiquant que les modèles manquent des mécanismes de rétroaction négative opérant dans le système climatique réel. Les graphiques montrent clairement que les modèles climatiques ne sont pas adaptés à l'élaboration de politiques climatiques.

Une équipe de quatre chercheurs de trois universités américaines dirigée par David Douglass a comparé les tendances de la température de la troposphère dans les tropiques prédites par les modèles climatiques aux observations réelles par satellite et par radiosondage. Dans un article publié en décembre 2007 par la Royal Meteorological Society, Douglass et al ont analysé les résultats de simulation de 22 modèles climatiques à la surface et à 12 altitudes différentes. Les résultats de la simulation ont été comparés aux tendances de température déterminées à partir de deux analyses de données satellitaires et de quatre ensembles de données de radiosondage pour la période de janvier 1979 à décembre 2004.

Comparaisons de modèles climatiques

Le diagramme ci-dessus montre la comparaison des tendances de température de 1979 à 2004 des modèles climatiques et des observations réelles par satellite et radiosondage, exprimées en degrés Celsius par décennie par rapport à l'altitude et à la pression atmosphérique. Le panneau de gauche montre quatre résultats de radiosondage comme IGRA, RATPAC, HadAT2 et RAOBCORE. La ligne rouge épaisse montre la moyenne des 22 résultats du modèle informatique et l'erreur standard de 2 fois la moyenne des modèles est représentée par les deux lignes rouges fines. Les tendances de température à partir de trois ensembles de données de mesure de surface sont identifiées dans la légende par Sfc et sont tracées sur l'axe de gauche. L'analyse RSS et UAH des données satellitaires est tracée sur le panneau de droite à deux couches effectives : T2lt représente la basse troposphère avec une moyenne pondérée à 2,5 km, T2 représente la moyenne troposphère avec une moyenne pondérée à 6,1 km d'altitude. Une tendance est la pente de la ligne qui a été ajustée par les moindres carrés aux données. Les valeurs du modèle synthétique correspondant aux couches effectives des données satellitaires sont affichées dans le panneau de droite sous forme de cercles rouges ouverts.

Un endroit essentiel pour comparer les observations avec les modèles informatiques de serre est la couche entre 450 hPa et 750 hPa de pression atmosphérique où la présence de vapeur d'eau est la plus importante, et est appelée la "couche d'émission caractéristique". Dans cette couche, les observations sont toutes en dehors du test d'erreur standard de 2 fois. Les tendances des radiosondes et des satellites sont incompatibles avec les tendances du modèle à toutes les altitudes au-dessus de la surface. Douglass et al. concluent que les résultats du modèle et les tendances de température observées sont en désaccord dans la majeure partie de la troposphère tropicale, étant séparés par plus du double de l'incertitude de la moyenne du modèle. Dans les couches proches de 5 km, la tendance modélisée est de 100 à 300 % supérieure à celle observée et, au-delà de 8 km, les tendances modélisées et observées ont des signes opposés. Par conséquent, toutes les projections du climat futur à partir des modèles sont très probablement trop élevées, et ces projections ne devraient pas être utilisées pour élaborer des politiques publiques. Voir le papier"Une comparaison des tendances de la température tropicale avec les prévisions du modèle ".

Un article technique publié par R. McKitrick, S. McIntyre et C. Herman dans Atmospheric Science Letters, août 2010 montre que les tendances de la température du modèle climatique de la troposphère moyenne, en utilisant 57 pistes à partir de 23 modèles climatiques, sont quatre fois plus grandes que les observations des satellites et des ballons météorologiques.

réchauffement de la moyenne troposphère vs modèlesSource .

Le Dr Roy Spencer a publié le graphique suivant comparant 73 exécutions de modèles climatiques aux observations de ballons météorologiques et de satellites dans la troposphère tropicale. Les tracés du ballon et du modèle sont des profils satellites simulés.

Spencer modélise un échec épique

Le Dr Roy Spencer écrit "Maintenant, dans quel univers les résultats ci-dessus ne représentent-ils pas un échec épique pour les modèles?ici . "Franchement, je ne vois pas comment le GIEC peut continuer à prétendre que les modèles ne sont "pas incompatibles" avec les observations. Toute personne sensée peut voir le contraire." Voir  ici . John Christy écrit "Tous les niveaux de pression sont utilisés dans les radiosondes et les modèles pour générer le profil satellite simulé. Tous les niveaux sont utilisés en fonction de leur pondération proportionnelle de la fonction d'émission de micro-ondes [du satellite]."

Bien que la température de l'air puisse fluctuer d'une année à l'autre en raison du transfert de chaleur entre l'air et les océans, si le CO
2 est à l'origine du réchauffement climatique selon l'hypothèse du GIEC, la teneur en chaleur de l'océan doit augmenter de manière monotone à condition qu'il n'y ait pas d'éruptions volcaniques majeures. Le contenu thermique de l'océan est une mesure beaucoup plus robuste que la température de l'air de surface pour évaluer le changement climatique mondial, car la capacité thermique de l'océan est supérieure à celle de l'atmosphère de plusieurs ordres de grandeur. Pour toute zone donnée à la surface de l'océan, les 2,6 mètres supérieurs d'eau ont la même capacité calorifique que l'atmosphère entière au-dessus ! Selon les modèles du GIEC, toutes les rétroactions majeures sont positives, il n'y a donc aucun mécanisme qui permettrait au contenu thermique de la Terre de diminuer.

La chaleur accumulée dans le système climatique peut être mesurée à l'échelle mondiale à partir de 2003 par le réseau ARGO de 3341 flotteurs à dérive libre qui mesurent la température et la salinité dans les 2000 m supérieurs de l'océan. Les flotteurs robotiques remontent à la surface tous les 10 jours et transmettent des données à un satellite qui détermine également leur emplacement comme indiqué ci-dessous.

Réseau ARGO

Le graphique ci-dessous montre la teneur en chaleur océanique de la NOAA par couche de profondeur océanique ; 0 à 700 m de profondeur et 0 m à 2000 m de profondeur.

contenu thermique global des océans par couche

Plus il y a de chaleur transférée dans l'océan profond, moins il reste de chaleur pour réchauffer l'atmosphère. Le graphique ci-dessus montre que les deux couches ont gagné en chaleur. Les données NOAA pour 0 à 2000 m à partir d' ici commencent au premier trimestre de 2005. La différence entre les courbes est le gain de chaleur de 700 m à 2000 m de profondeur. Le graphique affiche les anomalies de contenu thermique, et non le contenu thermique réel, de sorte que seuls les changements de chaleur sont pertinents. Les unités de contenu calorifique de Joules ne sont pas très significatives pour la plupart des gens, donc le graphique ci-dessous présente des informations similaires mais en changement de température moyen pour chaque couche. Le graphique montre les données de température de 0 à 700 m et de 0 à 2000 m du premier trimestre de 2003, qui sont généralement considérées comme le début de données ARGO fiables.

Température globale de l'océan par couche

Les lignes lisses et fines sont les lignes quadratiques les mieux ajustées. Les points de données sont tous les trimestres de l'année. La température de la couche océanique 0-700 m augmente un peu plus vite que celle de la couche 0-2000 m et cela indique une plus grande accélération des températures. L'élévation de la température de la couche de 0 à 2000 m est presque linéaire et montre très peu d'accélération. La tendance de la température de la couche 0-2000 m au milieu de 2021 était de 0,113 °C/décennie. La tendance de la couche 0 à 2000 m au milieu de 2021 est de 0,054 °C/décennie, soit environ la moitié de la couche 0 à 700 m.



L'un des paramètres les plus importants pour déterminer la sensibilité au climat dans les modèles climatiques est la quantité de chaleur qu'ils transfèrent aux océans. Le graphique suivant du Dr Spencer compare les observations de Levitus sur les tendances du réchauffement des océans entre 1955 et 1999 à 15 exécutions du modèle climatique 4AR du GIEC.

Tendance de la température mondiale des océans
Source .

Notez que les modèles climatiques présentent des tendances très différentes, le refroidissement des océans profonds étant aussi fréquent que le réchauffement. La courbe verte est l'observation réelle de Levitus à une profondeur de 700 m. La plupart des modèles produisent trop de réchauffement dans la couche à 700 m. De nombreux modèles produisent un refroidissement inattendu de l'océan en dessous de 100 m pendant que la surface se réchauffe. Aucun des modèles ne correspond même de loin aux observations. Le faible réchauffement de l'océan dans la couche de 700 m suggère une faible sensibilité au climat, même si tout le réchauffement était dû aux émissions de CO 2 .

Les graphiques ci-dessous dans cette section préparés par Bob Tisdale comparent les séries de température aux simulations rétrospectives des modèles informatiques utilisés par le GIEC. Les simulations rétrospectives des modèles informatiques doivent être comparées aux observations historiques réelles pour déterminer dans quelle mesure les modèles correspondent aux enregistrements historiques. Un modèle qui ne correspond pas à l'historique ne produira pas de projections réalistes.

L'animation ci-dessous compare les anomalies de température observées dans l'Atlantique Nord aux températures modélisées de l'air de surface pour les 6 membres individuels de l'ensemble et la moyenne d'ensemble du modèle climatique couplé CCSM4 du National Center of Climate Research (NCCR). Toutes les données ont été lissées avec un filtre de 121 mois.

Anomalies de température de l'Atlantique Nord par rapport aux températures modélisées de l'air de surface

Bob Tisdale écrit "Le modèle climatique couplé NCAR CCSM4 semble faire un mauvais travail de rétropolation de la variabilité multidécennale des anomalies de température de l'Atlantique Nord." Voir  ici .

L'animation ci-dessous compare la température de surface de la mer (SST) dans la région NINO 3 aux simulations rétrospectives du modèle climatique. NINO 3 est une région des tropiques du Pacifique oriental où se produisent des événements El Nino. Cela montre à quel point les modèles anticipent mal la fréquence, l'ampleur et la tendance des événements ENSO. La tendance moyenne de l'ensemble du modèle est 14 fois supérieure à la tendance des observations.

température de surface de la mer (SST) dans la région NINO 3 aux simulations rétrospectives du modèle climatique

Bob Tisdale écrit "la fréquence et l'ampleur des événements El Nino et La Nina des membres individuels de l'ensemble sont loin de correspondre à celles observées dans l'enregistrement de la température de l'instrument. Devraient-elles? Oui. Pendant une période de temps donnée, c'est la fréquence et l'ampleur des événements ENSO qui détermine la fréquence et la quantité de chaleur libérée par le Pacifique tropical dans l'atmosphère..."

Le graphique ci-dessous compare les tendances linéaires des observations et la moyenne du modèle des rétrospectives/projections du GIEC AR5 de la SST pour la période de janvier 1982 à décembre 2014 dans des bandes de latitude de 5 degrés. Les modèles ont prédit des tendances de réchauffement beaucoup plus importantes dans les tropiques que ce qui a été observé. Le réchauffement réel dans les régions du nord est supérieur à celui modélisé. Un réchauffement était prévu dans la région sud, mais la tendance SST était en fait négative dans une grande partie de la région. Cela montre que les modèles font un travail extrêmement médiocre pour simuler la façon dont la chaleur topique est transportée vers les régions polaires. Voir  
ici .

tendances linéaires pour les observations et la moyenne du modèle par latitude

Les températures de surface de la mer de -50 à -80 degrés de latitude (sud) et de 50 à 80 degrés de latitude (nord) sont indiquées ci-dessous. Le GIEC affirme que le CO 2 est le principal moteur du changement climatique, mais les tendances de température linéaires les mieux ajustées ont diminué à 0,04 °C/décennie dans la région sud et augmenté à 0,22 °C/décennie dans la région nord malgré le fait que le CO 2 les concentrations dans les deux régions sont presque les mêmes.

températures de surface de la mer de -55 à -80 degrés de latitude (sud) et de 55 à 80 degrés de latitude (nord)

Le graphique ci-dessous compare la SST du Pacifique Est aux modèles par latitude. Cela inclut l'importante région d'El Nino, donc un bon match historique ici est essentiel. La SST tropicale du Pacifique oriental a diminué à l'équateur à 0,14 C/décennie, mais les modèles montrent un fort réchauffement de 0,19 C/décennie. Voir  ici .

SST du Pacifique Est aux modèles par latitude

Le graphique ci-dessous compare les observations de la SST aux sorties des modèles climatiques pour la période de 1910 à août 2011. La SST provient de l'ensemble de données HADISST et la simulation rétrospective du modèle est la moyenne du modèle du GIEC publiée en 2007. Les modèles ne correspondent pas à la variabilité de la température au cours de la période. 1910 à 1975. Ils sont conçus pour correspondre à la tendance au réchauffement de 1975 à 2002 en supposant que la majeure partie du réchauffement est due au CO 2 et en utilisant une sensibilité élevée aux gaz à effet de serre. Les projections divergent des observations après 2002 malgré l'augmentation continue des émissions de CO 2 . Voir  ici .

Observations SST au modèle climatique

Le graphique ci-dessous montre les mesures de la température de surface de la mer dans l'hémisphère nord et les simulations rétrospectives du modèle climatique pour la période 1910 à 1944. L'augmentation réelle de la température était 4,5 fois supérieure à la tendance modélisée. Les modèles ne peuvent pas reproduire les mesures car ils n'incluent pas les causes naturelles du changement climatique. Le graphique vient d'  ici .

mesures de la température de surface de la mer dans l'hémisphère nord et modèle climatique

La tendance globale de la température de surface de HadCRUT pour la période de réchauffement du début du XXe siècle de 1917 à 1944 à 0,174 °C/décennie est similaire à la période de réchauffement tardif de 1976 à 2005 à 0,195 °C/décennie, comme indiqué ci-dessous. Mais le forçage anthropique net dans les modèles climatiques pendant la période de réchauffement tardif est 3,8 fois plus élevé que le forçage pendant la période de réchauffement précoce. L'augmentation de 3,8 fois du forçage n'a eu presque aucun effet sur les tendances de la température des deux périodes de réchauffement, ce qui indique que la théorie du réchauffement climatique anthropique est sérieusement défectueuse. Le graphique d'  ici .

Tendance globale de la température de surface à partir de HadCRUT sur deux périodes

Le graphique ci-dessous compare les tendances sur 17 ans (240 mois) de la SST mondiale à la moyenne du modèle du GIEC. Chaque point sur les courbes représente la tendance linéaire la mieux ajustée sur 17 ans jusqu'à ce point dans le temps. Les modèles du GIEC ont projeté la tendance mondiale de la SST sur 17 ans se terminant en août 2011 à 0,15 °C/décennie, mais l'augmentation observée n'était que de 0,02 °C/décennie. Voir  ici .

Tendances sur 17 ans (240 mois) de la SST mondiale

Bob Tisdale écrit : « Les modèles climatiques couplés utilisés pour rétrospectivement le climat passé et projeter le climat futur dans le rapport AR4 du GIEC de 2007 n'ont pas été initialisés afin qu'ils puissent reproduire les variations multidécennales qui existent dans les enregistrements de température mondiale. Cela est connu depuis des années. ." et "Les modèles climatiques utilisés par le GIEC semblent manquer d'un certain nombre de composants qui produisent le signal multidécennal naturel qui existe dans le relevé de température de surface de la mer basé sur des instruments."

L'amplitude des températures quotidiennes sur terre a diminué parce que les températures minimales quotidiennes (Tmin) ont augmenté plus que les températures maximales quotidiennes (Tmax) au cours du 
20siècle. La base de données NOAA Global Historical Network montre que 2/3 du réchauffement est dû à l'augmentation des températures minimales. La tendance de la différence entre les températures quotidiennes maximales et minimales s'appelle la plage de température diurne et c'est un paramètre climatique très important. Un article de McNider et al (2012) montre que 6 modèles climatiques avec des températures minimales et maximales publiées ne reproduisent que 20 % de la tendance de la température diurne mesurée, comme le montre la figure ci-dessous. Il s'agit d'une erreur de modèle climatique quintuple.

L'amplitude de température quotidienne sur terre

Les modèles climatiques sont réglés pour correspondre uniquement à la hausse de température de 1970 à 2000 de la moyenne des températures minimales et maximales (Tmean). Si les modèles reproduisent Tmean mais ne capturent pas la tendance de Tmin, cela doit signifier que le modèle Tmax se réchauffe plus rapidement que le Tmax réel. Une analyse informatique de la couche limite près de la surface montre qu'une augmentation des gaz à effet de serre provoque un mélange accru de la couche limite qui amène l'air chaud nocturne en altitude vers la surface. Seuls 20 % du réchauffement étaient dus à l'énergie des ondes longues dans la simulation du modèle et 80 % étaient dus à une turbulence accrue. Une couche de seulement 20 à 50 m d'épaisseur est réchauffée par cette turbulence. Le Tmax mesuré pendant la journée représente une couche limite de 1 à 2 km de profondeur. Les modèles climatiques supposent que la Tmean représente une épaisseur d'air de 1 à 2 km, mais il ne fait en réalité que 20 à 50 m d'épaisseur. Le Tmax modélisé se réchauffe beaucoup plus rapidement et représente une épaisseur d'air beaucoup plus grande que le Tmax réel. Voir ici .

La majeure partie du réchauffement dans les modèles climatiques est due à l'augmentation de la vapeur d'eau à mesure que les températures augmentent. Les modèles climatiques surestiment considérablement la tendance Tmax, qui représente l'atmosphère profonde, ils surestiment donc également considérablement l'augmentation de la vapeur d'eau dans la basse atmosphère.

Environ 46 % des émissions de CO 
2 d'origine humaine , y compris les changements d'affectation des sols, restent dans l'atmosphère et 54 % sont absorbés par des puits naturels. Le graphique ci-dessous montre que la fraction des émissions qui reste dans l'atmosphère n'a pas changé depuis 1970.

Fraction de CO2 en suspension dans l'air

La plupart des modèles prévoient que la fraction en suspension dans l'air augmentera de sorte que la concentration de CO 2 dans l'atmosphère augmentera de 50 à 100 ppm supplémentaires d'ici 2100 par rapport à une fraction en suspension dans l'air constante. Mais le changement réel de la fraction en suspension dans l'air est insignifiant depuis 1970. Un article qui traite des prévisions de la fraction en suspension dans l'air du modèle climatique est  ici . Les données annuelles de concentration de CO 2 du  Mauna  Loa sont  ici .

De nombreuses entrées importantes des modèles climatiques sont très incertaines et les preuves d'observation du monde réel ne les soutiennent pas, il est donc insensé de se fier à leurs projections pour prendre des décisions politiques coûteuses.

Un tableau de bord répertoriant le succès des modèles est  
ici .

Retour à la vapeur d'eau

L'humidité relative est la fraction de vapeur d'eau dans une petite parcelle d'air par rapport à la quantité totale de vapeur d'eau que l'air pourrait contenir à la température et à la pression données. Tous les modèles de circulation générale, également connus sous le nom de modèles climatiques globaux (GCM), définissent simplement divers paramètres d'évaporation et de précipitations pour obtenir approximativement le résultat suivant : humidité relative = constante.

L'encadré 8.1 du chapitre 8 des 4AR page 632 indique :

L'effet radiatif de l'absorption par la vapeur d'eau est à peu près proportionnel au logarithme de sa concentration, c'est donc le changement fractionnaire de la concentration de vapeur d'eau, et non le changement absolu, qui régit sa force en tant que mécanisme de rétroaction. Les calculs avec les MCG suggèrent que la vapeur d'eau reste à une fraction approximativement constante de sa valeur saturée (proche d'une humidité relative (HR) inchangée) sous un réchauffement à l'échelle mondiale (voir la section 8.6.3.1). Sous une telle réponse, pour un réchauffement uniforme, le plus grand changement fractionnaire de la vapeur d'eau, et donc la plus grande contribution à la rétroaction, se produit dans la haute troposphère.

L'hypothèse d'une humidité relative constante n'est pas correcte. Voici un graphique de l'humidité relative annuelle moyenne mondiale à différentes altitudes dans l'atmosphère exprimée en millibars (mb) de 300 mb à 700 mb pour la période 1970 à 2021. [Pression atmosphérique standard = 1013 mb. 1 mb = 1 hectopascal (hPa)] Les données proviennent du laboratoire de recherche sur le système terrestre de la NOAA  ici .

Humidité relative globale

Ce graphique montre que l'humidité relative a diminué, en particulier à des altitudes plus élevées, permettant à plus de chaleur de s'échapper dans l'espace[MT13] . La courbe étiquetée 300 mb se trouve à environ 9 km d'altitude, ce qui est au milieu du point chaud de la troposphère tropicale prédit (mais manquant). C'est l'élévation critique car c'est là que le rayonnement peut commencer à s'échapper sans être recapturé. L'humidité relative moyenne à cette altitude a diminué de 10 % (ou 4,4 centiles) de 1970 à 2021 !

Ce n'est pas une raison logique de s'attendre à ce que l'humidité relative reste constante avec l'augmentation du CO 
2au-dessus de la couche nuageuse. L'humidité relative dans un nuage est exactement de 100 % car les gouttelettes d'eau qui composent le nuage sont en équilibre avec l'air. De même, l'humidité relative immédiatement au-dessus des océans est de 100 %. L'humidité relative dans les colis d'air se déplaçant au-dessus des montagnes augmentera jusqu'à 100 %, provoquant des précipitations. Cette limite de saturation contrôle l'humidité moyenne de l'atmosphère jusqu'au sommet de la couche nuageuse. Mais l'humidité relative à 400 mbars n'est en moyenne que de 36 % à l'échelle mondiale, ou 30 % sous les tropiques, et s'approche rarement de la limite de saturation, sauf dans les nuages ​​orageux élevés. La limite de saturation joue donc peu de rôle dans la détermination de la teneur en vapeur d'eau de la haute atmosphère.

Doubler la quantité de CO 
2n'augmenterait les températures que d'environ 1 degré Celsius si rien d'autre ne changeait selon le GIEC. Mais la quantité de vapeur d'eau changera en réponse à une augmentation de température induite par le CO 2 . Un air plus chaud peut contenir plus de vapeur d'eau, donc si l'humidité relative reste constante, la quantité de vapeur d'eau augmente avec l'augmentation des températures. Plus de vapeur d'eau, étant un puissant gaz à effet de serre, entraînerait une augmentation supplémentaire de la température, ce qu'on appelle une rétroaction positive. La plupart des réchauffements projetés par le GIEC sont dus à cette rétroaction de la vapeur d'eau.

Mais le graphique ci-dessus montre une baisse de l'humidité relative là où le GIEC affirme que la modification de la teneur en vapeur d'eau est la plus importante. Si l'humidité relative diminue avec l'augmentation du CO 
2concentrations, la quantité de vapeur d'eau dans la haute troposphère peut ne pas augmenter, mais peut plutôt diminuer, ce qui entraîne une rétroaction négative de la vapeur d'eau.

Voici un graphique de l'humidité spécifique, ou la teneur réelle en vapeur d'eau, en grammes de vapeur d'eau par kilogramme d'air, au niveau de 400 mb (environ 8 km d'altitude).

humidité spécifique 400 mb

Cela montre que la teneur réelle en vapeur d'eau dans la haute troposphère a diminué jusqu'en 2012 puis augmenté jusqu'en 2020. Les modèles climatiques prédisent que l'humidité augmentera dans la haute troposphère, mais les données montrent une forte diminution jusqu'en 2012 ; là où les changements de vapeur d'eau ont le plus grand effet sur les températures mondiales.

Le projet de vapeur d'eau de la NASA (NVAP) utilise plusieurs capteurs satellites pour créer un ensemble de données climatiques standard afin de mesurer la variabilité à long terme de la vapeur d'eau mondiale. Le Heritage NVAP fusionne les données de plusieurs satellites et produits de vapeur d'eau de radiosonde pour les années 1988 à 2001. Le graphique ci-dessous à gauche a été présenté lors de l'atelier GEWEX/ESA Due GlobVapour du 8 mars 2011  
ici. La teneur en vapeur d'eau d'une couche atmosphérique est représentée par la hauteur en millimètres (mm) qui résulterait de la précipitation de toute la vapeur d'eau dans une colonne verticale en eau liquide.

vapeur d'eau zonale 500 à 300 hPa

Le graphique montre une baisse significative de la vapeur d'eau globale dans la couche atmosphérique de 500 à 300 hPa, soit environ 6 à 9 km d'altitude.

Animation water vapour

L'animation ci-dessus montre la quantité de vapeur d'eau au-dessus de la terre dans la couche de pression de 500 à 300 mbar. Les données mondiales Heritage NVAP sur la vapeur d'eau (1988 à 2001) par couche sont disponibles sur un site Web de la NASA  ici .

La vapeur d'eau précipitable moyenne annuelle mondiale par couche atmosphérique et par hémisphère est indiquée dans le graphique suivant.

vapeur d'eau précipitable par couche

Le graphique est présenté sur une échelle logarithmique de sorte que le changement vertical des courbes représente approximativement l'effet de forçage du changement. La teneur en eau de la couche L1, surface à 700 mb, est environ 20 fois supérieure à celle de la couche L3, 500 à 300 mb, alors que l'effet de forçage d'un changement dans le L3 est environ 14,5 fois le même changement dans le L1. La vapeur d'eau a évolué de 1990 à 2001 de -0,55 mm pour L3, -0,57 mm pour L2 et +1,73 mm pour L1. La diminution de L3 équivaut à une diminution de 8 mm de L1. La diminution de la vapeur d'eau dans les couches L2 et L3 dépasse l'effet de forçage de l'augmentation de la vapeur d'eau dans la couche L1, de sorte que la rétroaction de la vapeur d'eau est négative. La teneur en vapeur d'eau de la haute atmosphère (L2 et L3) de l'hémisphère sud est inférieure à,

PWV par couche 1991

Le graphique ci-dessus montre la vapeur d'eau précipitable par couche en fonction de la latitude par tranches d'un degré. La teneur en vapeur d'eau la plus élevée à chaque couche atmosphérique se produit près de l'équateur.

Le Dr Ferenc Miskolczi a effectué des calculs à l'aide du code radiatif ligne par ligne HARTCODE pour déterminer la sensibilité du rayonnement à ondes longues sortant (OLR) à un changement de 0,3 mm de la vapeur d'eau précipitable dans chacune des 5 couches du NVAP- Projet M.

Sensibilité au changement de vapeur d'eau sur OLR

Les résultats montrent qu'un changement de vapeur d'eau dans la couche 500-300 mbar a 29 fois plus d'effet sur l'OLR que le même changement dans la couche proche de la surface 1013-850 mbar. Un changement de vapeur d'eau dans la couche 300-200 mbar a 81 fois plus d'effet sur l'OLR que le même changement dans la couche proche de la surface 1013-850 mbar.

Le tableau ci-dessous montre la vapeur d'eau précipitable pour les trois couches du NVAP Héritage et la teneur en CO 
2 pour les années 1990 et 2001, et l'évolution.

Couche
 

L1 près de la surface
1013-700 mbar

L2 milieu
700-500 mbar

L3 supérieur
500-300 mbar

Somme
L1+L2+L3

CO2 _
 

1990

18,99 millimètres

4,6 millimètres

1,49 millimètres

25,08 millimètres

354,16 ppmv

2001

20,72 millimètres

4,03 millimètres

0,94 millimètre

25,69 millimètres

371,07 ppmv

monnaie

+1,73 millimètres

-0,57 millimètres

-0,55 millimètre

+0,61 millimètre

+16,91 ppmv

Les calculs montrent que l'effet de refroidissement des changements de vapeur d'eau sur l'OLR est 16 fois l'effet de réchauffement du CO 2 au cours de cette période de 11 ans. L'effet de refroidissement des deux couches supérieures est 5,8 fois supérieur à l'effet de réchauffement de la couche inférieure.

Ces résultats mettent en évidence le fait que les changements dans la colonne de vapeur d'eau totale, de la surface au sommet de l'atmosphère, sont peu pertinents pour le changement climatique car la sensibilité de l'OLR aux changements de vapeur d'eau dans la haute atmosphère l'emporte sur les changements dans la basse atmosphère. Voir  
ici .

Le projet NVAP-M étend l'analyse à 2009 et retraite les données Heritage NVAP.

La colonne de vapeur d'eau précipitable totale mondiale d'  
iciest donnée ci-dessous. Les modèles climatiques supposent que la vapeur d'eau augmente avec l'augmentation des concentrations de CO 2 , mais les données NVAP-M, utilisant les meilleures données satellitaires disponibles, ne montrent aucune augmentation de la colonne de vapeur d'eau totale.

vapeur d'eau précipitable totale mondiale

La manière la plus évidente de déterminer la rétroaction de la vapeur d'eau due aux changements de CO 2 , c'est-à-dire l'effet que les changements de CO 2 ont sur la vapeur d'eau de la haute atmosphère, consiste à tracer l'humidité spécifique annuelle de la vapeur d'eau en fonction des concentrations de CO 2 . Les données annuelles sont utilisées pour éliminer le signal saisonnier. Les modèles climatiques montrent que la rétroaction de vapeur d'eau maximale prévue se situe à environ le niveau de pression de 400 mbar, ce qui se trouve dans le point chaud de la troposphère tropicale prévu mais manquant, comme indiqué dans la section Chauffage de la troposphère ci-dessus.

Il a été suggéré que les premières données du laboratoire de recherche sur le système terrestre de la NOAA ne sont pas fiables en raison d'une mauvaise couverture et de problèmes d'étalonnage. La vapeur d'eau dans l'air immédiatement au-dessus de l'océan est en équilibre avec l'eau, de sorte que l'humidité relative de l'air est proche de 100 %, quelle que soit la température. La vapeur d'eau au-dessus des terres devrait varier proportionnellement à la vapeur d'eau au-dessus des océans, entraînant une humidité relative moyenne mondiale presque constante près de la surface avec le réchauffement climatique. Les données antérieures à 1960 sont considérées comme moins fiables car l'humidité relative de surface est trop élevée et entraînerait une tendance à la baisse de l'humidité relative. Le graphique ci-dessous montre l'humidité relative près de la surface à une pression de 1000 mbar de la base de données NOAA de 1960 à 2014. La ligne de tendance la mieux ajustée ne montre aucune tendance confirmant que les données de vapeur d'eau de la NOAA de 1960 n'ont pas de biais de séchage près de la surface. Par conséquent, nous n'utilisons que les données de 1960 dans l'analyse.

HR près de la surface

Le graphique ci-dessous montre l'humidité spécifique annuelle au niveau de pression de 400 mbar par trois bandes de latitude. Notez que sous les tropiques, il y a une tendance significative à l'assèchement. Il y a très peu de tendance dans les régions nord ou sud des latitudes moyennes.

SH à 400 mb par plage de latitude

Le graphique ci-dessous montre l'humidité spécifique annuelle moyenne mondiale au niveau de pression de 400 mbar par rapport à la concentration de CO2 de 1960 à 2021.

La ligne bleue montre que lorsque le CO 2 augmente, la vapeur d'eau diminue, ce qui est contraire aux prédictions des modèles climatiques. La ligne brune montre ce qu'aurait été l'humidité spécifique à la température réelle mesurée en supposant que l'humidité relative était maintenue constante à la valeur de 1960.

Le graphique ci-dessous montre l'humidité spécifique annuelle sous les tropiques de 30 degrés de latitude nord à 30 degrés de latitude sud à un niveau de pression de 400 mbar par rapport à la concentration de CO 
2 de 1960 à 2021. C'est au milieu du point chaud tropical prévu mais manquant.

Notez le plus grand écart entre les données réelles et l'hypothèse d'humidité relative constante dans les tropiques par rapport à l'écart pour la moyenne mondiale. La ligne brune montre ce que l'humidité spécifique aurait été en supposant une humidité relative constante. Les projections réelles du modèle climatique montreraient une augmentation beaucoup plus importante de l'humidité spécifique que celle indiquée par la ligne brune car les modèles climatiques, en plus de l'hypothèse incorrecte d'humidité relative constante, prévoient également que l'augmentation de la température dans la haute atmosphère serait quatre fois supérieure à la tendance réelle de la température déterminée par les mesures par radiosondage et par satellite.

Pour comparer cette corrélation aux hypothèses du modèle climatique, le graphique suivant montre l'humidité spécifique annuelle sous les tropiques de 30 degrés nord à 30 degrés sud de latitude à un niveau de pression de 400 mbar par rapport à la température de 1960 à 2013. Les modèles climatiques supposent que la vapeur d'eau ne change qu'en réponse à un changement de température. Si cela était vrai, ce graphique devrait montrer une très forte corrélation entre l'augmentation de l'humidité et la température. Le graphique est un tracé de l'espace des phases des points de données connectés en séquence temporelle. Sur de courtes périodes de temps, une augmentation de la température entraîne une augmentation de l'humidité spécifique. Les données annuelles montrent des stries linéaires croissantes du bas à gauche au haut à droite, confirmant que des températures plus élevées sont liées à une humidité spécifique plus élevée sur de courts intervalles de temps. Mais la tendance générale est à la baisse,

humidité spécifique 400 mb vs température tropiques

Le graphique montre non seulement une très mauvaise corrélation entre l'humidité spécifique et la température au niveau de pression de 400 mbar, mais la tendance est négative plutôt que fortement positive comme le supposent les modèles climatiques. L'augmentation du CO2 provoquerait initialement un léger réchauffement avant d'envisager une réaction de vapeur d'eau ou de nuage. Dans les modèles climatiques, ce réchauffement provoque une augmentation de la vapeur d'eau dans la haute atmosphère car les modèles supposent que la vapeur d'eau ne peut changer qu'en réponse à un changement de température. Mais les données montrent que la vapeur d'eau diminue avec l'augmentation du CO 2à une corrélation R2 de 0,73 et montre que la vapeur d'eau diminue avec la température à une corrélation R2 de seulement 0,027. De toute évidence, l'humidité spécifique ne réagit pas seulement aux changements de température. À long terme, des facteurs autres que la température déterminent l'humidité de la haute atmosphère. Contrairement aux hypothèses des modèles climatiques, la température a peu d'effet sur l'humidité spécifique à long terme de la haute atmosphère. CO2 _les émissions provoquent une diminution de la vapeur d'eau dans la haute atmosphère, permettant ainsi à la chaleur de s'échapper dans l'espace. Nous pensons que l'humidité spécifique à long terme dans la haute atmosphère est déterminée par le principe d'entropie maximale, et non par la température. L'atmosphère est capable de maximiser la perte de chaleur vers l'espace sous la contrainte de la limite de saturation dans la basse atmosphère en diminuant la teneur en vapeur d'eau dans la haute atmosphère en réponse à l'augmentation des concentrations de CO 2 .

Les données d'humidité de la NOAA sont  
ici au format Excel.

Le graphique ci-dessous compare la moyenne multimodèle rétrospective/prévision AR5 du GIEC à l'anomalie totale de la colonne de vapeur d'eau précipitable de la NOAA. Il montre également que les changements de vapeur d'eau sont en retard sur ENSO d'environ 3 mois. Le graphique provient d'un commentaire de blog de Bill Illis  
ici .

ENSO décalé de 3 mois par rapport à la vapeur d'eau

La théorie AGW est essentiellement l'idée qu'une augmentation du CO 2 entraînera une augmentation de la vapeur d'eau provoquant un effet de serre accru. Le graphique montre que les modèles sont à peu près en accord avec l'observation jusqu'en 1984, puis les modèles surestiment considérablement la teneur totale en vapeur d'eau de l'atmosphère. Les modélisateurs ne tentent apparemment pas de faire correspondre les observations après 1984.

Les gaz à effet de serre absorbent le rayonnement à ondes longues, rendant l'atmosphère opaque à ces longueurs d'onde. Le Dr Ferenc M. Miskolczi a développé un programme appelé High-resolution Atmospheric Radiative Transfer Code (HARTCODE) qui utilise des milliers de raies d'absorption mesurées et est capable de faire des calculs précis de flux radiatif. Les calculs sont indépendants de toute théorie de l'effet de serre et ne contiennent aucune hypothèse sur le fonctionnement de l'effet de serre, autre que le fait que les gaz à effet de serre absorbent et émettent des radiations.

La vapeur d'eau est le gaz à effet de serre le plus important. Les simulations HARTCODE montrent qu'une augmentation de 10 % du CO 
2La concentration a le même effet qu'un changement uniforme de 1,80 % de la vapeur d'eau sur le rayonnement à ondes longues sortant (OLR). Un changement uniforme de 1 % de vapeur d'eau a 5,4 fois l'effet qu'un changement de 1 % de CO 2 a sur l'OLR. Un doublement de CO 2 peut être compensé par une réduction de 12,3 % de H 2 O. Ceci est illustré dans le graphique suivant.

Le bilan radiatif est déterminé au sommet de la troposphère. Le HARTCODE a été utilisé pour déterminer l'effet des changements de vapeur d'eau dans la haute atmosphère par rapport à près de la surface. Le graphique ci-dessous montre que le changement de la teneur en vapeur d'eau dans une couche atmosphérique du niveau 300 mb au niveau 400 mb a 30 fois l'effet sur le rayonnement sortant à ondes longues (OLR) que le même petit changement près de la surface. Ainsi, les changements de vapeur d'eau dans la haute atmosphère sont plus importants que les changements dans la basse atmosphère.

Effet de H2O par altitude sur OLR

La profondeur optique est une mesure de l'opacité de l'atmosphère au rayonnement à ondes longues, ainsi que de la force de l'effet de serre. Miskolczi a utilisé HARTCODE pour calculer la profondeur optique de 1948 à 2008 en utilisant la teneur en CO 2 mesurée à Mauna Loa, Hawaï et la teneur moyenne mondiale en vapeur d'eau du laboratoire de recherche sur le système terrestre de la NOAA. Les profondeurs optiques sont calculées pour chaque gaz à effet de serre et additionnées ligne par ligne sur tout le spectre électromagnétique. La courbe de profondeur optique qui en résulte est une mesure du total des gaz à effet de serre par effet au cours des 61 dernières années. Le résultat est donné ci-dessous.

Changement de profondeur optique

La ligne bleue du graphique montre la profondeur optique de l'atmosphère avec l'évolution de la teneur en CO 2 et en vapeur d'eau. La ligne verte est la tendance linéaire de ces données qui indique une tendance non significative. La ligne rose est l'effet de l'augmentation du CO 2 avec de la vapeur d'eau maintenue constante. Il montre une petite tendance à la hausse. La différence entre ces tendances est la rétroaction de la vapeur d'eau. Rappelons que le GIEC suppose que la vapeur d'eau fournit une grande rétroaction positive, ce qui implique que la ligne verte augmenterait beaucoup plus fortement que la ligne rose. Les résultats HARTCODE montrent le contraire. Il montre une grande rétroaction négative, où la vapeur d'eau changeante compense la majeure partie de l'effet de réchauffement du CO 2 .

Les résultats montrent que la quantité effective totale de gaz à effet de serre dans l'atmosphère n'a pas augmenté de manière significative au cours des 60 dernières années.

Le GIEC affirme que le réchauffement au cours du dernier demi-siècle était dû à une augmentation de la quantité de gaz à effet de serre dans l'atmosphère. Mais le résultat HARTCODE montre que le CO 
2 remplace la vapeur d'eau comme gaz à effet de serre, il ne peut donc pas être responsable du réchauffement climatique.

Voici l'erreur GCM d'humidité spécifique telle que rapportée par le 4AR du GIEC, Chapitre 8-Suppl page 54 :

erreur de modèle d'humidité spécifique

Ce graphique montre l'erreur fractionnaire moyenne multimodèle, exprimée en pourcentage (c'est-à-dire, simulée moins observée, divisée par observée et multipliée par 100). L'estimation observationnelle provient de la réanalyse européenne sur 40 ans (ERA40, Uppala et al., 2005) basée sur des observations sur la période 1980-1999. Les résultats du modèle proviennent de la même période que les simulations CMIP3 20 th Century.

Notez que le graphique montre que les erreurs du modèle en matière d'humidité spécifique à l'altitude où la plus grande contribution de la rétroaction est prévue se situent entre 20 % et 400 trop élevées ! Si l'humidité spécifique était corrigée dans les modèles à cette altitude critique, la rétroaction positive se changerait en une forte rétroaction négative.

La force de l'effet de serre est indéterminée dans la théorie actuelle utilisée par les modèles climatiques. Les paramètres sont simplement réglés pour correspondre aux températures actuelles. Une nouvelle théorie de l'effet de serre de Ferenc Miskolczi montre que les équations actuelles de l'effet de serre sont incomplètes car elles n'incluent pas toutes les contraintes énergétiques nécessaires. Lorsque ces contraintes sont incluses dans une nouvelle théorie, la force du GHE est déterminée analytiquement. La nouvelle théorie présentée dans l'article de Miskolczi montre que l'atmosphère maintient un effet de serre saturé, contrôlé par la teneur en vapeur d'eau. Il existe un approvisionnement presque infini de gaz à effet de serre disponibles dans l'atmosphère sous forme de vapeur d'eau provenant de l'océan pour fournir l'effet de serre, mais l'atmosphère n'absorbe qu'une partie de la vapeur d'eau qu'elle pourrait contenir en raison des contraintes de bilan énergétique. Ajout de CO
2 à l'atmosphère remplace juste une quantité équivalente de vapeur d'eau pour maintenir un effet de serre presque constant et a un effet négligeable sur les températures mondiales. Voir  ici pour plus d'informations.

 

Commentaires sur le nuage

nuage

Les modèles climatiques sont limités par notre compréhension de la formation des nuages. Alors que les scientifiques ont une compréhension de base de la formation des nuages, les détails contrôlant leur luminosité, leur densité et leur taille sont mal compris. Nous manquons de la compréhension détaillée des nuages ​​requise pour créer des modèles climatiques précis. Les nuages ​​jouent un rôle majeur dans le climat en renvoyant la lumière du soleil dans l'espace, en emprisonnant la chaleur et en produisant des précipitations.

À mesure que la Terre se réchauffe, il y a plus d'évaporation des océans, donc plus de vapeur d'eau dans l'atmosphère disponible pour la formation de nuages. Mais les nuages ​​bas réfléchissent la lumière du soleil dans l'espace, ce qui entraîne un fort effet de refroidissement, annulant la majeure partie de l'augmentation initiale de la température.

Des chercheurs de l'Université de l'Alabama à Huntsville (UAH) ont rapporté en août 2007 que les cycles de réchauffement tropical individuels qui servaient d'indicateurs du réchauffement climatique entraînaient une diminution de la couverture des cirrus piégeant la chaleur [haute altitude], déclare le Dr Roy Spencer, chercheur principal au Earth System Science Center de l'UAH.

"Tous les principaux modèles climatiques prévoient qu'à mesure que l'atmosphère se réchauffe, il devrait y avoir une augmentation des cirrus à haute altitude, ce qui amplifierait tout réchauffement causé par les gaz à effet de serre d'origine humaine", a-t-il déclaré. "Cette amplification est une rétroaction positive. Ce que nous avons trouvé dans les fluctuations mensuelles du système climatique tropical était une rétroaction fortement négative. À mesure que l'atmosphère tropicale se réchauffe, les cirrus diminuent.

"Alors que les nuages ​​​​bas ont un effet principalement de refroidissement en raison de leur ombrage de la lumière du soleil, la plupart des cirrus ont un effet de réchauffement net sur la Terre", a déclaré Spencer. Avec les nuages ​​​​de glace à haute altitude, leur piégeage de la chaleur infrarouge dépasse leur effet d'ombrage solaire. Si les modèles informatiques incorporaient cet effet de refroidissement accru dû à une telle réduction des nuages ​​élevés, "cela réduirait les estimations du réchauffement futur de plus de 75%", a déclaré Spencer.

Une critique de l'article du Dr Spencer est dans ScienceDaily  
ici et l'article est disponible  ici .

Les modélisateurs ne font qu'une analyse grossière des retours des données satellitaires. Ils observent que les nuages ​​bas ont tendance à diminuer avec le réchauffement et supposent que le réchauffement provoque la diminution des nuages ​​bas. Mais les changements de nuages ​​entraînent également des changements de température. Lorsqu'un nuage se déplace pour bloquer le Soleil, les températures chutent. La quantité de nuages ​​peut changer en réponse à un changement général de la circulation océanique. Ainsi, les changements de nuages ​​sont parfois une cause de changement de température, et parfois un effet du changement de température. La fausse hypothèse selon laquelle tous les changements de nuages ​​sont l'effet des changements de température a conduit les modélisateurs à surestimer considérablement la rétroaction des nuages.

Le Dr Roy Spencer a mis au point une méthode pour séparer les causes et les effets de la variabilité des nuages. Sa technique consiste à tracer sur un graphique les relevés trimestriels de température moyenne et de flux net à partir de données satellitaires. Ces moyennes sont tracées chaque jour permettant de visualiser l'évolution dans le temps. Il a constaté que les tracés ont deux types de motifs, un ensemble de stries linéaires avec une pente commune et des motifs en spirale aléatoires plus lents superposés.

Pour comprendre ces modèles, Spencer a développé un modèle informatique simple où il peut spécifier la quantité de rétroaction et peut entrer le forçage radiatif qui pourrait être causé par des changements aléatoires dans les nuages. Le modèle montre que la pente des stries linéaires correspond à la rétroaction dans le système climatique. Ces stries sont dues à des changements d'évaporation et de précipitations qui provoquent des changements de température. Les changements de température provoquent des changements de nuages, qui sont le signal de rétroaction des nuages ​​que nous recherchons. Les motifs en spirale sont causés par le forçage radiatif qui pourrait être dû à la modification de la couverture nuageuse basse qui fait varier le rayonnement solaire réchauffant la surface.

Spencer a analysé les schémas température-radiation du satellite Terra de la NASA. Les données Terra commencent en mars 2000, et son graphique température-radiation est illustré ci-dessous.

Satellite Terra de la NASA

Le graphique montre deux types de modèles ; stries linéaires et motifs en spirale aléatoires. L'interprétation habituelle de ces données par les modélisateurs du climat serait d'utiliser la ligne de meilleur ajustement qui montre une pente de 0,7 W/m 2 /C, ce qui est une rétroaction positive très élevée. La rétroaction réelle doit être déterminée par la pente des stries linéaires, qui est de 8 W/m2 / C, ce qui est une rétroaction négative très élevée. Une valeur de 3,3 W/m 2 /C correspond à aucun retour. (Aucune rétroaction signifie que si la température de l'atmosphère était uniformément augmentée de 1 °C et que rien d'autre ne changeait, le sommet de l'atmosphère émettrait 3,3 W/m 2plus de rayonnement vers l'espace.) On observe que la rétroaction se produit sur des échelles de temps plus courtes en réponse aux événements d'évaporation et de précipitations, qui se superposent à un arrière-plan de déséquilibre radiatif variant plus lentement en raison de la fluctuation naturelle de la couverture nuageuse modifiant le taux de chauffage solaire. surface.

Les données satellitaires montrent que sur de courtes échelles de temps, les nuages ​​fournissent de fortes rétroactions négatives. Spencer a également analysé le flux radiatif et les variations de température des modèles climatiques utilisés par le GIEC pour déterminer si la rétroaction négative à court terme trouvée dans les données satellitaires est également applicable à la rétroaction à long terme. Il a constaté que les stries linéaires à court terme et les motifs en spirale montrent les 18 modèles climatiques qu'il a analysés. Spencer dit que les pentes des stries linéaires correspondent en effet aux rétroactions à long terme diagnostiquées à partir de ces modèles de réponse au forçage anthropique des gaz à effet de serre. Cela suggère fortement que la rétroaction négative à court terme montrée dans les données satellitaires s'applique également au changement climatique mondial à long terme.

L'estimation de rétroaction pour un doublement hypothétique du dioxyde de carbone, en utilisant les données du satellite Terra, donne une sensibilité climatique de 0,46 °C.

Les changements dans la couverture nuageuse entraînent des changements dans la quantité de lumière solaire atteignant la surface. Le  
graphique ci-dessous montre les mesures du rayonnement solaire à ondes courtes vers le bas à Potsdam, en Allemagne, entre 1937 et 2010. Les changements du rayonnement solaire qui atteint la surface imitent les changements des températures de surface. Le Dr Spencer suggère que "les changements naturels de la couverture nuageuse ont causé les changements de température, et les rétroactions des nuages ​​sont en réalité négatives plutôt que positives".

Rayonnement de surface Allemagne SW

Voir « Clouds Have Made Fools of Climate Modelers », par Gregory 2009, pour une discussion plus détaillée des rétroactions des nuages.

 

Aérosols

Les aérosols sont une suspension de particules fines dans l'atmosphère et comprennent la fumée, la brume océanique, le smog, etc. Les aérosols les plus importants d'origine humaine qui affectent le climat sont les aérosols de sulfate et de carbone noir. Les aérosols sulfatés proviennent principalement de la combustion de combustibles fossiles et provoquent généralement un effet de refroidissement en réfléchissant le rayonnement solaire. Les aérosols de carbone noir proviennent de la combustion de la biomasse et ont généralement un effet de réchauffement car ils absorbent le rayonnement solaire.

Trois articles récents discutés ci-dessous montrent que les changements dans les aérosols représentent une part beaucoup plus importante du changement climatique récent que ne le supposent les modèles informatiques climatiques, ce qui implique que l'effet du CO 
2 est bien inférieur à ce que montrent les modèles climatiques. Le soleil est probablement la principale cause du réchauffement climatique du 20 èmesiècle avec des changements d'aérosols apportant une contribution significative. Lorsque l'on combine les effets des aérosols avec le Soleil, les cycles océaniques et les effets d'îlot de chaleur urbain, il n'y a plus de changement climatique à expliquer par le CO 2 .

Un article publié dans le Journal of Geophysical Research en juin 2009 montre que les changements dans la quantité d'aérosols dans l'atmosphère au cours du 20 
esiècle a eu un impact beaucoup plus important sur les températures mondiales que ce qui leur est attribué dans les modèles informatiques climatiques. Martin Wild de l'Institut des sciences de l'atmosphère et du climat de Zurich, en Suisse, montre que l'augmentation des aérosols sulfatés provenant des combustibles fossiles a provoqué un effet global de gradation solaire des années 1950 aux années 1980 et a contribué au refroidissement global. Les mesures de contrôle de la pollution de l'air ont réduit les aérosols sulfatés des années 1980 aux années 2000, ce qui a entraîné un éclaircissement solaire qui a contribué de manière significative au réchauffement climatique. Les contrôles de la pollution de l'air ont permis à plus de rayonnement solaire de réchauffer la surface. Voir  papier .

Un article publié dans la revue Science en juillet 2009 rapporte qu'une étude minutieuse des données satellitaires montre que l'effet de refroidissement présumé des aérosols dans l'atmosphère est nettement inférieur à celui estimé précédemment. Gunnar Myhre du Centre pour la recherche internationale sur le climat et l'environnement, Oslo, Norvège, déclare que les valeurs précédentes pour le refroidissement des aérosols sont trop élevées jusqu'à 40 %, ce qui implique que la sensibilité du modèle du GIEC pour le CO 
2 est trop élevée. Les principaux aérosols anthropiques qui provoquent le refroidissement sont les sulfates, les nitrates et le carbone organique, tandis que le noir de carbone absorbe le rayonnement solaire. Myhre soutient que depuis l'époque préindustrielle, les concentrations de particules de suie de noir de carbone ont augmenté beaucoup plus que les autres aérosols. Voir  le site WUWT .

Une recherche de la NASA publiée dans Nature Geoscience en avril 2009 suggère qu'une grande partie du réchauffement atmosphérique observé dans l'Arctique depuis 1976 pourrait être due à des modifications des particules d'aérosols. Des scientifiques dirigés par Drew Shindell de la NASA ont découvert que les latitudes moyennes et élevées sont particulièrement sensibles aux changements de niveau d'aérosols. La recherche suggère que les aérosols représentent probablement 45 % ou plus du réchauffement qui s'est produit dans l'Arctique au cours des trente dernières années jusqu'en 2005. Étant donné que la diminution des quantités de sulfates et l'augmentation des quantités de carbone noir dans l'Arctique encouragent le réchauffement, les augmentations de température peuvent être particulièrement rapide. Dans l'Antarctique, en revanche, l'impact des sulfates et du noir de carbone est minimisé en raison de l'isolement des continents des grands centres de population. Les températures de l'Antarctique n'ont pas augmenté au cours des 42 dernières années. Article 
de la NASA .

Une étude publiée en mars 2007 utilise le plus long enregistrement satellite ininterrompu des aérosols dans la basse atmosphère, un ensemble unique d'estimations mondiales financées par la NASA. Les mesures par satellite montrent des pics importants et de courte durée dans les aérosols mondiaux causés par les éruptions volcaniques majeures en 1982 et 1991, mais une baisse progressive depuis environ 1990. En 2008-2009, les aérosols mondiaux avaient chuté de 14 % par rapport au niveau relativement stable entre 1986 et 1990.

  Aérosols bloquant le soleil

Aérosols

Les aérosols bloquant le soleil dans le monde ont régulièrement diminué (ligne rouge) depuis l'éruption du mont Pinatubo en 1991, selon les données satellitaires.
Voir  l'article 
de la NASA .

Depuis 2005, la Chine a déployé des efforts considérables pour installer une désulfuration de pointe dans ses centrales au charbon en installant plus d'unités de ce type que le reste du monde réuni. Fin 2008, 66 % de la capacité des centrales à charbon de la Chine est équipée de la désulfuration des fumées. En 2011, 75 % de tous les systèmes de désulfuration sont installés en Chine. Voir  l'article 
du GWPF . La réduction des aérosols, en particulier au-dessus de la Chine, permet à plus de lumière solaire à travers l'atmosphère de réchauffer la surface de la Terre, contribuant ainsi au réchauffement climatique.

Les émissions de SO2 de la Chine ont diminué de 14,3 % entre 2006 et 2011 selon les rapports de 2010 et 2011 sur l'état de l'environnement en Chine. Voir rapport 2010  
et rapport 2011  . Des rapports ultérieurs montrent que les émissions de SO2 de la Chine ont diminué de 11,0 % entre 2011 et 2014, passant de 21,85 Mt à 19,74 Mt.

Dans la capitale Pékin, où la pollution de l'air était une préoccupation publique majeure, la concentration moyenne de particules dangereuses en suspension dans l'air PM2,5 était de 38 microgrammes par mètre cube en 2020, en baisse de 52,9% par rapport à 2015, voir le rapport

Aérosols de Chine

De nombreuses études ont montré que les aérosols associés à l'activité biologique ont une rétroaction négative sur le changement climatique. Un premier réchauffement stimule la production de phytoplancton marin. Ces micro-organismes émettent des volumes plus importants de sulfure de diméthyle, ou DMS. Le DMS est oxydé dans l'atmosphère, créant des aérosols acides qui fonctionnent comme des noyaux de condensation des nuages. De minuscules gouttelettes d'eau se forment autour de ces aérosols, ce qui entraîne la création de nuages ​​plus nombreux et plus brillants qui réfléchissent plus de rayonnement solaire entrant vers l'espace, fournissant ainsi un effet de refroidissement.

Les plantes terrestres émettent de plus grandes quantités de gaz de sulfure de carbonyle en réponse à la fertilisation par le CO 
2 et à l'élévation de la température, qui se transforme en particules d'aérosol de sulfate, qui ont un effet de refroidissement. Voir  la science du CO 2pour plus d'informations.

Chambre CLOUD du Cern

L'effet des aérosols sur les nuages ​​est l'une des plus grandes sources d'incertitude en science du climat. Des expériences récentes utilisant la grande chambre CLOUD (Cosmics Leaving Outdoor Droplets) du CERN, l'Organisation européenne pour la recherche nucléaire, montrent que les vapeurs organiques émises par les arbres produisent d'abondantes particules d'aérosol dans l'atmosphère et que ces particules peuvent rapidement atteindre des tailles suffisamment grandes pour semer. gouttelettes de nuages. Les modélisateurs du climat ont supposé que l'acide sulfurique est l'acteur clé de la formation des nuages, de sorte que le ciel préindustriel était moins nuageux qu'aujourd'hui en raison d'un manque d'émissions de soufre provenant de l'utilisation de combustibles fossiles. Les nouveaux résultats montrent que les modélisateurs ne peuvent pas compenser autant de CO 2forçage avec refroidissement par aérosol. Les études suggèrent que les futures augmentations de température dues aux émissions de gaz à effet de serre seront bien inférieures à celles actuellement projetées par les modèles climatiques. Les expériences CLOUD montrent également que les ions des rayons cosmiques galactiques augmentent fortement le taux de production des particules biogéniques. Les rayons cosmiques sont modulés par l'évolution de l'activité solaire, ils affectent donc la nébulosité et les températures globales. Voir l' article du magazine Science  .

Sensibilité climatique

La sensibilité climatique fait référence au changement d'équilibre de la température de surface moyenne mondiale suite à un doublement de la concentration atmosphérique de CO 2 . Depuis l'époque préindustrielle, le CO 2 atmosphérique est passé de 280 ppmv à 400 ppmv. Il existe de nombreuses estimations de la sensibilité climatique. Lorsque la Terre se réchauffe, elle émet plus de rayonnement infrarouge vers l'espace. Cet effet de refroidissement naturel s'élève en moyenne à 3,3 watts par mètre carré pour chaque 1 °C (W/m 2 /°C) que la Terre réchauffe. Ceci est souvent exprimé sous la forme réciproque d'un corps gris sensible à la Terre de 0,30 °C/(W/m 2 ) comme l'explique  ScienceBits . Selon le GIEC, un doublement du CO 2entraînerait un forçage du flux de rayonnement de 3,71 W/m 2 , en supposant qu'il n'y a pas de rétroaction. Par conséquent, un doublement du CO 2 entraînerait une augmentation de la température de surface globale de 3,71 W/m2 / 3,3 W/m2 /°C = 1,1 degrés Celsius, en supposant qu'il n'y a pas de rétroactionCette sensibilité suppose que la quantité de vapeur d'eau, de couverture nuageuse, de végétation et de couverture de glace ne change pas.

Il existe un large éventail d'estimations de la sensibilité du climat avec des rétroactions. Le GIEC suppose que les nuages ​​et la vapeur d'eau provoquent une rétroaction positive, tandis que d'autres scientifiques disent que les nuages ​​et la vapeur d'eau provoquent une forte rétroaction négative.

Des estimations empiriques de la sensibilité climatique à l'équilibre (ECS) peuvent être obtenues en comparant les mesures des changements de rayonnement à court terme au sommet de l'atmosphère pendant l'ère des satellites aux changements correspondants des températures de surface. La plupart des estimations de l'ECS ont utilisé un modèle de bilan énergétique mondial où toutes les quantités sont des moyennes mondiales et annuelles.

  Estimations de la sensibilité climatique

Le diagramme ci-dessous montre plusieurs estimations récentes de l'ECS dans la littérature scientifique.

Le tableau ci-dessous résume diverses estimations de la sensibilité climatique. La sensibilité du climat est indiquée en tant que changement de température en degrés Celsius par doublement de la concentration de CO 2 (C/CO 2  x2) et en tant que changement de température par flux de rayonnement (°C/W/m 2 ). La dernière colonne montre le changement final estimé de la température de surface mondiale de l'époque préindustrielle à 2015 en raison de l'augmentation d'origine humaine du CO 2 atmosphérique de 120 ppmv.

Auteur

Sensibilité climatique

Changement de température
280 400 ppm

(°C/ CO2x2  )

(°C / W / m 2 )

Grégory

1.19

0.32

0.61 °C

Bates

1.02

0.28

0.52 °C

Lewis-Curry

1.50

0.40

0.77 °C

Spencer

0.46

0.125

0.24 °C

Lindzen

0.70

0.19

0.36 °C

Schwartz

1.1

0.30

0.57 °C

Chylek

1.4

0.38

0.73 °C

GIEC

3.0

0.81

1.55 °C

Ray Bates, en 2016, a estimé l'ECS à l'aide d'un modèle de bilan énergétique à deux zones, où les réponses radiatives dans les tropiques (30 N à 30 S) et extratropiques sont estimées séparément, et le transport dynamique de chaleur des tropiques vers les extratropiques est explicitement estimé. qui dépend linéairement de la différence entre les perturbations de température tropicales et extratropicales. Il a utilisé les observations de la réponse radiative telles que rapportées par Lindzen et Choi, 2011, et Mauritsen et Stevens, 2015. La réponse radiative est le changement du flux net ascendant des ondes longues et des ondes courtes au sommet de l'atmosphère par changement de la température de surface. Il a choisi des plages probables des trois paramètres et constate que l'ECS calculé est étroitement limité, avec une plage probable de 0,85 °C à 1,28 °C. La meilleure estimation est de 1,02 °C, qui est la médiane des estimations calculées à partir des points médians et des extrémités de chaque plage des paramètres d'entrée. Cette estimation implique que l'augmentation exponentielle continue du CO2 dans l'atmosphère entraînera une augmentation de la température d'environ 0,57 ° C d'ici 2100.

L'estimation de Lewis-Curry 2018 a utilisé un modèle de bilan énergétique à une zone utilisant les forçages climatiques du rapport AR5 du GIEC et les historiques de température de 1869 à 2016. Cette estimation suppose que tout le réchauffement a été causé par le forçage anthropique et ne tient pas compte du réchauffement naturel depuis le petit âge glaciaire ou de la contamination par l'effet d'îlot de chaleur urbain des enregistrements de température de surface terrestre.

L'estimation de Gregory s'appuie sur l'estimation de Lewis-Curry en incluant les effets du changement climatique naturel et l'effet d'îlot de chaleur urbain inclus dans l'enregistrement historique des températures.

Les estimations de Spencer sont basées sur les observations des changements de température par satellite. L'estimation de Lindzen est basée sur les changements à court terme du rayonnement à ondes longues sortant tel que mesuré par les satellites et les changements de température de surface de la mer. Les estimations de Schwartz et Chylek supposent toutes deux que le Soleil n'a aucun effet sur l'augmentation de la température et attribuent le changement de température du 20 
e siècle au CO 2 , modifié par les aérosols. Cette hypothèse surestime largement la sensibilité climatique due au CO 2 . Les estimations reposent également sur l'enregistrement de la température de surface, qui est contaminée par l'effet d'îlot de chaleur urbain.

Le GIEC a déterminé la sensibilité climatique par deux méthodes :

• en comparant les variations de température à court terme avec l'émission de rayonnement du haut de l'atmosphère à partir des données satellitaires, et
• en interprétant les indices indirects de l'enregistrement géologique

Les estimations de la sensibilité climatique utilisées par le GIEC supposaient que la variabilité observée de la température provoquait la variabilité observée des nuages. Mais la causalité circule également dans la direction opposée, la variabilité des nuages ​​entraînant une variabilité de la température. Un changement de température causé par la variabilité des nuages ​​serait interprété à tort comme une rétroaction positive. Cette erreur fait que les estimations ont un biais intégré vers une sensibilité climatique élevée. Nous savons que le Soleil peut provoquer un changement dans la couverture nuageuse inférieure qui provoque un changement de température. Le GIEC ne prend pas en compte les changements climatiques possibles du Soleil car son mandat est d'enquêter sur les changements climatiques d'origine humaine. L'analyse des indices indirects de l'enregistrement géologique est très incertaine. L'IPCC AR4 donne une plage de sensibilité climatique de 2 à 4,5 °C/W/m 2, avec une meilleure estimation de 3 °C/W/m 2 . L'IPCC AR5 donne une fourchette de sensibilité climatique de 1,5 à 4,5 °C/W/m 2 , sans meilleure estimation faute de consensus.

Le tableau suivant, tiré d'une présentation du Dr Richard Lindzen, montre les résultats des prévisions d'un certain nombre de modèles climatiques et de données satellitaires. L'axe horizontal montre le changement des températures de surface de la mer par an, mesuré sur divers intervalles de temps. L'axe vertical représente le changement du rayonnement sortant à ondes longues au sommet de l'atmosphère tel que prédit par plusieurs modèles climatiques.

Une corrélation positive (pente du bas à gauche vers le haut à droite) indique qu'il existe une boucle de rétroaction négative dans le changement de SST, de sorte que plus la mer est chaude, plus la chaleur est rayonnée dans l'espace, ce qui réduit l'augmentation de la température. Une corrélation négative (pente du haut à gauche vers le bas à droite) indique qu'il existe une boucle de rétroaction positive dans la mesure où l'atmosphère inhibe la perte de chaleur vers l'espace, ce qui augmente encore la température.

Modèles de Lindzen vs observations ERBE

La première corrélation appelée ERBE correspond aux données réelles mesurées par le satellite Earth Radiation Budget Experiment (ERBE). La pente de la ligne indique une forte rétroaction négative qui compense l'augmentation de température initiale. Les onze autres corrélations sont issues de modèles climatiques. Ils présentent tous des corrélations négatives correspondant à des rétroactions positives, ce qui amplifie l'élévation de température initiale. Tous les modèles ont une rétroaction dans la mauvaise direction, confirmant que les modèles sont fondamentalement faux.

Dans le graphique suivant, la sensibilité climatique prévue de chaque modèle climatique est tracée par rapport à la pente des corrélations indiquées ci-dessus, qui correspondent à la quantité de rétroaction de température. La ligne noire courbe montre la relation entre la rétroaction et la sensibilité du climat au doublement de la quantité de dioxyde de carbone dans l'atmosphère. Les grandes erreurs dans les facteurs de rétroaction entraînent une large gamme de sensibilités climatiques d'équilibre prédites. Les résultats du modèle montrent que la sensibilité au climat pourrait varier de 1,3 °C à plus de 5 °C compte tenu de la gamme des facteurs de rétroaction. Mais les données satellitaires ERBE racontent une histoire complètement différente. Il montre une sensibilité climatique de 0,4 à 0,5 degrés Celsius. Ce petit changement de température ne poserait aucun problème et il n'y a aucune raison de s'inquiéter pour notre CO 
2émissions. Voir  ici ou  ici pour plus d'informations.

Sensibilité climatique de Lindzen

 

Oscillations océaniques

Les océans contiennent environ 1000 fois plus d'énergie thermique que l'atmosphère, de sorte que les changements dans les modèles de circulation océanique peuvent avoir un impact important sur les températures atmosphériques mondiales. Les courants océaniques déplacent d'énormes quantités de chaleur des tropiques vers les exotropiques, où la chaleur peut plus facilement rayonner vers l'espace. Plusieurs oscillations océaniques identifiées sont importantes pour le climat. Sur de courtes échelles de temps, l'oscillation australe El Niño (ENSO) domine les variations climatiques. L'oscillation décennale du Pacifique (PDO) et l'oscillation multidécennale atlantique (AMO) varient selon des cycles d'environ 60 ans. Il peut également y avoir des cycles d'échelle de temps plus longs.

La suite de modèles climatiques utilisée par le GIEC pour prédire les climats futurs a été ajustée pour correspondre généralement à l'augmentation des températures moyennes mondiales de 1975 à 2000, en supposant que la quasi-totalité du changement de température était due aux émissions de gaz à effet de serre d'origine humaine. Cependant, une grande partie de cette augmentation de température était due à la phase de réchauffement des oscillations océaniques, plutôt qu'aux gaz à effet de serre.

Voici une brève description des trois oscillations océaniques les plus importantes :

  El Nino - Oscillation australe

El Niño - Oscillation australe (ENSO) est une oscillation océan-atmosphère dans l'océan Pacifique tropical caractérisée par une variation des températures de surface de l'océan dans l'océan Pacifique tropical oriental et des variations de la pression atmosphérique dans l'océan Pacifique tropical occidental. La phase chaude est El Niño (de l'espagnol signifiant "le garçon" ou "l'enfant du Christ") et la phase froide est La Niña (de l'espagnol signifiant "la fille"). Pendant le chaud El Niño, il y a une pression atmosphérique élevée dans le Pacifique occidental et des températures de surface de la mer élevées dans le Pacifique oriental. Il dure généralement de 6 à 18 mois. Pendant la période froide de La Niña, la pression atmosphérique est basse dans le Pacifique occidental et les températures de surface de la mer basses dans le Pacifique oriental. L'oscillation australe fait référence aux changements dans les modèles de pression atmosphérique au niveau de la mer dans l'océan Pacifique sud entre Tahiti et Darwin, en Australie. Les températures de surface de la mer sont des moniteurs dans quatre régions montrent:

Zones El Niño

Dans des conditions normales, les alizés d'est soufflant vers l'ouest ont provoqué une accumulation d'eau chaude dans le Pacifique occidental, de sorte que le niveau de la mer est de 0,5 m plus élevé en Indonésie qu'au Pérou. Les vents poussent les eaux de surface vers l'ouest, puis elles descendent et reviennent en profondeur vers l'est. Refroidir les remontées d'eau profonde près de l'Amérique du Sud. Le diagramme ci-dessous montre les conditions normales.
Source .

ENSO neutre

Pendant la phase El Niño, les alizés s'affaiblissent, ce qui réduit le transport de l'eau vers l'ouest et réduit la remontée d'eau profonde froide dans le Pacifique Est. Cela rend la température de surface de la mer du Pacifique oriental plus chaude que la normale. Pendant la phase La Niña, les alizés sont plus forts que la normale, provoquant davantage de remontées d'eau froide dans l'est du Pacifique.

L'indice ENSO multivarié (MEI) est basé sur les six principales variables observées sur le Pacifique tropical. Ces six variables sont : la pression au niveau de la mer, les composantes zonales et méridiennes du vent de surface, la température de surface de la mer, la température de l'air de surface et la fraction de nébulosité totale du ciel. Le graphique ci-dessous montre l'IEDM depuis 1979.

Indice ENSO multivarié
Source .

  L'oscillation décennale du Pacifique

L'oscillation décennale du Pacifique (PDO) est un modèle de longue durée de type El Niño de variabilité climatique dans le Pacifique. L'indice PDO est défini comme la principale composante principale de la variabilité mensuelle de la température de surface de la mer dans le Pacifique Nord (vers le pôle de 20 N) après suppression de la température moyenne mondiale de la surface de la mer. Il ne s'agit pas d'une mesure de la température de surface de la mer, mais plutôt de son modèle. Cependant, pendant sa phase chaude, la surface de la mer du Pacifique est chaude le long de la côte ouest de l'Amérique du Nord, et elle y est fraîche pendant la phase froide. Le modèle de température de surface de la mer (couleurs) et les vents de surface (flèches) sont affichés ;

Phase chaude

  

Phase froide

L'indice AOP est présenté ci-dessous.
Indice AOP

L'AOP change tous les 30 ans environ, ce qui la rend importante pour le changement climatique. Un changement dans la circulation océanique induite par le PDO et les conditions météorologiques peut modifier la nébulosité globale, ce qui peut avoir un effet majeur sur le réchauffement climatique car les nuages ​​réfléchissent la lumière du soleil.

Le Dr Roy Spencer écrit, "un changement de nébulosité associé au  
PDO pourrait expliquer la plupart des changements climatiques que nous avons vus au cours des 100 dernières années ou plus. Par exemple, après le" grand changement climatique de 1977 "lorsque le PDO est allé de sa phase négative à positive, la région arctique a commencé à se réchauffer."

Voir JISAO  
ici , NOAA  ici , Spencer  ici , Appinsys  ici .

  Oscillation atlantique multidécennale

L'oscillation atlantique multidécennale (OMA) est une fluctuation des températures de surface de la mer sans tendance dans l'océan Atlantique Nord. L'indice AMO correspond aux anomalies de température de surface de la mer de l'Atlantique sans tendance de l'équateur à 70 N. Il est généralement présenté sous forme de moyennes mobiles annuelles ou sur 10 ans et a une durée de cycle d'environ 65 ans.

Les températures et les sécheresses du centre et de l'est de l'Amérique du Nord sont corrélées à l'AMO. Les deux sécheresses les plus graves de l'histoire récente, pendant le bol de poussière des années 1930 et des années 1950, se sont produites pendant la phase chaude de l'AMO. Le nord-ouest du Pacifique a tendance à être plus humide pendant la phase chaude de l'AMO.

AMO corrigé de la tendance annuelle
Voir ESRL  
ici et créer des parcelles  ici .

Le bâton de hockey du GIEC

Le GIEC a publié le graphique "Hockey Stick" de Mann, Bradley et Hughes (MBH 1998), dans son troisième rapport d'évaluation, qui montre peu de changements dans les températures pendant des centaines d'années, puis une forte augmentation récemment au cours des cent dernières années. Cet historique de température a été mis en évidence dans les rapports du GIEC, distribués à tous les foyers canadiens et utilisés pour appuyer des décisions politiques majeures impliquant des dépenses de milliards de dollars. Le GIEC soutient qu'il y a eu peu de changement climatique naturel au cours des 1000 dernières années, de sorte que le changement de température au cours des 100 dernières années est inhabituel et probablement causé par les activités humaines. Un chercheur principal du GIEC a déclaré dans un e-mail "Nous devons nous débarrasser de la période chaude médiévale". Christopher Monckton dit "Ils l'ont fait en donnant une technique, mesure des cernes des arbres à partir de pins bristlecone, 390 fois plus de pondération que les autres techniques, mais n'a pas divulgué cela. Les cernes des arbres sont plus larges les années les plus chaudes, mais les cernes des pins sont également plus larges lorsqu'il y a plus de dioxyde de carbone dans l'air : c'est de la nourriture végétale. Cette fertilisation en dioxyde de carbone fausse les calculs. Ils ont dit qu'ils avaient inclus 24 ensembles de données remontant à 1400. Sans le dire, ils ont laissé de côté l'ensemble montrant la période chaude médiévale, le rangeant dans un dossier marqué "Données censurées". Ils ont utilisé un modèle informatique pour tracer le graphique à partir des données, mais deux Canadiens [Ross McKitrick et Stephen McIntyre] ont découvert plus tard que le modèle dessinait presque toujours des bâtons de hockey même s'ils alimentaient un « bruit rouge » électronique aléatoire parce qu'il utilisait un "Algorithme défectueux". Le rapport mbH 1998 n'a jamais été correctement examiné par les pairs avant que le GIEC ne l'utilise dans ses publications. Voir ici pour les commentaires de Christopher Monckton.

McKitrick et McIntyre affirment dans leur article que "l'ensemble de données utilisé pour faire cette construction contenait des erreurs de collation, une troncature ou une extrapolation injustifiée des données sources, des données obsolètes, des calculs de composants principaux incorrects, des erreurs d'emplacement géographique et d'autres défauts graves. Ces erreurs et défauts affectent considérablement la température. La principale découverte est que les valeurs du début du 15e siècle dépassent toutes les valeurs du 20e 
siècle . La forme particulière du bâton de hockey dérivée dans la construction proxy mbH98 un indice de température qui diminue légèrement entre le début du 15e siècle et le début du 20esiècle et augmente ensuite de façon spectaculaire jusqu'en 1980 est principalement le résultat d'une mauvaise gestion des données, de données obsolètes et d'un calcul incorrect des  composants principaux .

ne sont pas représentés ici.

Bâton de hockey corrigé

Le différend sur le bâton de hockey a amené le Congrès des États-Unis à décider d'enquêter sur la question. Le National Research Council (NRC) des États-Unis a tenu des audiences publiques et a préparé un rapport en 2006 pour le Comité des sciences de la Chambre des représentants des États-Unis. Le rapport du NRC n'a fait aucune critique des articles McKitrick et McIntyre. Le rapport conclut que "les échantillons d'écorce de bande doivent être évités dans les reconstructions de température". Ces échantillons de Bristlecone/Foxtail d'écorce de bande sont responsables de la forte augmentation du graphique au XXe siècle, mais la poussée de croissance n'est pas liée aux températures. Il a également confirmé que l'algorithme de Mann, qui utilisait une analyse en composantes principales non centrée, extrait des formes de bâtons de hockey à partir de données de bruit rouge aléatoires, comme l'ont montré précédemment McKitrick et McIntyre, et note que "

Pendant ce temps, le comité de la Chambre des représentants des États-Unis sur l'énergie et le commerce avait commandé de manière indépendante une étude à Edward Wegman, président du comité NAS sur les statistiques appliquées et théoriques et membre de la Royal Statistical Society. Le rapport Wegman déclare: "Dans l'ensemble, notre comité estime que les évaluations de Mann selon lesquelles la décennie des années 1990 a été la décennie la plus chaude du millénaire et que 1998 a été l'année la plus chaude du millénaire ne peuvent être étayées par son analyse. Il déclare également" En général, nous estimons que les critiques des [articles de McKitrick et McIntyre] sont valables et que leurs arguments sont convaincants. Nous avons pu reproduire leurs résultats et proposer à la fois des explications théoriques (annexe A) et des simulations pour vérifier que leurs observations étaient correctes. L'étude a également étudié le réseau social du groupe de scientifiques qui publient des reconstructions de température. L'étude a révélé qu'ils collaborent entre eux et partagent des données et des méthodologies indirectes, de sorte que les études "indépendantes" ne sont pas du tout indépendantes. Voir un article d'audit climatique sur le rapport Wegman 
ici et le rapport  ici .

Ces deux rapports ont été rendus publics six mois avant que le GIEC ne commence à publier le quatrième rapport d'évaluation ; cependant, le 4AR ne fait aucune mention du rapport Wegman, ne donne qu'une seule citation du rapport du NRC et ignore les conclusions et les recommandations des rapports.

David Holland a écrit une histoire complète et une discussion sur l'affaire du bâton de hockey. Voir l'article de Holland - "Bias and Concealment in the IPCC Process: The 'Hockey Stick' Affair and its Implications" publié par "Energy & Environment", octobre 2007  
ici .

David Holland dit "il est scandaleux que les auteurs du chapitre 6 du WGI aient ignoré la plupart de ses conclusions de fond [du rapport du NRC]. Malgré l'analyse claire de Wegman et al. montrant le manque d'indépendance entre les différentes reconstructions de température, les auteurs du chapitre AR4 WGI 6 ont persisté à s'appuyer sur un diagramme en spaghetti de reconstructions de la figure 6.10(b) pour continuer à justifier l'affirmation selon laquelle les températures moyennes de l'hémisphère nord au cours de la seconde moitié du 20e 
siècle étaient probablement les plus élevées depuis au moins les 1 300 dernières années.

Effets d'îlot de chaleur urbain

L'effet d'îlot de chaleur urbain est l'effet que les humains ont sur la température de surface locale de sorte que les températures dans ou à proximité des centres urbains sont plus chaudes que les zones rurales. Elle est causée par les propriétés de rétention de chaleur du béton et de l'asphalte dans les zones urbaines, le mélange turbulent de la couche d'air proche de la surface par les bâtiments et l'implantation de capteurs de température à proximité de sources de chaleur artificielles.

  Tendances des températures de surface dans 47 comtés de Californie

Tendances des températures de surface dans 47 comtés de Californie

Ce graphique montre l'ampleur de l'effet sur les températures de surface et les problèmes associés à un échantillonnage objectif. Les tendances de la température de surface déterminées à partir des stations au sol pour la période de 1940 à 1996 ont été moyennées pour chaque comté. Les tendances ont été regroupées par population de comté et tracées sous forme de cercles fermés avec les erreurs standard de leurs moyennes. La droite est un ajustement des moindres carrés aux cercles fermés. Les points marqués ''X'' sont les six enregistrements de station non ajustés sélectionnés par le GISS de la NASA pour être utilisés dans leur estimation des températures mondiales. Notez que 5 des 6 stations sélectionnées se trouvent dans des comtés peuplés. Notez également que l'extrapolation de la ligne droite à une population de comté de 10 000 habitants donne une tendance de température de zéro. Voir  ici .

  Tendances de la température des principaux sites urbains et des sites ruraux

Tendances de la température des principaux sites urbains et des sites ruraux

Peterson (2003) est une étude influente citée par le quatrième rapport d'évaluation du GIEC qui prétend montrer que l'effet de l'urbanisation est négligeable.

Le GIEC s'est fortement appuyé sur cette étude erronée, où Peterson déclare "qu'aucun impact statistiquement significatif de l'urbanisation n'a pu être trouvé dans les températures annuelles". Cependant, Steve McIntyre utilisant les données de Peterson montre que "les villes réelles ont une tendance très importante de plus de 2 °C par siècle par rapport au réseau rural - et cela suppose qu'il n'y a pas de problèmes avec le réseau rural - ce qui n'est évidemment pas vrai puisqu'il sont sans aucun doute des problèmes de microsite et d'autres problèmes." Peterson utilise deux listes de stations dans son étude, une étiquetée Urbaine et une étiquetée Rurale. Cependant l'analyse des listes montre que la liste Urbaine comprend de nombreux sites ruraux et que la liste Rurale comprend de nombreux sites urbains. Ces résultats sont discutés dans un article de Climate Audit  
ici .

La plupart des scientifiques conviennent que de nombreuses mesures des stations de température sont contaminées par les effets d'îlots de chaleur urbains, mais ils soutiennent que les principaux indices de température mondiale sont ajustés pour corriger ces effets. Il y a un "Ajustement d'urbanisation" pour corriger les effets de l'urbanisation, un "Ajustement du biais d'observation" pour corriger le changement à l'heure de la journée où les mesures sont prises, et il y a un "Ajustement de couverture" pour tenir compte de la perte de stations de mesure. Ces ajustements sont destinés à produire un enregistrement de ce que seraient les températures si personne ne vivait à proximité des stations de mesure. Si les ajustements étaient adéquats, il ne devrait pas y avoir de corrélation statistiquement significative entre les relevés de température et les indicateurs socio-économiques.

Ross McKitrick et Patrick Michaels ont publié un article en 2004 dans lequel ils analysent le schéma de réchauffement de la surface terrestre de la Terre par rapport aux conditions économiques locales. Ils ont trouvé une corrélation statistiquement significative entre les données de température ajustées et le développement économique, ce qui signifie que les ajustements ne sont pas suffisants pour éliminer les effets d'îlot de chaleur urbain. Ils concluent que "si la contamination était éliminée, nous avons estimé que le taux de réchauffement moyen mesuré sur la terre diminuerait d'environ la moitié".

Les météorologues néerlandais, Jos de Laat et Ahilleas Maurellis, utilisant différentes méthodologies de test, sont arrivés à des conclusions similaires. Ils ont montré qu'il existe une corrélation statistiquement significative entre le schéma spatial du réchauffement dans les données de température ajustées et le schéma spatial du développement industriel. Ils ont conclu que cela ajoute un important biais à la hausse à la tendance mesurée du réchauffement climatique. Ils montrent également que les prévisions des modèles climatiques ne montrent aucune corrélation entre la température et le développement industriel.

Le GIEC reconnaît la corrélation entre les tendances au réchauffement et le développement socio-économique, mais la rejette comme une simple coïncidence, en raison de changements de circulation atmosphérique non spécifiés. Cette affirmation absurde contredit l'affirmation largement diffusée du GIEC selon laquelle le réchauffement récent ne peut être attribué à des causes naturelles, et les recherches de Laat et Maurellis montrent qu'elle est fausse.

McKitrick et Michaels ont publié un article mis à jour en décembre 2007 en utilisant un ensemble de données plus large avec un ensemble plus complet d'indicateurs socio-économiques. Ils ont discuté de deux types de contamination; les processus de surface anthropiques, qui sont des modifications du paysage dues à l'urbanisation ou à l'agriculture, et les inhomogénéités, c'est-à-dire les changements d'équipement, les données manquantes, le mauvais contrôle de la qualité, etc. Ils ont montré que le schéma spatial des tendances au réchauffement est étroitement corrélé aux indicateurs de l'activité économique. Ils présentent une batterie de tests statistiques pour prouver que le résultat n'est pas un hasard ou une fausse corrélation. Ils concluent que "la tendance moyenne à la surface dans l'intervalle post-1980 passerait d'environ 0,30 degré (C) par décennie à environ 0,17 degré."

Biais des données de température du GIEC

Biais des données de température du GIEC

La carte ci-dessus est tirée de l'article de McKitrick et Michaels de décembre 2007. Chaque carré est codé par couleur pour indiquer la taille du biais local. Les zones vides indiquent qu'il n'y avait pas de données disponibles. Voir la discussion de fond sur le document  ici .

Un audit du chercheur Steve McIntyre révèle que la NASA a effectué des ajustements urbains des données de température dans son enregistrement de température GISS dans la mauvaise direction. La NASA a appliqué un "ajustement urbain négatif" à 500 des mesures des stations urbaines (où des ajustements sont effectués), ce qui signifie que les ajustements accentuent les tendances au réchauffement. L'ajustement urbain est censé supprimer les effets de l'urbanisation, mais les ajustements négatifs de la NASA augmentent les effets de l'urbanisation. Le résultat est que la tendance de la température de surface utilisée par le Groupe d'experts international sur l'évolution du climat (GIEC) est exagérée. Voir  
ici .

Le site  
surfacestations.orga été créé par Anthony Watts en réponse à la prise de conscience qu'il existe très peu de données d'étude de site physique pour l'ensemble du réseau climatologique historique des États-Unis (USHCN) de stations de surface. Les volontaires effectuent des relevés de site pour photographier et documenter les 1221 stations climatiques USHCN aux États-Unis. En février 2009, 854 des 1221 stations ont été examinées dans le réseau USHCN. Chaque site se voit attribuer une note de qualité de site de 1 à 5 basée sur le Guide d'évaluation du réseau de référence climatique. Seulement 11% des stations sont dans des emplacements adaptés, 69% sont à moins de 10 m d'une source de chaleur artificielle. Ci-dessous, une photo d'une gare mal située.

Ohio gare mal située

Le site Web  Climate4you propose de nombreux graphiques de l'effet d'îlot de chaleur urbain. Les graphiques ont été tracés à partir de traversées de température effectuées par un véhicule voyageant à travers les villes.

Expérience UHI d'Oslo

Le  graphique ci-dessus montre les mesures de température de janvier 2007 prises en roulant d'ouest en est à travers la ville d'Oslo, en Norvège. L'effet d'îlot de chaleur d'Oslo au cours de cette expérience était d'environ 8 °C.

Une étude d'Anthony Watts a évalué les tendances au réchauffement des stations de surveillance de la température conformes et non conformes à la NOAA à l'aide du système de classification des sites récemment approuvé par l'OMM. L'analyse démontre que les tendances de température signalées aux États-Unis sont faussement doublées. La nouvelle évaluation améliorée, pour les années 1979 à 2008, donne une tendance de +0,155 °C par décennie pour les sites de haute qualité, une tendance de +0,248 °C par décennie pour les emplacements mal situés et une tendance de +0,309 °C par décennie. après que la NOAA a ajusté les données, comme indiqué dans le graphique ci-dessous.

Ajustement de la NOAA aux États-Unis

Le graphique "Tendances des températures de surface et de la troposphère" présenté ci-dessus dans la section Réchauffement de la troposphère montre les tendances des températures de la terre, de la terre et de la mer, et de la troposphère sous les tropiques. La tendance de la température de la surface terrestre a le taux d'augmentation le plus élevé car elle est contaminée par l'effet d'îlot de chaleur. La tendance de la température de surface de la terre et de la mer est inférieure à la tendance de la terre car les données de température de la mer n'ont pas d'effet d'îlot de chaleur. La troposphère affiche le taux d'augmentation de température le plus faible. Nous savons que la théorie du CO 2 du changement climatique exige que la troposphère se réchauffe plus rapidement que la surface, mais c'est l'inverse qui s'est produit. Il est illogique de croire que le CO 2est le principal facteur de température et croient simultanément que les mesures de surface utilisées pour le GIEC sont exactes. Si les données de température de surface étaient entièrement ajustées pour supprimer les effets de l'urbanisation en réduisant de moitié le taux de réchauffement, elles correspondraient étroitement à la tendance au réchauffement de la troposphère.

Une étude (Murray & Heggie 2016) a comparé la consommation nationale d'énergie (qui est convertie en chaleur) aux températures nationales moyennes pour le Royaume-Uni et le Japon.

Consommation d'énergie au Royaume-Uni en fonction de la température

Le graphique ci-dessus montre que les modèles climatiques font un très mauvais travail pour prédire les températures dans la région du Royaume-Uni (r2 = 0,10). Le graphique de droite montre que la consommation d'énergie explique très bien les températures mesurées (r2 = 0,89). Le résumé dit "Il est clair que les fluctuations de [température] sont mieux expliquées par la consommation d'énergie que par les modèles climatiques actuels." Voir le papier  ici . Cela fournit une preuve supplémentaire que les principaux indices de température utilisés pour suivre le changement climatique sont contaminés par les effets du développement économique, biaisant les estimations de la sensibilité climatique et des coûts sociaux élevés des émissions de CO 2 .

En janvier 2009, un groupe japonais a  lancé un satellite IBUKI pour surveiller les bandes spectrales de CO 2 et de méthane dans le monde entier afin d'établir exactement où se trouvaient les plus grandes sources et puits de gaz à effet de serre au monde. Les résultats de l'Agence japonaise d'exploration aérospatiale (JAXA) montrent que les pays industrialisés semblent absorber les émissions de dioxyde de carbone du tiers monde. Les données satellitaires présentées sur la carte ci-dessous montrent que les niveaux de CO 2 sont généralement plus faibles dans les pays développés que dans l'air au-dessus des pays en développement. Les zones où les émissions nettes sont plus élevées (émissions artificielles plus émissions naturelles moins absorption naturelle dans les puits) afficheraient des concentrations de CO 2 plus élevées. CO2 _les niveaux sont inférieurs à la moyenne dans les pays industrialisés, comme l'indiquent les points bleus. Les émissions nettes les plus élevées, du moins sur ce graphique, se situent principalement en Chine et en Afrique centrale.


Source .

Pas de consensus

L'auteur Michael Crichton a mis en garde contre les dangers de la "science consensuelle" dans un discours de 2003. Il dit: "Le consensus est l'affaire de la politique. La science, au contraire, ne nécessite qu'un seul enquêteur qui se trouve avoir raison, ce qui signifie qu'il ou elle a des résultats vérifiables par référence au monde réel. En science, le consensus n'est pas pertinent. Ce qui est pertinent, ce sont les résultats reproductibles. Les plus grands scientifiques de l'histoire sont grands précisément parce qu'ils ont rompu avec le consensus."

Dans une lettre ouverte au premier ministre Stephen Harper, 61 scientifiques éminents ont appelé à un examen scientifique ouvert du climat. La lettre indique que "les preuves d'observation ne prennent pas en charge les modèles climatiques informatiques d'aujourd'hui, il y a donc peu de raisons de faire confiance aux prédictions des modèles de l'avenir. Des progrès significatifs ont été réalisés depuis la création du protocole, dont beaucoup nous éloignent d'une préoccupation concernant l'augmentation Si, au milieu des années 1990, nous savions ce que nous savons aujourd'hui sur le climat, Kyoto n'existerait presque certainement pas, car nous en aurions conclu qu'il n'était pas nécessaire. l'impact humain reste encore impossible à distinguer de ce "bruit" naturel."

Le projet de pétition a été organisé par l'Institut des sciences et de la médecine de l'Oregon. La pétition déclare en partie :

"Il n'y a aucune preuve scientifique convaincante que la libération humaine de dioxyde de carbone, de méthane ou d'autres gaz à effet de serre cause ou causera, dans un avenir prévisible, un réchauffement catastrophique de l'atmosphère terrestre et une perturbation du climat terrestre. preuve que l'augmentation du dioxyde de carbone atmosphérique produit de nombreux effets bénéfiques sur les environnements naturels végétaux et animaux de la Terre."

Jusqu'à présent (septembre 2019), la pétition a reçu 31 487 signatures dont 9 029 avec des docteurs. Les signataires sont approuvés pour être inclus dans la liste des projets de pétition s'ils ont obtenu des diplômes d'études formels au niveau du baccalauréat ès sciences ou supérieur dans les domaines scientifiques appropriés. Tous les signataires répertoriés ont une formation formelle dans des domaines de spécialisation qui les qualifient de manière appropriée pour évaluer les données de recherche liées à la déclaration de pétition. De nombreux signataires travaillent actuellement dans les domaines climatologique, météorologique, atmosphérique, environnemental, géophysique, astronomique et biologique directement impliqués dans la controverse sur le changement climatique. Voir  Projet de pétition sur le réchauffement climatique .

Le Heartland Institute a mené une enquête internationale auprès de 530 climatologues en 2003. L'enquête a demandé si l'état actuel des connaissances scientifiques est suffisamment développé pour permettre une évaluation raisonnable des effets des gaz à effet de serre. Les deux tiers des scientifiques interrogés (65,9%) n'étaient pas d'accord avec l'énoncé, près de la moitié (45,7%) l'ayant noté avec un 1 ou 2, indiquant un fort désaccord. Seuls 10,9 % l'ont noté avec un 6 ou un 7, ce qui indique un fort accord. Voir  
ici pour les résultats complets de l'enquête .

Dans une lettre ouverte au Secrétaire général des Nations Unies et aux chefs d'État de nombreux pays datée du 13 décembre 2007, intitulée « La Conférence des Nations Unies sur le climat prend le monde dans la mauvaise direction », plus de 100 spécialistes du monde entier monde, dont beaucoup sont d'éminents scientifiques, déclarent qu'"il n'est pas possible d'arrêter le changement climatique, un phénomène naturel qui a affecté l'humanité à travers les âges". La lettre indique que les changements climatiques récents ont été bien dans les limites de la variabilité naturelle connue. Il déclare en outre que les modèles climatiques ne peuvent pas prédire le climat, qu'il n'y a pas eu de réchauffement climatique depuis 1998, que le GIEC a ignoré de nombreuses nouvelles recherches importantes évaluées par des pairs qui ont jeté encore plus de doute sur l'hypothèse d'un réchauffement climatique dangereux d'origine humaine, et les tentatives de réduction des émissions ralentiront le développement et risquent d'augmenter les souffrances humaines du futur changement climatique plutôt que de les diminuer. Voir 
ici pour la lettre publiée par le National Post.

Un rapport au Sénat américain répertorie plus de 700 scientifiques qualifiés du monde entier qui contestent les affirmations du GIEC et d'autres, selon lesquelles "la science du climat est réglée" et qu'il existe un "consensus". Voir  
ici .

Pour faire accepter par le public les taxes sur le carbone et les subventions aux énergies renouvelables, plusieurs études revendiquent un consensus scientifique de 97 % sur le réchauffement climatique, ce qui implique que les causes humaines sont toutes liées au dioxyde de carbone ou aux gaz à effet de serre ; mais un examen plus approfondi révèle que beaucoup de manipulations mathématiques sont nécessaires pour arriver à 97% - un stratagème psychologique qui joue sur nos émotions primaires, notre «mentalité de troupeau» et notre peur d'être l'intrus. Ce rapport des Amis de la Science révèle qu'il ne s'agit que d'une manipulation mathématique et d'un stratagème psychologique. Notre déconstruction montre qu'il n'y a pas de consensus à 97% sur le réchauffement climatique causé par l'homme comme le prétendent ces études. Aucune de ces études n'indique un accord avec une vision catastrophique du réchauffement climatique d'origine humaine.

Un examen détaillé de l'étude «consensuelle» la plus récente de Cook et al (2013) n'a trouvé que 64 articles sur 11 958 qui déclarent explicitement que l'AGW a causé plus de 50% du réchauffement récent. Cela ne représente qu'un « consensus » de 0,54 %. En outre, les 50 % de réchauffement mentionnés par Cook sont bien en deçà de l'estimation de l'AGW du GIEC selon laquelle l'AGW a causé au moins 90 % du réchauffement. Cook suppose que tout article qui impliquait que les humains avaient un effet sur le climat est inclus dans le consensus, même si les GES référencés dans l'étude auraient peu d'effet. Cela n'a rien à voir avec la déclaration du GIEC.

De nombreux scientifiques de premier plan ont rejeté l'étude de Cook lors de sa publication, affirmant que leurs travaux avaient été déformés et classés à tort comme soutenant la déclaration d'AGW du GIEC alors que leurs travaux ne le faisaient pas. Alan Carlin, Ph.DEconomics, MIT, Senior Operations Research Analyst, US Environmental Protection Agency (retraité) a rejeté la classification de Cook de son travail. Le Dr Carlin a déclaré : « Les avantages économiques de la réduction des émissions de CO2 pourraient être inférieurs d'environ deux ordres de grandeur à ceux estimés par la plupart des économistes, car le facteur de sensibilité climatique (CSF) est bien inférieur à ce que supposent les Nations Unies... ».



Il n'y a pas de consensus sur la question de savoir si ou dans quelle mesure les activités humaines sont à l'origine du problème, ou même s'il y a un problème. Le refroidissement global, largement prédit dans les années 1970, aurait été beaucoup plus dangereux que le réchauffement.

Effets du réchauffement

Le GIEC et des groupes apparentés ont suggéré plusieurs effets néfastes du réchauffement climatique. Les données du monde réel montrent que ces affirmations sont pour la plupart fausses. Ils ignorent les énormes avantages du réchauffement et des émissions de CO 2 sur la croissance des plantes.

  Le niveau de la mer monte

Le Service permanent du niveau moyen de la mer est responsable de la collecte et de la communication des données sur le niveau de la mer à partir du réseau mondial de marégraphes. Cet ensemble de données comprend 63 enregistrements de marégraphes commençant avant 1950 et se terminant après 2015, qui contiennent plus de 95 % des données. Le graphique ci-dessous montre les niveaux moyens mensuels de la mer des 65 marégraphes sans les cycles annuels. Notez les grandes variations mensuelles. Une courbe quadratique a été ajustée aux données. Les données montrent une tendance linéaire en décembre 2020 de 2,08 mm/an avec une accélération de 0,014 mm/an 2 .

63 marégraphes

Le graphique ci-dessous montre les tendances sur 20 ans et 30 ans de la moyenne des 63 relevés marégraphiques. Les données manquantes ont été remplies de manière linéaire et le signal saisonnier a été supprimé. Le graphique montre que la tendance sur 20 ans et 30 ans en décembre 2020 était de 3,2 mm/an et 2,0 mm/an, respectivement. Avant 2015, la tendance maximale sur 30 ans était de 1,34 mm/an fin novembre 1983.

Marégraphe Tendances du niveau de la mer

Le niveau de la mer a augmenté depuis 1860 à environ 2 mm/an jusqu'en 2000, comme indiqué ci-dessous.

  Données sur le niveau de la mer

Le niveau de la mer monte

Niveau global moyen de la mer (gsl) (en haut), avec son intervalle de confiance à 95 % ombré, et taux gsl moyen (en bas), avec son intervalle d'erreur standard ombragé. Adapté de Jevrejeva et al. (2006). Voir  Sciences du CO 2 .

Le GIEC AR6 estime que "le niveau moyen mondial de la mer a augmenté à un taux moyen de 1,9 [0,8 à 2,9] mm par an de 1971 à 2006, et a encore augmenté à 3,7 [3,2 à 4,2] mm par an entre 2006 et 2018".

Une étude récente de l'élévation mondiale du niveau de la mer à partir des marégraphes est Frederikse et al 2020. Le graphique ci-dessous montre l'élévation du niveau de la mer de 1900 à 2018 à partir des marégraphes et de l'altimétrie par satellite à partir des données de l'étude. La tendance du marégraphe sur 20 ans jusqu'en 2018 est de 3,4 mm/an.

Niveau global de la mer - Marégraphes et altimétrie



Depuis août 1992, les altimètres satellitaires mesurent le niveau de la mer à l'échelle mondiale. L'Université du Colorado à Boulder fournit des données à partir d'une série de satellites. Les étalonnages des marégraphes sont utilisés pour estimer la dérive de l'altimètre.

Niveau mondial de la mer

L'élévation globale du niveau de la mer avec le signal saisonnier supprimé est illustrée ci-dessus. Il montre une tendance de 1992 à août 2021 de 3,3 mm/an, qui comprend un ajustement isostatique glaciaire (GIA) de 0,3 mm/an. Le GIA est l'effet de l'augmentation de la taille du bassin océanique. Le graphique du niveau de la mer avec ajustement GIA est ce que l'élévation du niveau de la mer aurait pu être SI la taille du bassin océanique n'avait pas changé. L'élévation du niveau de la mer par rapport à la terre est de 3,0 mm/an. L'accélération SLR était de 0,098 mm/an 2 .

Ci-dessous, le graphique de l'élévation du niveau de la mer global sans GIA.

satellite mondial du niveau de la mer



Le service permanent pour le niveau moyen de la mer (PSMSL)  
répertorie 10 stations marégraphiques sur la côte ouest du Canada avec des données mensuelles quasi continues de 1973 à 2018.

Élévation du niveau de la mer sur la côte ouest du Canada 10 marégraphes

Le graphique montre le niveau moyen mensuel de la mer de 10 stations marégraphiques sur la côte ouest du Canada. La ligne noire est le meilleur ajustement linéaire aux données[MT14] . Au cours de la période de 1973 à 2018, le niveau moyen de la mer a augmenté de 0,025 mm/an.

Envisat est le satellite le plus récent et le plus sophistiqué pour mesurer le niveau global de la mer. Lancé en 2002, Envisat est le plus grand vaisseau spatial d'observation de la Terre jamais construit. Les données montrent qu'il n'y a pas eu d'élévation globale du niveau de la mer depuis la fin de 2003.

Niveau de la mer d'Envisat

  Altimétrie satellitaire de TOPEX/POSEIDON

Altimétrie satellitaire de TOPEX/POSEIDON

Le graphique ci-dessus de Morner, 2004, montre les données satellitaires originales sur le niveau de la mer de 1992 au début de 2000. Hormis l'effet d'El Niño de 1997/98, les données ne montrent aucune élévation du niveau de la mer.

Les données satellitaires ne montrent aucune augmentation, mais le GIEC ajoute un "facteur de correction" aux données satellitaires pour les faire concorder avec les données du marégraphe à 2,3 mm/an. Ces données sont présentées comme des données satellitaires, mais Morner dit "c'est une falsification de l'ensemble de données".

  Données altimétriques satellitaires de TOPEX/POSEIDON inclinées vers le niveau d'origine

Données altimétriques satellitaires de TOPEX/POSEIDON inclinées vers le niveau d'origine

Le graphique ci-dessus de Morner, 2005, montre les données d'altimétrie par satellite sur le niveau de la mer de 1993 à 2003 ramenées au niveau d'origine en excluant le facteur marégraphe. Il montre une variabilité autour de zéro plus les événements ENSO.

Voir  
l'article du Memoradum du Dr Morner qui a été présenté à la Chambre des Lords du Royaume-Uni.

Les données altimétriques satellitaires TOPEX/Poséidon sont ajustées par l'Université du Colorado pour la NASA afin de correspondre au taux d'élévation du niveau de la mer mesuré par un ensemble de 64 marégraphes. Toute différence entre la mesure brute du satellite et la mesure du marégraphe est supposée être la somme de l'erreur de dérive de la mesure du satellite et du mouvement vertical du terrain à l'emplacement du marégraphe. Une estimation distincte du mouvement terrestre est effectuée principalement en utilisant les données « d'orbitographie Doppler et de positionnement radio intégré par satellite » (DORIS) à l'emplacement du marégraphe. Les données satellitaires brutes sont inclinées en appliquant la dérive de mesure du satellite telle que déterminée par les marégraphes. Voir  
une description de la façon dont les données satellitaires sont calibrées à partir d'un ensemble de marégraphes.

TOPEX Poseidon Jason carte de tendance du niveau de la mer par satellite

Le graphique ci-dessus montre les tendances du niveau de la mer de janvier 2002 à juin 2021. Notez que la majeure partie de l'élévation du niveau de la mer au cours de cette période se situe dans l'océan Indien et dans une zone au nord de l'Australie.

Un arbre célèbre aux Maldives ne montre aucune preuve d'avoir été emporté par l'élévation du niveau de la mer, comme le prédisent les défenseurs du réchauffement climatique. Un groupe de défenseurs australiens du réchauffement climatique est venu et a abattu l'arbre, détruisant ainsi la preuve que leur théorie était fausse.

La "Commission INQUA sur le changement du niveau de la mer et l'évolution côtière" dirigée par le Dr Morner, a préparé une estimation selon laquelle le niveau mondial de la mer augmentera de 10 cm plus ou moins 10 cm au cours des 100 prochaines années. Le Dr Morner a depuis révisé son estimation à 5 cm par 100 ans après avoir examiné les données de l'activité solaire suggérant que la tendance au réchauffement pourrait avoir pris fin et que la Terre pourrait se diriger vers une tendance au refroidissement.

Il semble de plus en plus probable qu'un réchauffement augmentera les précipitations et l'accumulation de glace dans les régions polaires, et ralentira ainsi, voire inversera, l'élévation continue du niveau de la mer. Voir " 
Il n'y a pas d'élévation alarmante du niveau de la mer ! "

Le Proudman Oceanographic Laboratory estime le taux d'élévation du niveau de la mer à 1,42 plus ou moins 0,14 mm/an pour la période de 1954 à 2003. C'est moins que l'estimation de 1,91 plus ou moins 0,14 mm/an pour la période de 1902 à 1953, indiquant un ralentissement du rythme.
Voir  
une analyse de l'élévation du niveau de la mer par le Proudman Oceanographic Laboratory. Le graphique suivant montre le taux de changement du niveau de la mer depuis 1905 à l'aide des marégraphes à long enregistrement de la plus haute qualité.

POL niveau de la mer

Comparaison des taux moyens mondiaux de changement du niveau de la mer calculés à partir de neuf stations d'enregistrement long avec ceux calculés à partir de 177 stations moyennées dans 13 régions. La région ombrée indique 1 SE Ces enregistrements proviennent de régions qui ne connaissent pas de taux élevés d'ajustement isostatique glaciaire (GIA) et qui ne sont pas significativement affectées par les tremblements de terre. La comparaison montre que sur la période commune aux deux analyses (1955-1998) il y a un très fort accord entre les deux moyennes globales.

Woppelmann et al ont utilisé des stations GPS (Global Positioning Satellite) pour corriger les données marégraphiques des mouvements verticaux des terres. Dans un article de 2007, Woppelmann et al ont analysé les données de 160 stations GPS situées à moins de 15 km des marégraphes pour déterminer le mouvement vertical des marégraphes. Ils ont déterminé que l'élévation moyenne globale du niveau de la mer de janvier 1999 à août 2005, après correction des données marégraphiques par le mouvement vertical des terres, était de 1,31 +/- 0,30 mm/an. Notez que cette estimation est inférieure de 58 % à l'estimation rapportée (1993-2003) dans le RE4 du GIEC. Voir « 
Ralentissement du niveau de la mer ? » dans les archives du Rapport sur le climat mondial et le  résumé de l'étude .

  Ensemble de données MSU sur les températures de l'Antarctique 1979-2021 (Latitude -85 à -65)

Le film "Une vérité qui dérange" (AIT) suggère que la calotte glaciaire de l'Antarctique pourrait fondre, mais en fait, la température de l'air au-dessus de l'Antarctique a eu une tendance nulle de 1980 à juillet 2022. Il n'y a pas eu de fonte significative au cours des périodes chaudes précédentes lorsque les températures étaient plus chaud qu'aujourd'hui.

Température de l'air en Antarctique UAH6 -65 à -85 MSU UAH



Une nouvelle étude de 
Zwally et al 2021 a évalué le bilan de masse de l'Antarctique. Il a réconcilié les estimations du bilan massique des satellites GRACE et ICESat et a constaté que les estimations des mesures de gravité GRACE sont 5,22 fois plus sensibles au mouvement du substrat rocheux forcé par les changements de charge de glace que les estimations des données altimétriques ICESat sur l'Antarctique oriental et 4,51 fois sur l'Antarctique occidental. . Le gain total de masse de glace en Antarctique est de 95 ± 25 gigatonnes (Gt) par an entre 2003 et 2008, contre 144 ± 61 Gt par an entre 1992 et 2001. À partir de 2009, de fortes augmentations des pertes dynamiques de WA côtières ont dépassé les gains à long terme de EA et de WA intérieures. Le gain de masse de glace totale de l'Antarctique était de 34 ± 85 Gt par an de 2009 à 2011. La masse de glace de l'Antarctique était proche de l'équilibre à −12 ± 64 Gt par an de 2012 à 2016.

Une histoire similaire se trouve au Groenland. La période la plus chaude n'a pas été le dernier quart de siècle. Au contraire, comme Vinther et al. rapport, "l'année la plus chaude dans le record de température étendu du Groenland a été 1941, tandis que les années 1930 et 1940 ont été les décennies les plus chaudes." En fait, leur record nouvellement allongé révèle qu'il n'y a pas eu de réchauffement net de la région au cours des 75 dernières années. Une étude de la calotte glaciaire du Groenland par 
Johannessen et al.ont constaté qu'en dessous de 1500 mètres, le changement moyen de la hauteur de la calotte glaciaire avec le temps était une baisse de 2,0 ± 0,9 cm/an, qualitativement en harmonie avec les déclarations d'Alley et al. ; mais au-dessus de 1500 mètres, il y avait un taux de croissance positif de 6,4 ± 0,2 cm/an. Moyenné sur l'ensemble de la calotte glaciaire, le résultat moyen était également positif, à une valeur de 5,4 ± 0,2 cm / an, qui, ajusté pour un soulèvement isostatique d'environ 0,5 cm / an, a donné un taux de croissance moyen d'environ 5 cm / an, pour une augmentation totale de l'épaisseur moyenne de la calotte glaciaire du Groenland d'environ 55 cm sur la période de 11 ans, qui était principalement due à l'accumulation de chutes de neige accrues sur la calotte glaciaire.

Une étude de  
Zwally et al, 2005, ont constaté que la calotte glaciaire du Groenland a connu une accumulation nette de glace qui produit une baisse de 0,03 ± 0,01 mm/an du niveau de la mer. Voir une  revue de cela et plusieurs autres études sur ce sujet.

Une étude de  
Dorthe Dahl-Jenson et al, 2013, présente des données de la carotte de glace de North Greenland Eemian Ice Drilling (NEEM) qui ne montrent qu'une réponse modeste de la calotte glaciaire au fort réchauffement de l'Eemian précoce. Le document rapporte que les "températures de surface après le début de l'Eemian (il y a 126 000 ans) ont culminé à 8 ± 4 degrés Celsius au-dessus de la moyenne du dernier millénaire. Entre 128 000 et 122 000 ans, l'épaisseur de la calotte glaciaire du nord-ouest du Groenland a diminué. de 400 ± 250 mètres, atteignant des élévations de surface il y a 122 000 ans de 130 ± 300 mètres plus bas qu'aujourd'hui." L'auteur principal estime que la fonte au cours de l'Eemian n'aurait pu contribuer qu'à 2 m d'élévation du niveau de la mer. Commentant l'article,  le Dr Patrick Michaels, a déclaré que toute la période de 6 000 ans était en moyenne d'environ 6 ° C plus chaude que les 1 000 dernières années. Le chauffage intégré pendant l'Eemian (changement de température multiplié par le temps) était de 36 000 degrés-années. Les modèles climatiques prédisent un réchauffement de 3 °C au Groenland d'ici 2100, soit 300 degrés-années. Michaels écrit: "A ce rythme, il faudrait 12 000 ans pour se débarrasser d'environ un huitième de la glace de ce noyau." Les données suggèrent que le Groenland ne contribuera qu'à 1,7 cm d'élévation du niveau de la mer (2 m X 300/36 000) d'ici 2100 si la prévision de température du modèle climatique est correcte.

 

  Couverture de neige de l'hémisphère nord

 

En mars 2000, l'Independent du Royaume-Uni a rapporté ;

Selon le Dr David Viner, chercheur principal à l'unité de recherche climatique (CRU) de l'Université d'East Anglia, dans quelques années, les chutes de neige hivernales deviendront "un événement très rare et passionnant".

"Les enfants ne sauront tout simplement pas ce qu'est la neige", a-t-il déclaré.

Les modèles climatiques ont constamment prédit que la couverture de neige totale aurait dû diminuer de façon continue et constante chaque année depuis au moins les années 1970 et cette diminution s'accélérera au fil des ans. Un article révisé par des pairs de 2019 révèle comment les prédictions se sont réalisées. La couverture de neige de l'hémisphère nord est mesurée avec précision par des satellites depuis la fin de 1966. Les modèles climatiques sont exécutés de 1861 jusqu'au futur. Une simulation de modèle jusqu'à présent est appelée rétropolation. Cet article qui résume le papier dit "En comparant ces rétrospectives aux tendances climatiques historiques observées, cela nous donne une idée de la fiabilité des modèles informatiques." Voici des graphiques de la couverture de neige de l'hémisphère Nord par des modèles et des observations satellites pour les mois d'automne et d'hiver.

Enneigement NH, modèles climatiques vs observations satellitaires

 

Les modèles informatiques conviennent tous qu'il aurait dû y avoir une diminution continue d'une année sur l'autre pour les saisons d'automne et d'hiver depuis les années 1960. Cependant, les observations réelles ont plutôt montré une légère augmentation de la couverture de neige.

 

  Intempéries

Le GIEC affirme que le réchauffement climatique entraînera des phénomènes météorologiques plus violents. Cela n'a aucun sens, car la plupart des tempêtes sont causées par une différence de température des masses d'air en collision. Si le CO 2 réchauffe les régions polaires, les écarts de température seront moins importants et les tempêtes moins violentes. Toutes choses étant égales par ailleurs, un monde plus chaud devrait avoir moins de tempêtes violentes, et non plus.

Contrairement à la plupart des tempêtes, les ouragans sont causés par la différence de température entre la surface de la mer et le sommet de la tempête.

Les chercheurs Knutson et Tuleya ont examiné une série de modèles climatiques et ont constaté qu'ils avaient pratiquement unanimement projeté que dans un environnement de CO 
2-monde amélioré, la troposphère moyenne et supérieure se réchauffera à un rythme plus rapide que la surface, en particulier au-dessus des océans tropicaux. Plus de réchauffement en altitude qu'à la surface rend l'atmosphère plus stable et moins propice à la formation d'orages. Ainsi, Knutson et Tuleya ont rapporté que les augmentations futures de la stabilité verticale projetées par le modèle tempéreraient (mais pas totalement annuleraient) l'augmentation de l'intensité des tempêtes par l'augmentation de la température de surface de la mer.

Cependant, les chercheurs Vecchi et Soden ont découvert que les modèles climatiques prévoient presque à l'unanimité qu'il y aura une augmentation du cisaillement vertical du vent pendant la saison des ouragans, ce qui agit également pour inhiber la formation de cyclones tropicaux. Le résultat combiné est que toute augmentation de l'intensité de l'ouragan sera si faible qu'elle sera indétectable. Incidemment, le cisaillement vertical réel du vent des ouragans de l'Atlantique diminue depuis 1973, à l'opposé de la tendance prédite par les modèles climatiques. Voir  
papier .

Il n'y a absolument aucune preuve d'une augmentation des événements de tempêtes violentes dans les données du monde réel.

Pour l'Atlantique Nord dans son ensemble, selon l'Organisation météorologique mondiale, "Des données fiables... depuis les années 1940 indiquent que la force maximale des ouragans les plus puissants n'a pas changé et que l'intensité maximale moyenne de tous les ouragans a diminué."

Gulev et al (2000) ont utilisé les données de réanalyse NCEP/NCAR depuis 1958 pour étudier l'occurrence des tempêtes hivernales dans l'hémisphère nord. Ils ont trouvé une baisse statistiquement significative (au niveau de 95%) de 1,2 cyclones par an pour la période, au cours de laquelle les températures auraient augmenté dans une grande partie de l'hémisphère.

"Le réchauffement climatique provoque une augmentation des tempêtes" fait des gros titres intéressants. Elle viole également la vérité scientifique fondamentale et les leçons de l'histoire.

L'activité mondiale des ouragans a diminué jusqu'à la mi-2012 à des niveaux jamais vus depuis 1978. L'énergie cumulée des cyclones (ACE) est la somme cumulée sur 2 ans de la combinaison de l'intensité et de la longévité des ouragans. Au cours des 52 dernières années, l'ECA de l'hémisphère mondial et nord a subi une variabilité importante mais ne présente aucune tendance statistique significative.

CEA mondial

Le graphique ci-dessus montre les 5 dernières décennies de l'ACE de l'hémisphère mondial et nord jusqu'au 28 février 2022. Notez que l'année indiquée représente la valeur de l'ACE au cours des 24 mois précédents pour l'hémisphère nord (ligne du bas/cases grises) et le global global (top line/boîtes bleues). La zone intermédiaire représente l'ACE total de l'hémisphère sud. L'ACE mondial moyen en 2021 était de 85 % de la moyenne sur la période 1991-2020. L'année 2021 mondiale ACE à ce jour (YTD) en juillet 2022 est de 83% de la normale YTD.

Fréquence TC

Le graphique ci-dessus montre les 4 dernières décennies de la fréquence globale des tempêtes tropicales et des ouragans sur 12 mois jusqu'au 30 juin 2022. La série chronologique la plus élevée est le nombre de cyclones tropicaux qui atteignent au moins la force des tempêtes tropicales (la vitesse maximale du vent sur la durée de vie dépasse 34 nœuds). La série chronologique du bas est le nombre de cyclones tropicaux de force ouragan (64 nœuds +). La fréquence mondiale des cyclones tropicaux a atteint un niveau historiquement bas.

L'ACE 2008 de l'hémisphère nord représentait 85 % de l'ACE 2005, comme le montre le graphique à barres empilées ci-dessous.

NH ACE

La plupart des orages se produisent sous les tropiques, mais la plupart des tornades se produisent aux États-Unis. Moins de 1% des orages aux États-Unis engendrent des tornades. Les tornades nécessitent un cisaillement directionnel du vent, un changement de direction du vent avec la hauteur. Le cisaillement du vent se produit lorsque des masses d'air froid et chaud entrent en collision. Cela ne se produit jamais sous les tropiques, donc les tornades ne s'y produisent jamais. Le graphique ci-dessous montre que les températures moyennes aux États-Unis ont augmenté depuis 1960 tandis que le nombre de fortes tornades (F3 à F5) a diminué. Voir  ici du Dr Roy Spencer.

Une épidémie de tornades en 2011 aux États-Unis a été causée par un printemps exceptionnellement froid pour la saison. Le Dr Spencer écrit "Un golfe du Mexique exceptionnellement chaud de 1 ou 2 degrés en ce moment ne peut pas expliquer l'augmentation du contraste entre les masses d'air chaud et froid qui est la clé de la formation de tornade car cette légère chaleur ne peut pas rivaliser avec les 10 à 20 degrés ci-dessous- air normal dans le Midwest et la vallée de l'Ohio qui n'a pas encore voulu céder la place au printemps. ... le réchauffement climatique provoque MOINS d'épidémies de tornades, pas plus."

tornades américaines

Un graphique des tornades fortes à graves de 1955 à 2019 est présenté ci-dessous. Il montre une tendance significative à la baisse de -57,5%. Le comptage moyen de 2017-2019 n'est que de 32% du comptage moyen avant 1985.

Tornades annuelles américaines F3 + 1955 à 2019

Un article publié dans le Journal of Geography & Natural Disasters montre que "la première moitié du 20 e siècle a connu des conditions météorologiques plus extrêmes que la seconde moitié". Plusieurs graphiques de données climatiques sont présentés à l'appui de cette affirmation, y compris les taux de réchauffement et de refroidissement, les températures extrêmes, les précipitations et les ouragans touchant les États-Unis. Les températures mondiales au cours des dernières décennies ont été plus chaudes que la première moitié du 20 esiècle. De nombreuses études théoriques prédisent qu'un réchauffement climatique dû aux émissions de gaz à effet de serre produira des conditions météorologiques plus extrêmes. Le document déclare que "le manque d'appréciation du public, des politiques et des décideurs de la déconnexion entre les données empiriques et les constructions théoriques est profondément inquiétant, en particulier en termes de conseils politiques donnés." L'hyperbole des prévisions de conditions météorologiques futures extrêmes peut entraîner des facteurs de sécurité excessifs et une suradaptation. L'auteur prévient : « Une suradaptation qui n'est pas nécessaire laisse les clients libres de poursuivre les conseillers si les problèmes ont été survendus et que les coûts de protection s'avèrent excessifs ». Le papier est  ici .

Le Dr Indur M. Goklany a préparé une étude qui examine si les pertes dues à de tels événements (mesurées par les décès et les taux de mortalité agrégés) ont augmenté à l'échelle mondiale et aux États-Unis au cours des dernières décennies. Il met ces décès et taux de mortalité en perspective en les comparant au fardeau global de la mortalité, et discute brièvement de ce que les tendances de ces mesures impliquent sur la capacité d'adaptation humaine. À l'échelle mondiale, la mortalité et les taux de mortalité ont diminué de 95 % ou plus depuis les années 1920. Les améliorations les plus importantes provenaient de la baisse de la mortalité due aux sécheresses et aux inondations, qui étaient apparemment responsables de 93 % de tous les décès causés par des événements extrêmes au cours du 20 
e siècle. Voir  papier .

Le graphique le plus révélateur est le premier dans l'article ci-dessous :

taux de mortalité mondiaux - événements extrêmes

Le graphique affiche des données sur les taux de mortalité et de mortalité mondiaux agrégés entre 1900 et 2006 pour les événements extrêmes liés aux conditions météorologiques suivants : sécheresses, températures extrêmes (chaleur et froid extrêmes), inondations, glissements de terrain, vagues et surtensions, incendies de forêt et tempêtes de vent de différents types (ex : ouragans, cyclones, tornades, typhons, etc.). Il indique que les taux de mortalité et de mortalité ont diminué au moins depuis les années 1920. Plus précisément, en comparant les années 1920 à la période 2000-2006, le nombre annuel de décès est passé de 485 200 à 22 100 (une baisse de 95 %), tandis que le taux de mortalité par million est passé de 241,8 à 3,5 (une baisse de 99 %).

Les chercheurs ont analysé 7 000 ans de données provenant de carottes de sédiments de la région côtière du sud de la France et ont découvert que les tempêtes violentes étaient plus fréquentes pendant le refroidissement global, y compris le petit âge glaciaire, que pendant les périodes de réchauffement climatique, comme la période de réchauffement médiéval. Voir  
papier .

Le GIEC suggère que le réchauffement pourrait entraîner davantage d'inondations et de courants d'air. Il n'y a aucune raison pour qu'un monde plus chaud ait plus d'inondations et de courants d'air. Il n'y a pas de tendance à l'augmentation des crues ou des courants d'air. L'indice Palmer Dought maintenu par la NOAA ne montre aucune tendance des inondations ou des sécheresses aux États-Unis, comme indiqué ci-dessous.

Sécheresse américaine

Les années 1930 et 1950 ont été très sèches aux États-Unis. Nous avons de la chance que le climat soit tellement meilleur maintenant.

Pederson et al. ont constaté que les sécheresses de la fin du petit âge glaciaire étaient plus graves et de plus longue durée que celles des 20e 
et 21e siècles . Des climats plus frais ont produit des conditions plus extrêmes dans de nombreuses régions du monde. Voir  ici .

Woodhouse et al. a publié une perspective de 1 200 ans des sécheresses du sud-ouest de l'Amérique du Nord : « La période médiévale a été caractérisée par une sécheresse généralisée et régionalement sévère et soutenue dans l'ouest de l'Amérique du Nord. Les données indirectes documentant la sécheresse indiquent des périodes séculaires d'aridité accrue dans le centre et l'ouest des États-Unis. la sécheresse récente, jusqu'à présent, n'est rien en comparaison hydrologique.". Voir  
ici .

Le graphique ci-dessous montre la proportion de la planète en sécheresse, par intensité, 1982-2012. Le graphique provient du Système mondial intégré de surveillance et de prévision de la sécheresse (GIDMaPS), qui fournit des informations sur la sécheresse basées sur plusieurs indicateurs de sécheresse. Le système fournit des informations météorologiques et agricoles sur la sécheresse basées sur plusieurs satellites et des ensembles de données sur les précipitations et l'humidité du sol basés sur des modèles. Le Do correspond à une sécheresse légère, D1 à une sécheresse modérée, D2 et D3 à une sévérité croissante, D4 ​​à une sécheresse extrême. Il y a une légère tendance à la baisse des sécheresses totales tout au long de la période. Voir  
ici .

proportion de la sécheresse de la planète

L'activité solaire était élevée pendant les périodes médiévales et modernes. Une énergie solaire élevée peut entraîner des périodes de sécheresse plus intenses et n'a rien à voir avec les émissions de CO 2 .

  Le réchauffement est bon pour la santé

Les avantages pour la santé d'une planète plus chaude sont plusieurs fois supérieurs à tout effet nocif. Les effets positifs de la chaleur sur la santé ont été bien documentés au cours du dernier quart de siècle. Les premières études de Bull (1973) et Bull et Morton (1975a,b) en Angleterre et au Pays de Galles, par exemple, ont démontré que même des changements normaux de température sont généralement associés à des changements inverses des taux de mortalité, en particulier chez les personnes âgées. Autrement dit, lorsque les températures augmentent , les taux de mortalité diminuent , tandis que lorsque les températures baissent , les taux de mortalité augmentent .

Les spéculations sur l'impact potentiel du réchauffement continu sur la santé humaine se concentrent souvent sur les maladies transmises par les moustiques. Les modèles élémentaires suggèrent que des températures mondiales plus élevées augmenteront leurs taux de transmission et étendront leurs aires géographiques. Cependant, l'histoire de trois de ces maladies - le paludisme, la fièvre jaune et la dengue - révèle que le climat a rarement été le principal déterminant de leur prévalence ou de leur étendue. Les activités humaines et leur impact sur l'écologie locale ont généralement été beaucoup plus importants. Il est donc inapproprié d'utiliser des modèles basés sur le climat pour prédire la prévalence future.

Le Dr Benny Peiser écrit : « Rien qu'en Europe et en Russie, plus de 100 000 personnes meurent en moyenne chaque année à cause des températures froides pendant les mois d'hiver. Il dit que les sociétés modernes sont devenues beaucoup plus résistantes aux extrêmes climatiques grâce à l'accès à la climatisation et à l'amélioration des soins de santé.

Le Dr Peiser écrit : « Les principaux experts médicaux britanniques ont calculé qu'une augmentation de la température moyenne de deux degrés Celsius au cours des 50 prochaines années augmenterait les décès liés à la chaleur en Grande-Bretagne d'environ 2 000 – mais réduirait les décès liés au froid d'environ 20 000. En d'autres termes, la diminution du nombre de décès liés au froid serait beaucoup plus importante (d'un facteur 10) que les décès liés à la chaleur dus à la hausse des températures. par d'autres chercheurs. Ils estiment qu'un réchauffement de 2,5 degrés Celsius réduirait le taux de mortalité annuel de 40 000 rien qu'aux États-Unis tout en réduisant les coûts médicaux de près de 20 milliards de dollars par an. Voir  
ici . Rapports

de Statistique Canada décès par mois. Le graphique ci-dessous montre les décès par jour pour chaque mois au Canada en moyenne sur les années 2007-2011.

Taux de mortalité au Canada par mois

Le graphique montre que le taux de mortalité en janvier est supérieur de plus de 100 décès/jour à celui d'août. Les maladies liées au froid comme la grippe, les accidents sur les routes verglacées font de l'hiver une période dangereuse.

  Agriculture et changement climatique

Une petite baisse de température diminuerait la durée de la saison de croissance et entraînerait une forte baisse de la superficie arable dans les climats nordiques. À l'inverse, le réchauffement allongerait la saison de croissance et augmenterait la superficie propice à l'agriculture.

La carte ci-dessous montre la principale zone actuelle de production de blé au Canada et la réduction qui résulterait d'une baisse de 1 et 2 degrés Celsius de la température moyenne de surface.

superficie de production canadienne de blé par rapport à la température
Source .

Les rendements du maïs, du blé et du riz aux États-Unis ont augmenté avec les températures. Les rendements du maïs ont augmenté de 130 % depuis 1960, voir  ici .

Le graphique ci-dessous montre les rendements de maïs des principaux pays producteurs par rapport à la température mensuelle moyenne du mois le plus chaud de la saison de croissance.

Rendements de maïs

Le graphique montre une mauvaise corrélation entre le rendement et la température parce que d'autres facteurs comme la technologie et les précipitations sont plus importants, mais il y a une augmentation insignifiante du rendement avec des températures plus élevées. Rien n'indique que des températures plus élevées entraîneraient une baisse des rendements des cultures. Les données de rendement du maïs sont  ici . Le maïs et d'autres cultures sont disponibles dans une variété de souches qui poussent mieux dans différents climats. Les agriculteurs sélectionnent la variété qui pousse le mieux dans leur climat. Certains auteurs alarmistes rapportent que des températures plus élevées réduiraient les rendements de souches particulières, entraînant une réduction des rendements mondiaux des cultures. Mais en réalité, les agriculteurs sélectionneraient simplement une autre souche de culture en réponse à un changement climatique, de sorte qu'il n'y aurait pas d'impact significatif sur les rendements mondiaux des cultures.

Le graphique ci-dessous, préparé par le Dr Roy Spencer, montre les rendements mondiaux croissants de blé, de soja et de maïs de 1960 à 2011. Il montre que les rendements (production par superficie) suivent une tendance linéaire à la hausse depuis au moins 50 ans et ne montrent aucune corrélation significative avec les températures. 
Source .

  Effets de réchauffement sur les animaux

Les températures plus élevées et les concentrations de CO 2 améliorent la croissance des plantes, en particulier des arbres. Cela augmente l'habitat disponible pour de nombreux animaux. La plupart des études scientifiques montrent une augmentation de la biodiversité presque partout sur Terre qui n'est pas limitée par la destruction de l'habitat en réponse au réchauffement climatique et à l' enrichissement en CO 2 atmosphérique.

L'alarmiste du réchauffement climatique a choisi l'ours polaire comme animal d'affiche. Le magazine Time a dit à ses lecteurs qu'ils devraient s'inquiéter de l'extinction des ours polaires. Cependant, les données ne justifient pas les raisons de s'inquiéter. Dans la région de la baie de Baffin entre l'Amérique du Nord et le Groenland, les températures ont baissé et la population d'ours polaires a diminué. Dans la région de la mer de Beaufort, la température a augmenté, tout comme la population d'ours polaires. Dans d'autres régions, la population d'ours polaires est restée stable. Ainsi, la tendance des populations d'ours polaires par rapport à la température a été à l'opposé de ce que Time laisserait croire à ses lecteurs.

L'ouest de l'Arctique s'est récemment réchauffé en raison de l'oscillation décennale du Pacifique, qui modifie périodiquement le climat de l'ouest de l'Arctique en modifiant les courants océaniques. Ces cycles se sont déroulés sur des milliers d'années. Il n'existe aucune preuve suggérant que les ours polaires et les systèmes de conservation qui les régissent ne s'adapteront pas et ne répondront pas aux nouvelles conditions. Les ours polaires ont survécu à de nombreux cycles climatiques similaires. Voir  
ici pour un article du Dr Mitchell Taylor, biologiste de l'ours polaire.

Les fossiles d'ours polaires ont été datés de plus de cent mille ans, ce qui signifie que les ours polaires ont déjà survécu à une période interglaciaire où les températures étaient considérablement plus chaudes qu'elles ne le sont actuellement et où, très probablement, les niveaux de glace de mer arctique en été étaient également bas.

Les scientifiques canadiens ont résumé les diverses estimations des populations d'ours polaires lors d'une réunion internationale en 1965 comme suit :
« Scott et al. (1959) ont conclu qu'environ 2 000 à 2 500 ours polaires existaient près de la côte de l'Alaska. Par extrapolation, ils sont arrivés à un nombre total d'ours polaires. population de 17 000 à 19 000 animaux. Vspensky (1961) a estimé la population mondiale d'ours polaires à 5 000 à 8 000 animaux. Harington (1964) ... estime que la population mondiale d'ours polaires dépasse largement 10 000. "

En 1993, le communiqué de presse du Polar Bear Specialist Group notait: "L'état des connaissances sur les sous-populations individuelles varie de bon à presque rien." Ensuite, il a déclaré que "la population mondiale d'ours polaires se situerait entre 21 000 et 28 000 environ". En 2005, le groupe a rapporté "Le nombre total d'ours polaires dans le monde est estimé à 20 000-25 000". En 2013, il a été signalé qu'il y avait maintenant 22 600 à 32 000 ours polaires dans le monde, lorsqu'ils étaient comptés par nation. Voir  
ici . Le groupe de spécialistes de l'ours polaire de l'Union internationale pour la conservation de la nature (UICN) a signalé en mai 2011 qu'il n'y avait aucun changement dans la population d'ours polaires au cours de la dernière période de quatre ans étudiée. La population d'ours polaires est apparemment plus du double de celle des années 1960.

ici par le Dr Susan Crockford sur la base des données du groupe de spécialistes de l'ours polaire UICN/SSC.

ours polaire de crockford

Le Dr Crockford écrit: "Ce qui est évident, c'est que la population mondiale d'ours polaires n'a pas diminué au cours des 30 dernières années".

Le CO 2 augmente la croissance des plantes et des forêts

Le CO 2 est un engrais majeur pour les plantes. L'augmentation des émissions de CO 2 a entraîné une augmentation des rendements des cultures et une croissance plus rapide des plantes et des forêts, verdissant ainsi la planète. Les estimations varient, mais quelque part autour de 15% semble être le chiffre commun cité pour l'augmentation des rendements mondiaux des cultures vivrières due à la fertilisation aérienne avec une augmentation du dioxyde de carbone depuis 1950. Cette augmentation a à la fois permis d'éviter une catastrophe malthusienne et de préserver ou de restituer d'énormes étendues de des terres marginales comme habitat faunique qui, autrement, auraient dû être mises sous la charrue pour tenter de nourrir la population mondiale croissante. Les producteurs commerciaux génèrent délibérément du CO 2et augmenter ses niveaux dans les serres agricoles entre 700 ppm et 1 000 ppm pour augmenter la productivité et améliorer l'efficacité de l'eau des cultures vivrières bien au-delà de celles de l' atmosphère quelque peu affamée de CO 2 . Le CO 2 nourrit les forêts, produit plus de bois utilisable dans les lots de bois, ce qui signifie qu'il y a moins de pression pour couper les vieilles forêts ou pousser dans l'habitat faunique "naturel", rend les plantes plus économes en eau, aidant à repousser les déserts envahissants en Afrique et en Asie et augmente généralement bio-productivité. Voir  Efficacité de l'utilisation de l'eau (espèces agricoles) -- Résumé dans CO 2  Science.

Une étude majeure (Zhu 2016) menée par 32 auteurs de huit pays a révélé une augmentation généralisée du verdissement de plus de 25 % à 550 de la surface végétalisée mondiale, avec le CO 
2effet de fertilisation expliquant 70% de la tendance au verdissement observée. Les feuilles vertes produisent des sucres qui sont la source de nourriture, de fibres et de carburant pour la vie sur Terre. Le réchauffement climatique depuis 1982 explique 8% de la tendance au verdissement, principalement dans les hautes latitudes et le plateau tibétain. L'étude a utilisé trois enregistrements d'indices satellites de surface foliaire pour déterminer les tendances de verdissement et a utilisé des modèles écosystémiques pour répartir les tendances de verdissement au cours de la période 1982-2009 entre quatre facteurs clés. L'augmentation de la végétation est considérablement plus importante que ce que suggéraient les études précédentes. L'auteur principal, le Dr Zaichun Zhu, a déclaré : « Le verdissement au cours des 33 dernières années équivaut à l'ajout d'un continent vert d'environ deux fois la taille de la partie continentale des États-Unis (18 millions de km 2 ) ». Pour plus de détails voir le  résumé et  les commentairespar Nic Lewis. La carte ci-dessous montre la variation en pourcentage de la surface foliaire de 1982 à 2015.

Un article de  Donohue et al , publié en mai 2013, constate que "les observations satellitaires, analysées pour supprimer l'effet des variations des précipitations, montrent que la couverture dans les environnements [chauds et arides] a augmenté de 11 %. Nos résultats confirment que le CO prévu 2 , l'effet de fertilisation se produit parallèlement aux perturbations anthropiques en cours du cycle du carbone et que l'effet de fertilisation est désormais un processus de surface terrestre important. » La conclusion de l'article indique : « Les observations satellitaires et terrestres des parcours du monde révèlent des changements généralisés vers des paysages à végétation plus dense et plus boisés. Nos résultats suggèrent que l'augmentation du CO 2les concentrations dans l'atmosphère ont joué un rôle important dans cette tendance au verdissement et que, là où l'eau est la limite dominante à la croissance, la couverture a augmenté en proportion directe avec l' augmentation de l'efficacité d'utilisation de l'eau de la photosynthèse induite par le CO 2 .

Donohue GRL Mai 2013 Carte verdissement de la terre

Changements estimés du couvert végétal dus à la fertilisation au CO 2 entre 1982 et 2010 (Donohue et al., 2013 GRL).

  Réponse de la croissance du peuplier faux-tremble à l'augmentation du CO 2 et de la température

Jurik et al. (1984) ont exposé des feuilles de peuplier faux-tremble à des concentrations atmosphériques de CO 2 de 325 ppm et 1935 ppm et ont mesuré leurs taux de photosynthèse à différentes températures. À 25 °C, où le taux net de photosynthèse des feuilles exposées à 325 ppm de CO 2 est maximal, le CO 2 supplémentaire de cette étude a augmenté le taux net de photosynthèse du feuillage de près de 100 % ; et à 36°C, où le taux photosynthétique net des feuilles exposées à 1935 ppm de CO 2 est maximal, le CO 2 supplémentaire a augmenté le taux photosynthétique net du feuillage d'un énorme 4550. Ces résultats sont similaires à des études sur de nombreuses autres plantes.

  Réponse de la croissance des jeunes pins Eldarica au CO 2

Réponse de la croissance des jeunes pins Eldarica au CO2

De jeunes pins Eldarica ont été cultivés pendant 23 mois sous quatre concentrations de CO 2 puis abattus et pesés. Chaque point représente un arbre individuel. Les poids des parties d'arbre sont indiqués. Voir  ici .

  Réponse du rendement du blé au CO 2

Réponse du rendement du blé au CO2

Ce graphique montre la réponse du blé cultivé dans des conditions humides et lorsque le blé a été stressé par le manque d'eau. Il s'agissait d'expériences en plein champ. Le blé a été cultivé de la manière habituelle, mais les concentrations atmosphériques de CO 2 des sections circulaires des champs ont été augmentées au moyen de réseaux d'équipements contrôlés par ordinateur qui libéraient du CO 2 dans l'air pour maintenir les niveaux spécifiés. Les augmentations moyennes induites par le CO 2 pour les deux années étaient de 10 % pour les conditions humides et de 23 % pour les conditions sèches.

Puisque le CO 
2 atmosphérique est la "nourriture" de base de presque toutes les plantes, plus il y en a dans l'air, mieux elles fonctionnent et plus elles deviennent productives. Pour une augmentation de 300 ppm du CO 2 de l'atmosphèresupérieure au niveau de base actuel de la planète d'un peu moins de 400 ppm, par exemple, la productivité des plantes herbacées terrestres augmente d'environ 30 % (Kimball, 1983 ; Idso et Idso, 1994), tandis que la productivité de ses plantes ligneuses plantes augmente de quelque chose de l'ordre de 550 (Saxe et al., 1998 ; Idso et Kimball, 2001). Ainsi, à mesure que la teneur en CO 2 de l'air continue d'augmenter, la capacité de production ou l'efficacité de l'utilisation des sols de la planète continue également d'augmenter, car l'effet de fertilisation aérienne de la tendance à la hausse du CO 2 atmosphériquela concentration augmente les taux de croissance de presque toutes les plantes. Une étude de 2003 utilisant 18 ans (1982 à 1999) d'observations par satellite montre que la production végétale primaire nette mondiale a augmenté de 6 % sur 18 ans. La plus forte augmentation a été enregistrée dans les écosystèmes tropicaux. Les forêts tropicales amazoniennes ont représenté 42 % de l'augmentation mondiale de la production primaire nette. Voir  ici .

Il a été démontré de manière concluante que des niveaux élevés de CO 
2 atmosphérique stimulent la productivité et la croissance des plantes. Une étude d'Idos publiée par  CO 2 Science montre le bénéfice monétaire de l'effet fertilisant du CO 2 atmosphérique de quarante-cinq cultures qui ont fourni 95% de la production alimentaire mondiale totale sur la période 1961-2011 .La valeur monétaire totale annuelle de cet avantage est passée de 22,7 milliards de dollars en 1961 à plus de 170 milliards de dollars en 2011, soit une somme totale de 3,9 billions de dollars sur la période de 50 ans 1961-2011, le tout en dollars américains de 2016. Voir l'étude de CO 2 Science  ici .

La  
population mondialeest de 7,9 milliards et augmente de 1,18% par an. Les gens auront besoin de plus en plus de nourriture et davantage d'écosystèmes naturels seront perdus au profit des cultures et des pâturages. La perte d'habitat qui en résulte peut entraîner l'extinction d'espèces si les rendements des cultures n'augmentent pas de manière significative. Malheureusement, le taux d'augmentation des rendements des cultures diminue à mesure que les cultures approchent des limites de rendement génétique. L'augmentation des rendements des cultures sur les terres agricoles existantes aiderait à préserver les terres pour la nature. Si les rendements des cultures n'augmentent pas, les humains subiront des famines plus fréquentes. Heureusement, l'augmentation du CO 2augmentera considérablement les rendements des cultures et est essentielle pour prévenir ou retarder la destruction de l'habitat et des espèces animales, et peut nous permettre de produire suffisamment de produits agricoles pour nourrir la population croissante. Toute action entreprise par nous pour ralentir ou inverser l'augmentation de la concentration de CO 2 dans l'air peut entraîner des famines et des extinctions d'espèces plus fréquentes.

Voir  
Sciences du CO 2 .

Protocole de Kyoto - Mauvaise affectation des fonds

De tous les problèmes majeurs du monde, le changement climatique est l'un des moins importants car les fonds dépensés pour réduire les émissions de CO 2 auront un effet insignifiant sur le climat. Les projections des modèles informatiques montrent que la mise en œuvre complète du Protocole de Kyoto pourrait entraîner une réduction de la température indétectable de 0,06 degrés Celsius d'ici 2050 pour un coût d'environ 1 000 000 000 000 $ US. Voir  ici . (Cette estimation suppose que le soleil n'a aucun effet sur le climat. Étant donné que le soleil a un effet majeur, l'estimation de 0,06 degrés Celsius est probablement élevée d'un facteur de 2 ou plus.)

Le  
Consensus de Copenhague(dirigé par l'écologiste Bjorn Lomborg) a analysé les principaux défis auxquels le monde est confronté et a produit une liste hiérarchisée d'opportunités répondant à ces défis. Les soumissions de 24 ambassadeurs des Nations Unies et autres diplomates de haut rang ont été examinées par des économistes et ont déterminé que la priorité absolue pour relever les grands défis mondiaux serait donnée aux maladies transmissibles, à l'assainissement et à l'eau, à la malnutrition et à l'éducation. Au bas de la liste des 40 catégories se trouvaient les problèmes liés au changement climatique et au protocole de Kyoto.

Réchauffement sur d'autres planètes

Si le Soleil est le principal moteur du changement climatique, il faut s'attendre à voir des preuves du réchauffement récent sur d'autres planètes. Comme la Terre s'est réchauffée au cours des 100 dernières années, Jupiter, Neptune, Mars et Pluton se sont également réchauffés.

Jupiter est la plus grande planète du système solaire. Sa caractéristique la plus distinctive est la grande tache rouge, qui est une énorme tempête qui fait rage depuis plus de 300 ans. Une nouvelle tempête, appelée Red Spot Jr. s'est récemment formée à partir de la fusion de trois tempêtes de forme ovale entre 1998 et 2000. Les dernières images du télescope spatial Hubble suggèrent que Jupiter est au milieu d'un changement global qui peut modifier les températures en jusqu'à 10 degrés Fahrenheit sur différentes parties du globe. La nouvelle tempête a monté en altitude au-dessus des nuages ​​environnants, ce qui signale une augmentation de la température. Voir 
ici de Space.com.

Tache rouge de Jupiter

Neptune est la planète la plus éloignée du Soleil (Pluton est maintenant une planète naine) et orbite autour du Soleil à 30 fois la distance du Soleil à la Terre.

  Réchauffement de Neptune

Réchauffement de Neptune

Dans le récent article, Hammel et Lockwood, du Space Science Institute du Colorado et de l'Observatoire Lowell, montrent que Neptune devient plus brillante depuis 1980 environ ; de plus, les mesures infrarouges de la planète depuis 1980 montrent que la planète s'est réchauffée régulièrement de 1980 à 2004.

Dans la figure, (a) représente la lumière visible corrigée de Neptune de 1950 à 2006 ; (b) montre les anomalies de température de la Terre; (c) montre l'irradiance solaire totale en pourcentage de variation par année; (d) montre l'émission ultraviolette du Soleil. Toutes les données ont été corrigées des effets des saisons de Neptune, des variations de son orbite, de l'inclinaison apparente de l'axe vu de la Terre, de la distance variable de Neptune à la Terre et des changements dans l'atmosphère près de l'observatoire Lowell.

Voir 
ici pour plus d'informations .

Il existe également des preuves solides du réchauffement climatique sur la plus grande lune de Neptune, Triton, qui s'est considérablement réchauffée depuis que le vaisseau spatial Voyager l'a visitée en 1988. La tendance au réchauffement provoque la transformation de la surface gelée d'azote gazeux de Triton en gaz, ce qui rend son atmosphère plus dense. Voir  
ici .

  Réchauffement de Mars

Une étude récente montre que Mars se réchauffe quatre fois plus vite que la Terre. Mars se réchauffe en raison de l'activité solaire accrue, ce qui augmente les tempêtes de poussière. Les auteurs de l'étude dirigée par Lori Fenton, scientifique planétaire à la NASA, affirment que la poussière fait que l'atmosphère absorbe plus de chaleur, provoquant une rétroaction positive. Les températures de l'air à la surface de Mars ont augmenté de 0,65 °C (1,17 F) entre les années 1970 et les années 1990. La glace résiduelle sur le pôle sud martien, notent-ils, a régulièrement reculé au cours des quatre dernières années. Des images de spectromètre thermique de Mars prises par la mission Viking de la NASA à la fin des années 1970 ont été comparées à des images similaires recueillies plus de 20 ans plus tard par le Global Surveyor.

Mars polar ice cap
La calotte polaire de Mars

Voir  
ici et  ici pour plus d'informations.

  Réchauffement de Pluton

La planète rétrogradée Pluton subit également un réchauffement selon les astronomes. La pression atmosphérique de Pluton a triplé au cours des 14 dernières années, indiquant une hausse des températures alors même que la planète s'éloigne du Soleil. Voir  ici pour plus d'informations.

Une vérité qui dérange

Le film d'Al Gore "Une vérité qui dérange" (AIT) est grossièrement trompeur sur le changement climatique. Presque toutes les déclarations majeures faites dans le film sont unilatérales, exagérées ou carrément fausses. Ce film a eu un effet important sur l'opinion publique même si la plupart des scientifiques s'accordent à dire qu'il est trompeur.

Certains des problèmes avec AIT sont:

• Implique qu'au cours des 650 000 dernières années, les changements dans les niveaux de dioxyde de carbone ont largement provoqué des changements dans la température mondiale, alors que la causalité va principalement dans l'autre sens, les changements de CO 2 suivant les changements de température mondiale de centaines à de milliers d'années. Ne mentionne jamais que les températures mondiales ont été plus chaudes qu'aujourd'hui au cours de chacune des quatre dernières périodes interglaciaires, même si les niveaux de CO 2 étaient plus faibles.

• Présente des images montrant ce que 20 pieds d'élévation du niveau de la mer feraient aux principales communautés côtières du monde. Il n'y a aucune preuve crédible d'un effondrement imminent des grandes calottes glaciaires. Nous disposons d'assez bonnes données sur les changements du bilan de masse des glaces et leurs effets sur le niveau de la mer. Le scientifique de la NASA Jay Zwally et ses collègues ont découvert une élévation combinée du niveau de la mer de la perte de glace du Groenland et de l'Antarctique équivalente à 0,05 mm par an entre 1992 et 2002. À ce rythme, il faudrait un siècle pour élever le niveau de la mer de seulement 5 mm.

• Présente la reconstruction en bâton de hockey de l'historique des températures de l'hémisphère Nord utilisée par le GIEC, selon laquelle les années 1990 ont probablement été la décennie la plus chaude du dernier millénaire. Il est maintenant largement reconnu que le bâton de hockey a été construit sur une méthodologie erronée et des données inappropriées.

• Suppose une relation linéaire entre les niveaux de CO 
2 et les températures globales, alors que l'effet de réchauffement réel du CO 2 est logarithmique, ce qui signifie que chaque augmentation de 100 ppm des niveaux de CO 2 ajoute moins de réchauffement que l'augmentation précédente de 100 ppm. Une augmentation de 100 ppm à 600 ppm augmente les températures de 63 % d'une augmentation de 100 ppm à 400 ppm.

• Affirme que le taux de réchauffement climatique s'accélère, alors que le taux a été constant au cours des 30 dernières années jusqu'en 2002, environ 0,17 °C par décennie, et aucun réchauffement de 2002 à 2014.

• Allégations selon lesquelles le lac Tchad en Afrique du Nord s'assèche en raison du réchauffement climatique. Le lac est la source d'eau de 20 millions de personnes et sa profondeur moyenne n'est que de 1,5 à 4,5 mètres. Il a en fait été sec plusieurs fois dans le passé : en 8500 avant JC, 5500 avant JC, 2000 avant JC et 100 avant JC. Le lac a rétréci en raison de l'expansion rapide de la population puisant l'eau du lac, de l'introduction de technologies d'irrigation et du surpâturage local. Ces causes ne sont ni globales ni liées au réchauffement et sont totalement indépendantes du CO 
2 . En outre, l'Afrique, en tant que continent, a connu une évolution spectaculaire vers un temps plus sec à la fin du 19ème siècle qui n'est généralement pas attribué au CO 2 .

• détourne l'attention du principal problème des ouragans auquel sont confrontés les États-Unis : la concentration toujours croissante de la population et des richesses dans les régions côtières vulnérables, qui est en partie une conséquence de l'assurance fédérale contre les inondations et d'autres subventions politiques.

• Blâme le réchauffement climatique pour le déclin depuis les années 1960 de la population de manchots empereurs en Antarctique, ce qui implique que les manchots sont en péril, leur nombre diminuant à mesure que le monde se réchauffe. En fait, la population a diminué dans les années 1970 et est stable depuis la fin des années 1980.

• N'explique jamais pourquoi quiconque devrait s'inquiéter du réchauffement actuel de l'Arctique, étant donné que nos ancêtres de l'âge de pierre ont survécu et ont probablement bénéficié du réchauffement beaucoup plus fort et plus long de l'Arctique connu sous le nom d'optimum climatique de l'Holocène.

• Présente la projection d'un modèle climatique d'augmentation de la sécheresse aux États-Unis comme faisant autorité, même si un autre modèle de premier plan prévoit une augmentation de l'humidité. Les prévisions hydrologiques des modèles climatiques à l'échelle régionale sont notoirement peu fiables. La plupart des États-Unis, en dehors du sud-ouest, sont devenus plus humides entre 1925 et 2003.

• Le réchauffement climatique est responsable du nombre record de typhons qui ont frappé le Japon en 2004. Les conditions météorologiques locales, et non les températures mondiales moyennes, déterminent la trajectoire de tempêtes particulières, et les données remontant à 1950 ne montrent aucune corrélation entre l'activité des tempêtes du Pacifique Nord et les températures mondiales.

• Les allégations selon lesquelles le réchauffement climatique met en danger les ours polaires même si les populations d'ours polaires augmentent dans les zones arctiques où elles se réchauffent et diminuent dans les zones arctiques où elles se refroidissent. En fait, 11 des 13 principaux groupes au Canada sont prospères, et il est prouvé que les seuls groupes qui ne prospèrent pas se trouvent dans une région de l'Arctique qui s'est refroidie. Les ours polaires ont survécu à l'optimum climatique de l'Holocène et à la période chaude médiévale, les deux périodes étaient nettement plus chaudes que le climat actuel.

• Avertit qu'un doublement des niveaux préindustriels de CO 
2 à 560 ppm acidifiera tellement l'eau de mer que toutes les zones optimales pour la construction de récifs coralliens disparaîtront d'ici 2050. Ce n'est pas plausible. Les taux de calcification des coraux ont augmenté à mesure que les températures océaniques et le CO 2les niveaux ont augmenté et les principaux constructeurs de récifs d'aujourd'hui ont évolué et prospéré au cours de la période mésozoïque, lorsque les niveaux de CO 2 atmosphérique ont plané au-dessus de 1 000 ppm pendant 150 millions d'années et ont dépassé 2 000 ppm pendant plusieurs
millions d'années.

• Blâme le réchauffement climatique pour la résurgence du paludisme au Kenya, même si plusieurs études n'ont trouvé aucun lien climatique et attribuent le problème à la diminution de la pulvérisation des maisons avec du DDT et à la résistance aux médicaments antipaludiques.

• Réclamations que 2004 a établi un record absolu pour le nombre de tornades aux États-Unis. La fréquence des tornades n'a pas augmenté ; au contraire, la détection de petites tornades a augmenté. Si l'on considère les tornades détectables depuis de nombreuses décennies (catégorie F-3 ou plus), il y a en fait une tendance à la baisse depuis 1950.

• Cite Tuvalu, Polynésie, comme un endroit où la montée du niveau de la mer oblige les habitants à évacuer leurs maisons. En réalité, le niveau de la mer à Tuvalu a chuté au cours de la seconde moitié du 
XXe siècle et même au cours des années 1990.

• Néglige de mentionner que le réchauffement climatique pourrait réduire la sévérité des tempêtes hivernales aussi appelées tempêtes frontales car leur énergie provient des collisions de masses d'air (fronts) en diminuant le différentiel de température entre les masses d'air en collision.

• Ignore le rôle important de la variabilité naturelle dans le climat de l'Arctique, ne mentionnant jamais que les températures de l'Arctique au cours des années 1930 ont égalé ou dépassé celles de la fin du 20e 
siècle , ou que l'Arctique au début et au milieu de l'Holocène était nettement plus chaud qu'il ne l'est aujourd'hui.

• Ignore une étude réalisée par Curt Davis, professeur à l'Université du Missouri, qui a révélé un gain global de masse de glace antarctique au cours de la période 1992-2003.

• Néglige de mentionner que les satellites de la NASA montrent une tendance au refroidissement de l'Antarctique de 0,11°C par décennie depuis 1978.

• Appelle le dioxyde de carbone comme le gaz à effet de serre le plus important. La vapeur d'eau et les nuages ​​sont les principaux contributeurs et représentent plus de 70 % de l'effet de serre.

• A affirmé que la calotte glaciaire du mont Kilimandjaro est en train de disparaître en raison du réchauffement climatique, bien que les mesures par satellite ne montrent aucun changement de température au sommet.

Ceci n'est qu'une liste partielle d'erreurs, d'omissions et d'exagérations. Voir  ici pour en savoir plus sur le Competitive Enterprise Institute et  ici pour un article répertoriant 35 erreurs dans AIT par Christopher Monckton de Brenchley.

La décision du gouvernement britannique de distribuer le film "Une vérité qui dérange" dans les écoles a fait l'objet d'une action en justice. La Haute Cour britannique a conclu que le film était faux ou trompeur à 11 égards.

Pour que le film soit projeté, la Haute Cour a statué en octobre 2007 que les enseignants devaient faire comprendre à leurs élèves que :
  1.) Le film est une œuvre politique et ne promeut qu'un côté de l'argument.
  2.) Neuf inexactitudes doivent être spécifiquement portées à l'attention des écoliers.

Les inexactitudes sont répertoriées  
ici .

Al Gore et le GIEC ont partagé le prix Nobel de la paix 2007 "pour leurs efforts visant à accumuler et à diffuser une plus grande connaissance sur le changement climatique d'origine humaine et à jeter les bases des mesures nécessaires pour contrer ce changement". Irena Sendler a été considérée pour le prix pour avoir sauvé 2500 enfants et nourrissons du ghetto nazi de Varsovie et des camps d'extermination pendant la Seconde Guerre mondiale. Elle n'a pas été sélectionnée. Voir son histoire  
ici .

Avertissements de refroidissement global

Nigel Weiss, professeur émérite au Département de mathématiques appliquées et de physique théorique de l'Université de Cambridge, explique que tout au long de l'histoire de la Terre, le changement climatique a été provoqué par des facteurs autres que l'homme : "Le comportement variable du soleil est une explication évidente", explique le Dr. Weiss, "et il y a de plus en plus de preuves que le climat de la Terre réagit aux modèles changeants de l'activité magnétique solaire." Les caractéristiques magnétiques les plus évidentes du soleil sont les taches solaires, formées lorsque les champs magnétiques traversent la surface du soleil. "Si vous regardez en arrière dans le passé du soleil, vous constatez que nous vivons dans une période d'activité solaire anormalement élevée", déclare le Dr Weiss. Ces périodes d'hyperactivité ne durent pas longtemps, "peut-être 50 à 100 ans, puis vous obtenez un crash", explique le Dr Weiss. 'C'est un système de boom-bust,

Personne ne sait exactement quand un crash se produira, mais certains s'y attendent bientôt, car le champ polaire du soleil est maintenant au plus faible depuis le début des mesures au début des années 1950. Certains prédisent le crash d'ici cinq ans, et beaucoup spéculent sur son effet sur le réchauffement climatique. Plusieurs autorités mettent désormais en garde contre un refroidissement global car le soleil est entré dans une période calme.


Politique de confidentialitéPolitique de cookies

 


 [MT1]De nombreux chercheurs contestent l’utilisation de moyennes de températures que la physique interdit puisque la température est une grandeur intensive et non extensive mais de nombreuses études justifient cette pratique en rappelant que les effets des températures peuvent l’être voir sur le site kin152.fr

 

 [MT2]Tel que décrit ici, l’effet de serre ne tient pas compte des effets de la compression et de la détente dus à la convection !

 [MT3]Même remarque, ce 33°C n’est du qu’en très faible portion aux gaz « dits à effet de serre » En effet la gravité impose un gradient de pression verticale qui, compte tenu de la convection se traduit par une différence de température entre le sol et le sommet de la troposphère qui explique la totalité de l’écart !

 [MT4]Le GIEC ne définit pas l’effet de serre par une différence de température mais par une différence de flux radiatif entre celui émis par le sol vers l’atmosphère et celui émis par la Terre vers le cosmos. Il y a là un abus de langage !

 [MT5]Ce qui ne signifie pas que les grandes longueurs d’ondes montantes disparaissent mais signifie que celles qui continuent ne viennent plus du sol mais des émissions propres de l’atmosphère qui émet selon sa température locale !

 [MT6]Ces commentaires sur ces calculs ne tiennent pas compte du fait que si les radiations venues du sol sont absorbées, celles émises par l’atmosphère localement compte tenu de sa température continuent ! Dans cette gamme de fréquence le sol vu de plus haut n’est plus visible dans les fréquences absorbées !

 [MT7]L’échancrure par son incomplétude montre bien que le haut de l’atmosphère émet à sa propre température dans la gamme de longueur d’onde absorbée et que l’expression absorption à 1OO% ne signifie pas absence totale d’émission vers le haut !

 [MT8]Le GIEC pourrait définir l’effet de serre comme la différence de température moyenne au sol qu’aurait la Terre sans atmosphère mais avec le même albédo et celle qu’elle a avec son atmosphère actuelle. Mais pour le GIEC c’est la différence entre les valeurs du flux émis par la surface et du rayonnement sortant qui est dite « effet de serre » par le GIEC, malgré l’absence de lien physique direct entre eux

 [MT9]Cette façon de voir les phénomènes élimine la prise en compte des effets de la convection qui sont à l’origine par la pression au sol du gradient de température mesuré sur tous les corps telluriques du système solaire !

 [MT10]Les données historiques sont celles qui démontrent le mieux l’innocence des facteurs humains dans l’évolution du climat et la responsabilité de nombreuses causes naturelles qu’il faut maintenant analyser.

 [MT11]Voici un site pour vérifier chaque jour l’état des banquises arctiques et antarctiques :

https://nsidc.org/sea-ice-today/sea-ice-tools/charctic-interactive-sea-ice-graph#anchor-how-to-use-charctic

 

 [MT12]Les bras de la galaxie sont en fait des ondes circulaires qui rapprochent ou éloignent localement les corps célestes les uns des autres.

 [MT13]La condensation se faisant plus bas, les températures y sont plus élevées donc l’atmosphère rayonne là plus d’énergie vers le cosmos de plus, au-dessus il n’y a plus d’eau pour l’absorber. Ce sont les chaleurs latentes et sensibles de l’eau qui se condense qui s’échappent.

 [MT14]MÖRNER dit aussi qu’un changement de volume des eaux de mer et océan par dilatation due à la température n’a pas d’influence sur le niveau de l’eau sur les côtes car la variation de profondeur serait proportionnelle à la profondeur locale. Ceci étant due à la gravité.