https://friendsofscience.org/pages/essay.html
Essai scientifique sur le changement climatique
par Ken Gregory
INTRODUCTION
L'un des objectifs de la Friends of Science Society
est d'éduquer le public sur la science du climat et les mérites scientifiques
de l'hypothèse du réchauffement climatique induit par l'homme. La science
du changement climatique est complexe. Malheureusement, la politique et
les médias ont infecté la science. Les instituts de recherche sur le
climat savent qu'ils doivent présenter des prévisions climatiques effrayantes
pour recevoir un financement continu - pas de crise, signifie, pas de
financement. Les médias présentent des histoires de catastrophe climatique
pour vendre leurs produits. La recherche scientifique qui suggère que le changement climatique est
principalement naturel ne reçoit pas beaucoup de couverture médiatique, voire
aucune. Ces facteurs ont amené le grand public à être sérieusement induit
en erreur sur les questions climatiques, ce qui a entraîné des dépenses
inutiles de milliards de dollars dans une tentative inefficace de contrôler le
climat.
Le graphique ci-dessus montre les changements de température [MT1] de la basse troposphère depuis la surface
jusqu'à environ 8 km, tels que déterminés par les données
satellitaires de l'Université de l'Alabama à Huntsville (UAH) . La ligne de meilleur
ajustement (bleu foncé) de janvier 1979 à septembre 2022 indique une tendance
de 0,134 °Celsius/décennie. Les fortes pointes de température de 1998,
2010 et 2016 sont des événements El Niño. Les données de température de surface sont contaminées
par les effets du développement urbain. L'activité du Soleil, qui a
augmenté pendant la majeure partie du 20siècle, est récemment devenu
calme. Le flux magnétique du Soleil a atteint un pic en 1991. Le flux
magnétique élevé réduit la couverture nuageuse et provoque un
réchauffement. Depuis lors, le Soleil s'est calmé, mais il continue de
provoquer un réchauffement pendant quelques décennies après son pic d'intensité
en raison de l'énorme capacité calorifique des océans. Les données sont obtenues à partir d'unités
de sondage micro-ondes (MSU) sur les satellites de la National Oceanic and Atmospheric
Administration, qui relient l'intensité ou la luminosité des micro-ondes émises
par les molécules d'oxygène dans l'atmosphère à la température. L'ensemble
de données MSU représente les températures d'une couche de l'atmosphère qui
s'étend de la surface à environ 8 kilomètres (5 miles) au-dessus de la
surface. La ligne rouge foncé est la moyenne centrée sur 5 ans de la basse
troposphère des modèles climatiques. La tendance du modèle est de 201% des mesures. La
ligne UAH UHIE corr (bleu clair) est la tendance
corrigée de l'effet d'îlot de chaleur urbain basée sur cette étude qui donne une correction de -0,017
°C/décade.
La science en résumé
L'histoire de la Terre nous apprend que le climat
change constamment; des périodes chaudes où les
dinosaures ont prospéré, aux nombreuses périodes glaciaires où les glaciers
couvraient une grande partie de la terre. Le climat a toujours changé en
raison des cycles naturels sans aucune aide humaine.
Le Groupe d'experts intergouvernemental sur l'évolution du climat
(GIEC) des Nations Unies est une organisation politique qui promeut une théorie
selon laquelle les récentes augmentations mineures de température pourraient
être causées en grande partie par les émissions de dioxyde de carbone (CO 2) d'origine humaine. Le CO 2 est un gaz infrarouge, et des
concentrations croissantes peuvent potentiellement augmenter la température
globale moyenne car le gaz absorbe le rayonnement à ondes longues de la Terre
et réémet l'énergie absorbée. Cependant, la capacité de réchauffement du
CO2 est limité car
une grande partie du spectre d'absorption est presque saturée. Lorsque les concentrations de CO2 étaient
dix fois plus élevées qu'aujourd'hui, la Terre était aux prises avec l'une des
périodes glaciaires les plus froides. Le système climatique est dominé
par de fortes rétroactions négatives des nuages et de la vapeur
d'eau qui compensent les effets de réchauffement des émissions de CO2.
L'histoire du climat et de
la concentration de CO2 montre
que les changements de température précèdent les changements de CO2 et
ne peut pas être un moteur majeur du climat. Les changements de température sur
différentes échelles de temps ont été bien corrélés aux cycles solaires, au
flux de rayons cosmiques et à la couverture nuageuse. Des recherches récentes montrent
que les rayons cosmiques agissent comme un catalyseur pour créer des nuages
bas, qui refroidissent la planète. Lorsque le
Soleil est plus actif, le vent solaire repousse les rayons cosmiques, réduisant
la couverture nuageuse basse permettant au Soleil de réchauffer la planète.
Les résultats des modèles informatiques présentés dans le
cinquième rapport d'évaluation du GIEC prédisent que le réchauffement
climatique entraînera un profil de température distinctif dans l'atmosphère
avec un taux de réchauffement accru dans la haute atmosphère à une altitude de
8 à 12 km au-dessus des tropiques. Le profil de température prévu est le
résultat d'une augmentation attendue de la vapeur d'eau dans la haute
atmosphère qui triplerait le réchauffement CO2 induit. Les modèles
informatiques sont programmés pour prévoir une humidité relative constante de
la vapeur d'eau avec l'augmentation du CO2 résultant en une importante
rétroaction de la vapeur d'eau. Les données de température réelles ne montrent pas un
telle amplification du réchauffement profil. Par conséquent, la
comparaison des données observées aux résultats des modèles informatiques
prouve qu'aucune amplification du réchauffement induite par la vapeur d'eau
n'existe, de sorte que le CO2 n'est
pas le principal facteur climatique. Dans les couches d'atmosphère
proches de 8 km, la tendance de température modélisée à partir de 1980 est de
2000 à 400 % supérieure à celle observée. Les données des ballons
météorologiques montrent que l'humidité spécifique a chuté de 9% depuis 1960
dans la haute troposphère (niveau de pression de 400 mbar) où les modèles
prédisent la plus grande rétroaction. L’ajout de CO²à l'atmosphère peut
réduire la vapeur d'eau de la haute atmosphère, le gaz à effet de serre le plus
important, ce qui n'entraîne qu'une faible augmentation de l'effet de serre.
Une analyse des données
satellitaires montre que les nuages provoquent une forte
rétroaction négative sur la température, mais les modèles climatiques supposent
que les nuages provoquent une rétroaction positive. Les modélisateurs ont supposé que tous les changements de
nuages sont causés par des changements
de température, ce qui leur permet de déduire une rétroaction
positive. Mais l'évolution de la couverture nuageuse peut également
entraîner des changements de température. Les scientifiques peuvent
maintenant séparer ces deux effets. L'analyse correcte montre que les nuages
provoquent une forte rétroaction négative, donc si les
températures augmentent, la couverture nuageuse augmente, renvoyant l'énergie
solaire vers l'espace et réduisant considérablement l'effet de réchauffement
des émissions de CO2.
Plusieurs planètes et lunes se sont réchauffées récemment avec la
Terre, confirmant une tendance naturelle au réchauffement causée par le
soleil. Sur des
périodes plus longues, à mesure que le système solaire entre et sort des bras
galactiques, le flux de rayons cosmiques change, provoquant des périodes
glaciaires et des périodes chaudes. Une comparaison des données
indirectes sur la température et l'activité solaire suggère que les effets
solaires peuvent expliquer au moins 75 % du réchauffement de la surface au
cours des 100 dernières années.
Le CO 2 est un aliment végétal et
l'augmentation de la concentration de CO2 a
peut-être augmenté la production alimentaire mondiale de 15 % depuis 1950, ce
qui a entraîné d'énormes avantages pour les personnes. Pour le Canada, tout effet de
réchauffement du CO2 nous profiterait également en
réduisant nos coûts de chauffage des locaux et en rendant le climat plus
agréable.
Le GIEC prévoit que les températures moyennes mondiales
augmenteront de 0,17 à 0,38 °C par décennie jusqu'à la fin du siècle en
fonction du taux de croissance du CO 2 dans l'atmosphère et d'autres
hypothèses. Les projections supposent qu'aucune mesure n'est prise pour
limiter les émissions de CO2. Cependant, ces prédictions sont irréalistes car elles
supposent à tort que les récents changements de température sont uniquement dus
au CO2 et
que le Soleil a peu d'effet sur le climat. Une étude récente des changements
climatiques passés utilisée par le GIEC s'est avérée erronée en raison de
l'utilisation d'un algorithme défectueux et d'une sélection inappropriée des
données.
Le record de température
terrestre est contaminé par l'effet d'îlot de chaleur urbain. Corriger
complètement le record de température terrestre réduirait de moitié la tendance
au réchauffement de 1980 à 2002. L'enregistrement
historique du CO 2 du GIEC peut être incorrect en
raison d'ajustements inappropriés des données des carottes de glace et de
l'ignorance des mesures historiques directes du CO2. Le GIEC sélectionne et ajuste les
données pour se conformer à son hypothèse de réchauffement du CO2 et ignore les théories climatiques
alternatives. C'est la mauvaise façon de faire de la science. De nombreux scientifiques sont
fortement en désaccord avec les conclusions du GIEC.
Les données sur le niveau de la mer ne montrent aucune
augmentation du taux récent d'élévation du niveau de la mer, et aucune
augmentation de ce type n'est attendue au cours des cent prochaines
années. Il n'y a pas eu d'augmentation détectée des tempêtes violentes et
il n'y a aucune raison de s'attendre à une augmentation du nombre ou de
l'intensité des ouragans résultant d'un réchauffement supposé être dû aux
émissions de CO2 d'origine humaine
Toute augmentation des températures due aux émissions de CO2 d'origine humaine sera probablement
bénéfique pour la santé humaine. L'effet de fertilisation du CO2 augmentera le taux de croissance des
forêts et les augmentations de rendement des cultures induites par le CO2 réduiront les pressions pour abattre
les forêts pour l'expansion des terres agricoles. Cela profitera
grandement aux animaux en ralentissant la destruction de l'habitat.
Les avantages des émissions
du CO2 dépassent
largement tous les effets nocifs probables. Plusieurs autorités qui ont étudié
les cycles solaires ont averti que la Terre pourrait bientôt entrer dans une
phase de refroidissement car le Soleil devrait devenir moins
actif. L'atmosphère peut se réchauffer à cause de l'activité humaine, mais
si c'est le cas, le changement attendu ne devrait pas dépasser 0,8 °C, et
probablement moins, au cours des 100 prochaines années.
Ce graphique, de Trenberth et al 2009, illustre l'échange
d'énergie entre l'espace, le Soleil, l'atmosphère et la Terre.
Les gaz à effet de serre sont principalement la vapeur
d'eau, le dioxyde de carbone et l'ozone. Les gaz à effet de serre sont
pour la plupart transparents au rayonnement solaire entrant, mais absorbent le
rayonnement sortant à grande longueur d'onde. L'énergie absorbée est
ensuite transférée à des molécules plus froides ou rayonnée à des longueurs
d'onde plus longues que l'énergie précédemment absorbée. Ce processus rend
la Terre plus chaude qu'elle ne le serait autrement sans les gaz à effet de
serre (mais avec l'atmosphère et les nuages) d'environ 33 degrés Celsius.
[MT3]
La vapeur d'eau et les nuages représentent ensemble
plus de 70 % de l'effet de serre total actuel[MT4] . Cependant, en termes de
modifications de l'effet de serre dues aux activités humaines, la vapeur d'eau
est généralement considérée comme une rétroaction et non comme un agent de
forçage. Des simulations informatiques montrent qu'un changement uniforme
de 1,8 % de la vapeur d'eau a le même effet sur le rayonnement à ondes longues
sortant qu'un changement de 10 % de la concentration de CO2.
Plus de gaz à effet de serre réduisent la transparence de
l'atmosphère au rayonnement à ondes longues de la surface.
Le panneau supérieur du graphique ci-dessus montre
l'intensité spectrale d'absorption des gaz à effet de serre. La majeure
partie du rayonnement solaire à courte longueur d'onde dans la partie visible
du spectre est transmise à la surface. La majeure partie du rayonnement
thermique ascendant à ondes longues de la surface est absorbée, sauf dans la
fenêtre atmosphérique indiquée par la région bleue. Environ 16% du rayonnement à ondes
longues est transmis directement dans l'espace et le reste est absorbé par les
gaz à effet de serre.[MT5] Le panneau du milieu montre les
bandes d'absorption totales par longueur d'onde du rayonnement solaire
descendant et du rayonnement thermique ascendant. L'ombrage gris à 100 %
indique que l'énergie est entièrement absorbée à cette longueur d'onde. Le
panneau inférieur montre l'absorption des principaux gaz à effet de
serre.
Comparaison du CO2 et du H2O
Les spectres d'absorption d'H2O montrent qu'une grande partie du spectre
du CO2 chevauche celui de
l'eau. Certaines parties du spectre du CO2 sont déjà entièrement saturées. L'ajout
de plus de CO2 entraînera des effets de plus en
plus faibles à mesure que davantage de longueurs d'onde disponibles deviendront
saturées. La réponse de la température à l'ajout de CO2 dans l'atmosphère dépend de la
quantité de rétroactions positives et négatives de la vapeur d'eau, des nuages
et d'autres sources. L'effet de la température de
l'augmentation de la concentration de CO2 est approximativement
logarithmique. Cela
signifie que si le doublement du CO2 concentration de 300 ppm à 600 ppm, une augmentation
de 300 ppm, fait augmenter la température de 1 °C, [MT6] il faudrait une autre augmentation de 600
ppm pour ajouter un gain de température supplémentaire de 1 °C. Le méthane
a une bande d'absorption (à 8 micromètres) qui chevauche largement la vapeur
d'eau, de sorte qu'une augmentation du méthane a peu d'effet sur la
température.
Le
diagramme ci-dessus montre le spectre de rayonnement ascendant du haut de
l'atmosphère à 20 km avec 300 ppm de CO2 et 600 ppm de CO2 [MT7] tel que calculé par le code radiatif
MODTRAN. (Notez que l'axe horizontal de ce diagramme montre le nombre
d'ondes, ou le nombre de longueurs d'onde par cm, qui est l'inverse de la
longueur d'onde en micromètres utilisée dans le diagramme précédent.) Ce modèle
calcule le rayonnement est très similaire à ce qui est réellement mesuré par
les satellites depuis espace. La courbe verte montre le spectre
d'émissions avec 300 ppm de CO2 dans l'atmosphère et la courbe bleue
montre le spectre avec 600 ppm de CO2 avec la même température de surface
et le même profil de vapeur d'eau. Le modèle montre que doubler le CO2la concentration modifie le spectre
uniquement aux bords de la bande principale d'absorption du CO2, à 600 et 740 cm -1. Le forçage résultant de 3,39
W/m 2 entraînerait une augmentation des
températures de surface si elle n'était pas compensée par des rétroactions
négatives.
CO2 par rapport à la contribution de
l'eau
Le CO 2 , la vapeur d'eau et les nuages
contribuent le plus à l'effet de serre. Diverses sources
donnent des estimations contradictoires des contributions de ces composants à
l'effet de serre. Le spectre d'absorption infrarouge des gaz à effet de
serre atmosphériques est très complexe. Dans certaines régions, les
fréquences d'absorption de divers gaz à effet de serre se chevauchent, de sorte
que les contributions de chaque composant ne s'additionnent pas de manière
linéaire. Le rayonnement à une fréquence particulière peut être absorbé
par la vapeur d'eau ou le CO2. La concentration de vapeur d'eau
dépend de la température et varie considérablement selon la latitude et
l'altitude. De plus, l'eau passe d'un liquide à un gaz avec de l'énergie
thermique pour la chaleur latente d'évaporation nécessaire à la transformation.
La plupart des sources placent l'effet de serre à 33 °C[MT8] . Il s'agit de la différence entre la
température actuelle de la surface de l'air (15 °C) et la température sans
l'effet de serre des gaz et des nuages, mais les nuages
continuant à refléter 31 % du rayonnement solaire entrant.
La nature n'attribue pas la contribution des différents gaz à
effet de serre - seul l'effet total est significatif. Néanmoins, une
estimation approximative des contributions peut être faite. La
contribution relative de l'eau, des nuages et du CO2 à l'effet de serre peut
être estimée de deux manières; en estimant à
partir de modèles de rayonnement le changement de l'effet de serre en
supprimant un composant, et en estimant l'effet de serre d'avoir seulement ce
composant dans l'atmosphère. Si l'on supprime l'effet de serre de la
vapeur d'eau et des nuages, les composants restants piégeraient 34 % de la
chaleur, ce qui implique que la vapeur d'eau et les nuages
piégeraient 66 %, comme indiqué dans la colonne "Chaleur non
piégée" du tableau ci-dessous. La somme des composantes calculées de
cette façon n'est que de 80 % de l'effet de serre dû au chevauchement des
spectres d'absorption. De même, si l'on n'inclut que la vapeur d'eau et
les nuages (pas de CO2, O3 ou autre), ils piégeraient 85 % du
rayonnement à ondes longues. Cependant, les contributions de chaque
composant totalisent 126 % de l'effet de serre.
Il est raisonnable d'allouer simplement le chevauchement
proportionnellement à chaque composant, de sorte que l'effet est normalisé dans
les colonnes "Effet relatif" de sorte que la somme des effets soit
égale à 100 %. Ce calcul suggère que la vapeur d'eau et les nuages
contribuent de 70 % à 80 % et que le CO2 contribue de 10 % à 20 % à l'effet de
serre, comme indiqué dans le tableau ci-dessous [MT9] :
Modification de l'absorption des ondes
longues
Composant |
Retirer le composant emprisonné par la
chaleur |
Chaleur non emprisonnée |
Effet relatif |
Composant uniquement emprisonné par la
chaleur |
Effet relatif |
Moyenne des méthodes |
Aucun |
100 |
0 |
|
|
|
|
Eau & Nuages |
34 |
66 |
82.5% |
85 |
67.5% |
75.0% |
CO2 _ |
91 |
9 |
11.3% |
26 |
20.6% |
15.9% |
O 3 |
97 |
3 |
3.8% |
7 |
5.6% |
4.7% |
Autre |
98 |
2 |
2.5% |
8 |
6.3% |
4.4% |
Total |
|
80 |
100.0% |
126 |
100.0% |
100.0% |
Cela donne une estimation approximative de la
contribution des composants à l'effet de serre total actuel, mais cela ne nous
dit presque rien de l'effet supplémentaire de la modification de la
concentration d'un composant.
La vapeur d'eau est le gaz le plus important de l'effet de
serre. La vapeur d'eau est généralement considérée comme une rétroaction,
tandis que le CO2 est considéré comme un forçage car
le temps de séjour d'un changement de concentration de vapeur d'eau est très
court par rapport au CO2 . Les
émissions d'origine humaine dans l'eau (autres que les avions à haute altitude)
n'ont pas d'effet significatif sur le climat, mais l'eau peut avoir un effet
significatif en tant que rétroaction sur un changement de température initié
par le soleil ou les émissions de CO2.
Si l'on enlevait comme par magie 20% de toute la vapeur d'eau dans
l'atmosphère, l'eau s'évaporerait rapidement des océans pour la remplacer de
sorte qu'en 20 jours la concentration en eau serait de 99% de la valeur
d'origine comme le montre le graphique ci-dessous.
De même, si les humains doublaient soudainement nos
émissions d'eau de la surface, en quelques jours, l'augmentation de la
vapeur d'eau pleuvrait, laissant la concentration de vapeur d'eau presque
inchangée. Le graphique ci-dessus et les valeurs d'absorption ont été
calculés à l'aide du modèle
de circulation générale du Goddard Institute for Space Studies .
Ces calculs n'incluent pas les effets des avions. Il fait si
froid à l'altitude à laquelle les avions volent qu'il
n'y a pratiquement pas de vapeur d'eau. La seule fois où l'eau devient
aussi élevée, c'est lorsque les températures élevées du sol provoquent un
soulèvement thermique entraînant de l'eau avec elle. Il fait trop froid
là-haut pour que l'eau existe sous forme de vapeur, donc des gouttelettes se
forment et nous voyons cela comme des traînées de vapeur d'avion. Ce sont
des nuages artificiels d’un type tel qu’ils piègent le
rayonnement infrarouge mais laissent passer la lumière du soleil, créant ainsi
un effet de réchauffement. La vapeur d'eau injectée dans la haute
atmosphère a un temps de séjour beaucoup plus long que l'eau injectée dans
l'atmosphère près de la surface, elle peut donc avoir un effet mineur sur le
climat.
Le climat change constamment
L'histoire
de la Terre montre que le climat a toujours changé, à court et à long terme[MT10] . Ces changements ont parfois été brusques et
sévères, sans aucune aide humaine. Les reconstructions de la température
climatique sont déterminées à partir de diverses sources, telles que des études
sur la largeur des cernes des arbres et les sédiments du fond
océanique. Au cours des 2 derniers milliards d'années, la Terre a alterné
des périodes fraîches comme aujourd'hui, et des périodes chaudes comme lorsque
les dinosaures parcouraient la planète. La figure ci-dessous à gauche est une
reconstruction de la température de la Terre sur 2 milliards d'années. Les
températures sur cette période sont déterminées en cartographiant la
répartition des charbons anciens, des dépôts désertiques, des sols tropicaux,
des dépôts salins et glaciaires, ainsi que la répartition des plantes et des
animaux sensibles au climat, tels que les alligators, palmiers et
mangroves. Voir ici pour plus d'informations .
Température au fil du
temps géologique
Le graphique ci-dessus à droite vient d' ici et montre que les niveaux de CO2 ont diminué depuis la fin de la
période jurassique jusqu'au début de l'ère industrielle. Le changement de
CO2 indiqué par la ligne rouge dans le
cercle rouge est le changement de CO2 depuis la révolution industrielle.
Le graphique ci-dessous montre cinq millions d'années de
changement climatique en combinant les mesures de 57 carottes de sédiments
marins profonds réparties dans le monde. La quantité mesurée est la
fraction isotopique de l'oxygène 18, qui est une approximation de la
température.
Les données proviennent de Lisiecki et Raymo , 2005. L'échelle de température a
été définie en ajustant les variations de température signalées à Vostok, en Antarctique, aux variations isotopiques
observées, de sorte que l'échelle de température est représentative des
changements de Vostok.
Le graphique ci-dessus à partir d'ici montre 25 000 ans d'histoire de la
température du Groenland déterminée à partir du deuxième projet de l'inlandsis
du Groenland (GISP2). Après 5 ans de forage à travers la calotte glaciaire
dans le substratum rocheux jusqu'en juillet 1993, une carotte de glace de 3053
m a été récupérée. En mesurant le rapport de deux isotopes de l'oxygène
(spécifiquement 18 O au bien plus commun 16O) on peut en déduire la température de
l'air au moment de la cristallisation de la neige de chaque couche
annuelle. Cette technique est considérée comme assez précise. Un
réchauffement fort et brusque se manifeste par une élévation presque verticale
des températures, un fort refroidissement par une chute presque verticale des
températures (Modifié de Cuffy et Clow,
1997). Le Dr Don Easterbrook écrit:
"Les changements de température
enregistrés dans la carotte de glace GISP2 ... montrent que le réchauffement
climatique subi au cours du siècle dernier est insignifiant par rapport à
l'ampleur des profonds renversements climatiques au cours des 25 000 dernières
années. De plus, de petites des changements de température allant jusqu'à un
degré environ, semblables à ceux record observés au 20e du siècle, se produisent de manière
persistante tout au long de l'ancien record climatique. ... Au cours des
25 000 dernières années, au moins trois événements de réchauffement ont été de
20 à 24 fois l'ampleur du réchauffement au cours du siècle dernier et quatre
ont été de 6 à 9 fois l'ampleur du réchauffement au cours du siècle
dernier."
Résultats des carottes de glace du Nord Groenland Eemian Ice Drilling (NEEM) publié
en janvier 2013 pour la période chaude du dernier interglaciaire d'il y a 128
000 à 122 000 ans, connue sous le nom d'Eemian, était
de 8 +/- 4 °C plus chaude que le dernier millénaire. Une carotte a été forée de
2008 à 2012. Les résultats complets sont présentés dans " Eemian interglacial reconstruit à partir d'une carotte de
glace plissée du Groenland ".
Historique des
températures dans l'hémisphère nord
Le graphique ci-dessus montre l'historique des
températures de l'hémisphère nord depuis la dernière période glaciaire.
Le graphique ci-dessus montre les températures du
Groenland telles que déterminées par la carotte de glace GISP2. Il s'agit
d'une version détaillée d'un graphique précédent ci-dessus, à partir d' ici .
Historique de la température
des sédiments de l'océan Atlantique Nord
Le graphique ci-dessus montre les variations de
température des 3 000 dernières années (au cours de l'histoire enregistrée),
telles que déterminées à partir d'études sur les sédiments océaniques dans
l'Atlantique Nord. [Keigwin, 1996]. Notez
les variations rapides, ainsi que les températures beaucoup plus chaudes il y a
1 000 et 2 500 ans.
Une nouvelle reconstruction de température avec une résolution
décennale, couvrant les deux derniers millénaires, est présentée ci-dessous
pour l'hémisphère Nord extratropical (90-30 N), utilisant de nombreux
enregistrements proxy de paléo-température, de Ljungqvist
2010 ici . L'ombrage représente 2 écarts
type.
RWP = période chaude romaine AD 1-300 |
DACP = période froide de l'âge sombre 300-900 |
MWP = période chaude médiévale 800-1300 |
LIA = Petit âge glaciaire 1300-1900 |
CWP = période chaude actuelle 1900-présent |
|
Les données indirectes montrent que certaines parties
de la période chaude romaine et de la période chaude médiévale étaient aussi
chaudes que les années 1940. La figure 3 de l'article de Ljungqvist 2010 montre que les températures décennales exotropes du nord HadCRUT3 des années 1990 étaient
supérieures d'environ 0,15 °C au pic du MWP, mais les données indirectes n'ont
pas enregistré la hausse de température de la seconde moitié du XXe siècle.
Le climat est en constante évolution, comme le montre l'histoire
de la température de l'Europe au cours des mille dernières années dans le
graphique ci-dessous.
1000 ans d'histoire de la
température IPCC 1990
L'historique des températures ci-dessus a été publié
dans le premier rapport du GIEC en 1990, basé sur l'histoire climatique estimée
de Lamb pour le centre de l'Angleterre.
De toute évidence, l'activité humaine n'a pas pu avoir d'effet
significatif sur les changements de température avant 1900. Ces changements
sont le résultat de processus naturels.
Les graphiques de température GISS de la NASA depuis 1880 peuvent
être trouvés ici . Le graphique ci-dessous
montre l'historique des températures mondiales annuelles du GISS. La
dernière année affichée est 2021
Le graphique ci-dessous montre les températures
annuelles HadCRUT5 de 1850 à 2022.
HadCrut5 est l'indice global de température de surface
produit par le Hadley Center et le Climate Research Unit, Angleterre. Il combine les données de
température terrestres et marines. Le graphique ci-dessus à partir d'ici montre les températures annuelles de
l'hémisphère nord, de l'hémisphère sud et de la surface mondiale de 1850 à
2022. 2022 est basé sur une année partielle.
La moyenne multi-modèle ne représente pas bien les oscillations
multi-décennales mais correspond par ailleurs assez bien à la température
mesurée jusqu'en 2000. Les
modélisateurs utilisent un forçage négatif élevé des aérosols pour compenser la
trop grande sensibilité des modèles aux gaz à effet de serre. Les modèles
chauffent trop au 21e siècle malgré des mesures trop élevées en raison de la
contamination due au réchauffement urbain.
L'ensemble de données HadCRUT3 a été interrompu en mai
2014. L'ensemble de données HadCRUT4 a été introduit pour ajouter plus de
couverture dans la région polaire nord. L'ensemble de données HadCRUT5 est
une analyse statistique remplie qui étend la couverture dans les régions où les
données sont rares. Le graphique ci-dessous montre une comparaison sur les
jeux de données HadCRUT3, versions HadCRUT4.0 et 4.2 à 4.6 et HadCRUT5.0.
Le graphique ci-dessous montre les températures
mensuelles mondiales du 21e siècle à partir des ensembles de données HadCRUT4.6
et HadCRUT5.0, avec les tendances linéaires les mieux ajustées.
La zone de glace de mer a fait l'objet de beaucoup
d'attention, car il est prévu que l'AGW réchauffe les régions polaires beaucoup
plus que les autres zones. Le graphique ci-dessous montre l'étendue
mondiale de la banquise par mois et annuellement à partir des données
satellitaires trouvées ici . L'étendue de la glace de mer
est définie comme la zone de chaque pixel de données satellitaires qui contient
au moins 15 % de glace de mer.
L'étendue
mondiale de la banquise a été variable avec une faible étendue en 2007 et 2011.
L'étendue de la banquise a augmenté en 2013 mais était plus faible en 2016 et a
augmenté en 2020 et 2021[MT11] . Voir ici pour les graphiques de l'étendue de
la banquise arctique et antarctique.
La température
entraîne les changements de CO2
La température de la Terre s'est légèrement
réchauffée, d'environ 0,8 degrés Celsius, au cours du 20 e siècle. Au cours de cette
période, la concentration de CO2 dans l'atmosphère a augmenté,
principalement en raison de l'utilisation accrue de combustibles
fossiles. Cependant, le Soleil a augmenté d'intensité depuis 1900, ce qui
peut avoir induit une grande partie du réchauffement observé depuis lors. Scafetta et West estiment que le Soleil pourrait avoir
causé 10 à 20 % de l'augmentation du CO2 au cours du siècle
dernier. (Voir [7] dans leur article .) Une corrélation à court terme
n'implique pas que l'augmentation du CO2 ait causé l'augmentation de la
température. La causalité peut être déduite s'il existe une corrélation
sur plusieurs cycles de changements de concentration de CO2, avec le changement de CO2 précédant le changement de température. L'histoire climatique
réelle ne montre pas une telle corrélation, et il n'y a aucune preuve
convaincante que la récente augmentation de la température ait été causée par
le CO2. Les températures ont été variables
au fil du temps et ne sont pas corrélées à la concentration de CO2. Lorsque les concentrations de CO 2 étaient 10 fois plus élevées
qu'elles ne le sont aujourd'hui, nous étions dans une grande ère glaciaire. En
tant que gaz à effet de serre, le CO2 est largement compensé par la vapeur
d'eau (naturelle) et les nuages, qui représentent plus de 70 % de l'effet de
serre. Les émissions de CO2 d'origine humaine ont grimpé en
flèche après 1940. Pourtant, la plus grande partie de l'augmentation de la
température mondiale du 20 e siècle s'est produite
avant. Voir ici pour un
graphique du cycle du carbone.
La concentration de CO 2 avec les températures de la basse
troposphère de l'UAH est indiquée ci-dessous. La concentration annuelle
moyenne de CO 2 est passée de 376,8 parties par
million (ppm) en 1979 à 416,5 ppm en 2021.
L'augmentation réelle de la concentration de CO2 a été en moyenne de 0,5 % par an
depuis 1990 et est actuellement d'environ 0,6 %/an.
Fischer et al. (1999) ont examiné les relevés du CO2 atmosphérique et de la température
de l'air tirés des carottes de glace de l'Antarctique Vostok
qui remontent dans le temps sur un quart de million d'années. Au cours de
cette immense période de temps, les trois événements de réchauffement les plus
spectaculaires sur terre ont été ceux associés à la fin des trois dernières
périodes glaciaires ; et pour chacun de ces énormes réchauffements
planétaires, la température de l'air terrestre a augmenté bien avant qu'il y
ait eu une augmentation du CO2 atmosphérique. En effet, le CO2 contenu
dans l’air n'a commencé à augmenter que 400 à 1 000 ans après le début du
réchauffement de la planète. Les carottes de glace fournissent un
enregistrement détaillé de la température locale et des concentrations de
CO2.
Une
étude de Caillon et al. (2003) constatent que l'augmentation du CO2 a retardé le réchauffement de
l'Antarctique de 800 + ou - 200 ans. Les auteurs ont mesuré la composition
isotopique de l'argon 40 et la concentration de CO2 dans les bulles d'air du noyau de Vostok à la fin de la troisième période glaciaire la plus
récente (Termination III), 240 000 ans avant le
présent. L'isotope argon 40 s'avère être un excellent indicateur de
température.
Les données des carottes de glace de Vostok sur la fin du troisième âge glaciaire BP Les
échelles d'âge du
CO 2 et de l'argon (température) sont
décalées de 800 ans
La concentration de CO2 indiquée par la ligne noire est
tracée en fonction de l'âge en années avant le présent (BP) sur l'axe
inférieur, et l'Argon 40, un proxy de température, indiqué par la ligne grise
est tracée en fonction de l'âge sur l'axe supérieur. L'échelle d'âge du CO2 a été décalée de 800 ans constants
pour obtenir la meilleure corrélation des deux ensembles de données. La
corrélation montre que les changements de température précèdent les changements
de concentration de CO2 d'environ 800 ans.
Ces découvertes confirment qu'une augmentation du CO 2 n'a jamais provoqué initialement une
augmentation de la température lors d'une déglaciation. L'augmentation
de la température entraîne le dégazage du CO2 par
les océans car le CO2 est
plus soluble dans l'eau froide, ce qui augmente le CO2 contenu
de l'atmosphère. Lorsque
la température atteint son maximum à chaque cycle et commence à
chuter, les concentrations de CO2 continuent d'augmenter pendant encore 800
ans ! Lorsque le CO2 augmente, les températures
chutent. C'est le contraire de ce à quoi on pourrait s'attendre si le CO2 était le principal facteur
climatique. Les données des carottes de glace prouvent que le CO2 n'est pas le principal facteur
climatique. Il faut invoquer une causalité temporelle inverse pour
affirmer que les données des carottes de glace montrent que le CO2 provoque des changements de
température, comme suggérer que les actions prises aujourd'hui peuvent affecter
les conquêtes du chef mongol Gengis Khan. La logique exige que la cause
précède l'effet. L'augmentation de la température de l'air entraîne une
augmentation de la concentration atmosphérique de CO2.
Une partie plus récente de l'enregistrement des carottes de glace
de Vostok du Skeptics Handbook #1 de Joanne Nova, trouvé ici , est présenté ci-dessous.
Voir CO 2 Science pour plus
d'informations. Voir ici pour l'article de Cailion et al (2003). Un graphique des données de la
carotte de glace de Vostok sur 420 000 ans est
présenté ci-dessous. Une grande version est ici .
L'activité solaire est en corrélation avec
la température
De nombreux articles
publiés dans les principales revues scientifiques à comité de lecture montrent
que le Soleil est le principal moteur du changement climatique. Il existe
une très forte corrélation entre l'activité solaire et la température.
Au début du XIXe siècle, William Herschel (1738-1822), découvreur
d'Uranus, a constaté que cinq périodes de faible nombre de taches solaires
correspondaient à des prix élevés du blé lorsque les températures étaient
froides. (Le climat froid réduit l'offre de blé, entraînant une hausse de
son prix.) Voir " The Varying Sun & Climate Change ", Soon
& Baliunas, 2003.
E. Friis-Christensen et K.Lassen ont montré que la longueur du cycle moyen des
taches solaires de 11 ans est corrélée à la température de l'hémisphère nord au
cours des 130 dernières années. La durée du cycle des taches solaires est
connue pour varier avec l'activité solaire, alors qu'une activité solaire
élevée implique une courte durée du cycle des taches
solaires. Voir ici
pour plus d'informations .
Voir ici
pour un graphique mis à jour basé sur la méthodologie de Friis-Christensen et Lassen.
Voici une corrélation entre la durée du cycle des taches solaires,
la température globale et les concentrations de CO 2 .
Durée du cycle des taches
solaires Température et CO 2
Les carrés rouges sur le graphique représentent les
durées du cycle des taches solaires. Un point est la longueur du cycle
depuis le moment du nombre maximum de taches solaires jusqu'au moment du nombre
maximum de taches solaires du cycle suivant, et le point suivant est la
longueur du cycle depuis le moment avec un nombre minimum de taches solaires
jusqu'au moment avec le nombre minimum de taches solaires du prochain
cycle. Les cycles de taches solaires sont rétrofiltrés en utilisant la
pondération 1,2,3,4 appliquée à chaque point de cycle, à la fois min à min et
max à max. Cela suppose que le cycle actuel a le plus d'effet sur la
température (poids 4) et que les demi-cycles précédents affectent les
températures actuelles en quantités décroissantes, mais que les cycles futurs
n'ont aucun effet sur la température actuelle. La courbe de température en
bleu a utilisé les données terrestres et maritimes HadCRUT3 jusqu'en 1978, les
données satellitaires MSU de 1984 à 2006, et la moyenne des ensembles de
données pour 1979 à 1983. Cela élimine une grande partie des effets d'îlots de
chaleur urbains. Les températures sont annuelles non filtrées. Le CO2 concentrations (ppmv) de 1958 à 2007
sont dérivées d'échantillons d'air prélevés à l'observatoire du Mauna Loa, à Hawaï. Les concentrations de CO2 avant 1958 sont incertaines.
Notez qu'il existe une
correspondance entre la durée du cycle des taches solaires et la température. Les courbes de température et de durée de cycle commencent à
augmenter à 1910, et les températures chutent après 1945 à 1975 lorsque la
courbe de durée de cycle tombe, et les deux courbes augmentent à nouveau après
1975. Les températures ont augmenté depuis 1980 plus rapidement que ce qui peut
être expliqué par la durée du cycle des taches solaires, indiquant une
éventuelle contribution de CO2 d’origine
humaine. L'augmentation récente des longueurs de cycle explique pourquoi
il n'y a pas eu de réchauffement depuis 2002. Les changements de température
devraient suivre les changements d'activité solaire en raison d'un décalage
temporel résultant de la grande capacité thermique des océans.
N. Scafetta de Duke University,
Durham, NC et BJ West du US Army Research
Office, NC ont étudié l'impact solaire sur 400 ans des températures de
l'hémisphère nord depuis 1600. Ils trouvent une bonne correspondance entre la
température et les reconstructions proxy d'irradiance solaire jusqu'en 1920
comme indiqué sur le graphique ci-dessous.
Température de l'hémisphère
nord vs rayonnement solaire 400 ans
La courbe de température est dérivée des
enregistrements proxy jusqu'en 1850 par Moberg et
al. [2005], et à partir de données instrumentales sur la température de
surface de 1850 à environ 1980. L'enregistrement de la température de surface
comprend l'îlot de chaleur urbain (UHI) et les effets des changements
d'utilisation des sols. L'enregistrement
de la basse troposphère MSU de l'hémisphère nord est affiché à partir de 1979
en bleu, ce qui élimine la plupart des effets UHI. Deux
reconstructions proxy d'irradiance solaire différentes sont présentées : Lean,
2000 ; Wang et al., 2005. Les deux courbes fusionnent les données
satellitaires ACRIM depuis 1980 avec les données proxy. En supposant
ACRIM, l'activité solaire a une tendance à la hausse durant la seconde moitié
du 20ème siècle. Ce graphique est une
modification de la version créée par Scafetta et
West, qui utilise l'enregistrement de l'instrument mesuré après 1979 au lieu
des données satellitaires. Voir la version originale ici .
Notez les périodes de
faible activité solaire se produisant pendant le minimum de Maunder
(1645 à 1715, le petit âge glaciaire) et pendant le minimum de Dalton (1795 à
1825).
Notez l'excellente corrélation de 1600 à 1900 lorsque les humains
étaient peu susceptibles d'affecter le climat. Au cours du XXe siècle, on continue d'observer une
corrélation significative entre les modèles solaires et thermiques : les
deux enregistrements montrent une augmentation de 1900 à 1950, une diminution
de 1950 à 1970, et à nouveau une augmentation de 1970 à 2000.
Une divergence des courbes par rapport au graphique original de Scafetta et West indique que le Soleil est responsable de
56% en utilisant Lean 2000, et de 69% en utilisant Wang 2005, du réchauffement
de l'hémisphère nord de 1900 à 2005. Les auteurs estiment l'erreur à 20% .
Deux bases de données solaires sont disponibles à partir des
données satellitaires. L'ACRIM est obtenu directement à partir de données
satellitaires de haute précision.
Il y a une lacune (1989 - 1992) dans l’enregistrement du satellite
qui était due à un retard dans le lancement d'un nouveau satellite ACRIM après
la catastrophe du challenger de la navette spatiale de 1986. Le retard a
causé un écart de deux ans dans le système ACRIM qui mesure l'irradiance
solaire. Les seules données disponibles pour combler le vide provenaient
d'un moniteur différent appelé système de bilan radiatif terrestre (ERB), qui
n'était pas conçu pour surveiller le Soleil. Il avait peu de précision et
n'avait une vue du soleil que pendant de brefs intervalles de temps sur son
orbite. L'enregistrement de l'ACRIM a suggéré une augmentation de
l'irradiance solaire du début des années 1980 à la fin des années 1990. Un
groupe rival appelé PMOD a affirmé que les capteurs ERB avaient connu une
augmentation de sa sensibilité au cours de la période d'intervalle, ils ont
donc ajusté à la baisse les données du deuxième satellite ACRIM pour montrer
une baisse de l'intensité solaire. Dr Douglas Hoyt, le
scientifique qui avait été en charge de la mission du satellite ERB, a déclaré
« qu'il n'y a aucun changement physique connu dans le [système] calibré
électriquement qui aurait pu le rendre plus sensible. Et personne n'a
jamais proposé de théorie physique pour l'instrument qui pourrait le rendre
plus sensible. Les rapports du GIEC ont minimisé le rôle de l'activité
solaire dans le changement climatique récent en utilisant uniquement
l'interprétation de l'irradiance solaire PMOD.
Les auteurs ont fait une analyse similaire en utilisant la
reconstruction de la température de Mann et Jones 2003. Cette histoire de
température montre peu de variation avant 1900 et montre une forme de bâton de
hockey. Cette reconstruction a été sévèrement critiquée pour plusieurs
raisons. Voir la section Le bâton de hockey du GIEC de
cet essai. Les auteurs ont découvert que la reconstruction de Mann et
Jones 2003 (par rapport aux données Lean 2000) se traduit par un temps de
réponse nul non physique au forçage solaire. La grande capacité
calorifique de l'océan devrait entraîner un décalage temporel des températures
de surface par rapport aux changements solaires de plusieurs années, de sorte
que cette reconstruction ne peut pas être correcte.
L'analyse des auteurs montre que le Soleil a contribué de 50 à 69%
au réchauffement de la surface selon les reconstructions utilisées. Le reste
peut être dû au CO2, UHI et changements d'utilisation des
terres. Les auteurs comparent l'irradiance solaire aux températures de la
surface terrestre de l'hémisphère nord, qui sont contaminées par l'effet d'îlot
de chaleur urbain. Les
températures globales du satellite MSU, qui ne sont pas contaminées par l'effet
UHI, ont augmenté de moitié moins que les températures de l'hémisphère Nord
depuis 1980. Si l'analyse Scafetta et West
utilisait les données satellitaires non contaminées depuis 1980, les résultats
montreraient que le Soleil a contribué à au moins 75% du réchauffement
climatique du siècle dernier. En savoir plus sur l' effet
UHI plus loin dans cet essai. Voir ici pour l'article de novembre 2007.
Les alarmistes climatiques ont affirmé que l'activité solaire
n'avait rien à voir avec le réchauffement de la fin du 20ieme siècle parce que le nombre de taches solaires
a culminé vers 1960 puis a diminué tandis que les températures mondiales ont
augmenté au cours de la 2e moitié du 20 e siècle. La courbe d'activité
solaire, qui a été mise à jour en 2015, montre que l'irradiance solaire totale
a culminé en 1990 avec le cycle solaire 22. L'activité solaire n'est pas
seulement le nombre de taches solaires. Lüning
et Vahrenholt écrivent "Le soleil a non
seulement atteint son maximum à la fin du 20 e siècle, mais il était apparemment
plus fort qu'à tout moment au cours des 10 000 dernières années." Le
graphique ci-dessous montre le nombre de taches solaires et l'irradiance
solaire totale (TSI), origine .
Un groupe de
scientifiques de la NASA et d'universités ont trouvé des preuves convaincantes
d'un lien entre l'activité solaire et le climat en comparant les
enregistrements du niveau d'eau historique du Nil au nombre d'aurores observées
dans le nord de l'Europe et l'Extrême-Orient entre 622 et 1470. UN D. Les aurores sont des lueurs
brillantes dans le ciel nocturne après les éruptions solaires et constituent un
excellent moyen de suivre l'activité solaire. Voir ce lien
pour plus d'informations .
Une étude de WJR Alexander et al, publiée en juin 2007
a comparé les données hydrométéorologiques à la variabilité solaire. L'étude a examiné les
précipitations, le débit des rivières et les données sur les
inondations. Les auteurs concluent qu'il existe "un lien synchrone
sans équivoque entre ces processus en Afrique du Sud et ailleurs, et l'activité
solaire". L'étude comprenait une analyse du niveau du lac
Victoria, qui a été soigneusement surveillé depuis 1896. Au début des années
1960, une augmentation spectaculaire des précipitations a considérablement
élevé le niveau du lac, et le niveau depuis lors a baissé d'environ 29 mm par
an. La baisse a été supprimée des données tracées ci-dessous. Le
graphique montre deux périodes de forte corrélation entre le niveau du lac et
le nombre de taches solaires, correspondant à des périodes de niveaux élevés de
poussière volcanique.
Niveau d'eau du lac Victoria et nombre de
taches solaires
Voir l'article " Liens entre l'activité
solaire, la prévisibilité du climat et le développement des ressources en eau " ici .
A plus long terme, voici une corrélation d'un proxy solaire à un
proxy de température pour une période de 3000 ans. Les valeurs de carbone
14 (produit par les rayons cosmiques, donc un indicateur de l'activité solaire)
sont extrêmement bien corrélées avec l'oxygène 18 (indicateur de
température). Le graphique du bas montre un intervalle de temps
particulièrement bien résolu de 8 350 à 7 900 ans BP.
Le graphique ci-dessus résume les données obtenues à
partir d'une stalagmite d'une grotte à Oman, comme indiqué dans l'article,
Neff, U., et al. 2001.
Une équipe de chercheurs dirigée par des scientifiques de
l'Institut Max Planck pour la recherche sur le système solaire a analysé les
isotopes radioactifs dans les arbres et a découvert que le Soleil a été plus
actif dans la dernière moitié du 20 e siècle qu'à n'importe quel moment au
cours des 8 000 derniers années. Cette étude a montré que l'épisode actuel
de forte activité solaire depuis environ 1940 est unique au cours des 8000
dernières années. Voir un communiqué de presse ici . Un graphique de l'étude est
ci-dessous. Le graphique du bas est un détail de la période ombrée du
graphique du haut de 9300 à 8600 ans avant le présent.
Une étude publiée par l'Institut météorologique danois
compare l'indice de glace de Koch, qui décrit la quantité de glace observée
depuis l'Islande, entre 1150 et 1983 après JC, à la durée du cycle solaire, qui
est une mesure de l'activité solaire. L'étude révèle qu'"une
corrélation étroite (R = 0,67) de haute signification (probabilité de
0,5 % d'occurrence fortuite) est trouvée entre les deux modèles, suggérant
un lien entre l'activité solaire et le climat de l'océan Arctique".
Source .
Tim Patterson, un conseiller du FoSS,
a étudié les enregistrements climatiques à haute résolution de l'Holocène des
fjords et des lacs côtiers de la Colombie-Britannique et a démontré un lien
entre la température et les cycles solaires.
L'analyse spectrale présentée ici provient de carottes
de sédiments obtenues à Effingham Inlet,
île de Vancouver, Colombie-Britannique. Les laminations déposées
annuellement du noyau sont liées aux conditions climatiques
changeantes. L'analyse montre une forte corrélation avec le cycle des
taches solaires de 11 ans.
Voir ici
pour un diaporama powerpoint de Tim Patterson.
Un article de Soon et
al 2015 intitulé "Réévaluer le rôle de la variabilité solaire sur les
tendances de la température de l'hémisphère nord depuis le 19e siècle"
dans la section 5 compare une reconstruction mise à jour de l'irradiance
solaire totale de Hoyt & Schatten
aux composites de température de l'hémisphère arctique et nord qui sont basés
sur des données de température essentiellement rurales pour éliminer les effets
du développement urbain. L'accord général entre les tendances de la
température et de l'activité solaire est frappant. Le graphique ci-dessous
montre une corrélation de R2 = 0,48, ce qui implique que la variabilité solaire
a été l'influence dominante sur les tendances de température de l'hémisphère
nord depuis au moins 1881.
N. Shaviv et J. Veiser utilisant des thermomètres à coquillage montrent une
forte corrélation entre la température et le flux de rayons cosmiques au cours
des 520 derniers millions d'années.
Flux de rayons cosmiques et variation de
température tropicale au cours des 520 millions d'années du Phanérozoïque
Les courbes supérieures décrivent le flux de rayons
cosmiques (CRF) en utilisant les données d'âge d'exposition aux météorites de
fer. La ligne bleue représente le CRF nominal, tandis que l'ombrage jaune
délimite la plage d'erreur autorisée. Les deux courbes en pointillés sont
des reconstructions CRF supplémentaires qui s'inscrivent dans la plage
acceptable. La courbe rouge décrit la reconstruction nominale du CRF après
que sa période a été affinée pour s'adapter au mieux à l'anomalie de température
des basses latitudes. La courbe noire du bas représente le changement de
température lissé dérivé des coquilles calcitiques au
cours du Phanérozoïque. La ligne rouge est le modèle de température prévu
pour la courbe rouge ci-dessus. La ligne verte est le résiduel. Les
barres bleues supérieures indiquent les périodes glaciaires.
Un article de Nicola Scafetta, mai 2012, intitulé "Un ensemble de
fréquences partagées entre les enregistrements historiques d'aurores des
latitudes moyennes et la température de surface mondiale" compare les
enregistrements historiques des aurores des latitudes moyennes de 1700 aux
enregistrements de température de surface. Il montre que les
enregistrements d'aurores partagent les mêmes fréquences d'oscillation
évidentes dans les enregistrements de température et dans plusieurs
enregistrements planétaires et solaires. L'auteur soutient que les
enregistrements d'aurores révèlent un lien physique entre le changement
climatique et les oscillations astronomiques.
Le résumé indique :
"En particulier, un grand cycle de
quasi-60 ans est tout à fait évident depuis 1650 dans tous les enregistrements
climatiques et astronomiques ici étudiés ... L'existence d'une modulation cyclique naturelle de 60 ans
de la température de surface globale induite par des mécanismes astronomiques,
par le seul, impliquerait qu'au moins 60 à 70% du réchauffement observé depuis
1970 est d'origine naturelle. De plus, le climat pourrait rester à peu
près stable au cours des prochaines décennies car le cycle de 60 ans est entré
dans sa phase de refroidissement."
Plus d'analyses sont présentées par Scarfetta dans sa présentation de 2011 "Les
oscillations héliosphériques et leur implication pour
les oscillations climatiques et les prévisions climatiques" à
la 3e
Conférence de Santa Fe sur le changement climatique mondial et régional .
Un article publié par Moffa-Sánchez et
al dans Nature Geoscience , mars 2014, intitulé "Solar
Forcing of North Atlantic Surface Temperature and Salinity Over the Past Millennium" a révélé que
l'activité solaire est bien corrélée avec les températures de l'Atlantique
Nord.
Le résumé indique :
"Il y a eu plusieurs fluctuations à
l'échelle centennale du climat et de l'océanographie de la région de
l'Atlantique Nord au cours des 1 000 dernières années, y compris une période de
refroidissement relatif d'environ 1450 à 1850 après JC connue sous le nom de
petit âge glaciaire. Ces variations peuvent être liées à des changements dans
l'irradiance solaire, amplifiée par les rétroactions, y compris la circulation
méridienne de retournement de l'Atlantique. ... une faible irradiance solaire
favorise le développement d'événements de blocage atmosphérique fréquents et
persistants, dans lesquels un système anticyclonique quasi stationnaire dans
l'est de l'Atlantique Nord modifie le flux des vents d'ouest. Nous concluons
que ce processus pourrait avoir contribué aux hivers froids consécutifs
documentés en Europe pendant le petit âge glaciaire.
Le graphique ci-dessous, adapté de la figure 2,
présente l'enregistrement de température lissé en trois points RAPiD-17-5P en
noir. Au-dessus se trouve l'irradiance solaire totale (ΔTSI) qui a
été décalée avec un décalage de 12,4 ans. Cela montre clairement une forte
corrélation entre la température et la TSI.
Un examen plus approfondi du travail de Moffa-Sánchez est fourni à THE
HOCKEY SCHTICK .
Le graphique du nombre de taches solaires de l'indice
des taches solaires et des observations solaires à long terme (SILSO) montrant
six cycles est présenté ci-dessous. Les données proviennent de
l'Observatoire Royal de Bruxelles. Le cycle des taches solaires 24 a un
nombre maximum de taches solaires lissé d'environ 115 en 2014.
Le nombre moyen mensuel de taches solaires et la
moyenne centrée sur 13 mois sont affichés. Les données sont ici . L'image du cycle solaire de
la NOAA ci-dessous provient d' ici .
Un nouveau modèle du soleil a produit des prédictions
d'une précision sans précédent des cycles solaires variables du soleil. Le
modèle utilise deux dynamos solaires, une près de la surface solaire et une
plus en profondeur dans la zone de convection. Le modèle a été décrit dans
un article de Shepherd et al 2014 ici et décrit ici . Le modèle prédit que
l'activité solaire passera de l'activité du cycle 24 de 60 % au cours des
années 2030 aux conditions observées pour la dernière fois au cours de la «
mini ère glaciaire » qui a commencé en 1645.
Soleil et rayons cosmiques
Au cours du 20 e siècle, le Soleil a continué à se
réchauffer et a peut-être contribué directement à un tiers du réchauffement au
cours des cent dernières années. La variation de la production solaire est
trop faible pour expliquer directement la majeure partie du réchauffement
observé. Cependant,
la connexion Soleil-Rayon Cosmique fournit un mécanisme d'amplification par
lequel un petit changement dans l'irradiance solaire aura un effet important
sur le climat.
Un article de H. Svensmark et E. Friis-Christensen du Centre de recherche sur le soleil et
le climat du Centre spatial national danois à Copenhague a montré que les
rayons cosmiques sont fortement corrélés à la formation de nuages
bas. Les changements d'intensité des rayons cosmiques
galactiques modifient la nébulosité de la Terre.
Une expérience en 2005 montre l'effet des rayons cosmiques dans
une chambre de réaction contenant de l'air et des traces de produits chimiques
trouvés au-dessus des océans. Les électrons libérés dans l'air par les
rayons cosmiques agissent comme un catalyseur dans la fabrication des
aérosols. Ils accélèrent considérablement la formation d'amas stables et ultra-petits de molécules d'acide sulfurique et d'eau, qui
sont la pierre angulaire des noyaux de condensation des nuages.
Des scientifiques danois ont rapporté en mai 2011 qu'ils avaient
réussi pour la première fois à observer directement que les particules chargées
électriquement venant de l'espace et frappant l'atmosphère à grande vitesse
contribuent à créer les aérosols qui sont les conditions préalables à la
formation des nuages. Dans
une chambre climatique de l'Université d'Aarhus, les scientifiques ont créé des
conditions similaires à l'atmosphère à la hauteur où se forment les nuages
bas. Cette atmosphère artificielle a été irradiée avec des
électrons rapides du plus grand accélérateur de particules ASTRID
Danemark. Les expériences montrent que l'augmentation du rayonnement des
rayons cosmiques conduit à plus d'aérosols. Dans l'atmosphère, ces
aérosols se transforment en véritables noyaux nuageux au fil des heures ou des
jours. La vapeur d'eau se concentre sur les noyaux formant de petites
gouttelettes nuageuses. Voir le papier ici .
Une équipe de 63 scientifiques a publié en août 2011 les résultats
d'une expérience beaucoup plus sophistiquée qui a étudié les effets des rayons
cosmiques sur la formation des nuages. L'expérience CLOUD (Cosmics Leaving OUtdoor Droplets) au CERN (Organisation européenne pour la
recherche nucléaire) à Genève montre les grands effets des pions d'un
accélérateur, qui simulent les rayons cosmiques et ionisent l'air dans la
chambre expérimentale. L'expérience
CLOUD est le test le plus rigoureux de l'hypothèse des rayons cosmiques jamais
conçu. Les expériences montrent que les rayons cosmiques augmentent
fortement le taux de formation des aérosols jusqu'à dix fois, et confirment les
résultats antérieurs de l'expérience danoise. Les aérosols peuvent se
transformer en noyaux de condensation nuageuse sur lesquels se forment des
gouttelettes nuageuses. Voir le communiqué de presse du
CERN ici .
Le graphique
ci-dessous montre la croissance de la concentration
des particules d'aérosol dans la chambre CLOUD. Lors d'une expérience
expérimentale au CERN, à partir de 03h45, la lumière ultraviolette a commencé à
produire des molécules d'acide sulfurique dans la chambre, tandis qu'un champ
électrique puissant nettoyait l'air des ions. Dès que le champ électrique
a été éteint à 04h33, les rayons cosmiques naturels pleuvant à travers le toit
ont contribué à la formation d'amas à un rythme plus élevé. Lorsque CLOUD
a simulé des rayons cosmiques plus forts avec un faisceau de particules de
pions chargés commençant à 4:58, le taux de production
d'amas est devenu encore plus rapide. Les différentes couleurs
correspondent à des amas de différents diamètres (en nanomètres) enregistrés
par divers instruments. Le plus grand (noir) a mis plus de temps à pousser
que le plus petit (bleu).
Les éjections de masse coronale du soleil provoquent
une forte diminution du nombre de rayons cosmiques, appelée diminution de Forbush. Ces diminutions dramatiques et à court terme
des rayons cosmiques peuvent être utilisées pour confirmer les effets des
rayons cosmiques sur les nuages. Les nuages de plasma
magnétique provenant des éjections de masse coronale solaire fournissent un
bouclier temporaire contre les rayons cosmiques galactiques.
Une étude de Svensmark et al en 2009
montre que la diminution des rayons cosmiques a un effet important sur la
quantité d'aérosols, la couverture nuageuse et la teneur en eau liquide des
nuages. Les auteurs concluent "De l'activité solaire à l'ionisation
des rayons cosmiques en passant par les aérosols et les nuages
d'eau liquide, une chaîne causale semble fonctionner à l'échelle
mondiale."
La figure ci-dessous montre l'évolution des particules fines
d'aérosols dans la basse atmosphère (AERONET), de la teneur en eau des nuages
(SSM/I), de la fraction nuageuse dans l'eau liquide (MODIS) et
des nuages détectés à faible IR (ISCCP), en moyenne pour les 5
plus forts Forbush diminue dans la période
1987-2007. La ligne pointillée rouge montre le changement moyen en
pourcentage du nombre de rayons cosmiques. Le nombre d'aérosols le plus
bas se produit 5 jours après le minimum de Forbush,
et le minimum de teneur en eau du nuage se produit 4 jours plus tard. La
réponse de la teneur en eau des nuages pour les événements plus
importants est d'environ 7 %.
Les lignes horizontales brisées indiquent la moyenne des 15
premiers jours avant le minimum de Forbush de chacun
des quatre ensembles de données.
Source .
Les données du projet international de climatologie des nuages
par satellite et de la station de rayons cosmiques de Huancayo
montrent une corrélation remarquable entre les nuages bas (en
dessous de 3 km) et les rayons cosmiques. Il y a plus qu'assez de rayons cosmiques à haute
altitude, de sorte que les changements dans les rayons cosmiques n'affectent
pas les nuages élevés. Mais moins de rayons
cosmiques pénètrent dans les nuages inférieurs, ils sont donc
sensibles aux changements des rayons cosmiques.
Rayons cosmiques et
nuages bas
La ligne bleue montre les variations de la couverture
nuageuse mondiale recueillies par l'International Satellite Cloud Climatology Project. La ligne rouge est
l'enregistrement des variations mensuelles du nombre de rayons cosmiques à la
station Huancayo.
Les nuages
bas couvrent plus d'un quart de la surface de la Terre et
exercent un fort effet de refroidissement sur la surface. Un changement de
2 % des nuages bas au cours d'un cycle solaire modifiera l'apport
de chaleur à la surface de la Terre de 1,2 watts par mètre carré (W/m2). Cela
se compare au réchauffement total de 1,4 W/m2 cité
par le GIEC au
20 e siècle. (Le GIEC ne reconnaît
pas l'effet du soleil et des rayons cosmiques et attribue le réchauffement au
CO2.)
Le flux de rayons cosmiques peut être déterminé à partir
d'isotopes radioactifs tels que le béryllium-10 ou le champ magnétique coronal
ouvert du Soleil. Les deux proxies de rayons
cosmiques indépendants confirment qu'il y a eu une réduction spectaculaire du
flux de rayons cosmiques au cours du 20 e siècle alors que le Soleil a gagné
en intensité et que le champ magnétique coronal du Soleil a doublé en
intensité.
Flux de rayons cosmiques
depuis 1700
Les changements dans le flux de rayons cosmiques
galactiques depuis 1700 sont ici dérivés de deux proxys indépendants, 10 Be (bleu clair) et le flux coronal
solaire ouvert (bleu foncé) (Solanki et Fligge 1999). La faible quantité de nuages
(orange) est mise à l'échelle et normalisée par rapport aux
données d'observation des rayons cosmiques de Climax (rouge) pour la période
1953 à 2005 (seuil de 3 GeV). Les deux échelles
sont inversées pour correspondre à la hausse des températures. Notez que
le flux de rayons cosmiques élevé vers 1700 correspond à la fin du petit âge
glaciaire. A noter également l'augmentation du flux de rayons cosmiques
après 1780 au moment des Hivers de Dicken.
Le graphique ci-dessous
montre une corrélation entre le nombre de rayons cosmiques et les données de
radiosondage de la température globale de la troposphère. L'échelle des
rayons cosmiques est inversée pour correspondre à l'augmentation des températures. Une
activité solaire élevée correspond à un faible nombre de rayons cosmiques, à
une faible couverture nuageuse réduite et à des températures plus élevées. Le panneau supérieur montre les températures de la
troposphère en bleu et le nombre de rayons cosmiques en rouge. Le panneau
inférieur montre la correspondance obtenue en supprimant El Nino, l'oscillation
nord-atlantique, les aérosols volcaniques et une tendance linéaire de 0,14
degrés Celsius/décennie.
La corrélation négative entre le nombre de rayons
cosmiques et les températures de la troposphère est très forte, ce qui indique
que le Soleil est le principal moteur climatique. H. Svensmark
et E. Friis-Christensen ont publié le graphique
ci-dessus dans un article d'octobre 2007 en réponse à un article de M. Lockwood
et C. Frohlich, dans lequel ils soutiennent que le
lien historique entre le Soleil et le climat a pris fin il y a 20
ans. Cependant, l'article de Lockwood présentait plusieurs lacunes,
notamment le problème qu'il utilisait des données de température de surface
contaminées par l'effet d'îlot de chaleur urbain (voir ci-dessous). Ils ne
tiennent pas non plus compte du grand décalage temporel entre les changements
d'intensité solaire à long terme et la réponse de la température climatique.
Voir la réfutation de Svensmark et Gregory critique de
l'article de Lockwood.
Au cours du 20 e siècle, le Soleil a augmenté son
activité et son intensité d'irradiance, fournissant directement un certain
réchauffement. Le graphique ci-dessous à partir d' ici montre l'augmentation du flux
solaire pendant la majeure partie du XXe siècle.
Flux solaire ouvert
Le Dr UR Rao de
Bangalore, en Inde, montre que les rayons cosmiques galactiques, en utilisant
des mesures de 10 Be
dans la glace polaire profonde comme approximation, ont diminué de 9 % au cours
des 150 dernières années. La diminution des rayons cosmiques entraîne une
diminution de 2,0 % de la couverture nuageuse basse entraînant un forçage
radiatif de 1,1 W/m2,
soit environ 60 % de celui dû à l'augmentation du CO2 au
cours de la même période.
Source .
Dans le panneau supérieur montrant l'intensité des
rayons cosmiques, la ligne continue représente le taux de comptage estimé du
moniteur de neutrons Climax (1956-2000), les cercles vides indiquent les
mesures de la chambre d'ionisation pendant (1933-1956) et les cercles pleins
représentent l'intensité des rayons cosmiques dérivée de 10 Be (1801 -1932). 10 Be est un isotope radioactif à
longue durée de vie du béryllium produit par les rayons cosmiques. Le
panneau du milieu montre le champ hélio-magnétique proche de la Terre et le
panneau inférieur montre le nombre de taches solaires.
Une reconstruction de l'intensité du champ magnétique héliosphérique proche de la Terre de 1900 à 2009 à partir
d' ici par Svalgaard
et Cliver (2010) est présentée ci-dessous.
La courbe rouge représente les mesures directes par
satellite de l'intensité du champ magnétique héliosphérique
(HMF) proche de la Terre résultant du vent solaire. La courbe bleue est
l'indice de variabilité interdiurne (IDV) calculé à
partir des observations du champ géomagnétique une heure après
minuit. L'IDV est fortement corrélé avec le HMF proche de la
Terre. Les valeurs vertes sont des estimations de HMF par Lockwood et al
2009.
Lorsque le Soleil est actif, il a un plus grand nombre
de taches solaires et émet plus de vent solaire - un flux continu de particules
chargées à très grande vitesse. L'augmentation du vent solaire et du champ
magnétique repousse les rayons cosmiques qui, autrement, frapperaient
l'atmosphère terrestre, entraînant moins d'aérosols dans la basse atmosphère,
réduisant ainsi la formation de nuages bas. Les nuages
bas ont une réflectivité élevée et ont un fort effet de refroidissement
en renvoyant la lumière du soleil dans l'espace.
En résumé, le processus est :
Soleil plus actif → plus
de taches solaires → plus de vent solaire → moins de rayons
cosmiques → moins d'aérosols →
↪
moins de nuages bas → plus de lumière solaire à la surface
→ plus de réchauffement climatique.
La théorie du CO2 le réchauffement implique que l'Arctique
et l'Antarctique devraient se réchauffer à peu près de la même manière, et les
régions polaires devraient se réchauffer plus que le reste de la Terre. Cependant, l'Antarctique ne
s'est pas réchauffé depuis 1975, ce qui est un gros problème pour
la théorie du CO2. La
glace recouvrant l'Antarctique a une réflectivité encore plus élevée que les
nuages bas, donc moins de nuages bas refroidissent
l'Antarctique, tandis que moins de nuages bas réchauffent le
reste de la planète. (La
calotte glaciaire du Groenland est beaucoup plus petite et n'est pas si
réfléchissante.) Cette
tendance de la température de l'Antarctique est une preuve solide que le
Soleil, et non le CO2,
est le principal moteur climatique.
Tendances des températures
en Antarctique et en Amérique du Nord
La courbe du haut est la température de surface
nord-américaine et la courbe du bas est la température de surface de
l'Antarctique (64 S - 90 S) au cours des 100 dernières années. Les données
antarctiques ont été moyennées sur 12 ans pour minimiser les fluctuations de
température. Les lignes bleues et rouges sont des ajustements polynomiaux
du quatrième ordre aux données. Les courbes sont décalées de 1 K pour plus de clarté; sinon
ils traverseraient et retraverseraient trois fois.
Le flux de rayons cosmiques n'est pas seulement influencé par le
vent solaire, il varie également avec la position du système solaire dans les
bras galactiques. Le système solaire traverse les bras de la galaxie de la
Voie lactée environ tous les 140 millions d'années. Lorsque le système
solaire est dans les bras galactiques, l'intensité des rayons cosmiques
augmente, à mesure que nous nous rapprochons de plus de supernovas qui émettent
de puissantes rafales de rayons cosmiques. Les variations du flux de rayons cosmiques dues au passage
du système solaire dans[MT12] les quatre
bras de la galaxie de la Voie lactée au cours des 550 derniers millions
d'années sont dix fois supérieures à celles provoquées par le Soleil. La corrélation entre les rayons
cosmiques et les températures sur 520 millions d'années par N. Shaviv et J. Veiser a été montrée
précédemment. Vous trouverez ci-dessous un graphique similaire basé sur
leur travail, mais avec les temps des croisements de bras galactiques indiqués.
Flux de rayons cosmiques
et changements de température avec les croisements de bras galactiques
Quatre passages des conditions de serre chaude à des
conditions de glacière froide au cours du Phanérozoïque sont représentés par
des variations de plusieurs degrés K des températures de surface de la mer
tropicale (courbe rouge). Ils correspondent à quatre rencontres avec des
bras spiraux de la Voie lactée et aux augmentations résultantes du flux de
rayons cosmiques (courbe bleue, échelle inversée). (D'après Shaviv et Veizer 2003) Les
changements de température sur cette plage de temps ne peuvent pas être expliqués
par la théorie
du CO2.
Concentrations de
CO 2 500 millions d'années
Le graphique montre la concentration de CO 2 au cours des 500 derniers millions
d'années. Le CO 2 n'est pas corrélé à la
température. Notez que lorsque les concentrations de CO 2 étaient plus de 10 fois les niveaux
actuels, il y a environ 175 millions d'années et il y a 440 millions d'années,
la Terre était dans deux périodes glaciaires très froides.
Sources :
1. Cosmoclimatologie : une nouvelle théorie émerge article de Henrik Svensmark, 2007
2. Moteur céleste
du climat phanérozoïque ? article de Shaviv et Veizer, 2003
3. National
Post de Tim Patterson, juillet 2003, examen de l'article de
Shaviv et Veizer
Cycles de Milankovitch
Les changements orbitaux Terre-Soleil sont les
principales causes du changement climatique à long terme. Au cours des 800
000 dernières années, huit périodes de glaciations se sont
produites. Chaque période glaciaire dure environ 100 000 ans avec des
périodes interglaciaires chaudes de 10 000 à 12 000 ans. Milutin Milankovitch (1879-1958)
a identifié trois grandes variables cycliques qui sont maintenant reconnues
comme les principales causes du changement climatique. La quantité de
rayonnement solaire atteignant la Terre dépend de la distance de la Terre au
Soleil et de l'angle d'incidence des rayons du Soleil sur la surface de la
Terre. L'inclinaison de l'axe de la Terre change sur un cycle de 40 000
ans, la précession de l'équinoxe change sur un cycle de 21 000 ans et
l'excentricité de l'orbite elliptique de la Terre change sur un cycle de 100
000 ans.
L'inclinaison de l'axe de la Terre (également connue sous le nom
d'obliquité de l'écliptique) passe de 22 à 24,5 degrés sur un cycle de 40 000
ans. Les extrêmes d'été à hiver sont plus grands lorsque l'inclinaison de
l'axe est plus grande. La précession de l'équinoxe fait référence à
l'oscillation de la Terre lorsqu'elle tourne sur son axe. Actuellement,
l'axe nord pointe vers l'étoile polaire, Polaris. Dans 13 000 ans, il
pointerait vers l'étoile Vega, puis reviendrait à Polaris dans 13 000 ans,
créant un cycle de 26 000 ans. Lorsque cela est combiné avec l'avancée du
périhélie (le point où la Terre est la plus proche de son orbite par rapport au
Soleil), cela produit un cycle de 21 000 ans. La variation de la forme
elliptique de l'orbite terrestre autour du soleil va d'un cercle presque exact
(excentricité = 0,0005) à une forme légèrement allongée (excentricité = 0,0607)
sur un cycle de 100 000 ans. La terre' L'excentricité de s varie
principalement en raison des interactions avec les champs gravitationnels
d'autres planètes. L'impact de la variation est un changement de la
quantité d'énergie solaire de l'approche la plus proche du Soleil (périhélie,
vers le 3 janvier) à la plus éloignée du Soleil (aphélie, vers le 4
juillet). Actuellement, l'excentricité de la Terre est de 0,016 et il y a
une augmentation d'environ 6,4 % de l'énergie solaire entrante de juillet à
janvier. Dans l'hémisphère nord, l'hiver se produit lors de l'approche la
plus proche du Soleil. Le graphique ci-dessous montre les trois cycles en
fonction du temps. La ligne verticale représente le présent, le temps
négatif est le passé et le temps positif est le futur. L'impact de la
variation est un changement de la quantité d'énergie solaire de l'approche la
plus proche du Soleil (périhélie, vers le 3 janvier) à la plus éloignée du
Soleil (aphélie, vers le 4 juillet). Actuellement, l'excentricité de la
Terre est de 0,016 et il y a une augmentation d'environ 6,4 % de l'énergie
solaire entrante de juillet à janvier. Dans l'hémisphère nord, l'hiver se
produit lors de l'approche la plus proche du Soleil. Le graphique
ci-dessous montre les trois cycles en fonction du temps. La ligne
verticale représente le présent, le temps négatif est le passé et le temps
positif est le futur. L'hiver se produit lors de l'approche la plus
proche du Soleil. Le graphique ci-dessous montre les trois cycles en
fonction du temps. La ligne verticale représente le présent, le temps
négatif est le passé et le temps positif est le futur.
Source .
L'analyse des carottes en eau profonde montre des
changements de température de la mer correspondant à ces cycles, le cycle de
100 000 ans étant le plus fort.
Ces cycles solaires ne provoquent pas suffisamment de changement
dans le rayonnement solaire atteignant la Terre pour provoquer le changement
climatique majeur sans effet amplificateur. Un amplificateur plausible est
le vent solaire variable du Soleil qui modifie la quantité de rayons cosmiques
atteignant l'atmosphère terrestre.
Le taux de changement du volume global de glace varie inversement
avec l'insolation solaire due aux changements orbitaux. Le graphique
ci-dessous compare l'anomalie d'insolation solaire de juin au nord de 65 degrés
de latitude au taux de changement du volume global de glace au cours des 750
000 dernières années. Les reconstructions des volumes de glace mondiaux
reposent sur la mesure des isotopes de l'oxygène dans les coquilles de
foraminifères à partir de carottes de sédiments en eau profonde. Les
enregistrements reflètent également en partie les températures des océans
profonds. Deux records de glace sont affichés; SPECMAP
et HW04.
Les taux de fonte et de sublimation de la glace sont
très sensibles aux températures estivales. Les fortes corrélations et
l'absence d'un décalage temporel important démontrent essentiellement des
variations concurrentes dans le changement des volumes de glace et l'insolation
estivale dans les hautes latitudes du nord. Les deux reconstructions du volume de glace soutiennent
donc l'hypothèse de Milankovitch et montrent que le
Soleil est le moteur climatique dominant. Le graphique est tiré de
l'article de 2006 " In defense of Milankovitch " de G. Roe.
Chauffage de la troposphère
Les modèles informatiques basés sur la théorie du
réchauffement du CO 2 prédisent que la troposphère sous
les tropiques devrait se réchauffer plus rapidement que la surface en réponse à
l'augmentation des concentrations de CO2, car c'est là que l'effet de serre du CO2 opère. Le réchauffement des
rayons Soleil-Cosmique réchauffera la troposphère plus uniformément.
Le quatrième rapport d'évaluation du GIEC de l'ONU comprend un
ensemble de tracés du taux de changement de température prévu par le modèle
informatique de la surface à 30 km d'altitude et sur toutes les latitudes pour
5 types de forçages climatiques, comme indiqué ci-dessous.
Changement de température
prévu par le modèle informatique
Source : Réchauffement
à effet de serre ? Quel réchauffement à effet de serre ? par Christopher Monckton.
Les six graphiques montrent les changements de
température prévus dus à :
a) le Soleil
b) l'activité volcanique
c) le CO 2 anthropique et d'autres gaz à effet
de serre
d) l'ozone anthropique
e) les particules d'aérosol de sulfate anthropique
f) tous les forçages ci-dessus combinés
Le taux de changement de température est représenté par la couleur
en degrés Celsius par siècle.
Il est évident que le
graphique c) du réchauffement causé par les gaz à effet de serre est
remarquablement distinct des autres causes de réchauffement. Le graphique
f) est similaire au graphique c) uniquement parce que le GIEC suppose que le CO2 est
la principale cause du réchauffement climatique.
Les modèles informatiques montrent que le réchauffement à effet de
serre provoquera un point chaud à une altitude comprise entre 8 et 12 km
au-dessus des tropiques entre 30 N et 30 S. La température à ce point chaud devrait augmenter à un taux de
deux à trois fois plus vite qu'en surface.
Cependant, le graphique du monde réel des observations de
température de radiosondage du Centre Hadley présenté ci-dessous ne montre pas
du tout le point chaud projeté du réchauffement climatique induit par le
CO2. Le
point chaud prédit est totalement absent du dossier d'observation. Cela
montre que la théorie du réchauffement de l'atmosphère programmée dans les
modèles climatiques est erronée.
Données de radiosondage
HadAT2 1979 - 1999
Source :p.116, fig. 5.7E,
observations de radiosondage CCSP HadAT2 , 2006.
L'échelle de gauche est la pression atmosphérique en
hPa et l'échelle de droite est l'altitude en km. Les couleurs représentent
-0,6 à 0,6 °C/décade.
Le graphique ci-dessous compare les températures annuelles
globales de la troposphère aux mesures de surface. Les mesures de la basse
troposphère de l'Université de l'Alabama à Huntsville (LT UAH v.6). Il
mesure la température de la troposphère jusqu'à environ 8 km. La courbe
HadCRUT5 est l'ensemble de données sur les températures de surface des terres
et des mers du Met Office britannique. La courbe GISS4 représente les
températures de surface du Goddard Institute of Space
Studies. Les trois courbes sont mises à
l'échelle de sorte que les lignes de tendance soient égales à 0 degrés Celsius
en 1979. Le graphique montre les températures GISS4 et HadCRUT5 augmentant à
0,19 °C/décennie et la basse troposphère se réchauffant à seulement 0,132
°C/décennie. Tous les
modèles climatiques prévoient que la basse troposphère se réchauffera plus
rapidement que la surface en raison de l'augmentation de la vapeur d'eau.
Le graphique ci-dessous compare les températures
annuelles de la troposphère aux mesures de surface sous les tropiques. Les
données de basse troposphère proviennent de UAH6 et les données de surface
proviennent de HadCRUT5 et GISS4. La plage de latitude pour les trois
ensembles de données va de 20 degrés nord à 20 degrés sud.
Une comparaison
des enregistrements montre que la surface s'est réchauffée plus vite que la
troposphère, contrairement à ce que prédit la théorie du réchauffement du
CO2. Le
modèle GISS AF réchauffe la basse troposphère 30 % plus vite qu'en surface.
La réponse prédite du réchauffement de la troposphère dans les
tropiques au réchauffement climatique est l'empreinte de la rétroaction
positive hypothétique de la vapeur d'eau qui est programmée dans les modèles
climatiques.
L'analyse UAH provient de l'Université de l'Alabama à
Huntsville. Il utilise la mesure micro-onde de plusieurs
satellites. Les projections du GIEC ne concordent pas avec les données.
Refroidissement stratosphérique
Le graphique "HadAT2 Radiosonde Data
1979-1999" dans la section précédente montre que la stratosphère
(au-dessus de 16 km) s'est refroidie, ce qui pourrait sembler indiquer un effet
de gaz à effet de serre. Cependant, un refroidissement stratosphérique
devrait se produire en raison à la fois des gaz à effet de serre et de
l'appauvrissement de la couche d'ozone. La concentration d'ozone dans la
stratosphère a diminué de 1970 à 1995, et n'a pas diminué du tout depuis lors
en raison de la mise en œuvre du Protocole de Montréal, qui limite les
émissions de CFC réduisant la couche d'ozone. Les températures de la
stratosphère indiquées ci-dessous proviennent d' ici .
La température de la stratosphère inférieure n'a pas
diminué du tout depuis 1995 (lorsque les niveaux d'ozone sont stables ou en
légère augmentation), de sorte que les données du ballon météo n'indiquent
aucun refroidissement de la stratosphère par les gaz à effet de serre. En
fait, il semble qu'il y ait eu un léger réchauffement de la basse stratosphère
depuis 1995, à l'opposé de ce que prédisent les modèles informatiques des
effets des gaz à effet de serre. Le refroidissement de la stratosphère
indiqué par les données de radiosondage est causé par l'évolution de la
concentration d'ozone, et non par les gaz à effet de serre.
Vous trouverez ci-dessous un graphique de la
température de la basse stratosphère à partir des données satellitaires de
l'Université de l'Alabama à Huntsville. Il ne montre aucun changement de
température de 1994 à 2015, puis une légère baisse en 2016. Les deux pics
importants de 1982 et 1991 ont été causés par de grandes éruptions volcaniques.
Le CO 2 contre les
théories du réchauffement solaire
Le tableau suivant présente une comparaison des
prédictions de deux théories climatiques - la théorie du réchauffement par le
CO 2 et la théorie Soleil/Rayons
cosmiques - et les données réelles du monde réel.
Publier |
Prédiction - Théorie
du CO 2 |
Prédiction - Soleil / Théorie des rayons
cosmiques |
Les données réelles |
Quelle théorie gagne |
Températures de l'Antarctique et de l'Arctique |
Les températures en Arctique et en Antarctique augmenteront
de manière symétrique |
Les températures vont initialement se déplacer dans
des directions opposées |
Les températures évoluent dans des directions
opposées |
Soleil / Rayon cosmique |
Température de la troposphère |
Le réchauffement le plus rapide se produira dans la
troposphère au-dessus des tropiques |
Le réchauffement de la troposphère sera uniforme |
Le réchauffement de surface est similaire ou
supérieur au réchauffement de la troposphère |
Soleil / Rayon cosmique |
Calendrier des changements de CO 2 et de température à la fin de la période
glaciaire |
Le CO 2 augmente puis la température augmente |
La température augmente puis le CO 2 augmente |
Les concentrations de CO 2 augmentent environ 800 ans après
l'augmentation de la température |
Soleil / Rayon cosmique |
Température en corrélation avec le conducteur au
cours des 400 dernières années |
déjà |
déjà |
Le flux de rayons cosmiques et l'activité solaire
sont en corrélation avec la température, pas le CO 2 |
Soleil / Rayon cosmique |
Températures pendant la période ordovicienne |
Très chaud en raison des niveaux de CO 2 > 10X présents |
Très froid en raison du flux élevé de rayons
cosmiques |
Période glaciaire très froide |
Soleil / Rayon cosmique |
Le climat des autres planètes |
Pas de changement |
D'autres planètes vont se réchauffer |
Un réchauffement a été détecté sur plusieurs autres
planètes |
Soleil / Rayon cosmique |
Projections du GIEC et modèles
Le Groupe d'experts intergouvernemental sur
l'évolution du climat (GIEC) présente des projections du changement climatique
basées sur des modèles informatiques. Le groupe de travail 1 du cinquième
rapport d'évaluation (AR5), "Climate Change 2013: The Physical Science Basis" a été publié en ligne
ici le 30 janvier 2014. Les projections présentées dans le rapport sont basées
sur quatre scénarios, ou voies de concentration représentatives (RCP) qui
comprennent différentes hypothèses d'émissions de CO2 et d'autres gaz à effet de
serre. Les noms des scénarios correspondent à différents forçages cibles à
2100 (par rapport à 1750), 2,6, 4,5, 6,0 et 8,5 W/m2. Ces RCP remplacent les scénarios
d'émissions utilisés dans le quatrième rapport d'évaluation.
RCP2.6 est un scénario d'atténuation fort.
RCP4.5 est un scénario d'atténuation où le forçage radiatif est
stabilisé avant 2100.
RCP6.0 est un scénario d'atténuation plus lent où le forçage
radiatif est stabilisé après 2100.
RCP8.5 est un scénario d'émissions extrêmes où le taux d'émissions
de gaz à effet de serre augmente.
Le graphique ci-dessous montre la concentration de CO 2 dans l'air jusqu'en 2050 pour chaque
scénario RCP. La courbe bleu clair représente les concentrations
historiques de CO 2 .
Les concentrations de CO 2 de RCP2.6, RCP4.5 et RCP6.0 sont
similaires jusqu'en 2030. RCP2.6 Le CO 2 se stabilise peu après 2040. La
concentration réelle de CO 2 a augmenté de 0,54 %/an de 2005 à
2013. Le RCP8 .5 Les concentrations de CO 2 augmentent de 1,00 %/an d'ici 2050
et de 1,16 %/an d'ici 2070, soit plus du double du taux de croissance
historique.
.
La concentration réelle de CH 4 a augmenté de 0,2 %/an de 2005 à
2010. RCP 4.5 et RCP6.0 montrent également une faible croissance
des concentrations de CH 4 . Les concentrations de CH 4 chutent significativement dans le
scénario d'atténuation forte RCP2.6, mais augmentent de 1,34 %/an d'ici 2050
dans le scénario RCP8.5. Le RCP8.5 est un scénario extrême et irréaliste
car le CO 2 et le CH 4 augmentent beaucoup plus rapidement
que les changements historiques.
Le rapport AR5 montre que les effets de refroidissement des
aérosols sont bien inférieurs à ce que l'on croyait auparavant, mais le temps
manquait pour inclure ces nouvelles estimations dans les modèles climatiques
utilisés pour le rapport. Une réduction du refroidissement des aérosols
devrait également réduire l'estimation du forçage par effet de
serre. Aucun modèle climatique n'a été ajusté pour correspondre à
l'absence de réchauffement au cours des 16 dernières années, communément
appelée «pause» ou «hiatus»
du réchauffement climatique. Par conséquent, le GIEC a réduit ses
prévisions de réchauffement à court terme de 400 par rapport aux projections du
modèle climatique. Le graphique suivant montre la prévision moyenne du
modèle climatique RCP4.5 et les prévisions basses, moyennes et hautes du GIEC
basées sur le "jugement d'experts". Les températures mondiales
réelles estimées par HadCRUT4 sont indiquées ci-dessous.
Le résumé technique du RE5 donne le tableau TS.1 qui
montre les changements de température prévus par le modèle climatique pour
chaque scénario RCP sur des périodes de 20 ans de 2046-2065 et 2081-2100 par
rapport à la moyenne 1986-2005. Le tableau ci-dessous montre
l'augmentation prévue de la température au milieu de l'année par rapport à la
moyenne 1986-2005 et par rapport à 2013. La température HadCRUT4 en 2013 était
de 0,19 °C supérieure à la moyenne 1986-2005.
Changement global moyen de
la température de surface en degrés Celsius
|
par rapport à 1986 à 2005 |
par rapport à 2013 |
||
Scénario |
2055 |
2090 |
2055 |
2090 |
RCP2.6 |
1.0 |
1.0 |
0.8 |
0.8 |
RCP4.5 |
1.4 |
1.8 |
1.2 |
1.6 |
RCP6.0 |
1.3 |
2.2 |
1.1 |
2.0 |
RCP8.5 |
2.0 |
3.7 |
1.8 |
3.5 |
Kevin Trenberth est à la
tête du grand centre national américain de recherche atmosphérique et l'un des
conseillers du GIEC. Trenberth affirme "...
il n'y a pas du tout de prévisions (climatiques) du GIEC. Et il n'y en a jamais
eu". Au lieu de cela, il n'y a que des projections "et si"
du climat futur qui correspondent à certains scénarios d'émissions. Selon Trenberth, les MCG "... ne tiennent pas compte de
beaucoup de choses comme le rétablissement de la couche d'ozone, par exemple,
ou les tendances observées dans les agents de forçage. Aucun des modèles
utilisés par le GIEC n'est initialisé à l'état observé et aucun des paramètres
climatiques états dans les modèles correspond même de loin au climat actuel
observé." Cependant, Scott Armstrong et Kesten
Green ont vérifié le chapitre pertinent dans le dernier rapport du
GIEC. Ils trouvent que "
Les modèles informatiques échouent
Le GIEC suppose que le Soleil a peu d'effet, même si
les preuves d'observation montrent clairement que le Soleil a un effet
significatif sur le climat.
Les modèles supposent que l'augmentation de la
température au 20 e siècle est causée uniquement par
l'augmentation de la concentration des gaz à effet de serre, et les paramètres
sont définis dans les modèles pour faire augmenter la température en réponse au
forçage des gaz à effet de serre. L'effet direct de l'augmentation de la
concentration de CO 2 sur le réchauffement climatique est
très faible. Tous les modèles amplifient une augmentation initiale de la
température due au CO 2 en utilisant la vapeur d'eau et les
nuages comme grande rétroaction positive. Cependant, rien ne
prouve que la vapeur d'eau et les nuages fournissent une
rétroaction positive importante. Ils peuvent fournir une rétroaction
négative.
Les modèles climatiques utilisent de grands blocs de
grille pour simuler le climat, qui sont trop grands pour inclure des orages ou
des ouragans, ils utilisent donc la paramétrisation pour en tenir compte. Ces
paramétrisations ignorent les transferts réels d'énergie, d'humidité et de
quantité de mouvement qui pourraient modifier considérablement les résultats et
limiter considérablement l'utilité des projections des modèles climatiques. Les
modèles informatiques utilisent des approximations pour représenter des
processus physiques qui ne peuvent pas être directement calculés en raison de
limitations de calcul. Étant donné que de nombreux paramètres empiriques
peuvent être sélectionnés pour forcer un modèle à correspondre aux
observations, la capacité d'un modèle à correspondre aux observations ne peut
pas être citée comme preuve que le modèle est réaliste et n'implique pas qu'il
est fiable pour prévoir le climat. Voir le
résumé indépendant du Fraser Institutes
For Policy Makers.
Le
méthane est
un gaz à effet de serre important. De 1990 à 2019, le forçage radiatif du
méthane était de 5,6 % de celui du CO 2 . La concentration de méthane, telle
que décrite ci-dessous, était stable de 2000 à 2005 et a recommencé à augmenter
en 2006. Le GIEC a publié le graphique ci-dessous montrant les plages de
prévisions de concentration de méthane des rapports d'évaluation 1 à 4 ainsi
que les valeurs réelles. Dans chaque rapport, les prévisions de
concentration de méthane ont été grossièrement surestimées. Les valeurs
réelles de méthane ont été ajoutées en noir pour la période depuis la
publication du RE5 et la prévision du RE5 RCP8.5.
Tendances de température du modèle informatique
par rapport aux observations
Le Dr John Christy, professeur de sciences
atmosphériques à l'Université de l'Alabama à Huntsville (UAH), affirme que le
travail principal d'un scientifique consiste à tester des
hypothèses. Étant donné que les climatologues regroupent toutes leurs
connaissances dans des modèles climatiques, les modèles doivent être
testés. La température de surface moyenne mondiale ne convient pas pour
tester les modèles car ils sont déjà réglés pour correspondre à peu près à
cela. La caractéristique la plus prononcée dans tous les modèles est un
fort réchauffement dans la haute troposphère tropicale.
Le graphique à barres ci-dessous montre les tendances
au réchauffement des modèles et des observations climatiques sur la période
1979-2021 de la couche atmosphérique sous les tropiques des niveaux de pression
de 300 à 200 hPa, soit de 9 à 12 km d'altitude.
La tendance
moyenne des modèles climatiques est de 0,41 °C/décennie et la moyenne des
observations (radiosondage par ballon météo et données de réanalyse) est de
0,17 °C/décennie. Les modèles surchauffent l'atmosphère tropicale d'un
facteur 2,40. Le
modèle canadien est le pire car la tendance moyenne au réchauffement de ses
deux versions est de 3,6 fois les observations.
Le graphique ci-dessous montre les moyennes sur 5 ans
des températures de la troposphère tropicale de 1979 à 2021 des modèles
climatiques individuels, leur moyenne (moyenne du modèle) et les observations
par radiosonde, satellites et réanalyse.
La tendance moyenne du modèle est de 0,32 °C/décennie
et la moyenne des trois types d'observations (radiosondes, satellites et
réanalyse) est de 0,17 °C/décennie. La tendance moyenne du modèle de la
troposphère tropicale est de 2,03 fois la moyenne des observations. Les
tropiques sont de 20°S à 20°N et la troposphère s'étend de la surface à environ
16 km d'altitude. La variabilité des modèles climatiques est 3 fois plus
grande que les observations indiquant que les modèles manquent des mécanismes
de rétroaction négative opérant dans le système climatique réel. Les graphiques montrent
clairement que les modèles climatiques ne sont pas adaptés à l'élaboration de
politiques climatiques.
Une équipe de quatre chercheurs de trois universités
américaines dirigée par David Douglass a comparé les tendances de la
température de la troposphère dans les tropiques prédites par les modèles
climatiques aux observations réelles par satellite et par radiosondage. Dans
un article publié en décembre 2007 par la Royal Meteorological
Society, Douglass et al ont analysé les résultats de simulation de 22 modèles
climatiques à la surface et à 12 altitudes différentes. Les résultats de
la simulation ont été comparés aux tendances de température déterminées à
partir de deux analyses de données satellitaires et de quatre ensembles de
données de radiosondage pour la période de janvier 1979 à décembre 2004.
Le diagramme ci-dessus montre la comparaison des
tendances de température de 1979 à 2004 des modèles climatiques et des
observations réelles par satellite et radiosondage, exprimées en degrés Celsius
par décennie par rapport à l'altitude et à la pression atmosphérique. Le
panneau de gauche montre quatre résultats de radiosondage comme IGRA, RATPAC,
HadAT2 et RAOBCORE. La ligne rouge épaisse montre la moyenne des 22
résultats du modèle informatique et l'erreur standard de 2 fois la moyenne des modèles
est représentée par les deux lignes rouges fines. Les tendances de
température à partir de trois ensembles de données de mesure de surface sont
identifiées dans la légende par Sfc et sont tracées
sur l'axe de gauche. L'analyse RSS et UAH des données satellitaires est
tracée sur le panneau de droite à deux couches effectives : T2lt
représente la basse troposphère avec une moyenne pondérée à 2,5 km, T2
représente la moyenne troposphère avec une moyenne pondérée à 6,1 km
d'altitude. Une tendance est la pente de la ligne qui a été ajustée par
les moindres carrés aux données. Les valeurs du modèle synthétique
correspondant aux couches effectives des données satellitaires sont affichées
dans le panneau de droite sous forme de cercles rouges ouverts.
Un endroit essentiel pour comparer les observations avec les
modèles informatiques de serre est la couche entre 450 hPa et 750 hPa de
pression atmosphérique où la présence de vapeur d'eau est la plus importante,
et est appelée la "couche d'émission caractéristique". Dans
cette couche, les observations sont toutes en dehors du test d'erreur standard
de 2 fois. Les tendances des radiosondes et des satellites sont
incompatibles avec les tendances du modèle à toutes les altitudes au-dessus de
la surface. Douglass et al. concluent que
les résultats du modèle et les tendances de température observées sont en
désaccord dans la majeure partie de la troposphère tropicale, étant séparés par
plus du double de l'incertitude de la moyenne du modèle. Dans les couches
proches de 5 km, la tendance modélisée est de 100 à 300 % supérieure à celle
observée et, au-delà de 8 km, les tendances modélisées et observées ont des
signes opposés. Par conséquent, toutes les projections du climat futur à
partir des modèles sont très probablement trop élevées, et ces projections ne
devraient pas être utilisées pour élaborer des politiques publiques. Voir
le papier"Une comparaison des tendances de la
température tropicale avec les prévisions du modèle ".
Un article technique publié par R. McKitrick,
S. McIntyre et C. Herman dans Atmospheric Science Letters, août 2010 montre que les tendances de la
température du modèle climatique de la troposphère moyenne, en utilisant 57
pistes à partir de 23 modèles climatiques, sont quatre fois plus grandes que
les observations des satellites et des ballons météorologiques.
Source .
Le Dr Roy Spencer a publié le graphique suivant
comparant 73 exécutions de modèles climatiques aux observations de ballons
météorologiques et de satellites dans la troposphère tropicale. Les tracés
du ballon et du modèle sont des profils satellites simulés.
Le Dr Roy Spencer écrit "Maintenant, dans quel
univers les résultats ci-dessus ne représentent-ils pas un échec épique pour
les modèles?" ici . "Franchement, je ne vois
pas comment le GIEC peut continuer à prétendre que les modèles ne sont
"pas incompatibles" avec les observations. Toute personne sensée peut
voir le contraire." Voir ici . John Christy écrit "Tous
les niveaux de pression sont utilisés dans les radiosondes et les modèles pour
générer le profil satellite simulé. Tous les niveaux sont utilisés en fonction
de leur pondération proportionnelle de la fonction d'émission de micro-ondes
[du satellite]."
Bien que la température de l'air puisse fluctuer d'une année à
l'autre en raison du transfert de chaleur entre l'air et les océans, si le CO2 est à l'origine du réchauffement
climatique selon l'hypothèse du GIEC, la teneur en chaleur de l'océan doit
augmenter de manière monotone à condition qu'il n'y ait pas d'éruptions
volcaniques majeures. Le contenu thermique de l'océan est une mesure
beaucoup plus robuste que la température de l'air de surface pour évaluer le
changement climatique mondial, car la capacité thermique de l'océan est
supérieure à celle de l'atmosphère de plusieurs ordres de grandeur. Pour
toute zone donnée à la surface de l'océan, les 2,6 mètres supérieurs d'eau ont
la même capacité calorifique que l'atmosphère entière au-dessus ! Selon
les modèles du GIEC, toutes les rétroactions majeures sont positives, il n'y a
donc aucun mécanisme qui permettrait au contenu thermique de la Terre de
diminuer.
La chaleur accumulée dans le système climatique peut être mesurée
à l'échelle mondiale à partir de 2003 par le réseau ARGO de 3341 flotteurs à
dérive libre qui mesurent la température et la salinité dans les 2000 m
supérieurs de l'océan. Les flotteurs robotiques remontent à la surface
tous les 10 jours et transmettent des données à un satellite qui détermine
également leur emplacement comme indiqué ci-dessous.
Le graphique ci-dessous montre la teneur en chaleur
océanique de la NOAA par couche de profondeur océanique ; 0 à 700 m
de profondeur et 0 m à 2000 m de profondeur.
Plus il y a de chaleur transférée dans l'océan
profond, moins il reste de chaleur pour réchauffer l'atmosphère. Le
graphique ci-dessus montre que les deux couches ont gagné en chaleur. Les
données NOAA pour 0 à 2000 m à partir d' ici commencent au premier trimestre de
2005. La différence entre les courbes est le gain de chaleur de 700 m à 2000 m
de profondeur. Le
graphique affiche les anomalies de contenu thermique, et non le contenu
thermique réel, de sorte que seuls les changements de chaleur sont pertinents. Les
unités de contenu calorifique de Joules ne sont pas très significatives pour la
plupart des gens, donc le graphique ci-dessous présente des informations
similaires mais en changement de température moyen pour chaque couche. Le
graphique montre les données de température de 0 à 700 m et de 0 à 2000 m du
premier trimestre de 2003, qui sont généralement considérées comme le début de
données ARGO fiables.
Les lignes lisses et fines sont les lignes
quadratiques les mieux ajustées. Les points de données sont tous les
trimestres de l'année. La température de la couche océanique 0-700 m
augmente un peu plus vite que celle de la couche 0-2000 m et cela indique une
plus grande accélération des températures. L'élévation de la température
de la couche de 0 à 2000 m est presque linéaire et montre très peu
d'accélération. La tendance de la température de la couche 0-2000 m au
milieu de 2021 était de 0,113 °C/décennie. La tendance de la couche 0 à
2000 m au milieu de 2021 est de 0,054 °C/décennie, soit environ la moitié de la
couche 0 à 700 m.
L'un des paramètres les plus importants pour déterminer la
sensibilité au climat dans les modèles climatiques est la quantité de chaleur
qu'ils transfèrent aux océans. Le graphique suivant du Dr Spencer compare
les observations de Levitus sur les tendances du
réchauffement des océans entre 1955 et 1999 à 15 exécutions du modèle
climatique 4AR du GIEC.
Source .
Notez que les modèles climatiques présentent des
tendances très différentes, le refroidissement des océans profonds étant aussi
fréquent que le réchauffement. La courbe verte est l'observation réelle de Levitus
à une profondeur de 700 m. La plupart des modèles produisent trop de
réchauffement dans la couche à 700 m. De nombreux modèles
produisent un refroidissement inattendu de l'océan en dessous de 100 m pendant
que la surface se réchauffe. Aucun des modèles ne correspond même de loin
aux observations. Le faible réchauffement de l'océan dans la couche de 700
m suggère une faible sensibilité au climat, même si tout le réchauffement était
dû aux émissions de CO 2 .
Les graphiques ci-dessous dans cette section
préparés par Bob Tisdale comparent les séries
de température aux simulations rétrospectives des modèles informatiques
utilisés par le GIEC. Les simulations rétrospectives des modèles
informatiques doivent être comparées aux observations historiques réelles pour
déterminer dans quelle mesure les modèles correspondent aux enregistrements
historiques. Un modèle qui ne correspond pas à l'historique ne produira
pas de projections réalistes.
L'animation ci-dessous compare les anomalies de température
observées dans l'Atlantique Nord aux températures modélisées de l'air de
surface pour les 6 membres individuels de l'ensemble et la moyenne d'ensemble
du modèle climatique couplé CCSM4 du National Center of Climate
Research (NCCR). Toutes les données ont été
lissées avec un filtre de 121 mois.
Bob Tisdale écrit "Le
modèle climatique couplé NCAR CCSM4 semble faire un mauvais travail de rétropolation de la variabilité multidécennale
des anomalies de température de l'Atlantique Nord." Voir ici .
L'animation ci-dessous compare la température de surface de la mer
(SST) dans la région NINO 3 aux simulations rétrospectives du modèle
climatique. NINO 3 est une région des tropiques du Pacifique oriental où
se produisent des événements El Nino. Cela montre à quel point les modèles
anticipent mal la fréquence, l'ampleur et la tendance des événements
ENSO. La tendance
moyenne de l'ensemble du modèle est 14 fois supérieure à la tendance des
observations.
Bob Tisdale écrit "la
fréquence et l'ampleur des événements El Nino et La Nina des membres
individuels de l'ensemble sont loin de correspondre à celles observées dans
l'enregistrement de la température de l'instrument. Devraient-elles? Oui. Pendant une période de temps donnée, c'est la
fréquence et l'ampleur des événements ENSO qui détermine la fréquence et la
quantité de chaleur libérée par le Pacifique tropical dans
l'atmosphère..."
Le graphique ci-dessous compare les tendances linéaires des
observations et la moyenne du modèle des rétrospectives/projections du GIEC AR5
de la SST pour la période de janvier 1982 à décembre 2014 dans des bandes de
latitude de 5 degrés. Les modèles ont prédit des tendances de
réchauffement beaucoup plus importantes dans les tropiques que ce qui a été
observé. Le réchauffement réel dans les régions du nord est supérieur à
celui modélisé. Un réchauffement était prévu dans la région sud, mais la
tendance SST était en fait négative dans une grande partie de la région. Cela
montre que les modèles font un travail extrêmement médiocre pour simuler la
façon dont la chaleur topique est transportée vers les régions
polaires. Voir ici .
Les températures de surface de la mer de -50 à -80
degrés de latitude (sud) et de 50 à 80 degrés de latitude (nord) sont indiquées
ci-dessous. Le GIEC affirme que le CO 2 est le principal moteur du
changement climatique, mais les tendances de température linéaires les mieux
ajustées ont diminué à 0,04 °C/décennie dans la région sud et augmenté à 0,22
°C/décennie dans la région nord malgré le fait que le CO 2 les concentrations dans les deux
régions sont presque les mêmes.
Le graphique ci-dessous compare la SST du Pacifique
Est aux modèles par latitude. Cela inclut l'importante région d'El Nino,
donc un bon match historique ici est essentiel. La SST tropicale du Pacifique oriental a diminué à
l'équateur à 0,14 C/décennie, mais les modèles montrent un fort réchauffement
de 0,19 C/décennie. Voir ici .
Le graphique ci-dessous compare les observations de la
SST aux sorties des modèles climatiques pour la période de 1910 à août 2011. La
SST provient de l'ensemble de données HADISST et la simulation rétrospective du
modèle est la moyenne du modèle du GIEC publiée en 2007. Les modèles ne
correspondent pas à la variabilité de la température au cours de la période.
1910 à 1975. Ils sont conçus pour correspondre à la tendance au réchauffement
de 1975 à 2002 en supposant que la majeure partie du réchauffement est due au
CO 2 et en utilisant une sensibilité
élevée aux gaz à effet de serre. Les projections divergent des
observations après 2002 malgré l'augmentation continue
des émissions de CO 2 . Voir ici .
Le graphique ci-dessous montre les mesures de la
température de surface de la mer dans l'hémisphère nord et les simulations
rétrospectives du modèle climatique pour la période 1910 à 1944. L'augmentation
réelle de la température était 4,5 fois supérieure à la tendance
modélisée. Les modèles ne peuvent pas reproduire les mesures car ils
n'incluent pas les causes naturelles du changement climatique. Le
graphique vient d' ici .
La tendance globale de la température de surface de HadCRUT pour la période de réchauffement du début du XXe siècle de 1917 à 1944 à 0,174
°C/décennie est similaire à la période de réchauffement tardif de 1976 à 2005 à
0,195 °C/décennie, comme indiqué ci-dessous. Mais le forçage anthropique
net dans les modèles climatiques pendant la période de réchauffement tardif est
3,8 fois plus élevé que le forçage pendant la période de réchauffement
précoce. L'augmentation de 3,8 fois du forçage n'a eu presque aucun effet
sur les tendances de la température des deux périodes de réchauffement, ce qui
indique que la théorie du réchauffement climatique anthropique est sérieusement
défectueuse. Le graphique d' ici .
Le graphique ci-dessous compare les tendances sur 17
ans (240 mois) de la SST mondiale à la moyenne du modèle du GIEC. Chaque
point sur les courbes représente la tendance linéaire la mieux ajustée sur 17
ans jusqu'à ce point dans le temps. Les modèles du GIEC ont projeté la
tendance mondiale de la SST sur 17 ans se terminant en août 2011 à 0,15
°C/décennie, mais l'augmentation observée n'était que de 0,02
°C/décennie. Voir ici .
Bob Tisdale écrit : « Les
modèles climatiques couplés utilisés pour rétrospectivement le climat passé et
projeter le climat futur dans le rapport AR4 du GIEC de 2007 n'ont pas été
initialisés afin qu'ils puissent reproduire les variations multidécennales qui
existent dans les enregistrements de température mondiale. Cela est connu
depuis des années. ." et "Les modèles
climatiques utilisés par le GIEC semblent manquer d'un certain nombre de
composants qui produisent le signal multidécennal naturel qui existe dans le
relevé de température de surface de la mer basé sur des instruments."
L'amplitude des températures quotidiennes sur terre a diminué
parce que les températures minimales quotidiennes (Tmin)
ont augmenté plus que les températures maximales quotidiennes (Tmax) au cours
du 20siècle. La base de données NOAA Global Historical
Network montre que 2/3 du réchauffement est dû à l'augmentation des
températures minimales. La tendance de la différence entre les
températures quotidiennes maximales et minimales s'appelle la plage de
température diurne et c'est un paramètre climatique très important. Un
article de McNider et al (2012) montre que 6 modèles
climatiques avec des températures minimales et maximales publiées ne
reproduisent que 20 % de la tendance de la température diurne mesurée, comme le
montre la figure ci-dessous. Il s'agit d'une erreur de modèle climatique
quintuple.
Les modèles climatiques sont réglés pour correspondre
uniquement à la hausse de température de 1970 à 2000 de la moyenne des
températures minimales et maximales (Tmean). Si
les modèles reproduisent Tmean mais ne capturent pas
la tendance de Tmin, cela doit signifier que le
modèle Tmax se réchauffe plus rapidement que le Tmax réel. Une analyse
informatique de la couche limite près de la surface montre qu'une augmentation
des gaz à effet de serre provoque un mélange accru de la couche limite qui
amène l'air chaud nocturne en altitude vers la surface. Seuls 20 % du
réchauffement étaient dus à l'énergie des ondes longues dans la simulation du
modèle et 80 % étaient dus à une turbulence accrue. Une couche de
seulement 20 à 50 m d'épaisseur est réchauffée par cette turbulence. Le
Tmax mesuré pendant la journée représente une couche limite de 1 à 2 km de
profondeur. Les modèles climatiques supposent que la Tmean
représente une épaisseur d'air de 1 à 2 km, mais il ne fait en réalité que
20 à 50 m d'épaisseur. Le Tmax modélisé se réchauffe beaucoup plus
rapidement et représente une épaisseur d'air beaucoup plus grande que le Tmax
réel. Voir ici .
La majeure partie du
réchauffement dans les modèles climatiques est due à l'augmentation de la
vapeur d'eau à mesure que les températures augmentent. Les modèles
climatiques surestiment considérablement la tendance Tmax, qui représente
l'atmosphère profonde, ils surestiment donc également considérablement
l'augmentation de la vapeur d'eau dans la basse atmosphère.
Environ 46 % des émissions de CO 2 d'origine humaine
, y compris les changements d'affectation des sols, restent dans
l'atmosphère et 54 % sont absorbés par des puits naturels. Le graphique
ci-dessous montre que la fraction des émissions qui reste dans l'atmosphère n'a
pas changé depuis 1970.
La plupart des modèles prévoient que la fraction en
suspension dans l'air augmentera de sorte que la concentration de CO 2 dans l'atmosphère augmentera de 50 à
100 ppm supplémentaires d'ici 2100 par rapport à une fraction en suspension
dans l'air constante. Mais le changement réel de la fraction en suspension
dans l'air est insignifiant depuis 1970. Un article qui traite des prévisions
de la fraction en suspension dans l'air du modèle climatique est ici . Les
données annuelles
de concentration de CO 2 du Mauna Loa sont ici .
De nombreuses entrées
importantes des modèles climatiques sont très incertaines et les preuves
d'observation du monde réel ne les soutiennent pas, il est donc insensé de se
fier à leurs projections pour prendre des décisions politiques coûteuses.
Un tableau de bord répertoriant le succès des modèles
est ici .
Retour à la vapeur d'eau
L'humidité relative est la fraction de vapeur d'eau
dans une petite parcelle d'air par rapport à la quantité totale de vapeur d'eau
que l'air pourrait contenir à la température et à la pression données. Tous les modèles de circulation
générale, également connus sous le nom de modèles climatiques globaux (GCM),
définissent simplement divers paramètres d'évaporation et de précipitations
pour obtenir approximativement le résultat suivant : humidité relative =
constante.
L'encadré 8.1 du chapitre 8 des 4AR page 632 indique :
L'effet radiatif de l'absorption par la vapeur d'eau
est à peu près proportionnel au logarithme de sa concentration, c'est donc le
changement fractionnaire de la concentration de vapeur d'eau, et non le
changement absolu, qui régit sa force en tant que mécanisme de
rétroaction. Les calculs avec les MCG suggèrent que la vapeur d'eau reste
à une fraction approximativement constante de sa valeur saturée (proche d'une
humidité relative (HR) inchangée) sous un réchauffement à l'échelle mondiale
(voir la section 8.6.3.1). Sous une telle réponse, pour un réchauffement
uniforme, le plus grand changement fractionnaire de la vapeur d'eau, et donc la
plus grande contribution à la rétroaction, se produit dans la haute
troposphère.
L'hypothèse
d'une humidité relative constante n'est pas correcte. Voici un graphique de l'humidité
relative annuelle moyenne mondiale à différentes altitudes dans l'atmosphère
exprimée en millibars (mb) de 300 mb à 700 mb pour la période 1970 à 2021.
[Pression atmosphérique standard = 1013 mb. 1 mb = 1 hectopascal (hPa)]
Les données proviennent du laboratoire de recherche sur le système terrestre de
la NOAA ici .
Ce graphique
montre que l'humidité relative a diminué, en particulier à des altitudes plus
élevées, permettant à plus de chaleur de s'échapper dans l'espace[MT13] . La courbe étiquetée 300 mb se trouve à environ
9 km d'altitude, ce qui est au milieu du point chaud de la troposphère
tropicale prédit (mais manquant). C'est l'élévation critique car c'est là
que le rayonnement peut commencer à s'échapper sans être
recapturé. L'humidité relative moyenne à cette altitude a diminué de 10 %
(ou 4,4 centiles) de 1970 à 2021 !
Ce n'est pas une raison logique de s'attendre à ce que l'humidité
relative reste constante avec l'augmentation du CO 2au-dessus de la couche nuageuse. L'humidité
relative dans un nuage est exactement de 100 % car les gouttelettes d'eau qui
composent le nuage sont en équilibre avec l'air. De même, l'humidité
relative immédiatement au-dessus des océans est de 100 %. L'humidité
relative dans les colis d'air se déplaçant au-dessus des montagnes augmentera
jusqu'à 100 %, provoquant des précipitations. Cette limite de
saturation contrôle l'humidité moyenne de l'atmosphère jusqu'au sommet de la
couche nuageuse. Mais l'humidité relative à 400 mbars
n'est en moyenne que de 36 % à l'échelle mondiale, ou 30 % sous les tropiques,
et s'approche rarement de la limite de saturation, sauf dans les nuages
orageux élevés. La limite de saturation joue donc peu de
rôle dans la détermination de la teneur en vapeur d'eau de la haute atmosphère.
Doubler la quantité de CO 2n'augmenterait les températures que
d'environ 1 degré Celsius si rien d'autre ne changeait selon le GIEC. Mais
la quantité de vapeur d'eau changera en réponse à une augmentation de
température induite par le CO 2 . Un air plus chaud peut contenir plus de
vapeur d'eau, donc si l'humidité relative reste constante, la quantité de
vapeur d'eau augmente avec l'augmentation des températures. Plus de vapeur
d'eau, étant un puissant gaz à effet de serre, entraînerait une augmentation
supplémentaire de la température, ce qu'on appelle une rétroaction
positive. La plupart
des réchauffements projetés par le GIEC sont dus à cette rétroaction de la
vapeur d'eau.
Mais le graphique ci-dessus montre une baisse de l'humidité relative
là où le GIEC affirme que la modification de la teneur en vapeur d'eau est la
plus importante. Si l'humidité relative diminue avec l'augmentation du
CO 2concentrations, la quantité de vapeur
d'eau dans la haute troposphère peut ne pas augmenter, mais peut plutôt
diminuer, ce qui entraîne une rétroaction négative de la vapeur d'eau.
Voici un graphique de l'humidité spécifique, ou la teneur réelle
en vapeur d'eau, en grammes de vapeur d'eau par kilogramme d'air, au niveau de
400 mb (environ 8 km d'altitude).
Cela montre que la teneur réelle en vapeur d'eau dans
la haute troposphère a diminué jusqu'en 2012 puis augmenté jusqu'en 2020. Les
modèles climatiques prédisent que l'humidité augmentera dans la haute
troposphère, mais les données montrent une forte diminution jusqu'en 2012
; là où les changements de vapeur d'eau ont le plus grand effet sur les
températures mondiales.
Le projet de vapeur d'eau de la NASA (NVAP) utilise plusieurs
capteurs satellites pour créer un ensemble de données climatiques standard afin
de mesurer la variabilité à long terme de la vapeur d'eau mondiale. Le Heritage NVAP fusionne les données de plusieurs satellites
et produits de vapeur d'eau de radiosonde pour les années 1988 à 2001. Le
graphique ci-dessous à gauche a été présenté lors de l'atelier GEWEX/ESA Due GlobVapour du 8 mars 2011 ici. La teneur en vapeur d'eau d'une
couche atmosphérique est représentée par la hauteur en millimètres (mm) qui
résulterait de la précipitation de toute la vapeur d'eau dans une colonne
verticale en eau liquide.
Le graphique
montre une baisse significative de la vapeur d'eau globale dans la couche
atmosphérique de 500 à 300 hPa, soit environ 6 à 9 km d'altitude.
L'animation ci-dessus montre la quantité de vapeur
d'eau au-dessus de la terre dans la couche de pression de 500 à 300
mbar. Les données mondiales Heritage NVAP sur la
vapeur d'eau (1988 à 2001) par couche sont disponibles sur un site Web de la
NASA ici .
La vapeur d'eau précipitable moyenne annuelle mondiale par couche
atmosphérique et par hémisphère est indiquée dans le graphique suivant.
Le graphique est présenté sur une échelle
logarithmique de sorte que le changement vertical des courbes représente
approximativement l'effet de forçage du changement. La teneur en eau de la
couche L1, surface à 700 mb, est environ 20 fois supérieure à celle de la
couche L3, 500 à 300 mb, alors que l'effet de forçage d'un changement dans le
L3 est environ 14,5 fois le même changement dans le L1. La vapeur d'eau a
évolué de 1990 à 2001 de -0,55 mm pour L3, -0,57 mm pour L2 et +1,73 mm pour
L1. La diminution de L3 équivaut à une diminution de 8 mm de L1. La
diminution de la vapeur d'eau dans les couches L2 et L3 dépasse l'effet de
forçage de l'augmentation de la vapeur d'eau dans la couche L1, de sorte que la
rétroaction de la vapeur d'eau est négative. La teneur en vapeur d'eau de
la haute atmosphère (L2 et L3) de l'hémisphère sud est inférieure à,
Le graphique ci-dessus montre la vapeur d'eau
précipitable par couche en fonction de la latitude par tranches d'un
degré. La teneur en vapeur d'eau la plus élevée à chaque couche
atmosphérique se produit près de l'équateur.
Le Dr Ferenc Miskolczi a effectué des calculs à l'aide du code
radiatif ligne par ligne HARTCODE pour déterminer la sensibilité du rayonnement
à ondes longues sortant (OLR) à un changement de 0,3 mm de la vapeur d'eau
précipitable dans chacune des 5 couches du NVAP- Projet M.
Les résultats
montrent qu'un changement de vapeur d'eau dans la couche 500-300 mbar a 29 fois
plus d'effet sur l'OLR que le même changement dans la couche proche de la
surface 1013-850 mbar. Un
changement de vapeur d'eau dans la couche 300-200 mbar a 81 fois plus d'effet
sur l'OLR que le même changement dans la couche proche de la surface 1013-850
mbar.
Le tableau ci-dessous montre la vapeur d'eau précipitable pour les
trois couches du NVAP Héritage et la teneur en CO 2 pour les années 1990 et 2001, et l'évolution.
Couche |
L1 près de la surface |
L2 milieu |
L3 supérieur |
Somme |
CO2 _ |
1990 |
18,99 millimètres |
4,6 millimètres |
1,49 millimètres |
25,08 millimètres |
354,16 ppmv |
2001 |
20,72 millimètres |
4,03 millimètres |
0,94 millimètre |
25,69 millimètres |
371,07 ppmv |
monnaie |
+1,73 millimètres |
-0,57 millimètres |
-0,55 millimètre |
+0,61 millimètre |
+16,91 ppmv |
Les calculs
montrent que l'effet de refroidissement des changements de vapeur d'eau sur
l'OLR est 16 fois l'effet de réchauffement du CO 2 au
cours de cette période de 11 ans. L'effet de refroidissement des deux
couches supérieures est 5,8 fois supérieur à l'effet de réchauffement de la
couche inférieure.
Ces résultats mettent en évidence le fait que les changements dans
la colonne de vapeur d'eau totale, de la surface au sommet de l'atmosphère,
sont peu pertinents pour le changement climatique car la sensibilité de l'OLR
aux changements de vapeur d'eau dans la haute atmosphère l'emporte sur les
changements dans la basse atmosphère. Voir ici .
Le projet NVAP-M étend l'analyse à 2009 et retraite les données Heritage NVAP.
La colonne de vapeur d'eau précipitable totale mondiale
d' iciest donnée ci-dessous. Les modèles
climatiques supposent que la vapeur d'eau augmente avec l'augmentation des
concentrations de CO 2 , mais les données NVAP-M, utilisant les
meilleures données satellitaires disponibles, ne montrent aucune augmentation
de la colonne de vapeur d'eau totale.
La manière la plus évidente de déterminer la
rétroaction de la vapeur d'eau due aux changements de CO 2 , c'est-à-dire l'effet que les changements
de CO 2 ont sur la vapeur d'eau de la haute
atmosphère, consiste à tracer l'humidité spécifique annuelle de la vapeur d'eau
en fonction des concentrations de CO 2 . Les données annuelles sont utilisées pour
éliminer le signal saisonnier. Les modèles climatiques montrent que la
rétroaction de vapeur d'eau maximale prévue se situe à environ le niveau de
pression de 400 mbar, ce qui se trouve dans le point chaud de la troposphère
tropicale prévu mais manquant, comme indiqué dans la section Chauffage
de la troposphère ci-dessus.
Il a été suggéré que les premières données du laboratoire de
recherche sur le système terrestre de la NOAA ne sont pas fiables en raison
d'une mauvaise couverture et de problèmes d'étalonnage. La vapeur d'eau
dans l'air immédiatement au-dessus de l'océan est en équilibre avec l'eau, de
sorte que l'humidité relative de l'air est proche de 100 %, quelle que soit la
température. La vapeur d'eau au-dessus des terres devrait varier
proportionnellement à la vapeur d'eau au-dessus des océans, entraînant une
humidité relative moyenne mondiale presque constante près de la surface avec le
réchauffement climatique. Les données antérieures à 1960 sont considérées
comme moins fiables car l'humidité relative de surface est trop élevée et
entraînerait une tendance à la baisse de l'humidité relative. Le graphique
ci-dessous montre l'humidité relative près de la surface à une pression de 1000
mbar de la base de données NOAA de 1960 à 2014. La ligne de tendance la
mieux ajustée ne montre aucune tendance confirmant que les données de vapeur
d'eau de la NOAA de 1960 n'ont pas de biais de séchage près de la surface. Par
conséquent, nous n'utilisons que les données de 1960 dans l'analyse.
Le graphique ci-dessous montre l'humidité spécifique
annuelle au niveau de pression de 400 mbar par trois bandes de
latitude. Notez que sous les tropiques, il y a une tendance significative
à l'assèchement. Il y a très peu de tendance dans les régions nord ou sud
des latitudes moyennes.
Le graphique ci-dessous montre l'humidité spécifique
annuelle moyenne mondiale au niveau de pression de 400 mbar par rapport à
la concentration de CO2 de 1960 à 2021.
La ligne bleue
montre que lorsque le CO 2 augmente,
la vapeur d'eau diminue, ce qui est contraire aux prédictions des modèles
climatiques. La
ligne brune montre ce qu'aurait été l'humidité spécifique à la température
réelle mesurée en supposant que l'humidité relative était maintenue constante à
la valeur de 1960.
Le graphique ci-dessous montre l'humidité spécifique annuelle sous
les tropiques de 30 degrés de latitude nord à 30 degrés de latitude sud à un
niveau de pression de 400 mbar par rapport à la concentration de CO 2 de 1960 à 2021. C'est au milieu du
point chaud tropical prévu mais manquant.
Notez le plus grand écart entre les données réelles et
l'hypothèse d'humidité relative constante dans les tropiques par rapport à
l'écart pour la moyenne mondiale. La ligne brune montre ce que l'humidité
spécifique aurait été en supposant une humidité relative constante. Les
projections réelles du modèle climatique montreraient une augmentation beaucoup
plus importante de l'humidité spécifique que celle indiquée par la ligne brune
car les modèles climatiques, en plus de l'hypothèse incorrecte d'humidité relative
constante, prévoient également que l'augmentation de la température dans la
haute atmosphère serait quatre fois supérieure à la tendance réelle de la
température déterminée par les mesures par radiosondage et par satellite.
Pour comparer cette corrélation aux hypothèses du modèle
climatique, le graphique suivant montre l'humidité spécifique annuelle sous les
tropiques de 30 degrés nord à 30 degrés sud de latitude à un niveau de pression
de 400 mbar par rapport à la température de 1960 à 2013. Les modèles
climatiques supposent que la vapeur d'eau ne change qu'en réponse à un
changement de température. Si cela était vrai, ce graphique devrait
montrer une très forte corrélation entre l'augmentation de l'humidité et la
température. Le graphique est un tracé de l'espace des phases des points
de données connectés en séquence temporelle. Sur de courtes périodes de
temps, une augmentation de la température entraîne une augmentation de
l'humidité spécifique. Les données annuelles montrent des stries linéaires
croissantes du bas à gauche au haut à droite, confirmant que des températures
plus élevées sont liées à une humidité spécifique plus élevée sur de courts
intervalles de temps. Mais la tendance générale est à la baisse,
Le graphique montre non seulement une très mauvaise
corrélation entre l'humidité spécifique et la température au niveau de pression
de 400 mbar, mais la tendance est négative plutôt que fortement positive comme
le supposent les modèles climatiques. L'augmentation du CO2 provoquerait initialement un léger
réchauffement avant d'envisager une réaction de vapeur d'eau ou de
nuage. Dans les modèles climatiques, ce réchauffement provoque une
augmentation de la vapeur d'eau dans la haute atmosphère car les modèles
supposent que la vapeur d'eau ne peut changer qu'en réponse à un changement de
température. Mais les données montrent que la vapeur d'eau diminue avec
l'augmentation du CO 2à une corrélation R2 de 0,73 et montre que
la vapeur d'eau diminue avec la température à une corrélation R2 de seulement
0,027. De toute évidence, l'humidité spécifique ne réagit pas seulement
aux changements de température. À long terme, des facteurs autres que la
température déterminent l'humidité de la haute atmosphère. Contrairement
aux hypothèses des modèles climatiques, la température a peu d'effet sur
l'humidité spécifique à long terme de la haute atmosphère. CO2 _les émissions provoquent une diminution de
la vapeur d'eau dans la haute atmosphère, permettant ainsi à la chaleur de
s'échapper dans l'espace. Nous pensons que l'humidité spécifique à long
terme dans la haute atmosphère est déterminée par le principe d'entropie
maximale, et non par la température. L'atmosphère est capable de maximiser
la perte de chaleur vers l'espace sous la contrainte de la limite de saturation
dans la basse atmosphère en diminuant la teneur en vapeur d'eau dans la haute
atmosphère en réponse à l'augmentation des concentrations de CO 2 .
Les données d'humidité de la NOAA sont ici au format Excel.
Le graphique ci-dessous compare la moyenne multimodèle
rétrospective/prévision AR5 du GIEC à l'anomalie totale de la colonne de vapeur
d'eau précipitable de la NOAA. Il montre également que les changements de
vapeur d'eau sont en retard sur ENSO d'environ 3 mois. Le graphique
provient d'un commentaire de blog de Bill Illis ici .
La théorie AGW est essentiellement l'idée qu'une
augmentation du CO 2 entraînera une augmentation de la
vapeur d'eau provoquant un effet de serre accru. Le graphique montre que
les modèles sont à peu près en accord avec l'observation jusqu'en 1984, puis
les modèles surestiment considérablement la teneur totale en vapeur d'eau de
l'atmosphère. Les modélisateurs ne tentent apparemment pas de faire
correspondre les observations après 1984.
Les gaz à effet de serre absorbent le rayonnement à ondes longues,
rendant l'atmosphère opaque à ces longueurs d'onde. Le Dr Ferenc M.
Miskolczi a développé un programme appelé High-resolution
Atmospheric Radiative Transfer Code (HARTCODE) qui
utilise des milliers de raies d'absorption mesurées et est capable de faire des
calculs précis de flux radiatif. Les calculs sont indépendants de toute
théorie de l'effet de serre et ne contiennent aucune hypothèse sur le
fonctionnement de l'effet de serre, autre que le fait que les gaz à effet de
serre absorbent et émettent des radiations.
La vapeur d'eau est le gaz à effet de serre le plus
important. Les simulations HARTCODE montrent qu'une augmentation de 10 %
du CO 2La concentration a le même effet qu'un
changement uniforme de 1,80 % de la vapeur d'eau sur le rayonnement à ondes
longues sortant (OLR). Un changement uniforme de 1 % de vapeur d'eau a 5,4
fois l'effet qu'un changement de 1 % de CO 2 a sur l'OLR. Un doublement de
CO 2 peut être compensé par une réduction
de 12,3 % de H 2 O. Ceci est illustré dans le
graphique suivant.
Le bilan radiatif est déterminé au sommet de la
troposphère. Le HARTCODE a été utilisé pour déterminer l'effet des
changements de vapeur d'eau dans la haute atmosphère par rapport à près de la
surface. Le graphique ci-dessous montre que le changement de la teneur en
vapeur d'eau dans une couche atmosphérique du niveau 300 mb au niveau 400 mb a
30 fois l'effet sur le rayonnement sortant à ondes longues (OLR) que le même
petit changement près de la surface. Ainsi, les changements de vapeur d'eau
dans la haute atmosphère sont plus importants que les changements dans la basse
atmosphère.
La profondeur optique est une mesure de l'opacité de
l'atmosphère au rayonnement à ondes longues, ainsi que de la force de l'effet
de serre. Miskolczi a utilisé HARTCODE pour calculer la profondeur optique
de 1948 à 2008 en utilisant la teneur en CO 2 mesurée à Mauna
Loa, Hawaï et la teneur moyenne mondiale en vapeur d'eau du laboratoire de
recherche sur le système terrestre de la NOAA. Les profondeurs optiques
sont calculées pour chaque gaz à effet de serre et additionnées ligne par ligne
sur tout le spectre électromagnétique. La courbe de profondeur optique qui
en résulte est une mesure du total des gaz à effet de serre par effet au cours
des 61 dernières années. Le résultat est donné ci-dessous.
La ligne bleue du graphique montre la profondeur
optique de l'atmosphère avec l'évolution de la teneur en CO 2 et en vapeur d'eau. La ligne
verte est la tendance linéaire de ces données qui indique une tendance non
significative. La ligne rose est l'effet de l'augmentation du CO 2 avec de la vapeur d'eau maintenue
constante. Il montre une petite tendance à la hausse. La différence
entre ces tendances est la rétroaction de la vapeur d'eau. Rappelons que
le GIEC suppose que la vapeur d'eau fournit une grande rétroaction positive, ce
qui implique que la ligne verte augmenterait beaucoup plus fortement que la
ligne rose. Les résultats HARTCODE montrent le contraire. Il montre
une grande rétroaction négative, où la vapeur d'eau changeante compense la majeure
partie de l'effet de réchauffement du CO 2 .
Les résultats montrent que la quantité effective totale de gaz à
effet de serre dans l'atmosphère n'a pas augmenté de manière significative au
cours des 60 dernières années.
Le GIEC affirme que le réchauffement au cours du dernier
demi-siècle était dû à une augmentation de la quantité de gaz à effet de serre
dans l'atmosphère. Mais le résultat HARTCODE montre que le CO 2 remplace la vapeur d'eau comme gaz à
effet de serre, il ne peut donc pas être responsable du réchauffement
climatique.
Voici l'erreur GCM d'humidité spécifique telle que rapportée par
le 4AR du GIEC, Chapitre 8-Suppl page 54 :
Ce graphique montre l'erreur fractionnaire moyenne multimodèle, exprimée en pourcentage (c'est-à-dire, simulée
moins observée, divisée par observée et multipliée par 100). L'estimation
observationnelle provient de la réanalyse européenne sur 40 ans (ERA40, Uppala et al., 2005) basée sur des observations sur la
période 1980-1999. Les résultats du modèle proviennent de la même période
que les simulations CMIP3 20 th Century.
Notez que le graphique montre que les erreurs du modèle en matière
d'humidité spécifique à l'altitude où la plus grande contribution de la
rétroaction est prévue se situent entre 20 % et 400 trop
élevées ! Si l'humidité spécifique était corrigée dans les modèles à
cette altitude critique, la rétroaction positive se changerait en une forte
rétroaction négative.
La force de l'effet de serre est indéterminée dans la théorie
actuelle utilisée par les modèles climatiques. Les paramètres sont
simplement réglés pour correspondre aux températures actuelles. Une
nouvelle théorie de l'effet de serre de Ferenc Miskolczi montre que les
équations actuelles de l'effet de serre sont incomplètes car elles n'incluent
pas toutes les contraintes énergétiques nécessaires. Lorsque ces
contraintes sont incluses dans une nouvelle théorie, la force du GHE est déterminée
analytiquement. La nouvelle théorie présentée dans l'article de Miskolczi
montre que l'atmosphère maintient un effet de serre saturé, contrôlé par la
teneur en vapeur d'eau. Il existe un approvisionnement presque infini de
gaz à effet de serre disponibles dans l'atmosphère sous forme de vapeur d'eau
provenant de l'océan pour fournir l'effet de serre, mais l'atmosphère
n'absorbe qu'une partie de la vapeur d'eau qu'elle pourrait contenir en raison
des contraintes de bilan énergétique. Ajout de CO2 à l'atmosphère remplace juste une
quantité équivalente de vapeur d'eau pour maintenir un effet de serre presque
constant et a un effet négligeable sur les températures
mondiales. Voir ici pour plus d'informations.
Commentaires sur le nuage
Les modèles climatiques sont limités par notre
compréhension de la formation des nuages. Alors que les scientifiques ont
une compréhension de base de la formation des nuages, les détails contrôlant
leur luminosité, leur densité et leur taille sont mal compris. Nous
manquons de la compréhension détaillée des nuages requise pour
créer des modèles climatiques précis. Les nuages jouent un
rôle majeur dans le climat en renvoyant la lumière du soleil dans l'espace, en
emprisonnant la chaleur et en produisant des précipitations.
À mesure que la Terre se réchauffe, il y a plus d'évaporation des
océans, donc plus de vapeur d'eau dans l'atmosphère disponible pour la
formation de nuages. Mais les nuages bas réfléchissent la
lumière du soleil dans l'espace, ce qui entraîne un fort effet de
refroidissement, annulant la majeure partie de l'augmentation initiale de la température.
Des chercheurs de l'Université de l'Alabama à Huntsville (UAH) ont
rapporté en août 2007 que les cycles de réchauffement tropical individuels qui
servaient d'indicateurs du réchauffement climatique entraînaient une diminution
de la couverture des cirrus piégeant la chaleur [haute altitude], déclare le Dr
Roy Spencer, chercheur principal au Earth System
Science Center de l'UAH.
"Tous les principaux modèles climatiques prévoient qu'à
mesure que l'atmosphère se réchauffe, il devrait y avoir une augmentation des
cirrus à haute altitude, ce qui amplifierait tout réchauffement causé par les
gaz à effet de serre d'origine humaine", a-t-il déclaré. "Cette
amplification est une rétroaction positive. Ce que nous avons trouvé dans les
fluctuations mensuelles du système climatique tropical était une rétroaction
fortement négative. À mesure que l'atmosphère tropicale se réchauffe, les
cirrus diminuent.
"Alors que les nuages bas ont un
effet principalement de refroidissement en raison de leur ombrage de la lumière
du soleil, la plupart des cirrus ont un effet de réchauffement net sur la
Terre", a déclaré Spencer. Avec les nuages
de glace à haute altitude, leur piégeage de la
chaleur infrarouge dépasse leur effet d'ombrage solaire. Si les modèles informatiques incorporaient
cet effet de refroidissement accru dû à une telle réduction des nuages
élevés, "cela réduirait les estimations du réchauffement
futur de plus de 75%", a déclaré Spencer.
Une critique de l'article du Dr Spencer est dans ScienceDaily ici et l'article est
disponible ici .
Les modélisateurs ne font qu'une analyse grossière des retours des
données satellitaires. Ils observent que les nuages bas ont
tendance à diminuer avec le réchauffement et supposent que le réchauffement
provoque la diminution des nuages bas. Mais les changements
de nuages entraînent également des changements de
température. Lorsqu'un nuage se déplace pour bloquer le Soleil, les
températures chutent. La quantité de nuages peut changer en
réponse à un changement général de la circulation océanique. Ainsi, les
changements de nuages sont parfois une cause de changement de
température, et parfois un effet du changement de température. La fausse
hypothèse selon laquelle tous les changements de nuages sont
l'effet des changements de température a conduit les modélisateurs à surestimer
considérablement la rétroaction des nuages.
Le Dr Roy Spencer a mis au point une méthode pour séparer les
causes et les effets de la variabilité des nuages. Sa technique consiste à
tracer sur un graphique les relevés trimestriels de température moyenne et de
flux net à partir de données satellitaires. Ces moyennes sont tracées
chaque jour permettant de visualiser l'évolution dans le temps. Il a
constaté que les tracés ont deux types de motifs, un ensemble de stries
linéaires avec une pente commune et des motifs en spirale aléatoires plus lents
superposés.
Pour comprendre ces modèles, Spencer a développé un modèle
informatique simple où il peut spécifier la quantité de rétroaction et peut
entrer le forçage radiatif qui pourrait être causé par des changements
aléatoires dans les nuages. Le modèle montre que la pente des stries
linéaires correspond à la rétroaction dans le système climatique. Ces
stries sont dues à des changements d'évaporation et de précipitations qui
provoquent des changements de température. Les changements de température
provoquent des changements de nuages, qui sont le signal de rétroaction des
nuages que nous recherchons. Les motifs en spirale sont
causés par le forçage radiatif qui pourrait être dû à la modification de la
couverture nuageuse basse qui fait varier le rayonnement solaire réchauffant la
surface.
Spencer a analysé les schémas température-radiation du satellite
Terra de la NASA. Les données Terra commencent en mars 2000, et son
graphique température-radiation est illustré ci-dessous.
Le graphique montre deux types de
modèles ; stries linéaires et motifs en spirale
aléatoires. L'interprétation habituelle de ces données par les
modélisateurs du climat serait d'utiliser la ligne de meilleur ajustement qui
montre une pente de 0,7 W/m 2 /C, ce qui est une rétroaction
positive très élevée. La rétroaction réelle doit être déterminée par la
pente des stries linéaires, qui est de 8 W/m2 / C, ce qui est une rétroaction
négative très élevée. Une valeur de 3,3 W/m 2 /C correspond à aucun
retour. (Aucune rétroaction signifie que si la température de l'atmosphère
était uniformément augmentée de 1 °C et que rien d'autre ne changeait, le
sommet de l'atmosphère émettrait 3,3 W/m 2plus de rayonnement vers l'espace.) On
observe que la rétroaction se produit sur des échelles de temps plus courtes en
réponse aux événements d'évaporation et de précipitations, qui se superposent à
un arrière-plan de déséquilibre radiatif variant plus lentement en raison de la
fluctuation naturelle de la couverture nuageuse modifiant le taux de chauffage
solaire. surface.
Les données satellitaires montrent que sur de courtes échelles de
temps, les nuages fournissent de fortes rétroactions
négatives. Spencer a également analysé le flux radiatif et les variations
de température des modèles climatiques utilisés par le GIEC pour déterminer si
la rétroaction négative à court terme trouvée dans les données satellitaires
est également applicable à la rétroaction à long terme. Il a constaté que
les stries linéaires à court terme et les motifs en spirale montrent les 18
modèles climatiques qu'il a analysés. Spencer dit que les pentes des
stries linéaires correspondent en effet aux rétroactions à long terme
diagnostiquées à partir de ces modèles de réponse au forçage anthropique des
gaz à effet de serre. Cela suggère fortement que la rétroaction négative à
court terme montrée dans les données satellitaires s'applique également au
changement climatique mondial à long terme.
L'estimation de rétroaction pour un doublement hypothétique du dioxyde
de carbone, en utilisant les données du satellite Terra, donne une sensibilité
climatique de 0,46 °C.
Les changements dans la couverture nuageuse entraînent des changements
dans la quantité de lumière solaire atteignant la surface. Le graphique
ci-dessous montre
les mesures du rayonnement solaire à ondes courtes vers le bas à Potsdam, en
Allemagne, entre 1937 et 2010. Les changements du rayonnement solaire qui
atteint la surface imitent les changements des températures de surface. Le
Dr Spencer suggère que "les changements naturels de la couverture nuageuse
ont causé les changements de température, et les rétroactions des nuages
sont en réalité négatives plutôt que positives".
Voir « Clouds Have Made Fools of Climate Modelers », par Gregory 2009, pour une
discussion plus détaillée des rétroactions des nuages.
Aérosols
Les aérosols sont une suspension de particules fines
dans l'atmosphère et comprennent la fumée, la brume océanique, le smog, etc.
Les aérosols les plus importants d'origine humaine qui affectent le climat sont
les aérosols de sulfate et de carbone noir. Les aérosols sulfatés
proviennent principalement de la combustion de combustibles fossiles et
provoquent généralement un effet de refroidissement en réfléchissant le
rayonnement solaire. Les aérosols de carbone noir proviennent de la
combustion de la biomasse et ont généralement un effet de réchauffement car ils
absorbent le rayonnement solaire.
Trois articles récents discutés ci-dessous montrent que les
changements dans les aérosols représentent une part beaucoup plus importante du
changement climatique récent que ne le supposent les modèles informatiques
climatiques, ce qui implique que l'effet du CO 2 est bien inférieur à ce que montrent
les modèles climatiques. Le soleil est probablement la principale cause du
réchauffement climatique du 20 èmesiècle avec des changements d'aérosols apportant
une contribution significative. Lorsque l'on combine les effets des
aérosols avec le Soleil, les cycles océaniques et les effets d'îlot de chaleur
urbain, il n'y a plus de changement climatique à expliquer par le CO 2 .
Un article publié dans le Journal of Geophysical
Research en juin 2009 montre que les changements dans
la quantité d'aérosols dans l'atmosphère au cours du 20 esiècle a eu un impact beaucoup plus important
sur les températures mondiales que ce qui leur est attribué dans les modèles
informatiques climatiques. Martin Wild de l'Institut des sciences de
l'atmosphère et du climat de Zurich, en Suisse, montre que l'augmentation des
aérosols sulfatés provenant des combustibles fossiles a provoqué un effet
global de gradation solaire des années 1950 aux années 1980 et a contribué au
refroidissement global. Les mesures de contrôle de la pollution de l'air
ont réduit les aérosols sulfatés des années 1980 aux années 2000, ce qui a
entraîné un éclaircissement solaire qui a contribué de manière significative au
réchauffement climatique. Les contrôles de la pollution de l'air ont
permis à plus de rayonnement solaire de réchauffer la
surface. Voir papier .
Un article publié dans la revue Science en juillet 2009 rapporte
qu'une étude minutieuse des données satellitaires montre que l'effet de
refroidissement présumé des aérosols dans l'atmosphère est nettement inférieur
à celui estimé précédemment. Gunnar Myhre du
Centre pour la recherche internationale sur le climat et l'environnement, Oslo,
Norvège, déclare que les valeurs précédentes pour le refroidissement des
aérosols sont trop élevées jusqu'à 40 %, ce qui implique que la sensibilité du
modèle du GIEC pour le CO 2 est trop élevée. Les principaux
aérosols anthropiques qui provoquent le refroidissement sont les sulfates, les
nitrates et le carbone organique, tandis que le noir de carbone absorbe le
rayonnement solaire. Myhre soutient que depuis
l'époque préindustrielle, les concentrations de particules de suie de noir de
carbone ont augmenté beaucoup plus que les autres aérosols. Voir le site WUWT .
Une recherche de la NASA publiée dans Nature Geoscience
en avril 2009 suggère qu'une grande partie du réchauffement atmosphérique
observé dans l'Arctique depuis 1976 pourrait être due à des modifications des
particules d'aérosols. Des scientifiques dirigés par Drew Shindell de la NASA ont découvert que les latitudes
moyennes et élevées sont particulièrement sensibles aux changements de niveau
d'aérosols. La recherche suggère que les aérosols représentent
probablement 45 % ou plus du réchauffement qui s'est produit dans
l'Arctique au cours des trente dernières années jusqu'en 2005. Étant donné que
la diminution des quantités de sulfates et l'augmentation des quantités de
carbone noir dans l'Arctique encouragent le réchauffement, les augmentations de
température peuvent être particulièrement rapide. Dans l'Antarctique, en
revanche, l'impact des sulfates et du noir de carbone est minimisé en raison de
l'isolement des continents des grands centres de population. Les
températures de l'Antarctique n'ont pas augmenté au cours des 42 dernières
années. Article de la NASA .
Une étude publiée en mars 2007 utilise le plus long enregistrement
satellite ininterrompu des aérosols dans la basse atmosphère, un ensemble
unique d'estimations mondiales financées par la NASA. Les mesures par
satellite montrent des pics importants et de courte durée dans les aérosols
mondiaux causés par les éruptions volcaniques majeures en 1982 et 1991, mais
une baisse progressive depuis environ 1990. En 2008-2009, les aérosols mondiaux
avaient chuté de 14 % par rapport au niveau relativement stable entre 1986 et
1990.
Aérosols bloquant le
soleil
Les aérosols bloquant le soleil dans le monde ont
régulièrement diminué (ligne rouge) depuis l'éruption du mont Pinatubo en 1991,
selon les données satellitaires.
Voir l'article de la
NASA .
Depuis 2005, la Chine a déployé des efforts considérables pour
installer une désulfuration de pointe dans ses centrales au charbon en
installant plus d'unités de ce type que le reste du monde réuni. Fin 2008,
66 % de la capacité des centrales à charbon de la Chine est équipée de la
désulfuration des fumées. En 2011, 75 % de tous les systèmes de
désulfuration sont installés en Chine. Voir
l'article du GWPF . La réduction des aérosols, en particulier au-dessus de la
Chine, permet à plus de lumière solaire à travers l'atmosphère de réchauffer la
surface de la Terre, contribuant ainsi au réchauffement climatique.
Les émissions de SO2 de la Chine ont diminué de 14,3 % entre 2006
et 2011 selon les rapports de 2010 et 2011 sur l'état de l'environnement en
Chine. Voir rapport 2010 et rapport 2011 . Des
rapports ultérieurs montrent que les émissions de SO2 de la Chine ont diminué
de 11,0 % entre 2011 et 2014, passant de 21,85 Mt à 19,74 Mt.
Dans la capitale Pékin, où la pollution de l'air était
une préoccupation publique majeure, la concentration moyenne de particules
dangereuses en suspension dans l'air PM2,5 était de 38 microgrammes par mètre
cube en 2020, en baisse de 52,9% par rapport à 2015, voir le rapport
De nombreuses études ont montré que les aérosols
associés à l'activité biologique ont une rétroaction négative sur le changement
climatique. Un premier réchauffement stimule la production de
phytoplancton marin. Ces micro-organismes émettent des volumes plus
importants de sulfure de diméthyle, ou DMS. Le DMS est oxydé dans
l'atmosphère, créant des aérosols acides qui fonctionnent comme des noyaux de
condensation des nuages. De minuscules gouttelettes d'eau se forment
autour de ces aérosols, ce qui entraîne la création de nuages
plus nombreux et plus brillants qui réfléchissent plus de
rayonnement solaire entrant vers l'espace, fournissant ainsi un effet de
refroidissement.
Les plantes terrestres émettent de plus grandes quantités de gaz
de sulfure de carbonyle en réponse à la fertilisation par le CO 2 et à l'élévation de la température,
qui se transforme en particules d'aérosol de sulfate, qui ont un effet de
refroidissement. Voir la
science du CO 2pour plus d'informations.
L'effet des aérosols sur les nuages est
l'une des plus grandes sources d'incertitude en science du climat. Des
expériences récentes utilisant la grande chambre CLOUD (Cosmics
Leaving Outdoor Droplets)
du CERN, l'Organisation européenne pour la recherche nucléaire, montrent que
les vapeurs organiques émises par les arbres produisent d'abondantes particules
d'aérosol dans l'atmosphère et que ces particules peuvent rapidement atteindre
des tailles suffisamment grandes pour semer. gouttelettes
de nuages. Les modélisateurs du climat ont supposé que l'acide sulfurique est l'acteur clé de la formation des nuages, de sorte que le
ciel préindustriel était moins nuageux qu'aujourd'hui en raison d'un manque
d'émissions de soufre provenant de l'utilisation de combustibles
fossiles. Les nouveaux résultats montrent que les modélisateurs ne peuvent
pas compenser autant de CO 2forçage avec refroidissement par
aérosol. Les études suggèrent que les futures augmentations de température
dues aux émissions de gaz à effet de serre seront bien inférieures à celles
actuellement projetées par les modèles climatiques. Les expériences CLOUD
montrent également que les ions des rayons cosmiques galactiques augmentent
fortement le taux de production des particules biogéniques. Les rayons
cosmiques sont modulés par l'évolution de l'activité solaire, ils affectent
donc la nébulosité et les températures globales. Voir l' article du magazine Science .
Sensibilité climatique
La sensibilité climatique fait référence au changement
d'équilibre de la température de surface moyenne mondiale suite
à un doublement de la concentration atmosphérique de CO 2 . Depuis l'époque préindustrielle, le
CO 2 atmosphérique est passé de 280 ppmv
à 400 ppmv. Il existe de nombreuses estimations de la sensibilité
climatique. Lorsque la Terre se réchauffe, elle émet plus de rayonnement
infrarouge vers l'espace. Cet effet de refroidissement naturel s'élève en
moyenne à 3,3 watts par mètre carré pour chaque 1 °C (W/m 2 /°C) que la Terre
réchauffe. Ceci est souvent exprimé sous la forme réciproque d'un corps
gris sensible à la Terre de 0,30 °C/(W/m 2 ) comme l'explique ScienceBits . Selon le GIEC, un doublement
du CO 2entraînerait un forçage du flux de
rayonnement de 3,71 W/m 2 , en supposant qu'il n'y a pas de
rétroaction. Par conséquent, un doublement du CO 2 entraînerait une augmentation
de la température de surface globale de 3,71 W/m2 / 3,3 W/m2 /°C = 1,1 degrés Celsius, en supposant
qu'il n'y a pas de rétroaction. Cette sensibilité suppose que la quantité
de vapeur d'eau, de couverture nuageuse, de végétation et de couverture de
glace ne change pas.
Il existe un large éventail d'estimations de la sensibilité du
climat avec des rétroactions. Le GIEC suppose que les nuages
et la vapeur d'eau provoquent une rétroaction positive, tandis
que d'autres scientifiques disent que les nuages et la vapeur
d'eau provoquent une forte rétroaction négative.
Des estimations empiriques de la sensibilité climatique à
l'équilibre (ECS) peuvent être obtenues en comparant les mesures des
changements de rayonnement à court terme au sommet de l'atmosphère pendant
l'ère des satellites aux changements correspondants des températures de
surface. La plupart des estimations de l'ECS ont utilisé un modèle de
bilan énergétique mondial où toutes les quantités sont des moyennes mondiales
et annuelles.
Estimations de la
sensibilité climatique
Le diagramme ci-dessous montre plusieurs estimations
récentes de l'ECS dans la littérature scientifique.
Le tableau ci-dessous résume diverses estimations de
la sensibilité climatique. La sensibilité du climat est indiquée en tant
que changement de température en degrés Celsius par doublement de
la concentration de CO 2 (C/CO 2 x2) et en tant que changement de
température par flux de rayonnement (°C/W/m 2 ). La dernière colonne montre le
changement final estimé de la température de surface mondiale de l'époque
préindustrielle à 2015 en raison de l'augmentation d'origine humaine du
CO 2 atmosphérique de 120 ppmv.
Auteur |
Sensibilité climatique |
Changement de température |
|
(°C/ CO2x2 ) |
(°C / W / m 2 ) |
||
1.19 |
0.32 |
0.61 °C |
|
1.02 |
0.28 |
0.52 °C |
|
1.50 |
0.40 |
0.77 °C |
|
0.46 |
0.125 |
0.24 °C |
|
0.70 |
0.19 |
0.36 °C |
|
1.1 |
0.30 |
0.57 °C |
|
1.4 |
0.38 |
0.73 °C |
|
3.0 |
0.81 |
1.55 °C |
Ray Bates, en 2016, a estimé l'ECS à l'aide d'un
modèle de bilan énergétique à deux zones, où les réponses radiatives dans les
tropiques (30 N à 30 S) et extratropiques sont
estimées séparément, et le transport dynamique de chaleur des tropiques vers
les extratropiques est explicitement estimé. qui dépend linéairement de la différence entre les
perturbations de température tropicales et extratropicales. Il a utilisé
les observations de la réponse radiative telles que rapportées par Lindzen et Choi, 2011, et Mauritsen
et Stevens, 2015. La réponse radiative est le changement du flux net ascendant
des ondes longues et des ondes courtes au sommet de l'atmosphère par changement
de la température de surface. Il a choisi des plages probables des trois
paramètres et constate que l'ECS calculé est étroitement limité, avec une plage
probable de 0,85 °C à 1,28 °C. La meilleure estimation est de
1,02 °C, qui est la médiane des estimations calculées à partir des
points médians et des extrémités de chaque plage des paramètres
d'entrée. Cette estimation implique que l'augmentation exponentielle
continue du CO2 dans l'atmosphère entraînera une
augmentation de la température d'environ 0,57 ° C d'ici 2100.
L'estimation de Lewis-Curry 2018 a utilisé un modèle de bilan énergétique
à une zone utilisant les forçages climatiques du rapport AR5 du GIEC et les
historiques de température de 1869 à 2016. Cette estimation suppose que tout le
réchauffement a été causé par le forçage anthropique et ne tient pas compte du
réchauffement naturel depuis le petit âge glaciaire ou de la contamination par
l'effet d'îlot de chaleur urbain des enregistrements de température de surface
terrestre.
L'estimation de Gregory s'appuie sur l'estimation de Lewis-Curry
en incluant les effets du changement climatique naturel et l'effet d'îlot de
chaleur urbain inclus dans l'enregistrement historique des températures.
Les estimations de Spencer sont basées sur les observations des
changements de température par satellite. L'estimation de Lindzen est basée sur les changements à court terme du
rayonnement à ondes longues sortant tel que mesuré par les satellites et les
changements de température de surface de la mer. Les estimations de
Schwartz et Chylek supposent toutes deux que le
Soleil n'a aucun effet sur l'augmentation de la température et attribuent le
changement de température du 20 e siècle au CO 2 , modifié par les aérosols. Cette
hypothèse surestime largement la sensibilité climatique due au CO 2 . Les estimations reposent également
sur l'enregistrement de la température de surface, qui est contaminée par
l'effet d'îlot de chaleur urbain.
Le GIEC a déterminé la sensibilité climatique par deux méthodes :
• en comparant les variations de
température à court terme avec l'émission de rayonnement du haut de
l'atmosphère à partir des données satellitaires, et
• en interprétant les indices indirects de l'enregistrement
géologique
Les estimations de la sensibilité climatique utilisées
par le GIEC supposaient que la variabilité observée de la température
provoquait la variabilité observée des nuages. Mais la causalité circule
également dans la direction opposée, la variabilité des nuages
entraînant une variabilité de la température. Un changement
de température causé par la variabilité des nuages serait
interprété à tort comme une rétroaction positive. Cette erreur fait que
les estimations ont un biais intégré vers une sensibilité climatique
élevée. Nous savons que le Soleil peut provoquer un changement dans la
couverture nuageuse inférieure qui provoque un changement de
température. Le GIEC ne prend pas en compte les changements climatiques
possibles du Soleil car son mandat est d'enquêter sur les changements
climatiques d'origine humaine. L'analyse des indices indirects de
l'enregistrement géologique est très incertaine. L'IPCC AR4 donne une
plage de sensibilité climatique de 2 à 4,5 °C/W/m 2, avec une meilleure estimation de 3 °C/W/m 2 . L'IPCC AR5 donne une fourchette de
sensibilité climatique de 1,5 à 4,5 °C/W/m 2 , sans meilleure estimation faute de
consensus.
Le tableau suivant, tiré d'une présentation du Dr Richard Lindzen, montre les résultats des prévisions d'un certain
nombre de modèles climatiques et de données satellitaires. L'axe
horizontal montre le changement des températures de surface de la mer par an,
mesuré sur divers intervalles de temps. L'axe vertical représente le
changement du rayonnement sortant à ondes longues au sommet de l'atmosphère tel
que prédit par plusieurs modèles climatiques.
Une corrélation positive (pente du bas à gauche vers le haut à
droite) indique qu'il existe une boucle de rétroaction négative dans le
changement de SST, de sorte que plus la mer est chaude, plus la chaleur est
rayonnée dans l'espace, ce qui réduit l'augmentation de la
température. Une corrélation négative (pente du haut à gauche vers le bas
à droite) indique qu'il existe une boucle de rétroaction positive dans la
mesure où l'atmosphère inhibe la perte de chaleur vers l'espace, ce qui
augmente encore la température.
La première
corrélation appelée ERBE correspond aux données réelles mesurées par le
satellite Earth Radiation Budget Experiment
(ERBE). La pente de la ligne indique une forte rétroaction négative qui
compense l'augmentation de température initiale. Les onze autres corrélations sont
issues de modèles climatiques. Ils présentent tous des corrélations
négatives correspondant à des rétroactions positives, ce qui amplifie
l'élévation de température initiale. Tous les modèles ont une
rétroaction dans la mauvaise direction, confirmant que les modèles sont
fondamentalement faux.
Dans le graphique suivant, la sensibilité climatique prévue de
chaque modèle climatique est tracée par rapport à la pente des corrélations
indiquées ci-dessus, qui correspondent à la quantité de rétroaction de
température. La ligne noire courbe montre la relation entre la rétroaction
et la sensibilité du climat au doublement de la quantité de dioxyde de carbone
dans l'atmosphère. Les grandes erreurs dans les facteurs de rétroaction
entraînent une large gamme de sensibilités climatiques d'équilibre
prédites. Les résultats du modèle montrent que la sensibilité au climat
pourrait varier de 1,3 °C à plus de 5 °C compte tenu de la gamme des
facteurs de rétroaction. Mais les données satellitaires ERBE racontent une
histoire complètement différente. Il montre une sensibilité climatique de
0,4 à 0,5 degrés Celsius. Ce petit changement de température ne poserait
aucun problème et il n'y a aucune raison de s'inquiéter pour notre CO 2émissions. Voir ici ou ici pour plus d'informations.
Oscillations océaniques
Les océans contiennent environ 1000 fois plus
d'énergie thermique que l'atmosphère, de sorte que les changements dans les
modèles de circulation océanique peuvent avoir un impact important sur les
températures atmosphériques mondiales. Les courants océaniques déplacent
d'énormes quantités de chaleur des tropiques vers les exotropiques,
où la chaleur peut plus facilement rayonner vers l'espace. Plusieurs
oscillations océaniques identifiées sont importantes pour le climat. Sur
de courtes échelles de temps, l'oscillation australe El Niño (ENSO) domine les
variations climatiques. L'oscillation décennale du Pacifique (PDO) et
l'oscillation multidécennale atlantique (AMO) varient
selon des cycles d'environ 60 ans. Il peut également y avoir des cycles
d'échelle de temps plus longs.
La suite de modèles climatiques utilisée par le GIEC pour prédire
les climats futurs a été ajustée pour correspondre généralement à
l'augmentation des températures moyennes mondiales de 1975 à 2000, en supposant
que la quasi-totalité du changement de température était due aux émissions de
gaz à effet de serre d'origine humaine. Cependant, une grande partie de
cette augmentation de température était due à la phase de réchauffement des
oscillations océaniques, plutôt qu'aux gaz à effet de serre.
Voici une brève description des trois oscillations océaniques les
plus importantes :
El Nino - Oscillation
australe
El Niño - Oscillation australe (ENSO) est une
oscillation océan-atmosphère dans l'océan Pacifique tropical caractérisée par
une variation des températures de surface de l'océan dans l'océan Pacifique
tropical oriental et des variations de la pression atmosphérique dans l'océan
Pacifique tropical occidental. La phase chaude est El Niño (de l'espagnol
signifiant "le garçon" ou "l'enfant du Christ") et la phase
froide est La Niña (de l'espagnol signifiant "la
fille"). Pendant le chaud El Niño, il y a une pression atmosphérique
élevée dans le Pacifique occidental et des températures de surface de la mer
élevées dans le Pacifique oriental. Il dure généralement de 6 à 18
mois. Pendant la période froide de La Niña, la
pression atmosphérique est basse dans le Pacifique occidental et les
températures de surface de la mer basses dans le Pacifique
oriental. L'oscillation australe fait référence aux changements dans les
modèles de pression atmosphérique au niveau de la mer dans l'océan Pacifique
sud entre Tahiti et Darwin, en Australie. Les températures de surface de
la mer sont des moniteurs dans quatre régions montrent:
Dans des conditions normales, les alizés d'est
soufflant vers l'ouest ont provoqué une accumulation d'eau chaude dans le
Pacifique occidental, de sorte que le niveau de la mer est de 0,5 m plus élevé
en Indonésie qu'au Pérou. Les vents poussent les eaux de surface vers
l'ouest, puis elles descendent et reviennent en profondeur vers
l'est. Refroidir les remontées d'eau profonde près de l'Amérique du
Sud. Le diagramme ci-dessous montre les conditions normales.
Source .
Pendant la phase El Niño, les alizés s'affaiblissent,
ce qui réduit le transport de l'eau vers l'ouest et réduit la remontée d'eau
profonde froide dans le Pacifique Est. Cela rend la température de surface
de la mer du Pacifique oriental plus chaude que la normale. Pendant la
phase La Niña, les alizés sont plus forts que la
normale, provoquant davantage de remontées d'eau froide dans l'est du
Pacifique.
L'indice ENSO multivarié (MEI) est basé sur les six principales
variables observées sur le Pacifique tropical. Ces six variables sont : la
pression au niveau de la mer, les composantes zonales et méridiennes du vent de
surface, la température de surface de la mer, la température de l'air de
surface et la fraction de nébulosité totale du ciel. Le graphique
ci-dessous montre l'IEDM depuis 1979.
Source .
L'oscillation décennale
du Pacifique
L'oscillation décennale du Pacifique (PDO) est un
modèle de longue durée de type El Niño de variabilité climatique dans le
Pacifique. L'indice PDO est défini comme la principale composante
principale de la variabilité mensuelle de la température de surface de la mer
dans le Pacifique Nord (vers le pôle de 20 N) après suppression de la
température moyenne mondiale de la surface de la mer. Il ne s'agit pas
d'une mesure de la température de surface de la mer, mais plutôt de son
modèle. Cependant, pendant sa phase chaude, la surface de la mer du
Pacifique est chaude le long de la côte ouest de l'Amérique du Nord, et elle y
est fraîche pendant la phase froide. Le modèle de température de surface
de la mer (couleurs) et les vents de surface (flèches) sont affichés ;
Phase chaude |
|
Phase froide |
|
L'indice AOP est présenté ci-dessous.
L'AOP change tous les 30 ans environ, ce qui la rend
importante pour le changement climatique. Un changement dans la
circulation océanique induite par le PDO et les conditions météorologiques peut
modifier la nébulosité globale, ce qui peut avoir un effet majeur sur le
réchauffement climatique car les nuages réfléchissent la lumière
du soleil.
Le Dr Roy Spencer écrit, "un changement de nébulosité associé
au PDO pourrait expliquer la plupart des
changements climatiques que nous avons vus au cours des 100
dernières années ou plus. Par exemple, après le" grand changement
climatique de 1977 "lorsque le PDO est allé de sa phase négative à
positive, la région arctique a commencé à se réchauffer."
Voir JISAO ici , NOAA ici , Spencer ici , Appinsys ici .
Oscillation atlantique multidécennale
L'oscillation atlantique multidécennale
(OMA) est une fluctuation des températures de surface de la mer sans tendance
dans l'océan Atlantique Nord. L'indice AMO correspond aux anomalies de
température de surface de la mer de l'Atlantique sans tendance de l'équateur à
70 N. Il est généralement présenté sous forme de moyennes mobiles annuelles ou
sur 10 ans et a une durée de cycle d'environ 65 ans.
Les températures et les sécheresses du centre et de l'est de
l'Amérique du Nord sont corrélées à l'AMO. Les deux sécheresses les plus
graves de l'histoire récente, pendant le bol de poussière des années 1930 et
des années 1950, se sont produites pendant la phase chaude de l'AMO. Le
nord-ouest du Pacifique a tendance à être plus humide pendant la phase chaude
de l'AMO.
Le bâton de hockey du GIEC
Le GIEC a publié le graphique "Hockey Stick"
de Mann, Bradley et Hughes (MBH 1998), dans son troisième rapport d'évaluation,
qui montre peu de changements dans les températures pendant des centaines
d'années, puis une forte augmentation récemment au cours des cent dernières
années. Cet historique de température a été mis en évidence dans les
rapports du GIEC, distribués à tous les foyers canadiens et utilisés pour
appuyer des décisions politiques majeures impliquant des dépenses de milliards
de dollars. Le GIEC soutient qu'il y a eu peu de changement climatique
naturel au cours des 1000 dernières années, de sorte que le changement de
température au cours des 100 dernières années est inhabituel et probablement
causé par les activités humaines. Un chercheur principal du GIEC a déclaré
dans un e-mail "Nous devons nous débarrasser de la période chaude
médiévale". Christopher Monckton dit
"Ils l'ont fait en donnant une technique, mesure des cernes des
arbres à partir de pins bristlecone, 390 fois plus de
pondération que les autres techniques, mais n'a pas divulgué cela. Les
cernes des arbres sont plus larges les années les plus chaudes, mais les cernes
des pins sont également plus larges lorsqu'il y a plus de dioxyde de carbone
dans l'air : c'est de la nourriture végétale. Cette fertilisation en
dioxyde de carbone fausse les calculs. Ils ont dit qu'ils avaient inclus
24 ensembles de données remontant à 1400. Sans le dire, ils ont laissé de côté
l'ensemble montrant la période chaude médiévale, le rangeant dans un dossier
marqué "Données censurées". Ils ont utilisé un modèle
informatique pour tracer le graphique à partir des données, mais deux Canadiens
[Ross McKitrick et Stephen McIntyre] ont découvert
plus tard que le modèle dessinait presque toujours des bâtons de hockey même
s'ils alimentaient un « bruit rouge » électronique aléatoire parce qu'il
utilisait un "Algorithme défectueux". Le rapport mbH 1998 n'a jamais été correctement examiné par les pairs
avant que le GIEC ne l'utilise dans ses publications. Voir ici pour les commentaires de Christopher
Monckton.
McKitrick et McIntyre affirment dans
leur article que "l'ensemble de données utilisé pour faire cette
construction contenait des erreurs de collation, une troncature ou une
extrapolation injustifiée des données sources, des données obsolètes, des
calculs de composants principaux incorrects, des erreurs d'emplacement
géographique et d'autres défauts graves. Ces erreurs et défauts affectent
considérablement la température. La principale découverte est que les valeurs
du début du 15e siècle dépassent toutes les valeurs du 20e siècle . La forme particulière du bâton de hockey
dérivée dans la construction proxy mbH98 un indice de température qui diminue
légèrement entre le début du 15e siècle et le début du 20esiècle et augmente ensuite de façon
spectaculaire jusqu'en 1980 est principalement le résultat d'une mauvaise
gestion des données, de données obsolètes et d'un calcul incorrect
des composants principaux .
ne sont pas représentés ici.
Le différend sur le bâton de hockey a amené le Congrès
des États-Unis à décider d'enquêter sur la question. Le National Research Council (NRC) des États-Unis a tenu des audiences
publiques et a préparé un rapport en 2006 pour le Comité des sciences de la
Chambre des représentants des États-Unis. Le rapport du NRC n'a fait
aucune critique des articles McKitrick et
McIntyre. Le rapport conclut que "les échantillons d'écorce de bande
doivent être évités dans les reconstructions de température". Ces
échantillons de Bristlecone/Foxtail
d'écorce de bande sont responsables de la forte augmentation du graphique au
XXe siècle, mais la poussée de croissance n'est pas liée aux
températures. Il a également confirmé que l'algorithme de Mann, qui
utilisait une analyse en composantes principales non centrée, extrait des
formes de bâtons de hockey à partir de données de bruit rouge aléatoires, comme
l'ont montré précédemment McKitrick et McIntyre, et
note que "
Pendant ce temps, le comité de la Chambre des représentants des
États-Unis sur l'énergie et le commerce avait commandé de manière indépendante
une étude à Edward Wegman, président du comité NAS
sur les statistiques appliquées et théoriques et membre de la Royal Statistical Society. Le rapport Wegman
déclare: "Dans l'ensemble, notre comité estime
que les évaluations de Mann selon lesquelles la décennie des années 1990 a été
la décennie la plus chaude du millénaire et que 1998 a été l'année la plus
chaude du millénaire ne peuvent être étayées par son analyse. Il déclare également"
En général, nous estimons que les critiques des [articles de McKitrick et McIntyre] sont valables et que leurs arguments
sont convaincants. Nous avons pu reproduire leurs résultats et proposer à
la fois des explications théoriques (annexe A) et des simulations pour vérifier
que leurs observations étaient correctes. L'étude a également étudié le
réseau social du groupe de scientifiques qui publient des reconstructions de
température. L'étude a révélé qu'ils collaborent entre eux et partagent
des données et des méthodologies indirectes, de sorte que les études
"indépendantes" ne sont pas du tout indépendantes. Voir un
article d'audit climatique sur le rapport Wegman ici et le rapport ici .
Ces deux rapports ont été rendus publics six mois avant que le
GIEC ne commence à publier le quatrième rapport d'évaluation ; cependant,
le 4AR ne fait aucune mention du rapport Wegman, ne
donne qu'une seule citation du rapport du NRC et ignore les conclusions et les
recommandations des rapports.
David Holland a écrit une histoire complète et une discussion sur
l'affaire du bâton de hockey. Voir l'article de Holland - "Bias and Concealment in the IPCC Process: The 'Hockey Stick' Affair
and its Implications" publié par "Energy
& Environment", octobre 2007 ici .
David Holland dit "il est scandaleux que les auteurs du
chapitre 6 du WGI aient ignoré la plupart de ses conclusions de fond [du
rapport du NRC]. Malgré l'analyse claire de Wegman et
al. montrant le manque d'indépendance entre les
différentes reconstructions de température, les auteurs du chapitre AR4 WGI 6
ont persisté à s'appuyer sur un diagramme en spaghetti de reconstructions de la
figure 6.10(b) pour continuer à justifier l'affirmation selon laquelle les
températures moyennes de l'hémisphère nord au cours de la seconde moitié du
20e siècle étaient probablement les plus
élevées depuis au moins les 1 300 dernières années.
Effets d'îlot de chaleur urbain
L'effet d'îlot de chaleur urbain est l'effet que les
humains ont sur la température de surface locale de sorte que les températures
dans ou à proximité des centres urbains sont plus chaudes que les zones
rurales. Elle est causée par les propriétés de rétention de chaleur du
béton et de l'asphalte dans les zones urbaines, le mélange turbulent de la
couche d'air proche de la surface par les bâtiments et l'implantation de
capteurs de température à proximité de sources de chaleur artificielles.
Tendances des températures
de surface dans 47 comtés de Californie
Ce graphique montre l'ampleur de l'effet sur les
températures de surface et les problèmes associés à un échantillonnage
objectif. Les tendances de la température de surface déterminées à partir
des stations au sol pour la période de 1940 à 1996 ont été moyennées pour
chaque comté. Les tendances ont été regroupées par population de comté et
tracées sous forme de cercles fermés avec les erreurs standard de leurs
moyennes. La droite est un ajustement des moindres carrés aux cercles
fermés. Les points marqués ''X'' sont les six enregistrements de station
non ajustés sélectionnés par le GISS de la NASA pour être utilisés dans leur
estimation des températures mondiales. Notez que 5 des 6 stations
sélectionnées se trouvent dans des comtés peuplés. Notez également que
l'extrapolation de la ligne droite à une population de comté de 10 000
habitants donne une tendance de température de zéro. Voir ici .
Tendances de la température
des principaux sites urbains et des sites ruraux
Peterson
(2003) est
une étude influente citée par le quatrième rapport d'évaluation du GIEC qui
prétend montrer que l'effet de l'urbanisation est négligeable.
Le GIEC s'est fortement appuyé sur cette étude erronée, où
Peterson déclare "qu'aucun impact statistiquement significatif de
l'urbanisation n'a pu être trouvé dans les températures
annuelles". Cependant, Steve McIntyre utilisant les données de
Peterson montre que "les villes réelles ont une tendance très importante
de plus de 2 °C par siècle par rapport au réseau rural - et cela suppose qu'il
n'y a pas de problèmes avec le réseau rural - ce qui n'est évidemment pas vrai puisqu'il sont sans aucun doute des problèmes de microsite
et d'autres problèmes." Peterson utilise deux listes de stations dans
son étude, une étiquetée Urbaine et une étiquetée Rurale. Cependant
l'analyse des listes montre que la liste Urbaine comprend de nombreux sites ruraux
et que la liste Rurale comprend de nombreux sites urbains. Ces résultats
sont discutés dans un article de Climate
Audit ici .
La plupart des scientifiques conviennent que de nombreuses mesures
des stations de température sont contaminées par les effets d'îlots de chaleur
urbains, mais ils soutiennent que les principaux indices de température
mondiale sont ajustés pour corriger ces effets. Il y a un "Ajustement
d'urbanisation" pour corriger les effets de l'urbanisation, un
"Ajustement du biais d'observation" pour corriger le changement à
l'heure de la journée où les mesures sont prises, et il y a un "Ajustement
de couverture" pour tenir compte de la perte de stations de
mesure. Ces ajustements sont destinés à produire un enregistrement de ce
que seraient les températures si personne ne vivait à proximité des stations de
mesure. Si les ajustements étaient adéquats, il ne devrait pas y avoir de
corrélation statistiquement significative entre les relevés de température et
les indicateurs socio-économiques.
Ross McKitrick et Patrick Michaels ont
publié un article en 2004 dans lequel ils analysent le schéma de réchauffement
de la surface terrestre de la Terre par rapport aux conditions économiques
locales. Ils ont trouvé une corrélation statistiquement significative
entre les données de température ajustées et le développement économique, ce
qui signifie que les ajustements ne sont pas suffisants pour éliminer les
effets d'îlot de chaleur urbain. Ils concluent que "si la
contamination était éliminée, nous avons estimé que le taux de réchauffement
moyen mesuré sur la terre diminuerait d'environ la moitié".
Les météorologues néerlandais, Jos de Laat
et Ahilleas Maurellis,
utilisant différentes méthodologies de test, sont arrivés à des conclusions
similaires. Ils ont montré qu'il existe une corrélation statistiquement
significative entre le schéma spatial du réchauffement dans les données de
température ajustées et le schéma spatial du développement industriel. Ils
ont conclu que cela ajoute un important biais à la hausse à la tendance mesurée
du réchauffement climatique. Ils montrent également que les prévisions des
modèles climatiques ne montrent aucune corrélation entre la température et le
développement industriel.
Le GIEC reconnaît la corrélation entre les tendances au
réchauffement et le développement socio-économique, mais la rejette comme une
simple coïncidence, en raison de changements de circulation atmosphérique non
spécifiés. Cette affirmation absurde contredit l'affirmation largement
diffusée du GIEC selon laquelle le réchauffement récent ne peut être attribué à
des causes naturelles, et les recherches de Laat et Maurellis montrent qu'elle est fausse.
McKitrick et Michaels ont publié un
article mis à jour en décembre 2007 en utilisant un ensemble de données plus
large avec un ensemble plus complet d'indicateurs socio-économiques. Ils
ont discuté de deux types de contamination; les
processus de surface anthropiques, qui sont des modifications du paysage dues à
l'urbanisation ou à l'agriculture, et les inhomogénéités, c'est-à-dire les
changements d'équipement, les données manquantes, le mauvais contrôle de la
qualité, etc. Ils ont montré que le schéma spatial des tendances au
réchauffement est étroitement corrélé aux indicateurs de l'activité
économique. Ils présentent une batterie de tests statistiques pour prouver
que le résultat n'est pas un hasard ou une fausse corrélation. Ils
concluent que "la tendance moyenne à la surface dans l'intervalle
post-1980 passerait d'environ 0,30 degré (C) par décennie à environ
0,17 degré."
Biais des données de température du GIEC
La carte ci-dessus est tirée de l'article de McKitrick et Michaels de décembre 2007. Chaque carré
est codé par couleur pour indiquer la taille du biais local. Les zones
vides indiquent qu'il n'y avait pas de données disponibles. Voir la
discussion de fond sur le document ici .
Un audit du chercheur Steve McIntyre révèle que la NASA a effectué
des ajustements urbains des données de température dans son enregistrement de
température GISS dans la mauvaise direction. La NASA a appliqué un
"ajustement urbain négatif" à 500 des mesures des stations urbaines
(où des ajustements sont effectués), ce qui signifie que les ajustements
accentuent les tendances au réchauffement. L'ajustement urbain est censé
supprimer les effets de l'urbanisation, mais les ajustements négatifs de la
NASA augmentent les effets de l'urbanisation. Le résultat est que la
tendance de la température de surface utilisée par le Groupe d'experts
international sur l'évolution du climat (GIEC) est
exagérée. Voir ici .
Le site surfacestations.orga été créé par Anthony Watts en réponse à
la prise de conscience qu'il existe très peu de données d'étude de site
physique pour l'ensemble du réseau climatologique historique des États-Unis
(USHCN) de stations de surface. Les volontaires effectuent des relevés de
site pour photographier et documenter les 1221 stations climatiques USHCN aux
États-Unis. En février 2009, 854 des 1221 stations ont été examinées dans
le réseau USHCN. Chaque site se voit attribuer une note de qualité de site
de 1 à 5 basée sur le Guide d'évaluation du réseau de référence
climatique. Seulement 11% des stations sont dans des emplacements adaptés,
69% sont à moins de 10 m d'une source de chaleur artificielle. Ci-dessous,
une photo d'une gare mal située.
Le site Web Climate4you propose de nombreux graphiques de
l'effet d'îlot de chaleur urbain. Les graphiques ont été tracés à partir
de traversées de température effectuées par un véhicule voyageant à travers les
villes.
Le graphique
ci-dessus montre
les mesures de température de janvier 2007 prises en roulant d'ouest en est à
travers la ville d'Oslo, en Norvège. L'effet d'îlot de chaleur d'Oslo au
cours de cette expérience était d'environ 8 °C.
Une étude d'Anthony Watts a évalué les tendances au réchauffement
des stations de surveillance de la température conformes et non conformes à la
NOAA à l'aide du système de classification des sites récemment approuvé par
l'OMM. L'analyse démontre que les tendances de température signalées aux
États-Unis sont faussement doublées. La nouvelle évaluation améliorée,
pour les années 1979 à 2008, donne une tendance de +0,155 °C par décennie
pour les sites de haute qualité, une tendance de +0,248 °C par décennie
pour les emplacements mal situés et une tendance de +0,309 °C par
décennie. après que la NOAA a ajusté les données,
comme indiqué dans le graphique ci-dessous.
Le graphique "Tendances des températures de
surface et de la troposphère" présenté ci-dessus dans la section Réchauffement
de la troposphère montre les tendances des températures de la terre,
de la terre et de la mer, et de la troposphère sous les tropiques. La
tendance de la température de la surface terrestre a le taux d'augmentation le
plus élevé car elle est contaminée par l'effet d'îlot de chaleur. La
tendance de la température de surface de la terre et de la mer est inférieure à
la tendance de la terre car les données de température de la mer n'ont pas
d'effet d'îlot de chaleur. La troposphère affiche le taux d'augmentation
de température le plus faible. Nous savons que la théorie du CO 2 du changement climatique exige que la
troposphère se réchauffe plus rapidement que la surface, mais c'est l'inverse
qui s'est produit. Il est illogique de croire que le CO 2est le principal facteur de température et
croient simultanément que les mesures de surface utilisées pour le GIEC sont
exactes. Si les données de température de surface étaient entièrement
ajustées pour supprimer les effets de l'urbanisation en réduisant de moitié le
taux de réchauffement, elles correspondraient étroitement à la tendance au
réchauffement de la troposphère.
Une étude (Murray & Heggie 2016) a
comparé la consommation nationale d'énergie (qui est convertie en chaleur) aux
températures nationales moyennes pour le Royaume-Uni et le Japon.
Le graphique ci-dessus montre que les modèles
climatiques font un très mauvais travail pour prédire les températures dans la
région du Royaume-Uni (r2 = 0,10). Le graphique de droite montre que la
consommation d'énergie explique très bien les températures mesurées (r2 =
0,89). Le résumé dit "Il est clair que les fluctuations de [température] sont mieux
expliquées par la consommation d'énergie que par les modèles climatiques
actuels." Voir le papier ici . Cela fournit une preuve
supplémentaire que les principaux indices de température utilisés pour suivre
le changement climatique sont contaminés par les effets du développement
économique, biaisant les estimations de la sensibilité climatique et des coûts
sociaux élevés des émissions de CO 2 .
En janvier 2009, un groupe japonais a lancé
un satellite IBUKI pour surveiller les bandes spectrales de
CO 2 et de méthane dans le monde entier
afin d'établir exactement où se trouvaient les plus grandes sources et puits de
gaz à effet de serre au monde. Les résultats de l'Agence japonaise
d'exploration aérospatiale (JAXA) montrent que les pays industrialisés semblent
absorber les émissions de dioxyde de carbone du tiers monde. Les données
satellitaires présentées sur la carte ci-dessous montrent que les niveaux de
CO 2 sont généralement plus faibles dans
les pays développés que dans l'air au-dessus des pays en
développement. Les zones où les émissions nettes sont plus élevées
(émissions artificielles plus émissions naturelles moins absorption naturelle
dans les puits) afficheraient des concentrations de CO 2 plus élevées. CO2 _les niveaux sont inférieurs à la moyenne
dans les pays industrialisés, comme l'indiquent les points bleus. Les
émissions nettes les plus élevées, du moins sur ce graphique, se situent
principalement en Chine et en Afrique centrale.
Source .
Pas de consensus
L'auteur Michael Crichton a mis en garde contre les
dangers de la "science consensuelle" dans un discours de
2003. Il dit: "Le consensus est l'affaire de
la politique. La science, au contraire, ne nécessite qu'un seul enquêteur qui
se trouve avoir raison, ce qui signifie qu'il ou elle a des résultats
vérifiables par référence au monde réel. En science, le consensus n'est pas
pertinent. Ce qui est pertinent, ce sont les résultats reproductibles. Les plus
grands scientifiques de l'histoire sont grands précisément parce qu'ils ont
rompu avec le consensus."
Dans une lettre ouverte au premier ministre Stephen Harper, 61
scientifiques éminents ont appelé à un examen scientifique ouvert du
climat. La lettre indique que "les preuves d'observation ne prennent
pas en charge les modèles climatiques informatiques d'aujourd'hui, il y a donc
peu de raisons de faire confiance aux prédictions des modèles de l'avenir. Des
progrès significatifs ont été réalisés depuis la création du protocole, dont
beaucoup nous éloignent d'une préoccupation concernant l'augmentation Si, au
milieu des années 1990, nous savions ce que nous savons aujourd'hui sur le
climat, Kyoto n'existerait presque certainement pas, car nous en aurions conclu
qu'il n'était pas nécessaire. l'impact humain reste
encore impossible à distinguer de ce "bruit" naturel."
Le projet de pétition a été organisé par l'Institut des sciences
et de la médecine de l'Oregon. La pétition déclare en partie :
"Il n'y a aucune preuve scientifique
convaincante que la libération humaine de dioxyde de carbone, de méthane ou
d'autres gaz à effet de serre cause ou causera, dans un avenir prévisible, un
réchauffement catastrophique de l'atmosphère terrestre et une perturbation du
climat terrestre. preuve que l'augmentation du dioxyde
de carbone atmosphérique produit de nombreux effets bénéfiques sur les
environnements naturels végétaux et animaux de la Terre."
Jusqu'à présent (septembre 2019), la pétition a reçu
31 487 signatures dont 9 029 avec des docteurs. Les signataires sont
approuvés pour être inclus dans la liste des projets de pétition s'ils ont
obtenu des diplômes d'études formels au niveau du baccalauréat ès sciences ou
supérieur dans les domaines scientifiques appropriés. Tous les signataires
répertoriés ont une formation formelle dans des domaines de spécialisation qui
les qualifient de manière appropriée pour évaluer les données de recherche
liées à la déclaration de pétition. De nombreux signataires travaillent
actuellement dans les domaines climatologique, météorologique, atmosphérique,
environnemental, géophysique, astronomique et biologique directement impliqués
dans la controverse sur le changement climatique. Voir Projet de pétition sur le réchauffement
climatique .
Le Heartland Institute a mené une
enquête internationale auprès de 530 climatologues en 2003. L'enquête a demandé
si l'état actuel des connaissances scientifiques est suffisamment développé
pour permettre une évaluation raisonnable des effets des gaz à effet de serre. Les
deux tiers des scientifiques interrogés (65,9%) n'étaient pas d'accord avec
l'énoncé, près de la moitié (45,7%) l'ayant noté avec un 1 ou 2, indiquant un
fort désaccord. Seuls 10,9 % l'ont noté avec un 6 ou un 7, ce qui
indique un fort accord. Voir ici
pour les résultats complets de l'enquête .
Dans une lettre ouverte au Secrétaire général des Nations Unies et
aux chefs d'État de nombreux pays datée du 13 décembre 2007, intitulée « La
Conférence des Nations Unies sur le climat prend le monde dans la mauvaise
direction », plus de 100 spécialistes du monde entier monde, dont beaucoup sont
d'éminents scientifiques, déclarent qu'"il n'est pas possible d'arrêter le
changement climatique, un phénomène naturel qui a affecté l'humanité à travers
les âges". La lettre indique que les changements climatiques récents
ont été bien dans les limites de la variabilité naturelle connue. Il
déclare en outre que les modèles climatiques ne peuvent pas prédire le climat,
qu'il n'y a pas eu de réchauffement climatique depuis 1998, que le GIEC a
ignoré de nombreuses nouvelles recherches importantes évaluées par des pairs
qui ont jeté encore plus de doute sur l'hypothèse d'un réchauffement climatique
dangereux d'origine humaine, et les tentatives de réduction des émissions
ralentiront le développement et risquent d'augmenter les souffrances humaines
du futur changement climatique plutôt que de les diminuer. Voir ici pour la lettre publiée par le
National Post.
Un rapport au Sénat américain répertorie plus de 700 scientifiques
qualifiés du monde entier qui contestent les affirmations du GIEC et d'autres,
selon lesquelles "la science du climat est réglée" et qu'il existe un
"consensus". Voir ici .
Pour faire accepter par le public les taxes sur le
carbone et les subventions aux énergies renouvelables, plusieurs études
revendiquent un consensus scientifique de 97 % sur le réchauffement
climatique, ce qui implique que les causes humaines sont toutes liées au
dioxyde de carbone ou aux gaz à effet de serre ; mais un examen plus
approfondi révèle que beaucoup de manipulations mathématiques sont nécessaires
pour arriver à 97% - un stratagème psychologique qui joue sur nos émotions
primaires, notre «mentalité de troupeau» et notre peur d'être l'intrus. Ce
rapport des
Amis de la Science révèle qu'il ne s'agit que d'une manipulation
mathématique et d'un stratagème psychologique. Notre déconstruction montre
qu'il n'y a pas de consensus à 97% sur le réchauffement climatique causé par
l'homme comme le prétendent ces études. Aucune de ces études n'indique un
accord avec une vision catastrophique du réchauffement climatique d'origine
humaine.
Un examen détaillé de l'étude
«consensuelle» la plus récente de Cook et al (2013) n'a trouvé que 64
articles sur 11 958 qui déclarent explicitement que l'AGW a causé plus de 50%
du réchauffement récent. Cela ne représente qu'un « consensus » de 0,54
%. En outre, les 50 % de réchauffement mentionnés par Cook sont bien
en deçà de l'estimation de l'AGW du GIEC selon laquelle l'AGW a causé au moins
90 % du réchauffement. Cook suppose que tout article qui impliquait
que les humains avaient un effet sur le climat est inclus dans le consensus,
même si les GES référencés dans l'étude auraient peu d'effet. Cela n'a
rien à voir avec la déclaration du GIEC.
De nombreux scientifiques de premier plan ont rejeté
l'étude de Cook lors de sa publication, affirmant que leurs travaux avaient été
déformés et classés à tort comme soutenant la déclaration d'AGW du GIEC alors
que leurs travaux ne le faisaient pas. Alan Carlin, Ph.D. Economics, MIT, Senior Operations Research
Analyst, US Environmental
Protection Agency (retraité) a rejeté la classification de Cook de son
travail. Le Dr Carlin a déclaré : « Les avantages économiques de la
réduction des émissions de CO2 pourraient être inférieurs d'environ deux ordres
de grandeur à ceux estimés par la plupart des économistes, car le facteur de
sensibilité climatique (CSF) est bien inférieur à ce que supposent les Nations
Unies... ».
Il n'y a pas de consensus sur la question de savoir si ou dans
quelle mesure les activités humaines sont à l'origine du problème, ou même s'il
y a un problème. Le refroidissement global, largement prédit dans les
années 1970, aurait été beaucoup plus dangereux que le réchauffement.
Effets du réchauffement
Le GIEC et des groupes apparentés ont suggéré
plusieurs effets néfastes du réchauffement climatique. Les données du
monde réel montrent que ces affirmations sont pour la plupart fausses. Ils
ignorent les énormes avantages du réchauffement et des émissions de CO 2 sur la croissance des plantes.
Le niveau de la mer monte
Le Service permanent du niveau moyen de la mer est
responsable de la collecte et de la communication des données sur le niveau de
la mer à partir du réseau mondial de marégraphes. Cet ensemble de données
comprend 63 enregistrements de marégraphes commençant avant 1950 et se
terminant après 2015, qui contiennent plus de 95 % des données. Le
graphique ci-dessous montre les niveaux moyens mensuels de la mer des 65
marégraphes sans les cycles annuels. Notez les grandes variations
mensuelles. Une courbe quadratique a été ajustée aux données. Les
données montrent une tendance linéaire en décembre 2020 de 2,08 mm/an avec une
accélération de 0,014 mm/an 2 .
Le graphique ci-dessous montre les tendances sur 20
ans et 30 ans de la moyenne des 63 relevés marégraphiques. Les données
manquantes ont été remplies de manière linéaire et le signal saisonnier a été
supprimé. Le graphique montre que la tendance sur 20 ans et 30 ans en
décembre 2020 était de 3,2 mm/an et 2,0 mm/an, respectivement. Avant 2015,
la tendance maximale sur 30 ans était de 1,34 mm/an fin novembre 1983.
Le niveau de la mer a augmenté depuis 1860 à environ 2
mm/an jusqu'en 2000, comme indiqué ci-dessous.
Données sur le niveau de
la mer
Niveau global moyen de la mer (gsl)
(en haut), avec son intervalle de confiance à 95 % ombré, et taux gsl moyen (en bas), avec son intervalle d'erreur standard
ombragé. Adapté de Jevrejeva et
al. (2006). Voir Sciences du CO 2 .
Le GIEC AR6 estime que "le niveau moyen mondial de la mer a
augmenté à un taux moyen de 1,9 [0,8 à 2,9] mm par an de 1971 à 2006, et a
encore augmenté à 3,7 [3,2 à 4,2] mm par an entre 2006 et 2018".
Une étude récente de l'élévation mondiale du niveau de
la mer à partir des marégraphes est Frederikse et al
2020. Le graphique ci-dessous montre l'élévation du niveau de la mer de 1900 à
2018 à partir des marégraphes et de l'altimétrie par satellite à partir
des données de l'étude. La tendance du marégraphe sur 20 ans
jusqu'en 2018 est de 3,4 mm/an.
Depuis août 1992, les altimètres satellitaires mesurent le niveau
de la mer à l'échelle mondiale. L'Université du Colorado à Boulder fournit
des données à partir d'une série de satellites. Les étalonnages des
marégraphes sont utilisés pour estimer la dérive de l'altimètre.
L'élévation globale du niveau de la mer avec le signal
saisonnier supprimé est illustrée ci-dessus. Il montre une tendance de
1992 à août 2021 de 3,3 mm/an, qui comprend un ajustement isostatique glaciaire
(GIA) de 0,3 mm/an. Le GIA est l'effet de l'augmentation de la taille du
bassin océanique. Le graphique du niveau de la mer avec ajustement GIA est
ce que l'élévation du niveau de la mer aurait pu être SI la taille du bassin
océanique n'avait pas changé. L'élévation du niveau de la mer par rapport
à la terre est de 3,0 mm/an. L'accélération SLR était de 0,098 mm/an 2 .
Ci-dessous, le graphique de l'élévation du niveau de la mer global
sans GIA.
Le service permanent pour le niveau moyen de la mer
(PSMSL) répertorie 10 stations marégraphiques sur la
côte ouest du Canada avec des données mensuelles quasi continues de 1973 à
2018.
Le graphique montre le niveau moyen mensuel de la mer
de 10
stations marégraphiques sur la côte ouest du Canada. La ligne noire est le
meilleur ajustement linéaire aux données[MT14] . Au cours de la période de 1973 à 2018, le
niveau moyen de la mer a augmenté de 0,025 mm/an.
Envisat est le satellite le plus
récent et le plus sophistiqué pour mesurer le niveau global de la
mer. Lancé en 2002, Envisat est le plus grand
vaisseau spatial d'observation de la Terre jamais construit. Les données
montrent qu'il n'y a pas eu d'élévation globale du niveau de la mer depuis la
fin de 2003.
Altimétrie satellitaire de
TOPEX/POSEIDON
Le graphique ci-dessus de Morner,
2004, montre les données satellitaires originales sur le niveau de la mer de
1992 au début de 2000. Hormis l'effet d'El Niño de 1997/98, les données ne
montrent aucune élévation du niveau de la mer.
Les données satellitaires ne montrent aucune augmentation, mais le
GIEC ajoute un "facteur de correction" aux données satellitaires pour
les faire concorder avec les données du marégraphe à 2,3 mm/an. Ces données sont présentées
comme des données satellitaires, mais Morner dit "c'est
une falsification de l'ensemble de données".
Données altimétriques
satellitaires de TOPEX/POSEIDON inclinées vers le niveau d'origine
Le graphique ci-dessus de Morner,
2005, montre les données d'altimétrie par satellite sur le niveau de la mer de
1993 à 2003 ramenées au niveau d'origine en excluant le facteur
marégraphe. Il montre une variabilité autour de zéro plus les événements
ENSO.
Voir l'article
du Memoradum du Dr Morner qui a été présenté à la Chambre des
Lords du Royaume-Uni.
Les données altimétriques satellitaires TOPEX/Poséidon sont
ajustées par l'Université du Colorado pour la NASA afin de correspondre au taux
d'élévation du niveau de la mer mesuré par un ensemble de 64
marégraphes. Toute différence entre la mesure brute du satellite et la
mesure du marégraphe est supposée être la somme de l'erreur de dérive de la
mesure du satellite et du mouvement vertical du terrain à l'emplacement du
marégraphe. Une estimation distincte du mouvement terrestre est effectuée
principalement en utilisant les données « d'orbitographie Doppler et de
positionnement radio intégré par satellite » (DORIS) à l'emplacement du
marégraphe. Les données satellitaires brutes sont inclinées en appliquant
la dérive de mesure du satellite telle que déterminée par les
marégraphes. Voir une description de la façon dont les données
satellitaires sont calibrées à partir d'un ensemble de marégraphes.
Le graphique ci-dessus montre les tendances du niveau
de la mer de janvier 2002 à juin 2021. Notez que la majeure partie de
l'élévation du niveau de la mer au cours de cette période se situe dans l'océan
Indien et dans une zone au nord de l'Australie.
Un arbre célèbre aux Maldives ne montre aucune preuve d'avoir été
emporté par l'élévation du niveau de la mer, comme le prédisent les défenseurs
du réchauffement climatique. Un groupe de défenseurs australiens du
réchauffement climatique est venu et a abattu l'arbre, détruisant ainsi la
preuve que leur théorie était fausse.
La "Commission INQUA sur le changement du niveau de la mer et
l'évolution côtière" dirigée par le Dr Morner, a
préparé une estimation selon laquelle le niveau mondial de la mer augmentera de
10 cm plus ou moins 10 cm au cours des 100 prochaines années. Le Dr Morner a depuis révisé son estimation à 5 cm par 100 ans
après avoir examiné les données de l'activité solaire suggérant que la tendance
au réchauffement pourrait avoir pris fin et que la Terre pourrait se diriger
vers une tendance au refroidissement.
Il semble de plus en plus probable qu'un réchauffement augmentera
les précipitations et l'accumulation de glace dans les régions polaires, et
ralentira ainsi, voire inversera, l'élévation continue du niveau de la
mer. Voir " Il n'y
a pas d'élévation alarmante du niveau de la mer ! "
Le Proudman Oceanographic
Laboratory estime le taux d'élévation du niveau de la
mer à 1,42 plus ou moins 0,14 mm/an pour la période de 1954 à 2003. C'est moins
que l'estimation de 1,91 plus ou moins 0,14 mm/an pour la période de 1902 à
1953, indiquant un ralentissement du rythme.
Voir une
analyse de
l'élévation du niveau de la mer par le Proudman Oceanographic Laboratory. Le
graphique suivant montre le taux de changement du niveau de la mer depuis 1905
à l'aide des marégraphes à long enregistrement de la plus haute qualité.
Comparaison des taux moyens mondiaux de changement du
niveau de la mer calculés à partir de neuf stations d'enregistrement long avec
ceux calculés à partir de 177 stations moyennées dans 13 régions. La
région ombrée indique 1 SE Ces enregistrements proviennent de régions qui ne
connaissent pas de taux élevés d'ajustement isostatique glaciaire (GIA) et qui
ne sont pas significativement affectées par les tremblements de terre. La
comparaison montre que sur la période commune aux deux analyses (1955-1998) il
y a un très fort accord entre les deux moyennes globales.
Woppelmann et al ont utilisé des stations
GPS (Global Positioning Satellite) pour corriger les
données marégraphiques des mouvements verticaux des terres. Dans un
article de 2007, Woppelmann et al ont analysé les
données de 160 stations GPS situées à moins de 15 km des marégraphes pour
déterminer le mouvement vertical des marégraphes. Ils ont déterminé que
l'élévation moyenne globale du niveau de la mer de janvier 1999 à août 2005,
après correction des données marégraphiques par le mouvement vertical des
terres, était de 1,31 +/- 0,30 mm/an. Notez que cette estimation est
inférieure de 58 % à l'estimation rapportée (1993-2003) dans le RE4 du
GIEC. Voir « Ralentissement
du niveau de la mer ? » dans les archives du Rapport sur
le climat mondial et le résumé
de l'étude .
Ensemble de données MSU sur
les températures de l'Antarctique 1979-2021 (Latitude -85 à -65)
Le film "Une vérité qui dérange" (AIT)
suggère que la calotte glaciaire de l'Antarctique pourrait fondre, mais en
fait, la température de l'air au-dessus de l'Antarctique a eu une tendance
nulle de 1980 à juillet 2022. Il n'y a pas eu de fonte significative
au cours des périodes chaudes précédentes lorsque les températures étaient plus
chaud qu'aujourd'hui.
Une nouvelle étude de Zwally et al 2021 a évalué le bilan de masse de
l'Antarctique. Il a réconcilié les estimations du bilan massique des
satellites GRACE et ICESat et a constaté que les
estimations des mesures de gravité GRACE sont 5,22 fois plus sensibles au
mouvement du substrat rocheux forcé par les changements de charge de glace que
les estimations des données altimétriques ICESat sur
l'Antarctique oriental et 4,51 fois sur l'Antarctique occidental. . Le gain total de masse de glace en Antarctique est
de 95 ± 25 gigatonnes (Gt) par an entre 2003 et 2008, contre 144 ± 61 Gt par an
entre 1992 et 2001. À partir de 2009, de fortes augmentations des pertes
dynamiques de WA côtières ont dépassé les gains à long terme de EA et de WA
intérieures. Le gain de masse de glace totale de l'Antarctique était de 34
± 85 Gt par an de 2009 à 2011. La masse de glace de l'Antarctique était proche
de l'équilibre à −12 ± 64 Gt par an de 2012 à 2016.
Une histoire similaire se trouve au Groenland. La période la
plus chaude n'a pas été le dernier quart de siècle. Au contraire, comme Vinther et al. rapport,
"l'année la plus chaude dans le record de température étendu du Groenland
a été 1941, tandis que les années 1930 et 1940 ont été les décennies les plus
chaudes." En fait, leur record nouvellement allongé révèle qu'il n'y
a pas eu de réchauffement net de la région au cours des 75 dernières
années. Une étude de la calotte glaciaire du Groenland par Johannessen et al.ont constaté qu'en dessous de 1500 mètres, le
changement moyen de la hauteur de la calotte glaciaire avec le temps était une
baisse de 2,0 ± 0,9 cm/an, qualitativement en harmonie avec les déclarations d'Alley et al. ; mais au-dessus de 1500 mètres, il
y avait un taux de croissance positif de 6,4 ± 0,2 cm/an. Moyenné sur
l'ensemble de la calotte glaciaire, le résultat moyen était également positif,
à une valeur de 5,4 ± 0,2 cm / an, qui, ajusté pour un soulèvement isostatique
d'environ 0,5 cm / an, a donné un taux de croissance moyen d'environ 5 cm / an,
pour une augmentation totale de l'épaisseur moyenne de la calotte glaciaire du
Groenland d'environ 55 cm sur la période de 11 ans, qui était principalement
due à l'accumulation de chutes de neige accrues sur la calotte glaciaire.
Une étude de Zwally et al, 2005, ont constaté que la calotte
glaciaire du Groenland a connu une accumulation nette de glace qui produit une
baisse de 0,03 ± 0,01 mm/an du niveau de la mer. Voir une revue de cela et plusieurs autres études
sur ce sujet.
Une étude de Dorthe Dahl-Jenson et al, 2013, présente des données de la carotte
de glace de North Greenland Eemian
Ice Drilling (NEEM) qui ne montrent qu'une réponse
modeste de la calotte glaciaire au fort réchauffement de l'Eemian
précoce. Le document rapporte que les "températures de surface après
le début de l'Eemian (il y a 126 000 ans) ont culminé
à 8 ± 4 degrés Celsius au-dessus de la moyenne du dernier millénaire. Entre 128
000 et 122 000 ans, l'épaisseur de la calotte glaciaire du nord-ouest du
Groenland a diminué. de 400 ± 250 mètres, atteignant
des élévations de surface il y a 122 000 ans de 130 ± 300 mètres plus bas
qu'aujourd'hui." L'auteur principal estime que la fonte au cours de
l'Eemian n'aurait pu contribuer qu'à 2 m d'élévation
du niveau de la mer. Commentant l'article, le Dr
Patrick Michaels, a déclaré que toute la période de 6 000 ans était en
moyenne d'environ 6 ° C plus chaude que les 1 000 dernières années. Le
chauffage intégré pendant l'Eemian (changement de
température multiplié par le temps) était de 36 000 degrés-années. Les
modèles climatiques prédisent un réchauffement de 3 °C au Groenland d'ici 2100,
soit 300 degrés-années. Michaels écrit: "A
ce rythme, il faudrait 12 000 ans pour se débarrasser d'environ un huitième de
la glace de ce noyau." Les données suggèrent que le Groenland ne
contribuera qu'à 1,7 cm d'élévation du niveau de la mer (2 m X 300/36 000)
d'ici 2100 si la prévision de température du modèle climatique est correcte.
Couverture de neige de
l'hémisphère nord
En mars 2000, l'Independent du Royaume-Uni
a rapporté ;
Selon le Dr David Viner, chercheur principal à l'unité
de recherche climatique (CRU) de l'Université d'East Anglia,
dans quelques années, les chutes de neige hivernales deviendront "un
événement très rare et passionnant".
"Les enfants ne sauront tout simplement pas ce
qu'est la neige", a-t-il déclaré.
Les modèles climatiques ont constamment
prédit que la couverture de neige totale aurait dû diminuer de façon continue
et constante chaque année depuis au moins les années 1970 et cette diminution
s'accélérera au fil des ans. Un article révisé par des pairs de
2019 révèle comment les prédictions se sont réalisées. La couverture
de neige de l'hémisphère nord est mesurée avec précision par des satellites
depuis la fin de 1966. Les modèles climatiques sont exécutés de 1861
jusqu'au futur. Une simulation de modèle jusqu'à présent est appelée rétropolation. Cet article qui résume le papier dit "En
comparant ces rétrospectives aux tendances climatiques historiques observées,
cela nous donne une idée de la fiabilité des modèles informatiques." Voici
des graphiques de la couverture de neige de l'hémisphère Nord par des modèles
et des observations satellites pour les mois d'automne et d'hiver.
Les modèles informatiques conviennent tous
qu'il aurait dû y avoir une diminution continue d'une année
sur l'autre pour les saisons d'automne et d'hiver depuis les années
1960. Cependant, les observations réelles ont plutôt montré une légère
augmentation de la couverture de neige.
Intempéries
Le GIEC affirme que le réchauffement climatique entraînera
des phénomènes météorologiques plus violents. Cela n'a aucun sens, car la
plupart des tempêtes sont causées par une différence de température des masses
d'air en collision. Si le CO 2 réchauffe les régions polaires, les
écarts de température seront moins importants et les tempêtes moins
violentes. Toutes choses étant égales par ailleurs, un monde plus chaud
devrait avoir moins de tempêtes violentes, et non plus.
Contrairement à la plupart des tempêtes, les ouragans sont causés
par la différence de température entre la surface de la mer et le sommet de la
tempête.
Les chercheurs Knutson et Tuleya ont examiné une série de modèles climatiques et ont
constaté qu'ils avaient pratiquement unanimement projeté que dans un
environnement de CO 2-monde amélioré, la troposphère moyenne et
supérieure se réchauffera à un rythme plus rapide que la surface, en
particulier au-dessus des océans tropicaux. Plus de réchauffement en
altitude qu'à la surface rend l'atmosphère plus stable et moins propice à la
formation d'orages. Ainsi, Knutson et Tuleya ont rapporté que les augmentations futures de la
stabilité verticale projetées par le modèle tempéreraient (mais pas totalement
annuleraient) l'augmentation de l'intensité des tempêtes par l'augmentation de
la température de surface de la mer.
Cependant, les chercheurs Vecchi et Soden ont découvert que les modèles climatiques prévoient
presque à l'unanimité qu'il y aura une augmentation du cisaillement vertical du
vent pendant la saison des ouragans, ce qui agit également pour inhiber la
formation de cyclones tropicaux. Le résultat combiné est que toute
augmentation de l'intensité de l'ouragan sera si faible qu'elle sera
indétectable. Incidemment, le cisaillement vertical réel du vent des
ouragans de l'Atlantique diminue depuis 1973, à l'opposé de la tendance prédite
par les modèles climatiques. Voir papier .
Il n'y a absolument aucune preuve d'une augmentation des
événements de tempêtes violentes dans les données du monde réel.
Pour l'Atlantique Nord dans son ensemble, selon l'Organisation
météorologique mondiale, "Des données fiables... depuis les années 1940
indiquent que la force maximale des ouragans les plus puissants n'a pas changé
et que l'intensité maximale moyenne de tous les ouragans a diminué."
Gulev et al (2000) ont utilisé les
données de réanalyse NCEP/NCAR depuis 1958 pour étudier l'occurrence des
tempêtes hivernales dans l'hémisphère nord. Ils ont trouvé une baisse
statistiquement significative (au niveau de 95%) de 1,2 cyclones par an pour la
période, au cours de laquelle les températures auraient augmenté dans une
grande partie de l'hémisphère.
"Le réchauffement climatique provoque une augmentation des
tempêtes" fait des gros titres intéressants. Elle viole également la
vérité scientifique fondamentale et les leçons de l'histoire.
L'activité mondiale des ouragans a diminué jusqu'à la mi-2012 à
des niveaux jamais vus depuis 1978. L'énergie cumulée des cyclones (ACE) est la
somme cumulée sur 2 ans de la combinaison de l'intensité et de la longévité des
ouragans. Au cours des 52 dernières années, l'ECA de l'hémisphère mondial
et nord a subi une variabilité importante mais ne présente aucune tendance
statistique significative.
Le graphique ci-dessus montre les 5 dernières
décennies de l'ACE de l'hémisphère mondial et nord jusqu'au 28 février 2022.
Notez que l'année indiquée représente la valeur de l'ACE au cours des 24 mois
précédents pour l'hémisphère nord (ligne du bas/cases grises) et le global global (top line/boîtes bleues). La zone intermédiaire
représente l'ACE total de l'hémisphère sud. L'ACE mondial moyen en 2021
était de 85 % de la moyenne sur la période 1991-2020. L'année 2021
mondiale ACE à ce jour (YTD) en juillet 2022 est de 83% de la normale YTD.
Le graphique ci-dessus montre les 4 dernières
décennies de la fréquence globale des tempêtes tropicales et des ouragans sur
12 mois jusqu'au 30 juin 2022. La série chronologique la plus élevée est le
nombre de cyclones tropicaux qui atteignent au moins la force des tempêtes
tropicales (la vitesse maximale du vent sur la durée de vie dépasse 34
nœuds). La série chronologique du bas est le nombre de cyclones tropicaux
de force ouragan (64 nœuds +). La fréquence mondiale des cyclones
tropicaux a atteint un niveau historiquement bas.
L'ACE 2008 de l'hémisphère nord représentait 85 % de l'ACE
2005, comme le montre le graphique à barres empilées ci-dessous.
La plupart des orages se produisent sous les
tropiques, mais la plupart des tornades se produisent aux
États-Unis. Moins de 1% des orages aux États-Unis engendrent des
tornades. Les tornades nécessitent un cisaillement directionnel du vent,
un changement de direction du vent avec la hauteur. Le cisaillement du
vent se produit lorsque des masses d'air froid et chaud entrent en
collision. Cela ne se produit jamais sous les tropiques, donc les tornades
ne s'y produisent jamais. Le graphique ci-dessous montre que les
températures moyennes aux États-Unis ont augmenté depuis 1960 tandis que le
nombre de fortes tornades (F3 à F5) a diminué. Voir ici du Dr Roy Spencer.
Une épidémie de tornades en 2011 aux États-Unis a été causée par
un printemps exceptionnellement froid pour la saison. Le Dr Spencer écrit
"Un golfe du Mexique exceptionnellement chaud de 1 ou 2 degrés en ce
moment ne peut pas expliquer l'augmentation du contraste entre les masses d'air
chaud et froid qui est la clé de la formation de tornade car cette légère
chaleur ne peut pas rivaliser avec les 10 à 20 degrés ci-dessous- air normal
dans le Midwest et la vallée de l'Ohio qui n'a pas encore voulu céder la place
au printemps. ... le réchauffement climatique provoque MOINS d'épidémies de
tornades, pas plus."
Un graphique des tornades fortes à graves de 1955 à
2019 est présenté ci-dessous. Il montre une tendance significative à la
baisse de -57,5%. Le comptage moyen de 2017-2019 n'est que de 32% du
comptage moyen avant 1985.
Un article publié dans le Journal of Geography & Natural Disasters montre
que "la première moitié du 20 e siècle a connu des conditions
météorologiques plus extrêmes que la seconde moitié". Plusieurs
graphiques de données climatiques sont présentés à l'appui de cette
affirmation, y compris les taux de réchauffement et de refroidissement, les
températures extrêmes, les précipitations et les ouragans touchant les
États-Unis. Les températures mondiales au cours des dernières décennies
ont été plus chaudes que la première moitié du 20 esiècle. De nombreuses études théoriques
prédisent qu'un réchauffement climatique dû aux émissions de gaz à effet de
serre produira des conditions météorologiques plus extrêmes. Le document
déclare que "le manque d'appréciation du public, des politiques et des
décideurs de la déconnexion entre les données empiriques et les constructions
théoriques est profondément inquiétant, en particulier en termes de conseils
politiques donnés." L'hyperbole des prévisions de conditions
météorologiques futures extrêmes peut entraîner des facteurs de sécurité
excessifs et une suradaptation. L'auteur
prévient : « Une suradaptation qui n'est pas
nécessaire laisse les clients libres de poursuivre les conseillers si les
problèmes ont été survendus et que les coûts de protection s'avèrent excessifs
». Le papier est ici .
Le Dr Indur M. Goklany
a préparé une étude qui examine si les pertes dues à de tels événements
(mesurées par les décès et les taux de mortalité agrégés) ont augmenté à
l'échelle mondiale et aux États-Unis au cours des dernières décennies. Il
met ces décès et taux de mortalité en perspective en les comparant au fardeau
global de la mortalité, et discute brièvement de ce que les tendances de ces
mesures impliquent sur la capacité d'adaptation humaine. À l'échelle
mondiale, la mortalité et les taux de mortalité ont diminué de 95 % ou plus
depuis les années 1920. Les améliorations les plus importantes provenaient
de la baisse de la mortalité due aux sécheresses et aux inondations, qui
étaient apparemment responsables de 93 % de tous les décès causés par des
événements extrêmes au cours du 20 e siècle. Voir papier .
Le graphique le plus révélateur est le premier dans l'article
ci-dessous :
Le graphique affiche des données sur les taux de
mortalité et de mortalité mondiaux agrégés entre 1900 et 2006 pour les
événements extrêmes liés aux conditions météorologiques suivants :
sécheresses, températures extrêmes (chaleur et froid extrêmes), inondations,
glissements de terrain, vagues et surtensions, incendies de forêt et tempêtes
de vent de différents types (ex : ouragans, cyclones, tornades, typhons,
etc.). Il indique que les taux de mortalité et de mortalité ont diminué au
moins depuis les années 1920. Plus précisément, en comparant les années
1920 à la période 2000-2006, le nombre annuel de décès est passé de 485 200 à
22 100 (une baisse de 95 %), tandis que le taux de mortalité par million est
passé de 241,8 à 3,5 (une baisse de 99 %).
Les chercheurs ont analysé 7 000 ans de données provenant de
carottes de sédiments de la région côtière du sud de la France et ont découvert
que les tempêtes violentes étaient plus fréquentes pendant le refroidissement
global, y compris le petit âge glaciaire, que pendant les périodes de
réchauffement climatique, comme la période de réchauffement
médiéval. Voir papier .
Le GIEC suggère que le réchauffement pourrait entraîner davantage
d'inondations et de courants d'air. Il n'y a aucune raison pour qu'un
monde plus chaud ait plus d'inondations et de courants d'air. Il n'y a pas
de tendance à l'augmentation des crues ou des courants d'air. L'indice
Palmer Dought maintenu par la NOAA ne montre aucune
tendance des inondations ou des sécheresses aux États-Unis, comme indiqué
ci-dessous.
Les années 1930 et 1950 ont été très sèches aux
États-Unis. Nous avons de la chance que le climat soit tellement meilleur
maintenant.
Pederson et al. ont constaté que les
sécheresses de la fin du petit âge glaciaire étaient plus graves et de plus
longue durée que celles des 20e et 21e siècles . Des climats plus frais ont produit
des conditions plus extrêmes dans de nombreuses régions du
monde. Voir ici .
Woodhouse et al. a
publié une perspective de 1 200 ans des sécheresses du sud-ouest de l'Amérique
du Nord : « La période médiévale a été caractérisée par une sécheresse
généralisée et régionalement sévère et soutenue dans l'ouest de l'Amérique du
Nord. Les données indirectes documentant la sécheresse indiquent des périodes
séculaires d'aridité accrue dans le centre et l'ouest des États-Unis. la sécheresse récente, jusqu'à présent, n'est rien en
comparaison hydrologique.". Voir ici .
Le graphique ci-dessous montre la proportion de la planète en
sécheresse, par intensité, 1982-2012. Le graphique provient du Système
mondial intégré de surveillance et de prévision de la sécheresse (GIDMaPS), qui fournit des informations sur la sécheresse basées sur plusieurs indicateurs de
sécheresse. Le système fournit des informations météorologiques et
agricoles sur la sécheresse basées sur plusieurs
satellites et des ensembles de données sur les précipitations et l'humidité du
sol basés sur des modèles. Le Do correspond à une sécheresse légère, D1 à
une sécheresse modérée, D2 et D3 à une sévérité croissante, D4 à
une sécheresse extrême. Il y a une légère tendance à la baisse des
sécheresses totales tout au long de la période. Voir ici .
L'activité solaire était élevée pendant les périodes
médiévales et modernes. Une énergie solaire élevée peut entraîner des
périodes de sécheresse plus intenses et n'a rien à voir avec les émissions de
CO 2 .
Le réchauffement est bon
pour la santé
Les avantages pour la santé d'une planète plus chaude sont
plusieurs fois supérieurs à tout effet nocif. Les effets positifs de la
chaleur sur la santé ont été bien documentés au cours du dernier quart de
siècle. Les premières études de Bull (1973) et Bull et Morton (1975a,b) en Angleterre et au Pays de Galles, par exemple, ont
démontré que même des changements normaux de température sont généralement
associés à des changements inverses des taux de mortalité, en
particulier chez les personnes âgées. Autrement dit, lorsque les
températures augmentent , les taux de
mortalité diminuent , tandis que
lorsque les températures baissent ,
les taux de mortalité augmentent .
Les spéculations sur l'impact potentiel du réchauffement continu
sur la santé humaine se concentrent souvent sur les maladies transmises par les
moustiques. Les modèles élémentaires suggèrent que des températures
mondiales plus élevées augmenteront leurs taux de transmission et étendront
leurs aires géographiques. Cependant, l'histoire de trois de ces maladies
- le paludisme, la fièvre jaune et la dengue - révèle que le climat a rarement
été le principal déterminant de leur prévalence ou de leur étendue. Les
activités humaines et leur impact sur l'écologie locale ont généralement été
beaucoup plus importants. Il est donc inapproprié d'utiliser des modèles
basés sur le climat pour prédire la prévalence future.
Le Dr Benny Peiser écrit : « Rien qu'en
Europe et en Russie, plus de 100 000 personnes meurent en moyenne chaque année
à cause des températures froides pendant les mois d'hiver. Il dit que les
sociétés modernes sont devenues beaucoup plus résistantes aux extrêmes climatiques
grâce à l'accès à la climatisation et à l'amélioration des soins de santé.
Le Dr Peiser écrit : « Les principaux
experts médicaux britanniques ont calculé qu'une augmentation de la température
moyenne de deux degrés Celsius au cours des 50 prochaines années augmenterait
les décès liés à la chaleur en Grande-Bretagne d'environ 2 000 – mais réduirait
les décès liés au froid d'environ 20 000. En d'autres termes, la diminution du
nombre de décès liés au froid serait beaucoup plus importante (d'un facteur 10)
que les décès liés à la chaleur dus à la hausse des températures. par d'autres chercheurs. Ils estiment qu'un réchauffement de
2,5 degrés Celsius réduirait le taux de mortalité annuel de 40 000 rien qu'aux
États-Unis tout en réduisant les coûts médicaux de près de 20 milliards de
dollars par an. Voir ici . Rapports
de Statistique Canada décès par mois. Le graphique
ci-dessous montre les décès par jour pour chaque mois au Canada en moyenne sur
les années 2007-2011.
Le graphique montre que le taux de mortalité en
janvier est supérieur de plus de 100 décès/jour à celui d'août. Les
maladies liées au froid comme la grippe, les accidents sur les routes
verglacées font de l'hiver une période dangereuse.
Agriculture et changement
climatique
Une petite baisse de température diminuerait la durée
de la saison de croissance et entraînerait une forte baisse de la superficie
arable dans les climats nordiques. À l'inverse, le réchauffement
allongerait la saison de croissance et augmenterait la superficie propice à
l'agriculture.
La carte ci-dessous montre la principale zone actuelle de
production de blé au Canada et la réduction qui résulterait d'une baisse de 1
et 2 degrés Celsius de la température moyenne de surface.
Source .
Les rendements du maïs, du blé et du riz aux
États-Unis ont augmenté avec les températures. Les rendements du maïs ont
augmenté de 130 % depuis 1960, voir ici .
Le graphique ci-dessous montre les rendements de maïs des
principaux pays producteurs par rapport à la température mensuelle moyenne du
mois le plus chaud de la saison de croissance.
Le graphique montre une mauvaise corrélation entre le
rendement et la température parce que d'autres facteurs comme la technologie et
les précipitations sont plus importants, mais il y a une augmentation
insignifiante du rendement avec des températures plus élevées. Rien
n'indique que des températures plus élevées entraîneraient une baisse des
rendements des cultures. Les données de rendement du maïs sont ici . Le maïs et d'autres cultures
sont disponibles dans une variété de souches qui poussent mieux dans différents
climats. Les agriculteurs sélectionnent la variété qui pousse le mieux
dans leur climat. Certains auteurs alarmistes rapportent que des
températures plus élevées réduiraient les rendements de souches particulières,
entraînant une réduction des rendements mondiaux des cultures. Mais en
réalité, les agriculteurs sélectionneraient simplement une autre souche de
culture en réponse à un changement climatique, de sorte qu'il n'y aurait pas
d'impact significatif sur les rendements mondiaux des cultures.
Le graphique ci-dessous, préparé par le Dr Roy Spencer, montre les
rendements mondiaux croissants de blé, de soja et de maïs de 1960 à
2011. Il montre que les rendements (production par superficie) suivent une
tendance linéaire à la hausse depuis au moins 50 ans et ne montrent aucune
corrélation significative avec les températures. Source .
Effets de réchauffement
sur les animaux
Les températures plus élevées et les concentrations de
CO 2 améliorent la croissance des
plantes, en particulier des arbres. Cela augmente l'habitat disponible
pour de nombreux animaux. La plupart des études scientifiques montrent une
augmentation de la biodiversité presque partout sur Terre qui n'est pas limitée
par la destruction de l'habitat en réponse au réchauffement climatique et à l' enrichissement en CO 2 atmosphérique.
L'alarmiste du réchauffement climatique a choisi l'ours polaire
comme animal d'affiche. Le magazine Time a dit à ses lecteurs qu'ils devraient
s'inquiéter de l'extinction des ours polaires. Cependant, les données ne
justifient pas les raisons de s'inquiéter. Dans la région de la baie de
Baffin entre l'Amérique du Nord et le Groenland, les températures ont baissé et
la population d'ours polaires a diminué. Dans la région de la mer de
Beaufort, la température a augmenté, tout comme la population d'ours
polaires. Dans d'autres régions, la population d'ours polaires est restée
stable. Ainsi, la tendance des populations d'ours polaires par rapport à
la température a été à l'opposé de ce que Time laisserait croire à ses
lecteurs.
L'ouest de l'Arctique s'est récemment réchauffé en raison de
l'oscillation décennale du Pacifique, qui modifie périodiquement le climat de
l'ouest de l'Arctique en modifiant les courants océaniques. Ces cycles se
sont déroulés sur des milliers d'années. Il n'existe aucune preuve
suggérant que les ours polaires et les systèmes de conservation qui les
régissent ne s'adapteront pas et ne répondront pas aux nouvelles conditions. Les
ours polaires ont survécu à de nombreux cycles climatiques
similaires. Voir ici pour un article du Dr Mitchell
Taylor, biologiste de l'ours polaire.
Les fossiles d'ours polaires ont été datés de plus de cent mille
ans, ce qui signifie que les ours polaires ont déjà survécu à une période
interglaciaire où les températures étaient considérablement plus chaudes
qu'elles ne le sont actuellement et où, très probablement, les niveaux de glace
de mer arctique en été étaient également bas.
Les scientifiques canadiens ont résumé les diverses estimations
des populations d'ours polaires lors d'une réunion internationale en 1965 comme
suit :
« Scott et al. (1959) ont conclu qu'environ 2 000 à 2 500 ours
polaires existaient près de la côte de l'Alaska. Par extrapolation, ils sont
arrivés à un nombre total d'ours polaires. population
de 17 000 à 19 000 animaux. Vspensky (1961) a estimé
la population mondiale d'ours polaires à 5 000 à 8 000 animaux. Harington
(1964) ... estime que la population mondiale d'ours polaires dépasse largement
10 000. "
En 1993, le communiqué de presse du Polar Bear Specialist
Group notait: "L'état des connaissances sur les
sous-populations individuelles varie de bon à presque rien." Ensuite,
il a déclaré que "la population mondiale d'ours polaires se situerait
entre 21 000 et 28 000 environ". En 2005, le groupe a rapporté
"Le nombre total d'ours polaires dans le monde est estimé à 20 000-25
000". En 2013, il a été signalé qu'il y avait maintenant 22 600 à 32
000 ours polaires dans le monde, lorsqu'ils étaient comptés par
nation. Voir ici . Le groupe de spécialistes de
l'ours polaire de l'Union internationale pour la conservation de la nature
(UICN) a signalé en mai 2011 qu'il n'y avait aucun changement dans la
population d'ours polaires au cours de la dernière période de quatre ans étudiée. La population d'ours polaires est
apparemment plus du double de celle des années 1960.
ici par le Dr Susan Crockford
sur la base des données du groupe de spécialistes de l'ours polaire UICN/SSC.
Le Dr Crockford écrit: "Ce qui est évident, c'est que la population
mondiale d'ours polaires n'a pas diminué au cours des 30 dernières
années".
Le CO 2 augmente la
croissance des plantes et des forêts
Le CO 2 est un engrais majeur pour les plantes. L'augmentation
des émissions de CO 2 a entraîné une augmentation des
rendements des cultures et une croissance plus rapide des plantes et des
forêts, verdissant ainsi la planète. Les estimations varient, mais quelque
part autour de 15% semble être le chiffre commun cité pour l'augmentation des
rendements mondiaux des cultures vivrières due à la fertilisation aérienne avec
une augmentation du dioxyde de carbone depuis 1950. Cette augmentation a à la
fois permis d'éviter une catastrophe malthusienne et de préserver ou de
restituer d'énormes étendues de des terres marginales comme habitat faunique
qui, autrement, auraient dû être mises sous la charrue pour tenter de nourrir
la population mondiale croissante. Les producteurs commerciaux génèrent délibérément
du CO 2et augmenter ses niveaux dans les serres
agricoles entre 700 ppm et 1 000 ppm pour augmenter la productivité et
améliorer l'efficacité de l'eau des cultures vivrières bien au-delà de celles
de l' atmosphère quelque peu affamée de CO 2 . Le CO 2 nourrit les forêts, produit plus de
bois utilisable dans les lots de bois, ce qui signifie qu'il y a moins de
pression pour couper les vieilles forêts ou pousser dans l'habitat faunique
"naturel", rend les plantes plus économes en eau, aidant à repousser
les déserts envahissants en Afrique et en Asie et augmente généralement
bio-productivité. Voir Efficacité
de l'utilisation de l'eau (espèces agricoles) -- Résumé dans CO 2 Science.
Une étude majeure (Zhu 2016) menée par 32 auteurs de huit pays a
révélé une augmentation généralisée du verdissement de plus de 25 % à 550
de la surface végétalisée mondiale, avec le CO 2effet de fertilisation expliquant 70% de
la tendance au verdissement observée. Les feuilles vertes produisent des
sucres qui sont la source de nourriture, de fibres et de carburant pour la vie
sur Terre. Le réchauffement climatique depuis 1982 explique 8% de la
tendance au verdissement, principalement dans les hautes latitudes et le
plateau tibétain. L'étude a utilisé trois enregistrements d'indices
satellites de surface foliaire pour déterminer les tendances de verdissement et
a utilisé des modèles écosystémiques pour répartir les tendances de verdissement
au cours de la période 1982-2009 entre quatre facteurs
clés. L'augmentation de la végétation est considérablement plus importante
que ce que suggéraient les études précédentes. L'auteur principal, le Dr Zaichun Zhu, a déclaré : « Le verdissement au cours des 33
dernières années équivaut à l'ajout d'un continent vert d'environ deux fois la
taille de la partie continentale des États-Unis (18 millions de km 2 ) ». Pour plus de détails voir
le résumé et les commentairespar Nic Lewis. La carte ci-dessous
montre la variation en pourcentage de la surface foliaire de 1982 à 2015.
Un article de Donohue
et al ,
publié en mai 2013, constate que "les observations satellitaires,
analysées pour supprimer l'effet des variations des précipitations, montrent
que la couverture dans les environnements [chauds et arides] a augmenté de
11 %. Nos résultats confirment que le CO prévu 2 , l'effet de fertilisation se produit
parallèlement aux perturbations anthropiques en cours du cycle du carbone et
que l'effet de fertilisation est désormais un processus de surface terrestre
important. » La conclusion de l'article indique : « Les observations
satellitaires et terrestres des parcours du monde révèlent des changements
généralisés vers des paysages à végétation plus dense et plus boisés. Nos
résultats suggèrent que l'augmentation du CO 2les concentrations dans l'atmosphère ont
joué un rôle important dans cette tendance au verdissement et que, là où l'eau
est la limite dominante à la croissance, la couverture a augmenté en proportion
directe avec l' augmentation de l'efficacité
d'utilisation de l'eau de la photosynthèse induite par le CO 2 .
Changements estimés du couvert végétal dus à la
fertilisation au CO 2 entre 1982 et 2010 (Donohue et al.,
2013 GRL).
Réponse de la croissance
du peuplier faux-tremble à l'augmentation du CO 2 et de la température
Jurik et al. (1984) ont exposé des
feuilles de peuplier faux-tremble à des concentrations atmosphériques de
CO 2 de 325 ppm et 1935 ppm et ont mesuré
leurs taux de photosynthèse à différentes températures. À 25 °C, où le
taux net de photosynthèse des feuilles exposées à 325 ppm de CO 2 est maximal, le CO 2 supplémentaire de cette étude a
augmenté le taux net de photosynthèse du feuillage de près de 100 % ; et à
36°C, où le taux photosynthétique net des feuilles exposées à 1935 ppm de
CO 2 est maximal, le CO 2 supplémentaire a augmenté le taux
photosynthétique net du feuillage d'un énorme 4550. Ces résultats sont
similaires à des études sur de nombreuses autres plantes.
Réponse de la croissance
des jeunes pins Eldarica au CO 2
De jeunes pins Eldarica ont
été cultivés pendant 23 mois sous quatre concentrations de CO 2 puis abattus et pesés. Chaque
point représente un arbre individuel. Les poids des parties d'arbre sont
indiqués. Voir ici .
Réponse du rendement du
blé au CO 2
Ce graphique montre la réponse du blé cultivé dans des
conditions humides et lorsque le blé a été stressé par le manque d'eau. Il
s'agissait d'expériences en plein champ. Le blé a été cultivé de la
manière habituelle, mais les concentrations atmosphériques de CO 2 des sections circulaires des champs
ont été augmentées au moyen de réseaux d'équipements contrôlés par ordinateur
qui libéraient du CO 2 dans l'air pour maintenir les
niveaux spécifiés. Les augmentations moyennes induites par le CO 2 pour les deux années étaient de 10 %
pour les conditions humides et de 23 % pour les conditions sèches.
Puisque le CO 2 atmosphérique est la "nourriture"
de base de presque toutes les plantes, plus il y en a dans l'air, mieux elles
fonctionnent et plus elles deviennent productives. Pour une augmentation
de 300 ppm du CO 2 de l'atmosphèresupérieure au niveau de base actuel de la planète
d'un peu moins de 400 ppm, par exemple, la productivité des plantes herbacées
terrestres augmente d'environ 30 % (Kimball, 1983 ; Idso
et Idso, 1994), tandis que la productivité de ses
plantes ligneuses plantes augmente de quelque chose de l'ordre de 550 (Saxe et al.,
1998 ; Idso et Kimball, 2001). Ainsi, à mesure
que la teneur en CO 2 de l'air continue d'augmenter, la
capacité de production ou l'efficacité de l'utilisation des sols de la planète
continue également d'augmenter, car l'effet de fertilisation aérienne de la
tendance à la hausse du CO 2 atmosphériquela concentration augmente les taux de
croissance de presque toutes les plantes. Une étude de 2003 utilisant 18
ans (1982 à 1999) d'observations par satellite montre que la production
végétale primaire nette mondiale a augmenté de 6 % sur 18 ans. La plus
forte augmentation a été enregistrée dans les écosystèmes tropicaux. Les
forêts tropicales amazoniennes ont représenté 42 % de l'augmentation mondiale
de la production primaire nette. Voir ici .
Il a été démontré de manière concluante que des niveaux élevés de
CO 2 atmosphérique stimulent la
productivité et la croissance des plantes. Une étude d'Idos publiée
par CO 2 Science montre le bénéfice monétaire de
l'effet fertilisant du CO 2 atmosphérique de quarante-cinq
cultures qui ont fourni 95% de la production alimentaire mondiale totale sur la
période 1961-2011 .La valeur monétaire totale annuelle de cet
avantage est passée de 22,7 milliards de dollars en 1961 à plus de 170
milliards de dollars en 2011, soit une somme totale de 3,9 billions de dollars
sur la période de 50 ans 1961-2011, le tout en dollars américains de
2016. Voir l'étude de CO 2 Science ici .
La population mondialeest de 7,9 milliards et augmente de 1,18% par
an. Les gens auront besoin de plus en plus de nourriture et davantage
d'écosystèmes naturels seront perdus au profit des cultures et des
pâturages. La perte d'habitat qui en résulte peut entraîner l'extinction
d'espèces si les rendements des cultures n'augmentent pas de manière
significative. Malheureusement, le taux d'augmentation des rendements des
cultures diminue à mesure que les cultures approchent des limites de rendement
génétique. L'augmentation des rendements des cultures sur les terres
agricoles existantes aiderait à préserver les terres pour la nature. Si
les rendements des cultures n'augmentent pas, les humains subiront des famines
plus fréquentes. Heureusement, l'augmentation du CO 2augmentera considérablement les rendements
des cultures et est essentielle pour prévenir ou retarder la destruction de
l'habitat et des espèces animales, et peut nous permettre de produire
suffisamment de produits agricoles pour nourrir la population croissante. Toute
action entreprise par nous pour ralentir ou inverser l'augmentation de la
concentration de CO 2 dans l'air peut entraîner des
famines et des extinctions d'espèces plus fréquentes.
Voir Sciences
du CO 2 .
Protocole de Kyoto - Mauvaise affectation
des fonds
De tous les problèmes majeurs du monde, le changement
climatique est l'un des moins importants car les fonds dépensés pour réduire
les émissions de CO 2 auront un effet insignifiant sur le
climat. Les projections des modèles informatiques montrent que la mise en
œuvre complète du Protocole de Kyoto pourrait entraîner une réduction de la
température indétectable de 0,06 degrés Celsius d'ici 2050 pour un coût d'environ
1 000 000 000 000 $ US. Voir ici . (Cette estimation suppose que
le soleil n'a aucun effet sur le climat. Étant donné que le soleil a un effet
majeur, l'estimation de 0,06 degrés Celsius est probablement élevée d'un
facteur de 2 ou plus.)
Le Consensus de Copenhague(dirigé par l'écologiste Bjorn Lomborg) a analysé les principaux défis auxquels le monde
est confronté et a produit une liste hiérarchisée d'opportunités répondant à
ces défis. Les soumissions de 24 ambassadeurs des Nations Unies et autres
diplomates de haut rang ont été examinées par des économistes et ont déterminé
que la priorité absolue pour relever les grands défis mondiaux serait donnée
aux maladies transmissibles, à l'assainissement et à l'eau, à la malnutrition
et à l'éducation. Au bas de la liste des 40 catégories se trouvaient les
problèmes liés au changement climatique et au protocole de Kyoto.
Réchauffement sur d'autres planètes
Si le Soleil est le principal moteur du changement
climatique, il faut s'attendre à voir des preuves du réchauffement récent sur d'autres
planètes. Comme la Terre s'est réchauffée au cours des 100 dernières
années, Jupiter, Neptune, Mars et Pluton se sont également réchauffés.
Jupiter est la plus grande planète du
système solaire. Sa caractéristique la plus distinctive est la grande
tache rouge, qui est une énorme tempête qui fait rage depuis plus de 300
ans. Une nouvelle tempête, appelée Red Spot Jr. s'est récemment formée à
partir de la fusion de trois tempêtes de forme ovale entre 1998 et 2000. Les
dernières images du télescope spatial Hubble suggèrent que Jupiter est au
milieu d'un changement global qui peut modifier les températures en jusqu'à 10
degrés Fahrenheit sur différentes parties du globe. La nouvelle tempête a
monté en altitude au-dessus des nuages environnants, ce qui
signale une augmentation de la température. Voir ici de Space.com.
Neptune est la planète la plus éloignée du Soleil
(Pluton est maintenant une planète naine) et orbite autour du Soleil à 30 fois
la distance du Soleil à la Terre.
Réchauffement de Neptune
Dans le récent article, Hammel
et Lockwood, du Space Science Institute du Colorado
et de l'Observatoire Lowell, montrent que Neptune devient plus brillante depuis
1980 environ ; de plus, les mesures infrarouges de la planète depuis 1980
montrent que la planète s'est réchauffée régulièrement de 1980 à 2004.
Dans la figure, (a) représente la lumière visible corrigée de
Neptune de 1950 à 2006 ; (b) montre les anomalies de température de la
Terre; (c) montre l'irradiance solaire totale en pourcentage de variation
par année; (d) montre l'émission ultraviolette du Soleil. Toutes les
données ont été corrigées des effets des saisons de Neptune, des variations de
son orbite, de l'inclinaison apparente de l'axe vu de la Terre, de la distance
variable de Neptune à la Terre et des changements dans l'atmosphère près de
l'observatoire Lowell.
Voir ici
pour plus d'informations .
Il existe également des preuves solides du réchauffement
climatique sur la plus grande lune de Neptune, Triton, qui s'est
considérablement réchauffée depuis que le vaisseau spatial Voyager l'a visitée
en 1988. La tendance au réchauffement provoque la transformation de la surface
gelée d'azote gazeux de Triton en gaz, ce qui rend son atmosphère plus
dense. Voir ici .
Réchauffement de Mars
Une étude récente montre que Mars se réchauffe quatre
fois plus vite que la Terre. Mars se réchauffe en raison de l'activité
solaire accrue, ce qui augmente les tempêtes de poussière. Les auteurs de
l'étude dirigée par Lori Fenton, scientifique planétaire à la NASA, affirment
que la poussière fait que l'atmosphère absorbe plus de chaleur, provoquant une
rétroaction positive. Les températures de l'air à la surface de Mars ont
augmenté de 0,65 °C (1,17 F) entre les années 1970 et les années
1990. La glace résiduelle sur le pôle sud martien, notent-ils, a
régulièrement reculé au cours des quatre dernières années. Des images de
spectromètre thermique de Mars prises par la mission Viking de la NASA à la fin
des années 1970 ont été comparées à des images similaires recueillies plus de
20 ans plus tard par le Global Surveyor.
La calotte polaire de Mars
Voir ici et ici pour plus d'informations.
Réchauffement de Pluton
La planète rétrogradée Pluton subit également un
réchauffement selon les astronomes. La pression atmosphérique de Pluton a
triplé au cours des 14 dernières années, indiquant une hausse des températures
alors même que la planète s'éloigne du Soleil. Voir ici pour plus d'informations.
Une vérité qui dérange
Le film d'Al Gore "Une vérité qui dérange"
(AIT) est grossièrement trompeur sur le changement climatique. Presque
toutes les déclarations majeures faites dans le film sont unilatérales,
exagérées ou carrément fausses. Ce film a eu un effet important sur
l'opinion publique même si la plupart des scientifiques s'accordent à dire
qu'il est trompeur.
Certains des problèmes avec AIT sont:
• Implique qu'au cours des 650 000
dernières années, les changements dans les niveaux de dioxyde de carbone ont
largement provoqué des changements dans la température mondiale, alors que la
causalité va principalement dans l'autre sens, les changements de CO 2 suivant les changements de
température mondiale de centaines à de milliers d'années. Ne mentionne
jamais que les températures mondiales ont été plus chaudes qu'aujourd'hui au
cours de chacune des quatre dernières périodes interglaciaires, même si les niveaux
de CO 2 étaient plus faibles.
• Présente des images montrant ce que 20 pieds d'élévation du
niveau de la mer feraient aux principales communautés côtières du
monde. Il n'y a aucune preuve crédible d'un effondrement imminent des
grandes calottes glaciaires. Nous disposons d'assez bonnes données sur les
changements du bilan de masse des glaces et leurs effets sur le niveau de la
mer. Le scientifique de la NASA Jay Zwally et
ses collègues ont découvert une élévation combinée du niveau de la mer de la
perte de glace du Groenland et de l'Antarctique équivalente à 0,05 mm par an
entre 1992 et 2002. À ce rythme, il faudrait un siècle pour élever le
niveau de la mer de seulement 5 mm.
• Présente la reconstruction en bâton de hockey de l'historique
des températures de l'hémisphère Nord utilisée par le GIEC, selon laquelle les
années 1990 ont probablement été la décennie la plus chaude du dernier
millénaire. Il est maintenant largement reconnu que le bâton de hockey a
été construit sur une méthodologie erronée et des données inappropriées.
• Suppose une relation linéaire entre les niveaux de CO 2 et les températures globales, alors
que l'effet de réchauffement réel du CO 2 est logarithmique, ce qui signifie
que chaque augmentation de 100 ppm des niveaux de CO 2 ajoute moins de réchauffement que
l'augmentation précédente de 100 ppm. Une augmentation de 100 ppm à 600
ppm augmente les températures de 63 % d'une augmentation de 100 ppm à 400 ppm.
• Affirme que le taux de réchauffement climatique s'accélère,
alors que le taux a été constant au cours des 30 dernières années jusqu'en
2002, environ 0,17 °C par décennie, et aucun réchauffement de 2002 à 2014.
• Allégations selon lesquelles le lac Tchad en Afrique du Nord
s'assèche en raison du réchauffement climatique. Le lac est la source
d'eau de 20 millions de personnes et sa profondeur moyenne n'est que de 1,5 à
4,5 mètres. Il a en fait été sec plusieurs fois dans le passé : en 8500
avant JC, 5500 avant JC, 2000 avant JC et 100 avant JC. Le lac a rétréci
en raison de l'expansion rapide de la population puisant l'eau du lac, de
l'introduction de technologies d'irrigation et du surpâturage local. Ces
causes ne sont ni globales ni liées au réchauffement et sont totalement
indépendantes du CO 2 . En outre, l'Afrique, en tant que
continent, a connu une évolution spectaculaire vers un temps plus sec à la fin
du 19ème siècle qui n'est généralement pas attribué au CO 2 .
• détourne l'attention du principal problème des ouragans auquel
sont confrontés les États-Unis : la concentration toujours croissante de la population
et des richesses dans les régions côtières vulnérables, qui est en partie une
conséquence de l'assurance fédérale contre les inondations et d'autres
subventions politiques.
• Blâme le réchauffement climatique pour le déclin depuis les
années 1960 de la population de manchots empereurs en Antarctique, ce qui
implique que les manchots sont en péril, leur nombre diminuant à mesure que le
monde se réchauffe. En fait, la population a diminué dans les années 1970
et est stable depuis la fin des années 1980.
• N'explique jamais pourquoi quiconque devrait s'inquiéter du
réchauffement actuel de l'Arctique, étant donné que nos ancêtres de l'âge de
pierre ont survécu et ont probablement bénéficié du réchauffement beaucoup plus
fort et plus long de l'Arctique connu sous le nom d'optimum climatique de
l'Holocène.
• Présente la projection d'un modèle climatique d'augmentation de
la sécheresse aux États-Unis comme faisant autorité, même si un autre modèle de
premier plan prévoit une augmentation de l'humidité. Les prévisions
hydrologiques des modèles climatiques à l'échelle régionale sont notoirement
peu fiables. La plupart des États-Unis, en dehors du sud-ouest, sont
devenus plus humides entre 1925 et 2003.
• Le réchauffement climatique est responsable du nombre record de
typhons qui ont frappé le Japon en 2004. Les conditions météorologiques
locales, et non les températures mondiales moyennes, déterminent la trajectoire
de tempêtes particulières, et les données remontant à 1950 ne montrent aucune
corrélation entre l'activité des tempêtes du Pacifique Nord et les températures
mondiales.
• Les allégations selon lesquelles le réchauffement climatique met
en danger les ours polaires même si les populations d'ours polaires augmentent
dans les zones arctiques où elles se réchauffent et diminuent dans les zones
arctiques où elles se refroidissent. En fait, 11 des 13 principaux groupes
au Canada sont prospères, et il est prouvé que les seuls groupes qui ne
prospèrent pas se trouvent dans une région de l'Arctique qui s'est
refroidie. Les ours polaires ont survécu à l'optimum climatique de
l'Holocène et à la période chaude médiévale, les deux périodes étaient
nettement plus chaudes que le climat actuel.
• Avertit qu'un doublement des niveaux préindustriels de CO 2 à 560 ppm acidifiera tellement l'eau
de mer que toutes les zones optimales pour la construction de récifs coralliens
disparaîtront d'ici 2050. Ce n'est pas plausible. Les taux de
calcification des coraux ont augmenté à mesure que les températures océaniques
et le CO 2les niveaux ont augmenté et les principaux
constructeurs de récifs d'aujourd'hui ont évolué et prospéré au cours de la
période mésozoïque, lorsque les niveaux de CO 2 atmosphérique ont plané au-dessus de
1 000 ppm pendant 150 millions d'années et ont dépassé 2 000 ppm pendant
plusieurs
millions d'années.
• Blâme le réchauffement climatique pour la résurgence du
paludisme au Kenya, même si plusieurs études n'ont trouvé aucun lien climatique
et attribuent le problème à la diminution de la pulvérisation des maisons avec
du DDT et à la résistance aux médicaments antipaludiques.
• Réclamations que 2004 a établi un record absolu pour le nombre
de tornades aux États-Unis. La fréquence des tornades n'a pas
augmenté ; au contraire, la détection de petites tornades a
augmenté. Si l'on considère les tornades détectables depuis de nombreuses
décennies (catégorie F-3 ou plus), il y a en fait une tendance à la baisse
depuis 1950.
• Cite Tuvalu, Polynésie, comme un endroit où la montée du niveau
de la mer oblige les habitants à évacuer leurs maisons. En réalité, le
niveau de la mer à Tuvalu a chuté au cours de la seconde moitié du XXe siècle et même au cours des années
1990.
• Néglige de mentionner que le réchauffement climatique pourrait
réduire la sévérité des tempêtes hivernales aussi appelées tempêtes frontales
car leur énergie provient des collisions de masses d'air (fronts) en diminuant
le différentiel de température entre les masses d'air en collision.
• Ignore le rôle important de la variabilité naturelle dans le
climat de l'Arctique, ne mentionnant jamais que les températures de l'Arctique
au cours des années 1930 ont égalé ou dépassé celles de la fin du 20e siècle , ou que l'Arctique au début et au
milieu de l'Holocène était nettement plus chaud qu'il ne l'est aujourd'hui.
• Ignore une étude réalisée par Curt Davis, professeur à
l'Université du Missouri, qui a révélé un gain global de masse de glace
antarctique au cours de la période 1992-2003.
• Néglige de mentionner que les satellites de la NASA montrent une
tendance au refroidissement de l'Antarctique de 0,11°C par décennie depuis
1978.
• Appelle le dioxyde de carbone comme le gaz à effet de serre le
plus important. La vapeur d'eau et les nuages sont les
principaux contributeurs et représentent plus de 70 % de l'effet de serre.
• A affirmé que la calotte glaciaire du mont Kilimandjaro est en
train de disparaître en raison du réchauffement climatique, bien que les
mesures par satellite ne montrent aucun changement de température au sommet.
Ceci n'est qu'une liste partielle d'erreurs,
d'omissions et d'exagérations. Voir ici pour en savoir plus sur le Competitive Enterprise Institute et ici pour un article répertoriant 35
erreurs dans AIT par Christopher Monckton de Brenchley.
La décision du gouvernement britannique de distribuer le film
"Une vérité qui dérange" dans les écoles a fait l'objet d'une action
en justice. La Haute Cour britannique a conclu que le film était faux ou
trompeur à 11 égards.
Pour que le film soit projeté, la Haute Cour a statué en octobre
2007 que les enseignants devaient faire comprendre à leurs élèves que :
1.) Le film est une œuvre politique et ne promeut
qu'un côté de l'argument.
2.) Neuf inexactitudes doivent être spécifiquement
portées à l'attention des écoliers.
Les inexactitudes sont répertoriées ici .
Al Gore et le GIEC ont partagé le prix Nobel de la paix 2007
"pour leurs efforts visant à accumuler et à diffuser une plus grande
connaissance sur le changement climatique d'origine humaine et à jeter les
bases des mesures nécessaires pour contrer ce changement". Irena Sendler a été considérée pour le prix pour avoir sauvé 2500
enfants et nourrissons du ghetto nazi de Varsovie et des camps d'extermination
pendant la Seconde Guerre mondiale. Elle n'a pas été
sélectionnée. Voir son histoire ici .
Avertissements de refroidissement global
Nigel Weiss, professeur émérite au Département de
mathématiques appliquées et de physique théorique de l'Université de Cambridge,
explique que tout au long de l'histoire de la Terre, le changement climatique a
été provoqué par des facteurs autres que l'homme : "Le comportement
variable du soleil est une explication évidente", explique le Dr. Weiss,
"et il y a de plus en plus de preuves que le climat de la Terre réagit aux
modèles changeants de l'activité magnétique solaire." Les caractéristiques
magnétiques les plus évidentes du soleil sont les taches solaires, formées
lorsque les champs magnétiques traversent la surface du soleil. "Si
vous regardez en arrière dans le passé du soleil, vous constatez que nous
vivons dans une période d'activité solaire anormalement élevée", déclare
le Dr Weiss. Ces périodes d'hyperactivité ne durent pas longtemps,
"peut-être 50 à 100 ans, puis vous obtenez un crash", explique le Dr
Weiss. 'C'est un système de boom-bust,
Personne ne sait exactement quand un crash se produira, mais
certains s'y attendent bientôt, car le champ polaire du soleil est maintenant
au plus faible depuis le début des mesures au début des années
1950. Certains prédisent le crash d'ici cinq ans, et beaucoup spéculent
sur son effet sur le réchauffement climatique. Plusieurs autorités mettent
désormais en garde contre un refroidissement global car le soleil est entré
dans une période calme.
Politique de confidentialitéPolitique de cookies
[MT1]De nombreux chercheurs contestent l’utilisation de moyennes de températures que la physique interdit puisque la température est une grandeur intensive et non extensive mais de nombreuses études justifient cette pratique en rappelant que les effets des températures peuvent l’être voir sur le site kin152.fr
[MT2]Tel que décrit ici, l’effet de serre ne tient pas compte des effets de la compression et de la détente dus à la convection !
[MT3]Même remarque, ce 33°C n’est du qu’en très faible portion aux gaz « dits à effet de serre » En effet la gravité impose un gradient de pression verticale qui, compte tenu de la convection se traduit par une différence de température entre le sol et le sommet de la troposphère qui explique la totalité de l’écart !
[MT4]Le GIEC ne définit pas l’effet de serre par une différence de température mais par une différence de flux radiatif entre celui émis par le sol vers l’atmosphère et celui émis par la Terre vers le cosmos. Il y a là un abus de langage !
[MT5]Ce qui ne signifie pas que les grandes longueurs d’ondes montantes disparaissent mais signifie que celles qui continuent ne viennent plus du sol mais des émissions propres de l’atmosphère qui émet selon sa température locale !
[MT6]Ces commentaires sur ces calculs ne tiennent pas compte du fait que si les radiations venues du sol sont absorbées, celles émises par l’atmosphère localement compte tenu de sa température continuent ! Dans cette gamme de fréquence le sol vu de plus haut n’est plus visible dans les fréquences absorbées !
[MT7]L’échancrure par son incomplétude montre bien que le haut de l’atmosphère émet à sa propre température dans la gamme de longueur d’onde absorbée et que l’expression absorption à 1OO% ne signifie pas absence totale d’émission vers le haut !
[MT8]Le GIEC pourrait définir l’effet de serre comme la différence de température moyenne au sol qu’aurait la Terre sans atmosphère mais avec le même albédo et celle qu’elle a avec son atmosphère actuelle. Mais pour le GIEC c’est la différence entre les valeurs du flux émis par la surface et du rayonnement sortant qui est dite « effet de serre » par le GIEC, malgré l’absence de lien physique direct entre eux
[MT9]Cette façon de voir les phénomènes élimine la prise en compte des effets de la convection qui sont à l’origine par la pression au sol du gradient de température mesuré sur tous les corps telluriques du système solaire !
[MT10]Les données historiques sont celles qui démontrent le mieux l’innocence des facteurs humains dans l’évolution du climat et la responsabilité de nombreuses causes naturelles qu’il faut maintenant analyser.
[MT12]Les bras de la galaxie sont en fait des ondes circulaires qui rapprochent ou éloignent localement les corps célestes les uns des autres.
[MT13]La condensation se faisant plus bas, les températures y sont plus élevées donc l’atmosphère rayonne là plus d’énergie vers le cosmos de plus, au-dessus il n’y a plus d’eau pour l’absorber. Ce sont les chaleurs latentes et sensibles de l’eau qui se condense qui s’échappent.
[MT14]MÖRNER dit aussi qu’un changement de volume des eaux de mer et océan par dilatation due à la température n’a pas d’influence sur le niveau de l’eau sur les côtes car la variation de profondeur serait proportionnelle à la profondeur locale. Ceci étant due à la gravité.