Journée du 13 novembre 2015 | ||
---|---|---|
Précédent | Chapitre 1. Conférences Formaterre 2015 | Suivant |
Julien Cattiaux (Météo-France)
Le lien vers la vidéo et le diaporama synchronisé.
Résumé :
« Vous avez vu ce temps ? Jamais connu un épisode pareil... Encore la faute du changement climatique ! ». Si cette rengaine paraît familière, c'est qu'elle accompagne régulièrement chaque événement météorologique remarquable, qu'il soit « spectaculaire » par ses impacts, et/ou « extrême » selon des critères statistiques. Depuis la canicule européenne dévastatrice de l'été 2003, le réchauffement global s'est ainsi vu imputer nombre de vagues de chaleur, sécheresses, inondations, cyclones, tempêtes, et même... vagues de froid. Il n'est d'ailleurs pas rare d'entendre qu'en climat plus chaud, « il y aura plus d'extrêmes ». Cet exposé reviendra sur les bases physiques du changement climatique actuel, et dressera l'état de l'art des connaissances scientifiques sur l'évolution de différents types d'événements extrêmes météorologiques, en prenant soin de décoder les messages parfois trop simplistes relayés au grand public.
Synthèse et rapport coordonné par le Giec crée en 1998 par l'ONU et l'OMM. Ce sont des connaissances scientifiques qui suivent la procédure peer-reviewied.
Un extrême est un événement météo: exemple la canicule de 2003 T° moy au mois août 31.5° les autres années autour de 25° c'est un événement rare. Le climat est l'ensemble des météos possibles, un extrême est dans la queue de l'histogramme.
La normale est défini sur 1981/2010, la météo n'est jamais sur la normale, c'est la variabilité climatique.
Rayonnement et énergie : tout corps émet un rayonnement , il suit la loi de Stephan, tout corps tend à équilibre son énergie
Système Terre Atmosphère -Océan -continent - cryosphère
Effet de serre : la figure de référence est celle du GIEC
Bilan énergétique en déséquilibre entre l'équateur et le pôle est à l'origine des climats sur Terre
Représenter le système climatique : on sépare les différentes composantes et on les décrit par les lois physiques , on discrétise les équations sur une maille, on considère les interactions et on lui donne l'énergie qui entre.
Base de données CMIP5
premier modèle de climat dans les années 1960 et diversification et maillage plus fin.
On confronte le modèle à la réalité et il y a une bonne adéquation de premier ordre sur la Terre
Le bilan énergie peut être équilibré avec un climat qui bouge , il y a des fluctuations de l'ordre de 0.4° , c'est la variabilité interne à toute les échelles espace et temps.
3 paramètres entrent en jeu :
So quantité NRJ solaire par mètre alpha = albédo ( en fonction de la composition atmosphère) et ensuite sur le flux IR donc Te (température émission )
So augmente quand le soleil envoie plus d'énergie et varie à différentes échelles de temps longue ( 10 000 à 1 million année = changement paramètre orbitaux période glaciaire et inter glaciaire) échelle plus courte ( de la dizaine à centaine année = activité solaire période 11 ans )
Alpha : Albédo. Si alpha augmente, on réfléchit plus donc la température de surface diminue en cause les aérosols sources naturelles liés aux éruptions volcaniques qui atteignent la stratosphère, feux de forets, tempête de sable ou encore d'origine anthropique. Cependant les aérosols ont une durée de vie courte et sont lessivés par la pluie
Te: dépend de la composition de l'atmosphère. Si on ajoute GES, l'altitude d'émission s'élève donc te diminue et donc température renvoyée sur Terre est plus grande.
On mesure les concentrations des GES à durée longue donc CO2, CH4, et N2O et donc l'effet de serre additionnel
Le cycle saisonnier du CO2 lié à la respiration des plantes avec une augmentation récente qui atteint 398 ppm, à l'époque préindustrielle 280 ppm et à l'époque interglaciaire 180ppm époque glaciaire
Évolution de tous les forçages: forçage solaire (11 ans ), anthropique GES , volcanisme ( sur 1 ou 2 ans qui abaisse la température), aérosols si on fait la somme elle correspond aux GES anthropiques.
Il y a donc une modification du bilan énergétique dues aux rétroactions principalement positives ( H2O augmente le forçage initial, la glace qui fond moins réfléchissant, les nuages également ) Si on double la concentration en CO2 la température s'élève de 1.2°
Cet excès d'énergie se répartit un peu partout mais principalement dans les océans car leur masse et leur capacité calorifique est la plus grande. Le système s'échauffe mais il s'est arrêté il y a 17 ans donc on peut faire deux erreurs: trop petite période de temps et Temap n'est pas le seul indicateur .
L'incertitude majeure est le choix du scénario. Fonte des glaces et de banquise dans le
RCP 8.5 et la libération de CH4 par les sols.
A quoi s'attend -t-on dans un monde plus chaud et pour un événement quelle est la probabilité de l’événement ?
Extrêmes de température : 2003 à la queue de l'histogramme aujourd'hui se retrouverait au milieu de la distribution. La forme de la distribution peut aussi changer mais en second ordre avec plus d'extrêmes. En 30 ans, on voit le décalage vers des températures plus élevés .
Cet événement est du au changement climatique, c'est faux car c'est un événement météo on peut estimer cependant la probabilité d’occurrence. Dans un monde naturel sans GES anthropique, la probabilité aurait divisée par 4. Dans 10 ans la probabilité est X40 mais avec une petite probabilité au départ.
Extrême hydrologique: cycle hydrologique va s'intensifier, les zones tropicales subissent une augmentation des précipitation et une diminution en zone désertique. les précipitation intenses seront également encore plus intenses : plus d'épisodes cévenoles et pour les sécheresses , augmentation probable en méditerranée
Pour les cyclones ; baisse ou constant mais en revanche ils seraient plus puissants ( intensité des vents et des précipitations ) pour les tempêtes pas de signaux non plus
Conclusion:
Le climat est la distribution de probabilité de la météo, il est piloté par des grands équilibres physiques, les activité humaines perturbent l'équilibre énergétique, changer le climat c'est modifier l'ensemble des météos possibles
Camille Risi (LSCE)
Le lien vers la vidéo et le diaporama synchronisé.
Résumé :
Les projections climatiques présentées dans les rapports du GIEC sont basées sur des simulations avec des modèles numériques de climat. Comment fonctionnent ces modèles? Quelles sont leurs sources d'incertitudes? Dans quelle mesure se sont-ils améliorés ses dernières années et quels sont les pistes d'amélioration pour les années à venir? Qu'est-ce qui est robuste et moins robuste dans les projections qu'ils produisent? Comment évalue-t-on la crédibilité de ces projections? Dans quelle mesure peut-on tester leur réalisme sur des variations climatiques passées? C'est à ces questions que nous essaierons de répondre. Puis nous présenterons le logiciel pédagogique de simulation du climat SimClimat. Quelles sont les différences par rapport aux modèles de climat utilisés dans les rapports du GIEC. Quels sont les avantages et les limitations d'un tel modèle?
Centré autour d'un modèle atmosphère tridimensionnelle en résolvant les équations de la mécaniques de fluides sur une grille de 100 à 300 km de coté donc les grands mouvements de l'atmosphère mais pas les phénomènes plus petits orages et donc les événements plus petits sont représentés de façon statistiques et non de manière explicite.
Les autres composantes introduisent le modèle océan, le modèle banquise, le modèle continent.
Les entrées du modèle sont les forçages: les forçages liés à l'utilisation des sols, les GES anthropiques mais aussi ceux naturels.
Les projections sont conditionnées à un scénario d'émission socio économique donc on n'est pas dans la prévision.
Le modèle est complexe, il tourne sur des supercalculateurs en plusieurs mois. Il simule toute la météo pour un paramètre toutes les 10 minutes et pendant 100 ans pour les projections climatiques.
Le couplage de différentes composantes sont nécessaires, plus récemment on a introduit la végétation dynamique, les écosystèmes marins et les chercheurs souhaitent ajouter d'autres composantes comme le cycle de l'Azote, les feux de foret...
Les modèles ont également gagné en résolution spatiale en 1990 500 km en 2007 en dessous de 100 km. On peut faire des simulations très fines sur 25 km donc sur un tout petit domaine.
Modèle de circulation générale = celui du Giec, il y a des modèles plus complexes ou plus simples = modèle aquaplanètes (sans les continents par exemple) qui sont utiles pour comprendre.
Le GIEC s'appuie sur CMIP c'est à dire l'ensemble des équipes mondiales qui proposent des modèles: chaque groupe de modélisation fait des projections ou des simulations pour tester les modèles ou pour comprendre donc des modèles simplifiés.
Il y a des sources d'incertitudes autour des modèles : par exemple pour les précipitations les modèles peuvent être d'accord entre eux ou pas comme au niveau des tropiques où la discordance est grande. En revanche, tous les modèles prévoient un assèchement sur la méditerranée.
La variabilité interne d'un modèle est grande à l'échelle d'une dizaine d'année mais pas forcément sur 100 ans et dépendent donc des conditions initiales.
Pourquoi les modèles sont-ils différents ? Les sources d'incertitudes sont liées: par exemple le changement de température quand il y a une augmentation de CO2.
L'écart type entre les modèles est un bon indicateur des sources d'incertitudes: ce sont les nuages qui sont la principale source d'incertitude. En fait, certains nuages ont un effet positif pour l'effet de serre ou négatif pour l'albédo; la compensation ne se fait pas de la même façon selon les modèles et la maille est très petite donc statistique.
Quand on s’intéresse aux impacts, on fait des projections régionales : les modèles fonctionnent sur un petit domaine et on le force par un modèle global, ils simulent correctement l'impact des montagnes mais on cumule les incertitudes d' un modèle régional et celui du modèle global.
Crédibilité ? Si tous les modèles sont d'accord, il y a une certaine crédibilité si non, comment savoir le modèle le plus crédible ? C'est celui qui répond le mieux au climat actuel (liés aux observations météo : les satellites ont apporté de nombreuses informations et principalement le satellite cloud sat qui permet de voir aussi la structure 3 D des nuages )
On teste les modèles: on note les modèles; la permanence dépend de la variable (paramètre) étudiée. Le meilleur modèle correspond à la moyenne des modèles.
Les modèles du présent ne sont pas forcement les meilleurs pour le futur. On cible les process comme la rétroaction de l'albédo de la neige. c'est une contrainte imposée pour être un bon modèle.
On regarde également le modèle dans le passé : on peut forcer les modèles pour le CO2 dans le passé et si c'est correct on peut penser qu'il sera bon aussi de l'avenir. Le modèle le plus sensible dans le passé n'est pas forcément le plus adapté au réchauffement du futur.
On peut tester les modèles sur les périodes chaudes comme l’Éocène mais les données sont moins nombreuses.
Il y a 6000 ans à l'Holocène forte augmentation des précipitations = période de mousson liée à un changement de précession, on peut ainsi vérifier que les modèles sont bien adaptés pour les précipitations.
Le fonctionnement du logiciel: il est basé sur le modèle global de l'équilibre énergétique sur Terre en la considérant comme un seul point .
Ce logiciel de réaliser des simulations en tenant compte des différents scénarios proposés par le GIEC sur différentes échelles de temps, en tenant compte de différents paramètres astronomiques, des émissions de CO2, des rétroactions climatiques.
Ce logiciel peut être utilisé à différents niveaux d'enseignement:
1. au collège: on peut alors fixer les paramètres les plus complexes et travailler sur les émissions de CO2.
2. au lycée: le réglage des différents paramètres se fera par rapport à la problématique posée, le temps imparti à sa résolution et les connaissances des élèves.
Le téléchargement de ce logiciel ainsi quelques utilisations pédagogiques sont disponibles sur le site: Météo France Education