logo joomla

Embarquez avec des scientifiques, des ingénieurs et des marins pour une navigation-exploration des relations avec l'océan, le climat et les énergies marines dans la perspective du changement climatique 

 
     Glossaire
      Témoignages       Fantaisie        Qu'avons-nous lu ?       Conférences

Comment sont-ils construits et utilisés?

Olivier Talagrand, Katia Laval et Jean Pailleux

Les modèles numériques
Les principes de la modélisation numérique
Différents types de modèles numériques
La modélisation du climat
La modélisation des atmosphères planétaires
Observation et modélisation numérique

Les modèles numériques sont maintenant devenus omniprésents dans les sciences de l’atmosphère et de l’océanIls sont utilisés quotidiennement dans les services météorologiques pour la production de leurs prévisions. Ils ont fourni les "projections" sur lesquelles le Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) a fondé, dans ses rapports successifs, l’essentiel de ses conclusions quant à l’évolution future du climat. Ils sont aussi utilisés pour de nombreux travaux de recherche.

Que sont exactement ces modèles, qui paraissent un peu mystérieux à beaucoup, même parmi ceux qui possèdent un réel bagage scientifique ? Comment sont-ils construits et utilisés ? Et surtout, quel crédit peut-on accorder aux résultats qu’ils produisent ? C’est à ces questions que cette note, qui s’adresse à des lecteurs informés mais nullement spécialistes, cherche à donner des éléments de réponse.

Les modèles numériques sont des logiciels pour ordinateurs qui calculent l’évolution de l’écoulement atmosphérique ou océanique à partir d’un état de départ donné. Ils ont été conçus à l’origine, à la fin des années 1940, au moment du développement des premiers calculateurs électroniques, pour servir à la prévision météorologique. Et c’est à cette application qu’ils restent aujourd’hui principalement utilisés. Pour donner une première idée de ce dont ils sont maintenant capables, la figure 1 présente une prévision effectuée par le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, voir encart ci-dessous.

 

Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT)

Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, en anglais European Centre for Medium-Range Weather Forecasts, ECMWF, https://www.ecmwf.int/) est un organisme international installé à Reading, en Grande-Bretagne. Sa mission première est de fournir des prévisions météorologiques aux États membres, mission qu’il assure quotidiennement depuis 1980. Outre deux prévisions quotidiennes de base à échéance de quinze jours, il produit des prévisions d’ensemble, destinées à quantifier l’incertitude sur la prévision aux différentes échéances. Il produit aussi d’autres types de prévisions (prévisions saisonnières, prévision des vagues sur l’océan).

Le CEPMMT fournit également différents services aux États membres et à la communauté internationale. Il gère plusieurs composantes du programme Copernicus d’observation de la Terre, soutenu par l’Union Européenne. Il produit aussi des réanalyses d’observations passées, c’est-à-dire des descriptions détaillées de l’évolution quotidienne de l’écoulement atmosphérique, obtenues à l’aide des modèles et des systèmes d’assimilation actuels. L’analyse ERA-Interim, qui commence en 1979, est maintenue à jour en permanence.

Il effectue en outre, en liaison avec des groupes de recherche européens ou non, des recherches de pointe sur la prévision météorologique numérique et ses multiples applications.

Le CEPMMT est formellement un service commun aux services météorologiques des États membres. En novembre 2018, il compte 22 États membres de plein droit et 12 États associés.

 

La carte du haut présente l’état de l’atmosphère sur l’Atlantique Nord et l’Europe Occidentale le 20 septembre 2018, à 00:00 UTC.
Les quantités représentées sont la pression au niveau de la mer (isolignes blanches) et le géopotentiel (c’est-à-dire, à un coefficient multiplicatif près, l’altitude) de la surface isobare 500 hPa, qui sépare l’atmosphère en deux couches de même masse (plages de couleur).

L’une et l’autre de ces deux quantités (dont, comme on peut le voir, les variations spatiales sont similaires) décrivent les structures de grande échelle de la circulation atmosphérique, structures dont la formation, l’amplification, le déplacement, les interactions mutuelles éventuelles et la disparition finale gouvernent la météorologie des latitudes moyennes.

L’état du 20 septembre a servi de point de départ à une prévision à 8 jours d’échéance effectuée par le modèle du CEPMMT. L’état ainsi prévu est présenté sur la carte intermédiaire, et l’état réel correspondant sur la carte inférieure. La similarité entre ces deux derniers états, et leur différence commune avec l’état de départ de la prévision, sont absolument évidentes. C’est là un exemple typique de ce qu’est à l’heure actuelle une bonne prévision.

Figure 1. Un exemple de prévision à 8 jours effectuée par le modèle du CEPMMT.
Haut : état initial de la prévision (20 septembre 2018, 00 :00 UTC).
Milieu : prévision pour le 28 septembre 2018, 00:00 UTC.
Bas : état réel correspondant à la prévision.
Isolignes du champ de pression au niveau de la mer (en blanc).
Géopotentiel de la surface isobare 500 hPa (en plages de couleur).
Source : meteociel.fr.

La figure 2, relative elle aussi au géopotentiel à 500 hPa, présente l’évolution de la qualité des prévisions produites par le CEPMMT depuis 1981.

La quantité représentée en ordonnée est un coefficient de corrélation statistique qui mesure les performances comparées de deux prévisions : d'une part la prévision produite par le modèle, d'autre part une prévision «climatologique» qui consisterait à prévoir pour demain et les jours qui suivent l'état climatologique moyen pour le jour considéré. Cette corrélation prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision climatologique. Plus elle est élevée, et plus la prévision du modèle est bonne.

Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance.
Pour chacune de ces échéances, deux courbes, séparées par une bande de couleur, montrent la corrélation sur les hémisphères boréal (courbe du haut) et austral (courbe du bas) respectivement.

On voit sans surprise que la qualité des prévisions décroît à mesure que l’échéance augmente. Mais surtout cette qualité a augmenté depuis 1981, à toutes échéances, de façon quasi-systématique. Les prévisions à 5 jours sont maintenant meilleures que les prévisions à 3 jours en 1981, et les prévisions à 7 jours meilleures que les prévisions à 5 jours. Cette amélioration progressive est due à l’augmentation du nombre des observations, et à l’amélioration de la qualité du modèle de prévision lui-même. On voit aussi que la qualité des prévisions dans l’hémisphère austral, inférieure à l’origine à celle des prévisions de l’hémisphère boréal, lui est devenue égale à partir de l’année 2000 environ. Cela est dû à l’accroissement du nombre des observations satellitaires, qui couvrent également les deux hémisphères, tandis que les observations au sol sont beaucoup plus nombreuses dans l’hémisphère boréal.

Figure 2. Variation au cours du temps de la qualité des prévisions du géopotentiel à 500 hpa effectuées par le CEPMMT (voir explications dans le texte)
(source : ecmwf.int).

L’"effet papillon" bien connu nous dit que l’écoulement atmosphérique est chaotique, en ce sens qu’une petite incertitude sur l’état initial de l’écoulement peut conduire rapidement à une grande incertitude sur la prévision. Sans discuter plus avant cet aspect important, les figures ci-dessus montrent que des progrès sont encore réalisés dans la qualité des prévisions.

Les principes de la modélisation numérique

Les modèles numériques sont fondés sur les lois physiques qui régissent le monde macroscopique, familières à tout étudiant en physique, et dont personne ne doute qu’elles régissent, en particulier, les mouvements de l’atmosphère.

Ce sont :

  • la loi de conservation de la masse,
  • de conservation de la quantité de mouvement (loi de Newton), qui définit comment le mouvement d’une particule fluide répond au forces mécaniques qui lui sont appliquées,
  • la loi de conservation de l’énergie, qui définit comment l’énergie interne d’une particule fluide (ici, sa température) varie du fait de ses échanges avec le milieu environnant.

L’approche sous-jacente aux modèles est bien fondée au départ sur ces lois physiques de base. Elle n’est en particulier pas fondée, comme on pourrait se le demander, sur l’ajustement empirique de multiples coefficients destinés à permettre une simulation réaliste de l’écoulement.
Pour ce qui est de la prévision météorologique, une autre approche pourrait parfaitement être envisagée : rechercher dans le passé des situations analogues à celle du jour, et fonder la prévision sur ce qui a suivi ces situations analogues. Cette approche n’est pas utilisée, pas plus que toute approche qui serait fondée sur l’exploitation des observations passées : on sait que l’échantillon statistique fourni par les archives météorologiques est beaucoup trop limité pour permettre des prévisions de la qualité des modèles numériques actuels. Nous sommes en outre dans une période de variation rapide du climat, ce qui diminue d’autant la valeur de ces archives météorologiques pour l’étude éventuelle de situations présentes.

Le principe sur lequel est construit un modèle numérique est simple, et d’ailleurs très général dans l’étude numérique d’écoulements fluides de toutes natures. Le volume de l’atmosphère est divisé en mailles (Figure 3), à l’intérieur de chacune desquelles on définit les quantités d’intérêt météorologique.
Sous l’hypothèse hydrostatique faite actuellement pour la prévision météorologique à grande échelle (et expliquée plus bas), ces quantités sont les deux composantes du vent horizontal, la température et le contenu de l’air en humidité. Des quantités complémentaires sont définies au niveau du sol ou de la surface de l’océan, dont la pression, la température de la surface et, dans le cas du sol, le contenu en eau. L’évolution de toutes ces quantités est ensuite évaluée pas à pas, dans chaque maille.

Pour ce qui est par exemple de la température de l’air, tous les processus jugés pertinents sont pris en compte :

  • échauffement ou refroidissement résultant de compression ou de détente adiabatique,
  • absorption du rayonnement solaire et du rayonnement infrarouge émis par les autres couches atmosphériques ou le milieu sous-jacent (océan ou sol solide),
  • émission propre de rayonnement infrarouge,
  • conduction de chaleur depuis le milieu sous-jacent,
  • émission ou absorption de chaleur latente associée aux changements de phases de l’eau (évaporation ou condensation).

À cela s’ajoute l’apport par l’écoulement lui-même d’air de température différente venant des mailles voisines. Un bilan similaire, effectué pour chacune des variables dans chacune des mailles du modèle, permet de calculer de proche en proche l’évolution de l’ensemble de l’écoulement sur la durée de la prévision.

Figure 3. Représentation schématique d’un Modèle de Circulation Atmosphérique (L. Fairhead, LMD/IPSL)

Les modèles constituent donc une formulation numériquement utilisable des lois physiques qui régissent l’écoulement. Cette formulation est nécessairement approchée, et donc imparfaite. Dans la version actuelle du modèle du CEPMMT (novembre 2018), la distance horizontale entre deux mailles est d’environ 9 km, et la direction verticale est divisée en 137 niveaux, s’étendant jusqu’à une altitude de 80 km. Cela conduit à environ 900 millions de mailles, et environ 4 milliards de variables dont l’évolution est explicitement calculée. Le pas temporel correspondant est de 450 secondes.

Les spécialistes distinguent dans leur jargon la "dynamique" d’un modèle de sa "physique".

La "dynamique" décrit comment le mouvement évolue sous l’effet des forces mécaniques et de la rotation de la Terre.

La "physique" décrit les effets radiatifs et de conduction thermique, les effets de viscosité et de frottement et, aussi, tous les aspects du cycle de l’eau.

En simplifiant, la dynamique décrit les processus thermodynamiquement réversibles, et la physique les processus irréversibles. On inclut dans la seconde la description de l’effet des processus d’échelle inférieure à la maille du modèle, non résolus par celui-ci. Ces processus influent néanmoins sur les processus explicitement résolus, et leur effet statistique est représenté par ce qu’on appelle les paramétrisations sous-maille. La définition et la validation de ces paramétrisations est l’un des problèmes importants de la modélisation numérique.

La dynamique, construite sur des lois physiques parfaitement connues, est décrite de façon considérée désormais comme totalement sûre (même si des recherches actives sont toujours menées pour améliorer par exemple l’efficacité numérique des algorithmes, ou bien élargir leur degré de généralité). Il n’en est pas de même de la physique, qui est d’ailleurs constamment enrichie par l’introduction de nouveaux processus (effets des lacs et nappes d’eau, interactions avec la végétation, ruissellement des eaux de surface et souterraines, …). Contrairement à la dynamique, la physique contient, en ce qui concerne par exemple les effets radiatifs des nuages ou les interactions avec la végétation, de nombreuses formulations empiriques ou phénoménologiques, qui ne découlent pas directement de la physique de base. Et c’est d’ailleurs bien en ce qui concerne la physique, et en particulier le cycle complexe de l’eau, que les modèles actuels sont les plus limités et leurs prévisions les moins précises. L’expérience quotidienne nous montre que les précipitations sont plus difficiles à prévoir que la pression au sol, même si la seconde est indispensable à la prévision des premières.

Différents types de modèles numériques

L’approximation hydrostatique sur laquelle sont construits les modèles utilisés actuellement pour la prévision météorologique à grande échelle stipule simplement que la pression en tout point est proportionnelle à la masse de fluide située au-dessus de ce point. Elle est valide quand l’accélération verticale du fluide est négligeable devant la gravité. Du fait de la présence dans l’atmosphère de mouvements convectifs intenses, mais localisés, qui transportent des quantités d’énergie importantes vers les couches élevées de l’atmosphère, l’approximation hydrostatique perd sa pleine validité pour des échelles horizontales inférieures à 20 km environ.

Des modèles non hydrostatiques ont donc été développés pour représenter les échelles plus fines. Ils permettent, entre autres, de simuler explicitement les phénomènes convectifs, mais leur coût élevé ne leur permet de couvrir à ce jour qu’une aire limitée de la surface terrestre. Météo-France a ainsi développé le modèle AROME (Applications de la Recherche à l'Opérationnel à Méso-Echelle), non-hydrostatique, qui couvre la France métropolitaine et les régions avoisinantes avec une résolution spatiale horizontale de 1,3 km, 90 niveaux dans la direction verticale, et est intégré plusieurs fois par jour à une échéance allant jusqu'à 48 h. Les modèles non hydrostatiques à haute résolution permettent une prévision beaucoup plus précise des phénomènes météorologiques intenses. Mais ils exigent par contre, du fait de leur aire limitée, la définition de conditions aux limites latérales appropriées. Ces conditions aux limites sont extraites d’un modèle de plus grande échelle. Le CEPMMT travaille au développement d’un modèle non-hydrostatique global.

D’autres modèles encore servent à la prévision de l’océan en tant que tel. Ils sont fondés, mutatis mutandis, sur les mêmes principes que les modèles atmosphériques. De même que l’eau, par ses effets radiatifs et thermodynamiques, est un composant essentiel de la circulation atmosphérique, le sel, par les variations de densité qu’il entraîne, est un composant essentiel de la circulation océanique. Les échéances de prévisibilité, qui se comptent en jours pour l’atmosphère, se comptent plutôt en mois pour l’océan. L’état interne de l’océan, qui est opaque à toute forme de rayonnement électromagnétique, est beaucoup moins bien observé et connu que celui de l’atmosphère. Le programme français Mercator produit chaque jour des prévisions de l’état de l’océan global à une résolution spatiale de 1/12° et à échéance de 9 jours (donc courte pour l’océan ; voir le bulletin Mercator Océan pour les différents produits mis en ligne dans le cadre de ce programme).

Aux échéances mensuelles ou saisonnières, les interactions entre l’atmosphère et l’océan ne peuvent plus être ignorées. Ces interactions mutuelles sont à l’origine de phénomènes spécifiques, comme le phénomène El Niño bien connu, qui n’existeraient pas dans l’un ou l’autre milieu isolément. Des modèles couplés ont donc été progressivement développés, qui produisent d’ores et déjà des prévisions utiles à l’échéance saisonnière.

De nombreux modèles numériques ont été développés à d’autres fins : dispersion de traceurs ou de polluants, hydrologie, chimie atmosphérique. La plupart de ces modèles sont utilisés en association avec un modèle purement atmosphérique ou océanique, qui leur fournit les conditions physiques permettant de représenter les processus spécifiques qu’ils doivent simuler.

La modélisation du climat

Même si c’est la prévision à échéance relativement courte, nécessitant en particulier une définition précise de conditions initiales appropriées, qui a été à l’origine de la modélisation numérique de l’atmosphère, celle-ci a trouvé dès la fin des années 1960 une autre utilisation, qui suscite à l’heure actuelle beaucoup plus de questions et d’interrogations, quelquefois dubitatives. Il s’agit de la simulation du climat et de la prévision de son évolution à long terme.

Des Modèles de Circulation Générale (MCG) ont ainsi été développés à partir des modèles météorologiques, sans modification des principes sur lesquels ceux-ci étaient construits. Mais il a fallu pour cela développer des composantes nouvelles, qui ont en retour bénéficié à la prévision météorologique. La différence la plus importante résulte de ce que l’effet des océans doit être pris en compte, plus encore qu’aux échéances mensuelles ou saisonnières, aux échéances climatiques.
Les Modèles de Circulation Générale sont couplés, en ce qu’ils décrivent explicitement la circulation de l’océan et de l’atmosphère et leurs interactions mutuelles. Ils sont intégrés sur des périodes de temps (décennies ou plus) beaucoup plus longues que celles des prévisions météorologiques, et la quantité de calculs nécessaire impose une résolution spatiale beaucoup plus grossière. Une autre différence importante résulte de ce que l’on n’est pas intéressé dans l’étude du climat à l’état de l’atmosphère à un instant particulier, mais à des quantités statistiques (moyennes, variances, corrélations mutuelles, … ) calculées sur plusieurs années ou plus. On estime que ces quantités statistiques, prises sur de longues périodes, sont indépendantes de l’état initial de l’intégration. Contrairement donc à ce qui se passe pour les prévisions météorologiques, on ne cherche pas à définir aux modèles climatiques des conditions initiales très précises. Un état climatique moyen initial est souvent considéré comme suffisant.

À titre d’exemple de ce que peuvent produire les Modèles de Circulation Générale, la Figure 4 présente le champ de température de l’air à la surface de la Terre, moyennée sur une année. La carte du haut montre le champ observé, la carte du bas le champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace. On voit que, s’il existe des différences, les variations spatiales des températures, en latitude, mais aussi entre les continents et les océans, sont très similaires.

Figure 4. Champ de température de l’air à la surface de la terre, moyenné sur une année.
Haut : champ observé.
Bas : champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace (J.-L. Dufresne, LMD/IPSL)

Les simulations climatiques servent en particulier à effectuer les "projections" présentées et discutées dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC ; le cinquième de ces rapports a été publié en 2013-2014, la publication du prochain est prévue pour 2022 ; un rapport spécial a été récemment publié en octobre 2018).
La question de la prévision du climat a été traitée brièvement dans la FAQ : Les modèles climatiques ont-ils une valeur prédictive?

La figure 5, extraite du dernier rapport du GIEC, présente des comparaisons entre les observations relatives à la période 1910-2010 et des simulations issues de modèles.

Figure 5. Comparaison d’observations et de simulations numériques sur la période 1910-2010. Sur chacune des sous-figures, la courbe pleine représente les observations, les bandes de couleur bleue et rouge clair le résultat de simulations numériques effectuées respectivement sans et avec le forçage anthropique (détails dans le texte).
Figure extraite du cinquième Rapport d’évaluation du GIEC.

Les observations, représentées par des courbes pleines sur chacune des sous-figures, portent :

  • sur la température de surface pour les régions continentales (fond jaune),
  • le contenu thermique superficiel pour les régions océaniques (dénoté OHC, fond bleu),
  • et l’extension des glaces pour les océans polaires (fond blanc).

On remarque tout d’abord que la température et le contenu thermique de l’océan ont augmenté dans toutes les régions, surtout depuis 1960 (à la seule exception de l’Océan Austral, dont le contenu thermique a diminué depuis la fin des années 1990).
L’extension des glaces a diminué sur l’Océan Arctique, tandis qu’elle est restée stable sur l’Océan Antarctique.

Les simulations numériques sont représentées par les bandes de couleur :

  • bleues pour des simulations ne prenant en compte que les forçages naturels agissant sur l’atmosphère (tels que les éruptions volcaniques),
  • rouge clair pour des simulations prenant en compte, outre les forçages naturels, l'augmentation des gaz à effet de serre tel que le dioxyde de carbone (CO2) et aux autres gaz émis par les activités humaines (la largeur de chaque bande de couleur indique la dispersion entre les différents modèles numériques utilisés).

On voit que (à la seule exception de l’Océan Antarctique, où l’on n’a de toute façon observé aucune évolution significative) les modèles numériques simulent toujours beaucoup mieux la réalité observée quand l’effet de serre anthropique est pris en compte. Ce résultat, outre qu’il conforte l’idée que les modèles numériques sont capables de simuler la structure thermique de l’atmosphère et de l’océan superficiel, conforte aussi l’idée que l’échauffement récent du climat est dû pour l’essentiel à l’effet de serre anthropique.

Cela étant, il reste une marge d’incertitude, visible dans la largeur des bandes de couleur de la Figure 5. Une étude détaillée montre que les désaccords entre les résultats produits par les différents modèles viennent de leur "physique", et particulièrement du cycle de l’eau. Et encore plus précisément, pour ce qui est du cas présent des projections climatiques, de la représentation de l’effet radiatif des nuages. Comme dans le cas de la prévision météorologique, les faiblesses des modèles numériques résident beaucoup plus dans leur "physique" que dans leur cœur dynamique. Le cycle de l’eau, en particulier, et les flux d’énergie qui lui sont associés, restent assez mal connus, et mal représentés dans les modèles. C’est par la combinaison d’acquisition et d’analyse d’observations, de travaux théoriques, et d’expériences de simulations appropriées, que l’on pourra continuer à améliorer cet aspect des modèles numériques.

La modélisation des atmosphères planétaires

Une autre preuve du niveau de qualité physique atteint par les Modèles de Circulation Générale est fournie par les atmosphères extra-terrestres.
Trois des différents objets du Système Solaire, Vénus, Mars et Titan (un satellite de Saturne), possèdent une atmosphère similaire à celle de la Terre : une couche mince à la surface d’un corps solide, recevant du Soleil l’essentiel de son énergie.

Les Modèles de Circulation Générale terrestres ont été adaptés à ces différents objets en en modifiant les paramètres pertinents :

  • dimension de la planète,
  • taux de rotation,
  • flux solaire incident,
  • masse et composition de l’atmosphère
  • propriétés thermiques du gaz atmosphérique,
  • etc.

Dans chacun de ces trois cas, et sans qu’il ait été nécessaire de recourir à des modifications non justifiées par ce que l’on sait de la physique, les modèles ont produit un régime de circulation atmosphérique et une structure thermique en bon accord, et quelquefois même en excellent accord, avec les observations disponibles.

La Figure 6 présente le champ de température martien, moyenné en longitude, à l’équinoxe de printemps boréal.
La partie supérieure montre la température observée par l’instrument Mars Climate Sounder, qui est resté en orbite autour de Mars pendant plusieurs années à partir de 2006.
La partie inférieure montre la température produite par le modèle de circulation martienne développé à partir du modèle terrestre du Laboratoire de Météorologie Dynamique.
On voit que la structure des deux champs de température est très similaire. L’atmosphère martienne est constituée pour l’essentiel de dioxyde de carbone, et elle est de ce fait le siège d’un effet de serre important. La similarité des deux champs de température montre que le modèle est capable de simuler l’effet de serre avec succès. Une remarque similaire s’applique à l’atmosphère de Vénus, elle aussi constituée pour l’essentiel de dioxyde de carbone, mais beaucoup plus massive que les atmosphères terrestre et martienne. L’effet de serre y est la cause d’une augmentation de température de 400°C. Cette augmentation est reconstituée par les modèles de circulation, de même que le régime de circulation dynamique qui lui est associé.

Figure 6. Champ de température de l’atmosphère martienne, moyenné en longitude dans un plan méridien, à l’équinoxe de printemps boréal.
La coordonnée horizontale est la latitude, la coordonnée verticale la pression.
Partie supérieure : champ de température observé par l’instrument Mars Climate Sounder.
Partie inférieure : champ de température produit par le modèle de circulation martienne développé au Laboratoire de Météorologie Dynamique (F. Forget, LMD/IPSL).

En dehors de ces diverses applications, toutes destinées à simuler et étudier une atmosphère réelle, la modélisation numérique est aussi utilisée à l’étude de processus spécifiques, menée dans des situations de simplification plus ou moins idéalisées. On peut citer par exemple l’étude de la convection thermique, de la formation des dépressions des latitudes moyennes ou bien encore de la formation et de l’évolution des cyclones tropicaux. Ces études de processus sont extrêmement instructives, et aident beaucoup à la compréhension des multiples aspects de la dynamique et de la thermodynamique de l’atmosphère et de l’océan.

La modélisation numérique de l’écoulement atmosphérique, même si la possibilité en avait été anticipée dès le début du XXe siècle, est née, on l’a dit plus haut, avec les premiers ordinateurs électroniques (voir Le changement climatique : histoire et enjeux, Chapitre V : De nouveaux outils bouleversent le paysage scientifique, pour une histoire des débuts de la modélisation numérique). Et ses progrès, particulièrement en ce qui concerne la prévision météorologique, ont toujours suivi de près la croissance de la puissance des ordinateurs : l’augmentation de la résolution spatiale des modèles, quand elle était possible dans les contraintes imposées par les conditions opérationnelles, a toujours résulté à ce jour en une amélioration de la qualité des prévisions (bien entendu, toutes les autres composantes du système de prévision, comme les algorithmes numériques, la représentation des processus sous-maille, l’assimilation des observations, ont toujours été continûment améliorées en parallèle avec l’augmentation de la résolution spatiale). Mais la croissance de la puissance des ordinateurs commence à diminuer et, sauf nouvelle révolution technologique qui pourrait relancer cette croissance (on parle régulièrement d’ordinateurs quantiques), le jour viendra où l’on ne pourra plus compter sur l’augmentation de la puissance de calcul pour améliorer les modèles numériques. Cela modifiera significativement, sinon la science fondamentale elle-même, du moins le travail quotidien des chercheurs.

Observation et modélisation numérique

Pour reprendre une remarque souvent faite, la modélisation numérique ne remplacera jamais l’observation, qui est à la base même de la science. Mais elle vient en sus de l’observation, en lui ajoutant la formulation, explicite et quantifiée, des lois physiques qui lui sont sous-jacentes. La modélisation est extrêmement utile à l’observation, et d’abord en ce qu’elle aide souvent à définir ce qui doit être observé. Toutes les campagnes de mesures atmosphériques sont maintenant précédées de simulations numériques destinées à identifier les quantités les plus pertinentes à observer. Tout projet de mise en œuvre d’un nouvel instrument d’observation (porté par satellite par exemple) est précédé d’expériences de simulation, dans lesquelles des observations virtuelles similaires à ce qu’on attend de l’instrument envisagé sont introduites dans l’intégration d’un modèle numérique. L’impact des observations virtuelles sur, par exemple, la qualité d’une prévision météorologique est ainsi quantifié. Ces expériences ne produisent certes pas des résultats parfaitement fiables (elles conduisent en général à des conclusions qui se révèlent a posteriori trop optimistes quant à l’impact des nouvelles observations), mais elles n’en sont pas moins extrêmement utiles, en indiquant dans quelles directions il faut améliorer les systèmes d’observation.

Ensuite, la modélisation permet de tirer un plein profit des observations disponibles. Un excellent exemple en est fourni par la définition des conditions initiales des prévisions météorologiques numériques. De très nombreuses observations, satellitaires ou non, sont effectuées chaque jour sur l’atmosphère, dont la nature, la distribution spatio-temporelle, la résolution et la précision sont extrêmement variables. Ces observations (plus de 107 par période de 24 heures) doivent être "synthétisées" pour en tirer la description la plus exacte possible de l’état de l’écoulement atmosphérique à l’instant initial de la prévision. Cela est obtenu en combinant les observations avec un modèle numérique dans un processus appelé assimilation. L’assimilation des observations, construite sur des algorithmes puissants progressivement développés en parallèle avec la modélisation elle-même, est maintenant devenue une composante essentielle de la prévision météorologique : les grands centres de prévision, tels que le CEPMMT ou Météo-France, consacrent autant de ressources de calcul à assimiler 24 heures d’observations qu’à effectuer 10 jours de prévision à haute résolution.

L’observation et la modélisation numérique, en ce qui concerne au moins l’atmosphère, sont désormais intimement liées. Chacune des deux perdrait beaucoup d’intérêt et d’utilité si l’autre n’existait pas.

La modélisation numérique de l’écoulement atmosphérique s’est progressivement développée à partir de son objectif premier, la prévision météorologique. Une représentation réaliste de l'océan et de multiples processus a été ajoutée au fil des années dans les différents modèles utilisés pour des applications diverses.

Dans le vaste cadre de la prévision climatique, des Modèles du Système Terre sont maintenant développés : ces modèles simulent, en plus des mouvements de l’atmosphère et de l’océan, leurs interactions avec la végétation et la cryosphère, les réservoirs d’eau divers, et avec les cycles de différentes espèces chimiques (dont particulièrement le dioxyde de carbone).
Le jour approche où ils seront associés à des modèles de la production industrielle et agricole, et peut-être ultérieurement à des modèles des circuits économiques. À l’heure où la question de l’influence des activités humaines sur l‘environnement est devenue cruciale et soulève de multiples problèmes, la modélisation numérique constitue, et constituera certainement encore longtemps, un outil central pour l’étude et, espérons-le, la solution de ces problèmes.

Voir aussi les FAQs :

Quelle est la différence entre «météorologie» et «climatologie»?

Les modèles climatiques ont-ils une valeur prédictive?

Sauvegarder
Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner