Menu déroulant

Les News

Mois de Décembre 2013

1/1 Énergie Thermique des Mers, que s'est-il passé en 2013 ?

Dès les années 2000, le Club des Argonautes tenta de promouvoir, en France, les énergies marines. Son action porta plus particulièrement sur la production d'électricité par Énergie Thermique des Mers (ETM, OTEC en anglais) et sur la climatisation par l'eau de mer (SWAC).

Conduite d'eau Georges ClaudeEn effet, la ressource en eau froide profonde provenant des plongées d'eau froide et salée qui se produisent au nord et au sud de l'Atlantique tapisse presque tout le plancher océanique (à l'exception de mers semi-fermées comme la Méditerranée).

Ainsi, parce qu’elle est froide, de l'ordre de 4 degrés et largement accessible dans tous les océans du monde à des profondeurs de 800 à 1000 m, l’eau profonde peut être associée à l’eau de surface chauffée par le soleil pour produire de l’électricité, dans la zone intertropicale, cette ressource ayant l'avantage d'être non intermittente.

Cette eau froide abondante offre aussi aux habitants des zones littorales une source possible de climatisation.

La France ayant décidé plus de 15 ans auparavant d'arrêter les recherches dans ce domaine, notre action eut peu d'écho tant auprès des services publics que des industriels, tandis que d'autres pays tels que les État Unis ou le Japon poursuivaient leurs recherches.

Depuis quelques années, la situation a changé et la France rattrape son retard. De grands groupes comme DCNS, Akuoenergy, GDF-SUEZ, et EDF s'intéressent au sujet.

On peut aussi noter que ce type d'énergie renouvelable est  désormais présent, tant dans les colloques sur les énergies marines que dans les appels d'offres publics, confer les AMI de l'ADEME et le NER 300 de la Commission Européenne.

Même si aucune installation n'est encore complètement opérationnelle dans le monde, (sans doute moins à cause de barrières technologiques sur le point d'être abaissées, qu'en raison des exigences de rentabilité), le nombre de conférences internationales et de projets à l'étude, est en croissance, ce qui confirme le regain d'intérêt sur le sujet.

En 2013, toutes les manifestions internationales sur les énergie marines incluaient l'ETM, tandis que plusieurs lui ont été exclusivement consacrées.

Citons par exemple "l'OTEC Africa conference", qui s'est tenue en Suède au mois d'octobre, organisée par OTEC Africa. C'était la première conférence de ce type. L'idée était d'amener les participants à partager leur vision sur les possibilités d'utilisation de l'ETM en Afrique, et l'objectif à moyen terme, de mettre en place des programmes de coopération sur le sujet. DCNS a présenté son activité dans le domaine.

Citons aussi un symposium au mois de septembre entre chercheurs, industriels, et organismes publics pour une discussion sur le futur de l'OTEC : industrialisation et commercialisation étaient à l'ordre du jour.  Il s'agit de  "L'International OTEC Symposium" organisé à Honolulu par la NOAA, l'OCRM et le KIOST (institut coréen) Le symposium offrit une opportunité de discussions et d'échange d'informations en vue d'identifier les futures étapes de la commercialisation de l'OTEC. DCNS et EDF participaient à cette manifestation, EDF-Renewable energy étant l'un des sponsors.

Aujourd’hui dans le monde, les pays qui investissent en recherche et développement et ont des projets à long terme dans ce domaine de l’ETM sont les États-Unis (à Hawaï notamment, avec les industriels Lockheed Martin et Makai Ocean Engineering ainsi que le centre de recherche NEHLA), le Japon (université de Saga et société Xenesys) et la France (DCNS, université de Saint Pierre de la Réunion, GDF-SUEZ, et EDF).

Echangeurs MakaiLockheed Martin et Makai travaillent depuis plusieurs années sur le projet de construction d'une usine pilote OTEC offshore de 10 MW à Hawaii. Cette usine pilote devait être opérationnelle fin 2013, et devait ensuite être étendue à une usine commerciale de 100 MW.

Difficile de savoir où en est actuellement ce projet.

Depuis 3 ans, Makai a reçu des aides de l'Office of Naval Research pour conduire des recherches sur les composants clés de l'OTEC : une turbine de 100 KW et les échangeurs, l'enjeu étant la fiabilité et la diminution des coûts.

En octobre 2013, Lockheed Martin et le groupe chinois Reignwood Group ont annoncé un projet de construction d'usine OTEC sur la côte sud de la Chine (usine pilote de 10 MW et à plus long terme 100 MW) .

Usine OTEC OkinawaAu Japon, Xenesis et Yokogawa Electric Corporation ont terminé l'installation d'une usine test OTEC de 50 kW. 

Elle est située dans l'île de Kume de l'archipel d'Okinawa au sud du Japon entre la mer de Chine orientale et l'océan Pacifique.

Dans cette région, la température de surface de l'eau est de 25-30 degrés et de 8-10 degrés à 600 m de profondeur.

Des tests et des études seront menés pendant l'année 2014 avec le soutien de l'Université de Saga.

En France, le rapport d'une mission d'étude sur les énergies marines renouvelables a été remis au gouvernement en mars 2013. Élaboré conjointement par le Conseil Général de l'Environnement et du Développement Durable, le Conseil Général de l'Économie de l'Industrie, et le Centre d’Etudes Techniques Maritimes et Fluviales de l'Énergie et des Technologies, ce rapport fait une large part à l'ETM et au SWAC.

De son coté, l'ADEME, dans le cadre des investissements d'avenir, a lancé un Appel à Manifestation d'Intérêt (AMI) sur les énergies marines. L’objectif "est d’accompagner des innovations, briques technologiques critiques et démonstrateurs, permettant de consolider la filière énergies marines renouvelables".

Les quatre filières retenues sont  :

Pour l’ETM, les projets visent exclusivement la démonstration d’échangeurs thermiques ou de CEFs.

En France, les projets en cours se situent principalement dans les départements d'Outre Mer.

Swac en GuadeloupeCe sont les installations de climatisation par l'eau froide profonde qui sont les plus avancées.

La Polynésie  a été pionnière avec la climatisation de l'Hôtel Intercontinental à Bora Bora, en service depuis 2006. Une seconde installation vient de voir le jour à l’hôtel Brando sur l’atoll de Tetiaroa. Un projet important se situe au Centre hospitalier du Taaone de Papeete.
 

En Guadeloupe, une étude de SWAC est en cours pour l’hôpital de Basse Terre.

Dans l'île de la Réunion deux projets SWAC sont effectifs, l'un pour les communes de Saint-Denis de la Réunion et de Sainte Marie piloté par GDF-Suez, l'autre concerne le groupe hospitalier Sud Réunion porté par le consortium  EDF, l’ADEME et  CHU.

PAT ETMCôté production d'électricité, DCNS a réalisé un prototype à terre ETM (PAT ETM) à Saint-Pierre de la Réunion. La suite semble incertaine car, pour une CEF de longueur proche de 1000 m, le gradient thermique à l'ile de la Réunion ne reste pas forcément supérieur à 20 degré tout au long de l'année (sachant qu'une perte de 1 degré sur ce gradient signifie une baisse de rendement proche de 15 %). Cependant les mesures réalisées quelques années auparavant qui ont  permis d'évaluer la stabilité du gradient thermique dans cette région de l'océan Indien paraissent insuffisantes (en raison de leur densité et de leur durée limitées). Une nouvelle évaluation est sans doute souhaitable.

Selon les résultats de l'appel d'offre NER 300, un projet de même nature pourrait se réaliser à la Martinique sous forme d'une usine pilote offshore de 16 MW.

DCNS et Akuo Energy viennent de monter un consortium pour construire en grandeur nature cette centrale ETM. Le but est de la roder à la fois en onshore et offshore et de l’exporter. De nombreuses îles sont éligibles à ce type d’énergie qui fonctionne en 24h/24 et 7j/7.

Par ailleurs, DCNS travaille sur les technologies critiques, la conduite d’eau froide et les échangeurs thermiques.

Que conclure ?

Des dizaines d'années de recherche sur l'ETM, notamment aux États Unis et pas encore de réalisation en vrai grandeur.

Une déception car nombre d'accords, de projets annoncés ces dernières années dans le monde n'ont pas abouti.

Un espoir : les annonces de projets se multiplient.

On peut espérer que certains se concrétiseront.

Il reste des difficultés techniques notamment pour la sûreté de fonctionnement des conduites d'eau froide, mais elles sont en voie de résolution. Le frein reste probablement l'aspect économique et l'exigence de rentabilité défavorable aux énergies renouvelables. Toutefois, cette technologie correspond à un réel besoin pour des régions tropicales insulaires où l'énergie est déjà très chère car elles ne sont pas raccordées à un réseau continental et doivent assurer leur autonomie énergétique.

La France a pris conscience qu'elle disposait d'un gisement potentiel dans ses territoires d'outre mer et qu'il existait un marché mondial.

La climatisation par l'eau froide semble avoir atteint une certaine maturité avec plusieurs unités d'exploitation dans les îles tropicales mais aussi en Europe du Nord. 

Voir aussi :

Rapport de la mission d'étude sur les énergies marines. (2013)

L'ETM à DCNS

L'OTEC chez Lockheed Martin

L'OTEC chez Makai Ocean Energy

USA Energy Department (2010)

Hawaii's next energy source could be power from the sea (2013)

Makai to present three OTEC projects at OTEC Symposium in September in Honolulu (OTEC News 2013)

OTEC Testing in Okinawa (OTEC News 2013)

Okinawa OTEC Power Initialization Ceremony

Dossier ETM du Club des Argonautes


Mois de Novembre 2013

1/1 Livre "Incertitudes sur le climat" de Katia et Guy Laval. Recension par Michel Petit

Deux scientifiques de grand renom s’attachent dans cet ouvrage original à expliquer la démarche des chercheurs sur un sujet autour duquel les livres et les polémiques ne manquent pas.

Le livre est clair et pédagogique sans pour autant être de la grande vulgarisation.

Afin de permettre à tous ceux qui s’interrogent honnêtement sur l’attitude à adopter vis à vis du risque d’un bouleversement du climat par les activités humaines, ils recensent les sources fondamentales des incertitudes qui affectent la compréhension des variations du climat et les projections de ses évolutions possibles.

Dès leur introduction, les auteurs évoquent la similitude entre les humains face au changement climatique anthropique et les «jurys d’assise qui doivent rendre un verdict en l’absence de preuves formelles et indiscutables».

L’exemple extrême de la tempête de Noël 1999, est utilisé pour démontrer l’impossibilité de faire des prévisions météorologiques fiables, tout particulièrement dans certaines situations où des évolutions très contrastées sont possibles. Le Centre européen de prévision météorologique à moyen terme avait lancé 50 simulations différentes ne différant que par des modifications infimes de la situation de départ, compatibles avec la précision des observations disponibles. Aucune d’entre elles ne simulait précisément la tempête observée même si quelques unes prévoyaient des vents intenses dévastateurs.

Cet exemple fournit la preuve que des instabilités qui caractérisent le comportement de l’atmosphère interdisent  toute certitude quant aux prévisions qui n’ont de sens qu’en termes probabilistes, même si cette notion est souvent peu claire pour le grand public. De telles instabilités sont décrites dans des systèmes plus simples que le système climatique dont la modélisation doit procéder par l’introduction successive de tous les phénomènes essentiels à la compréhension de son fonctionnement, à commencer par la convection.

Tout le livre s’attache à partir de phénomènes bien connus, à montrer l’importance des processus pertinents qui influencent les évolutions du climat.

Les auteurs expliquent l’influence du soleil. Comme initialement suggéré par Milankovitch, la succession, au cours du dernier million d’années, de périodes glaciaires et interglaciaires est attribuée aux variations de l’orbite de la Terre et de l’angle de son axe de rotation avec le plan de cette orbite.

L’importance de l’éclairement reçu en été par les régions de haute latitude est réelle : de grandes surfaces recouvertes de neige ou de la glace augmentent l’énergie solaire renvoyée dans l’espace et diminuent l’énergie absorbée par la planète. C’est ainsi que La Terre a pu connaître dans le passé une situation stable où elle était entièrement englacée. Les variations avec la latitude des empreintes correspondant aux périodes de transition entre les périodes glaciaires et interglaciaires suggèrent un rôle déterminant des variations de la teneur en CO2 de l’atmosphère et du transfert du rayonnement infrarouge dans cette dernière.

Un chapitre intitulé «Certitude de l’incertitude» rappelle que les lois physiques auxquelles obéit le système Terre-atmosphère autorisent des comportements désordonnés comme le suggère la théorie du chaos. Cependant, l’évolution de l’atmosphère conserve une trace forte de ces lois et impose une structure qui l’encadre très rigoureusement. C’est ainsi qu’on peut prévoir les indicateurs généraux qui définissent le climat et les aspects probabilistes qui en caractérisent la variabilité.

L’étude des tempêtes de poussière qui affectent la planète Mars illustre l’influence des aérosols.

L’enfer climatique qui règne sur Vénus est expliqué par l’effet de serre d’une atmosphère dense et composée essentiellement de gaz carbonique.

L’existence d’un Sahara vert, il y a plusieurs milliers d’années, est un autre exemple riche d’enseignement. Elle ne peut se comprendre sans faire appel à une influence déterminante de la végétation qui pourrait être altérée profondément par des variations aléatoires dans une dérive lente du climat et en retour en bouleverser les caractéristiques locales. Dans certaines conditions, il existerait deux états stables, le Sahara vert et le désert entre lesquels on pourrait basculer par des changements abrupts dont les détails restent un sujet de recherche.

Le climat du futur est une question qui intéresse directement l’ensemble de l’humanité et qui justifie la nécessité d’en savoir plus pour répondre aux questions que pose la société civile :

Depuis les années 1970, les démarches de modélisation numérique qui est le seul outil permettant d’apporter des réponses, ont fortement évolué.
La modélisation numérique est passée d’un «outil de recherche visant à vérifier ou infirmer des idées théoriques» à un outil permettant de «faire des prédictions à 30, 40, 100 ans ou plus sur l’évolution de l’environnement ou les conditions de vie sur Terre». Les modèles de circulation générale de l’atmosphère et du climat projettent des évolutions qui sont comparées entre elles et confrontées à leur capacité à reproduire les phénomènes réellement observés, comme, par exemple, la date de démarrage de la mousson d’été.

Des difficultés subsistent dans la représentation de l’humidité dans l’atmosphère et du rôle des nuages qui sont des «phénomènes atmosphériques dont la complexité et l’échelle spatiale (10km) interdisent une description exacte». «La confiance dans la prévision fait intervenir nécessairement une part de subjectivité, mais les résultats des modèles font partie des éléments disponibles pour conforter l’intime conviction». Ces derniers conduisent «à conclure qu’une croissance incontrôlée de la concentration de dioxyde de carbone dans l’atmosphère peut amener de dangereuses modifications du climat avant la fin du siècle».

Les auteurs soulignent pour terminer les progrès qui restent à effectuer «pour atteindre une vision claire et définitive sur les effets hydrologiques régionaux» dont l’importance pratique est primordiale. Les décideurs devront patienter : il existe une différence de certitude entre les évolutions du cycle hydrologique et celle de la température et il faudra du temps aux chercheurs pour répondre aux attentes de la société civile.

On ne peut, en conclusion, que recommander à tous ceux qui s’intéressent au changement climatique anthropique et tout particulièrement aux «climato-sceptiques» de lire très attentivement cet ouvrage qui décrit l’approche méthodologique qu’ont suivie les chercheurs qui ont exercé consciencieusement leur métier dans un domaine aussi complexe que lourd de conséquences sur l’évolution des sociétés humaines.

Katia Laval est professeur émérite à l’université Paris VI, spécialiste des interactions entre le sol, la végétation et l’atmosphère. Ses travaux les plus récents portent sur le bilan hydrologique de la Terre, sa variabilité et son évolution. Elle a contribué à divers ouvrages, notamment au Panorama de la physique (2007) aux Éditions Belin et Facing Climate Change Together (2008) chez Cambridge University Press.
Guy Laval est directeur de recherche émérite au CNRS, membre de l’Académie des sciences. Longtemps directeur du centre de physique théorique de l’École polytechnique, c’est un spécialiste des plasmas et des questions énergétiques qui en découlent. Il a notamment publié L'énergie bleue - Histoire de la fusion nucléaire (2006) aux éditions Odile Jacob.


Mois de Septembre/Octobre 2013

1/1 Analyse critique par F.M. Bréon de l’ouvrage de F. Gervais "L'innocence du Carbone"

Chaque publication d'un rapport du GIEC voyait jusqu'ici fleurir quantité de brûlots climato-sceptiques misant sur leur concomitance avec ces rapports pour espérer atteindre des succès éditoriaux, autrement bien incertains. Pour la première fois, un de ces auteurs a l'outrecuidance de se présenter comme un "expert", spécifiquement sélectionné par le GIEC pour apporter sa contradiction, alors que cette démarche personnelle ne relève que de lui-même (tout scientifique qui le désire peut obtenir l'accès au texte proposé et faire parvenir au GIEC ses remarques).

En effet, François Gervais a franchi ce pas avec son livre "L'innocence du carbone". Un livre qu'on peut ne pas lire !!

François-Marie Bréon, chercheur au Laboratoire des Sciences du Climat et de l'Environnement, l’un des experts du groupe I du GIEC a vivement réagi. Il a rédigé une analyse critique de ce livre. En plein accord avec ses remarques, et bien qu'elles s'adressent davantage à ses pairs qu'à un public large, le Club des Argonautes a décidé de les publier. Merci à François-Marie Bréon de nous avoir permis de le faire, et bravo pour la pertinence de ses critiques.

Les manipulations les plus manifestes de François Gervais portent sur des figures et sautent aux yeux lorsque François-Marie Bréon les met en parallèle avec des figures construites à partir des données fiables. Il s’agit le plus souvent de figures que François Gervais a soigneusement centrées sur des périodes restreintes où la variation à court terme est l’inverse de celle sur les vingt à trente ans de données disponibles.

Lire la suite...

Voir aussi :

Comment fonctionne le GIEC (IPCC) ? 

Réponses aux arguments de ceux qui doutent de la réalité d’un changement climatique anthropique.


Mois de Juillet 2013

1/1 Le prix Christian Le Provost Océanographe décerné en 2013 à Séverine Alvain pour ses travaux sur la détection de groupes de phytoplancton dans les données satellite de couleur de l’océan

Lancé en 2009, le prix Christian Le Provost est devenu depuis 2011 un Grand Prix de l’Académie des Sciences, qui récompense un jeune chercheur auteur de travaux remarquables en océanographie physique et biogéochimique.

Il a été remporté cette année par Séverine Alvain de l'équipe Océanographie physique, transport et télédétection au Laboratoire d’Océanologie et de Géosciences de Wimereux, pour les résultats qu’elle a obtenus dans la reconnaissance de groupes de phytoplancton dans l’océan depuis l’espace.

Depuis quelques dizaines d’années, la concentration en chlorophylle à la surface de l’océan est estimée en routine à partir des données de couleur de l’océan observée par satellite. Ceci a permis des avancées considérables dans la connaissance du cycle océanique du carbone, où la chlorophylle joue un rôle de premier plan en capturant l’énergie lumineuse indispensable à la photosynthèse de la matière organique.
Toutefois, les conséquences biogéochimiques de la photosynthèse ne sont pas les mêmes selon que celle-ci est opérée par des microalgues telles que les diatomées, à croissance rapide et qui transfèrent massivement du carbone vers la profondeur lorsqu’elles meurent, ou par des cyanobactéries de très petite taille dont la vitesse de sédimentation est très lente.

Maintenant qu’on connaît la concentration en chlorophylle, la question qui suit est : «à quel type d’algues a-t-on affaire ».

Pendant longtemps, répondre à cette question a été jugé impossible : en effet, pour observer la couleur de l’océan, on doit corriger les mesures faites par satellite de l’effet de l’atmosphère qui représente plus de 90 % du signal détecté ! Peu probable qu’on puisse exploiter les éventuelles nuances causées par différents types d’algues dans ce qui n’est qu’un signal résiduel.

C’est pourtant ce à quoi s’est attaquée Séverine Alvain lors de sa thèse.

Son succès repose :

  • d’une part sur un jeu de données de terrain de l'expérience GeP&CO de qualité, collectées dans des conditions très variées, et colocalisées avec des observations de couleur de l’eau par satellite,

  • et d’autre part sur le retrait de l’effet dominant de la chlorophylle (l’arbre qui cache la forêt) dans les données de couleur de l’eau, donnant ainsi accès à ce qui n’est dû qu’à la variabilité des propriétés optiques spécifiques du plancton présent dans l’eau.

La méthode mise au point, nommée «PHYSAT» publiée en 2005, permettait d’identifier dans l’océan les eaux productives dominées par des diatomées, ou par des nano-algues, ou les eaux pauvres dominées par des cyanobactéries (Prochlorococcus ou Synechococcus), l’ensemble couvrant une large part des conditions qu’on rencontre en mer. Par la suite, Séverine a élargi l’algorithme PHYSAT au genre Phaeocystis, émetteur d’aérosols soufrés, et aux coccolithophoridés, doués de la capacité de calcification et jouant ainsi un rôle particulier dans le cycle du carbone.
Cet algorithme est le seul qui permette une approche globale et exhaustive. Séverine Alvain travaille à en vérifier la validité dans des régions où sont collectées de nouvelles données in situ, et à asseoir les bases théoriques. Elle a fait le choix de diffuser largement sa méthode et ses résultats de telle sorte que PHYSAT est l’algorithme le plus utilisé actuellement par les chercheurs qui souhaitent obtenir des informations sur la diversité des peuplements planctoniques marins.

Le Club des Argonautes adresse toutes ses félicitations à Séverine Alvain  !

Voir aussi le site Christian Le Provost.


Mois de Mai/Juin 2013

1/2 La marche accidentée vers le réchauffement du climat

La concentration en gaz carbonique de l’atmosphère augmente régulièrement depuis le début de l’ère industrielle, et comme ce gaz possède la propriété d’absorber une partie du rayonnement infrarouge émis par la Terre, celle-ci voit son climat se réchauffer.

Annoncé, et même grossièrement quantifié par Arrhenius, ce processus a été analysé et lorsqu’on l’utilise pour forcer un modèle climatique, la température moyenne de la Terre s’accroît lentement, jusqu’à + 2 ou + 6° à la fin de ce siècle selon les scénarios d’augmentation de la concentration en gaz carbonique.

En effet, au cours des décennies passées on a vu, conformément à ces prévisions :

  • la température moyenne globale monter lentement,

  • les glaces polaires et les glaciers de montagne se rétracter,

  • et le niveau des océans s’élever.

L’année 2012 s’est ainsi placée au palmarès des années les plus chaudes depuis 1880, date du début des mesures permettant de calculer une température moyenne.

Le niveau des océans s’est élevé au cours des deux dernières années, à une vitesse proche de 1 cm par an, au lieu des 3 mm par an qu’on observait jusqu’alors. Il est vrai qu’une telle vitesse a déjà été observée en 1998, expliquée alors par l’occurrence d’un très fort évènement El Niño, mais El Niño ne s’est pas manifesté ces dernières années.

Et les émissions de gaz carbonique continuent de croître, de telle sorte que la concentration de ce gaz vient de dépasser les 400 parties par million (ppm).

Pourtant, depuis une dizaine d’années, la température moyenne globale reste

 parmi les plus élevées jamais observées, mais n’a pratiquement plus augmenté.

Ainsi, le paramètre qui nous est à la fois le plus familier et le plus symptomatique du changement climatique, la température moyenne globale, après avoir monté jusqu’à la fin du 20ème siècle, s’est mise à stagner depuis 2002 environ, en dépit de concentrations en gaz carbonique dans l’atmosphère (et en autres gaz à effet de serre) qui ne cessent d’augmenter. Il y a là de quoi alimenter des doutes sur la réalité et l’amplitude du changement à venir, encore que des pauses analogues aient pu être mises en évidence dans le passé.

Vue sur le réchauffement global

Skeptical science 

Les réservoirs thermiques en jeu derrière le réchauffement global.

Les gaz dits à effet de serre (GES) qui sont essentiellement : 

  • la vapeur d'eau,

  • le gaz carbonique et le méthane,

  • le dioxyde d'azote,

  • l'ozone

  • et quelques autres essentiellement d'origine anthropique comme les CFC et leurs remplaçants,

absorbent le rayonnement infrarouge et émettent à leur tour du rayonnement infrarouge.

Ces gaz renvoient donc vers la surface de la Terre une partie du rayonnement infra rouge émis par celle-ci.

Si la concentration en GES de l’atmosphère augmente, comme c’est le cas du fait des activités humaines, l’énergie infrarouge envoyée dans l’espace décroit et la surface de la Terre qui absorbe la même quantité de rayonnement solaire que précédemment reçoit plus d’énergie qu’elle n’en émet et sa température commence à croître.

Si on cesse d'augmenter la concentration atmosphérique des GES, un nouvel équilibre ne s'établira que longtemps après, lorsque cette température aura cru suffisamment pour compenser l'effet de serre additionnel.

Au cours de la période transitoire, la température des eaux océaniques et des sols croîtra à une vitesse qui dépend de leur capacité calorifique ainsi que de la rapidité de la fonte des calottes polaires et des glaciers, consommatrice de chaleur.
L'atmosphère qui est réchauffée par transfert thermique depuis la surface du sol verra également sa température croître. En raison de sa faible capacité calorifique, elle ne contribuera que pour une part modeste (~1% en ce moment), à stocker l'énergie thermique.
Etant donné l’énorme capacité du réservoir océanique, on estime à 93% la part de l'océan dans la distribution de l'énergie thermique supplémentaire liée à l'effet de serre, stockée par la planète. On voit donc que c’est l’océan qui contrôle en premier lieu la vitesse de réchauffement de la planète et donc le temps mis pour atteindre le nouvel état d’équilibre pour lequel l’énergie thermique des diverses composantes restera constante.

La mise en évidence récente du réchauffement de l’océan profond.

Le réchauffement global qui semble s’être arrêté à la surface de la Terre est pourtant toujours à l’œuvre, ainsi que le confirment des reculs sensibles dans le volume des glaces terrestres, ainsi que le réchauffement de la surface des océans, qu’on observe effectivement.

Il est beaucoup plus difficile de connaître avec précision la température moyenne globale des océans. Une analyse des mesures existantes a toutefois permis d’observer que 30 % du réchauffement des océans avait pénétré au dessous de 700 m de profondeur, où la température s'est accrue de 0,03 °K.

Cette augmentation de température concerne une couche d’eau très épaisse et correspond donc à un transfert de chaleur très important de l’océan superficiel vers les eaux profondes. 

Il a été possible de le détecter grâce en particulier à un effort considérable de déploiement des flotteurs «ARGO» qui oscillent entre la surface et 2000 m, ou plus profond encore, munis d’un capteur de température et de profondeur, et dont les mesures sont transmises par satellite lorsque ces flotteurs passent en surface.

Elle pose des questions car on ne sait pas parfaitement où, quand et comment s’opèrent tous les transferts d’eau à travers la thermocline, cette zone de transition à une profondeur moyenne de 100 m qui sépare la couche mélangée de surface des océans, (qui échange sans cesse de l’énergie avec l’atmosphère avec laquelle elle s’équilibre relativement vite), des eaux profondes isolées du rayonnement solaire et du contact direct avec l’atmosphère.

Ces transferts peuvent avoir lieu grâce :

  • au mélange turbulent,

  • à un accroissement de la salinité et, par conséquent, de la densité de l’eau de mer,

  • où à la formation, dans les régions polaires, d’eau dense à une température moins basse qu’à l’accoutumée.

 Ces processus peuvent être lents et réguliers, mais aussi épisodiques et intenses, et échappent à nos moyens actuels d’observation.

Une équipe de chercheurs américains du NCAR au Colorado a réalisé plusieurs expériences de modélisation portant sur le système couplé océan – atmosphère et consistant à maintenir au sommet de l’atmosphère un flux d’énergie en déséquilibre de 1 W/m2 dirigé vers le bas, pendant le 21ème siécle. Ils ont ainsi généré un réchauffement progressif à la surface de la Terre, conforme à ce qui est prévu par les spécialistes du climat, mais de même que dans les observations passées, leurs expériences génèrent quelques périodes d’une dizaine d’années, pendant lesquelles la température moyenne à la surface de la Terre diminue au lieu d’augmenter. Une analyse des sorties de modèle pendant ces périodes dites de «hiatus», qui correspondent à des épisodes de vents tropicaux forts de type «La Niña», montre que les eaux profondes s’y réchauffent davantage qu’aux périodes pendant lesquelles la température de surface s’accroît. Ces chercheurs suggèrent que ces situations favorisent l’empilement d’eaux chaudes à l’ouest des océans et leur pénétration en profondeur, mais n’excluent pas d’autres processus qui peuvent entrer en jeu, notamment dans les régions subpolaires, et donner lieu à des épisodes au cours desquels le réchauffement global semble s’interrompre.

Une pause dans la croissance de la température de surface de la Terre n’implique pas que l’effet de serre additionnel dû aux activités humaines ne fournit plus d’énergie au système climatique.

La route vers un climat plus chaud n’est pas un long fleuve tranquille.

Ainsi, malgré la croissance continue de la concentration en gaz à effet de serre de l’atmosphère qui cause le réchauffement global, le système climatique pourrait générer des périodes au cours desquelles le réchauffement à la surface du globe pourrait s’arrêter, et même s’inverser, en particulier à cause du caractère instable de certains modes de transfert massif de la chaleur entre l’océan de surface et l’océan profond, transferts qu’il faudrait mieux détecter et comprendre. Il faut pour cela continuer à développer des systèmes d’observations, (ARGO cité précédemment n’est que l’un d’entre eux), permettant de déceler les variations de l’énergie thermique et mécanique des différents systèmes.

Si de telles périodes sont possibles, il semble exclu qu’elles puissent durer plus d’une ou deux décennies.

De nombreuses rétroactions positives poussent à amplifier les tendances à la hausse ou à la baisse de la température moyenne globale, au premier rang desquelles celle de l’albédo de la Terre : plus il fait chaud, plus les calottes glaciaires se rétrécissent, et moins l’énergie solaire est renvoyée vers l’espace, amenant ainsi un surplus d’énergie solaire au système climatique.

De même, plus les océans se réchauffent, moins le gaz carbonique y est soluble, et moins l’atmosphère s’en débarrasse, ce qui doit conduire à une accélération de la hausse de la concentration en gaz carbonique de l’atmosphère, et donc à une accélération de l’effet de serre.

Qu’on pense aussi aux terribles périodes glaciaires, qui sont déclenchées par seulement quelques pourcent d’énergie solaire en moins reçue par la Terre, en fonction des paramètres orbitaux : il n’y a pas de thermostat pour réguler le climat de la Terre.

S’attendre à un réchauffement continu du climat, à l’image de la croissance de la concentration des gaz à effet de serre, est irréaliste, compte tenu des fluctuations qui affectent en permanence l'océan et l'atmosphère et qui se traduisent par la grande variabilité météorologique d'une année à la suivante que chacun connaît bien.

En l'absence des actions de l'homme, on estimait que le climat ne pouvait être défini qu'en faisant des moyennes sur 30 ans. L'ampleur des évolutions du climat au cours des 50 ou 100 prochaines années ne fait l'objet d'aucun doute, même si les estimations restent entachées d''imprécisions notables.

Ces imprécisions ont deux origines :

  • d'une part, la difficulté des modèles à prendre en cause des phénomènes de petite échelle importants comme la turbulence et la dynamique de la vapeur d'eau

  • et d'autre part, les incertitudes sur les émissions futures.

On notera, à ce propos, que dans 30 ans, la moitié de l’excès (par rapport à la période avant 1860) de dioxyde de carbone actuellement présent dans l’atmosphère y résidera encore, en compagnie de celui que nous allons continuer d’émettre, et que 20% de ce dioxyde de carbone résiduel mettra des milliers d'années à s'éliminer, au rythme de la sédimentation des débris des organismes fixateurs de carbonate sur les fonds océaniques.

Bibliographie :

Magdalena A. Balmaseda, Kevin E. Trenberth, et Erland Källén (2013) Distinctive climate signals in reanalysis of global ocean heat content. Geophysical Research Letters, DOI: 10.1002/grl.50382.

Gerald A. Meehl, Julie M. Arblaster, John T. Fasullo, Aixue Hu et Kevin E. Trenberth (2013) Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods. Nature Climate Change, 1, 360-364.

Voir aussi :

FAQ :

Quel est le rôle du CO2 sur l'évolution du climat ?

Y a-t-il saturation de l'effet de serre ?

News :

L'année 2012 au palmarès des années les plus chaudes depuis 1880. Analyse des indices climatiques 2012

Une nature généreuse... pour l'instant.

L’année 2010 : un excellent cru pour appréhender la complexité climatique


2/2 L’Appel de Paris pour la Haute Mer

Lors de la conférence internationale «La Haute Mer avenir de l’Humanité» tenue au CESE (Conseil Economique, Social et Environnemental) le 11avril 2013 et organisée à l’initiative de «Tara Expéditions» a été lancé l’«Appel de Paris pour la Haute Mer» lu par Agnés b.

Cet appel, que les membres de la société civile sont invités à signer, sera relayé ensuite vers les institutions et acteurs politiques dans la perspective des négociations sur la gouvernance de la Haute Mer de la Commission sur le développement durable de l’ONU en 2014.

Voici donc la Haute Mer à la recherche d’un instrument international de protection dans le cadre de la Convention des Nations Unies sur le Droit de la Mer à l’horizon 2014.

Deux mois plus tôt le 12 février a été lancée à Londres la Commission Océan Mondial qui regroupe, à l’initiative de fondations privées, des leaders et personnalités politiques du monde entier dont le français Pascal Lamy qui arrive au terme de son mandat de directeur général de l’OMC. L’objectif est le même que celui des auteurs de l’Appel de Paris : «En 2013 et 2014, la Commission analysera les principales menaces affectant la ‘Haute Mer’», et elle «servira d’accélérateur pour les progrès nécessaires. 2014 est une année critique en ce qui concerne les décisions affectant l’océan, où des modifications devraient être adoptées pour placer l’océan sur une voie saine et durable.».

La «Haute Mer» c’est la part d’océan qui, au-delà des eaux territoriale et des zones économiques exclusives, n’est juridiquement sous la responsabilité de personne. Dernier espace de liberté qu’apprécient poètes et navigateurs mais aussi dernier espace de non-droit exposé à tous les abus : pollutions, surexploitation etc… Il est donc logique d’appeler, pour une gestion efficace des océans, à faire entrer la Haute Mer qui en est dépourvue dans le cadre d’une organisation internationale en charge de la protection des océans.
Le Club des Argonautes ne peut que souhaiter que ce projet aboutisse. Sans doute, dans l’Appel, se serait-il exprimé de manière plus rationnelle et concrète. Il aurait évité la sacralisation ostentatoire de la «Haute Mer» et aurait fait appel à l’intelligence des signataires plutôt qu’à leurs bons sentiments sollicités par une dramatisation lyrique abusive qui relève plus de la communication que de l’information. Et il aurait fait à la connaissance scientifique, niée dans l’Appel, la place qu’elle mérite. C’est cette formulation de l’Appel qu’ils jugent inappropriée qui a conduit trois des membres du Club à réagir assez vivement et à titre personnel dans la rubrique Opinions du site.

Nota : Tara Expéditions organise des expéditions avec le navire Tara pour l’étude de l’environnement marin depuis 2003. C’est une initiative privée (à but non lucratif) française d’Agnès b et Etienne Bourgois.


Mois d'Avril 2013

1/1  Le protocole de Kyoto : de belles paroles ne suffisent pas à éviter un bouleversement du climat de notre planète.

La Convention Cadre des Nations Unies sur les Changements Climatiques (CNUCC), est issue de la Conférence de Rio de 1992, dite du «Sommet de la Terre» et qui est entrée en vigueur en mars 1994.

L’objectif figure à l’article 2 de cette convention :

«L’objectif ultime de la présente Convention et de tous instruments juridiques connexes que la Conférence des Parties pourrait adopter est de stabiliser, conformément aux dispositions pertinentes de la Convention, les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique. Il conviendra d’atteindre ce niveau dans un délai suffisant pour que les écosystèmes puissent s’adapter naturellement aux changements climatiques, que la production alimentaire ne soit pas menacée et que le développement économique puisse se poursuivre d’une manière durable.»

Objectif ambitieux mais assez imprécis car nul n’était en mesure de dire quel est le niveau acceptable de gaz à effet de serre qui empêche une perturbation dangereuse du système climatique.
Une seule chose semblait certaine compte tenu des résultats des travaux du GIEC qui avait déjà publié son premier rapport (1990) : il fallait réduire les émissions de gaz à effet de serre si l’on voulait arriver à stabiliser leurs concentrations dans l’atmosphère à un niveau «raisonnable».

 Le Protocole dit de Kyoto a été adopté en décembre 1997 à la troisième conférence des Parties (COP 3) à la CCNUCC. Les réductions d'émissions qui y étaient prévues ne concernaient que quarante deux pays, (dits de "l’Annexe 1 à la Convention"), développés et en «transition vers l’économie de marché», qui devaient réduire globalement leurs émissions de 5,2% par rapport à l’année de référence 1990, en moyenne au cours de la période 2008-2012. L’objectif de la Communauté Européenne a été fixé à une réduction de 8%.

Les autres pays, dits en développement, dont de gros émetteurs comme l’Inde ou la Chine, n’avaient pas d’objectifs chiffrés mais étaient invités à s’organiser et à prendre toutes mesures allant dans le sens d’une minimisation de leurs émissions. Les 24 pays les plus développés, (Annexe 2 de la Convention), étaient invités pour les y aider à apporter leurs soutiens technologique et financier.

Le Protocole de Kyoto est entré en vigueur le 16 février 2005 après que 55 «Parties à la convention» l’eurent ratifié incluant les Parties de l’Annexe 1 correspondant à au moins 55% des émissions de ce groupe.

Refusant tout engagement contraignant chiffré, les USA qui représentaient 36% des émissions de ce même groupe, n’ont pas ratifié le protocole.
Aux termes du Protocole de Kyoto, un nombre limité de pays a souscrit des engagements, ces engagements étant eux-mêmes d'ampleur limitée et portant sur une période limitée.

Cet accord de compromis n’était qu’un premier pas dans une politique de réduction des émissions. On ne pouvait espérer qu’il suffise à juguler le changement climatique.

La COP, ("Conférence des Parties à la Convention Cadre des Nations Unies sur les Changements Climatiques"), se réunit chaque année, mais n’a, hélas, pas réussi à progresser, au-delà de ce premier engagement de réduction des émissions. Beaucoup d’espoirs avaient été mis dans sa réunion de Copenhague en 2009, (la quinzième), qui aurait dû décider du devenir du Protocole à l’échéance de 2012. Le résultat fut décevant, il confirma une volonté commune d’aboutir mais sans aucun accord pratique.

Puisque 2012 était l’échéance il est légitime de faire une évaluation des résultats du protocole de Kyoto.

En 2010, les émissions de gaz à effet de serre, (en équivalent CO2), des pays de l’Annexe 1 avaient diminué plus que ne le prévoyait le Protocole de Kyoto, essentiellement à cause du déclin des industries très émettrices des pays en transition (ex Union soviétique). Compte tenu de niveaux d'émission très élevés en 2011 et 2012, (tels qu'évalués à la COP 18 de Doha en décembre 2012), tout indique qu'elles sont revenues au niveau de 1990. Par contre, les autres pays, incontestablement en développement, ont augmenté considérablement leurs émissions, ce qui est normal. Globalement, les émissions mondiales ont progressé de 28 Gt d'équivalent CO2 en 1990, (année de référence du protocole de Kyoto), à 50 Gt d'équivalent CO2, en 2010

Pour faire des simulations de l’évolution du climat en fonction de l’évolution de la concentration en gaz à effet de serre de l’atmosphère, le GIEC a proposé, en 2000, des scénarios d’émission en fonction d’hypothèses relatives à la démographie, aux modes de développement socio-économiques et technologiques, aux politiques énergétiques possibles. À chacun de ces scénarios "SRES", (Special Report on Emission Scenarios), correspond une courbe d’évolution des émissions mondiales jusqu’à 2100.

  • Le plus «vertueux» ou le plus optimiste des scénarios (B1) utilisés pour le 4ème rapport du GIEC (2007) table sur une augmentation des émissions jusqu’en 2040, (environ 50 Gt/an d'équivalent CO2), puis une décroissance continue.
    Le Club constate sans plaisir que c'est 30 ans plus tôt que cette valeur a été atteinte !

  • Quand au scénario le plus pessimiste (A1FI, dit «Fossil fuel Intensive»), il prévoit un accroissement continu des émissions jusqu’à atteindre 130 Gt à la fin du siècle.
    Le Club tient à souligner que l'accroissement des émissions et les records que nous battons actuellement nous mettent au-delà du pire de ces scénarios.

On ne peut que déplorer que les réunions annuelles de la Conférence des Parties n’aient pas permis d’amorcer une maîtrise des émissions de gaz à effet de serre, et surtout qu’aucun accord sur des objectifs contraignants de < réduction de ces émissions ne soit en vue.

Le seul progrès enregistré récemment est un accord international sur l’objectif à imposer à l’accroissement tolérable de la température moyenne mondiale pour atteindre les objectifs de la CCNUCC : «empêcher toute perturbation anthropique dangereuse du système climatique».

Ce choix d’une valeur du réchauffement tolérable est essentiellement politique; il ne saurait reposer sur des bases scientifiques, et c’est pourquoi le GIEC a toujours refusé de se prononcer sur la valeur à adopter. La valeur de 2 °C choisie remonte à loin ; on peut même en trouver l’origine au 19ème siècle, chez Arrhenius, qui s’interrogeait déjà sur ce que serait le climat de la Terre, si la teneur en CO2 de l’atmosphère était multipliée par deux.

Lorsque, dans les années 1960, la communauté scientifique a pris conscience du changement en cours de la composition chimique de l'atmosphère, la même interrogation a été reprise tout naturellement: les modèles de l’époque ont conclu qu’en cas de doublement du CO2, l’augmentation de la température serait en effet de 2°C.

L’Union Européenne dans la perspective de COP 3 de Kyoto avancera cet objectif 2°C en 1996. Cette idée restera dans l’air de sorte qu'en 2009, à la COP 15 de Copenhague, il est proclamé que même si elle impose des coupes drastiques dans les émissions de gaz à effet de serre, la valeur 2°C doit être retenue comme un objectif raisonnable.

À Cancun (COP 16) l’année suivante, les Parties reconnaissent que les pays doivent d’urgence prendre des mesures pour que l’élévation de température reste inférieure à 2°C.

Bien entendu, pour atteindre l’objectif de 2°C, il faut en passer par la réduction des émissions. Le 4ème rapport du GIEC de 2007 établissait qu’un plafonnement de la concentration en équivalent CO2 à une valeur double de la valeur préindustrielle conduirait, à terme, à une augmentation de la température moyenne mondiale comprise entre 2 et 4 °C. Or, le scénario le plus optimiste, (B1), conduit à un doublement de la concentration de CO2 dès 2100. Autrement dit, le scénario le plus «vertueux» ne permet pas d’atteindre l’objectif. On a vu que l’on était actuellement très loin de ce scénario.

Le 5ème rapport du GIEC sera publié en 2013 - 2014. Ses résultats s’appuieront sur un nouveau type de scénarios : les «Representative Concentration Pathways» et sur une nouvelle méthodologie. Les scénarios ne sont plus ici déduits de manière déterministe d’hypothèses sur les évolutions démographiques, économiques, technologiques, et sociales ; ce sont des trajectoires possibles d’évolution des concentrations de gaz à effet de serre données a priori, et construites à partir de modélisations intégrées des composantes physiques, biologiques et économiques du problème. Ces scénarios incluent les politiques volontaristes d’atténuation des émissions et la possibilité d'«émissions négatives» (c’est-à-dire l’absorption de CO2 atmosphérique, obtenue par exemple par captage et stockage géologique de produits de combustion de la biomasse), ce qui n’était pas le cas dans les scénarios précédents.

Quatre scénarios ont été retenus et les modélisateurs du climat «expérimentent» à partir de ces quatre scénarios pour faire des simulations des évolutions possibles du climat. Il est possible d'anticiper sur les conclusions du GIEC car les modélisateurs impliqués ont déjà fait état de leurs résultats, résultats qui sont d’ailleurs convergents.

GIEC Emmission de dyoxyde de carbone

Un seul des quatre scénarios RCP permet de conserver un espoir de limiter le réchauffement planétaire en-dessous des 2°C retenus : le scénario RCP 2.6 qui prévoit un accroissement stabilisé de moins de 2 °C d’ici 2100.

Le scénario le «pire» RCP 8.5 débouche, en 2100, sur un accroissement de température en moyenne mondiale de 2,5 à 5°C ; sans stabilisation, c'est-à-dire que le prolongement de ce scénario conduirait à un réchauffement mondial de 5 à 12°C en 2300, ce qui impliquerait une augmentation de la température moyenne française pouvant atteindre une vingtaine de degrés.
Or, nous sommes sur une trajectoire de plus en plus croissante des émissions analogue à celle de RCP 8,5.

Pour rejoindre le scénario RCP 2,6 il faudrait une réduction rigoureuse des émissions, allant jusqu'à des émissions «négatives» ! On en est loin, et ce n’est pas Kyoto prolongé ni la «passerelle 2013-2020» mise en place par Doha 2012, qui y pourvoiront.

C’est ailleurs qu’il faut chercher la solution, et si on veut éviter un changement difficilement supportable par l’humanité dans son ensemble, c’est maintenant qu’il faut le faire. Nous disposons des outils permettant d’y aboutir :

  • la production d’énergie sans émissions de gaz à effet de serre,

  • un accroissement de l’efficacité énergétique, c’est-à-dire la minimisation systématique de l’énergie nécessaire à la production d’un service donné et,

  • des changements de comportement qui feraient fi des besoins artificiellement créés par la société de consommation.

Si nous voulons léguer aux générations futures une situation acceptable, c'est maintenant que nous devons agir en tant que citoyens et en tant que consommateurs. Sans attendre un difficile accord international, une démarche de maitrise des émissions de gaz a effet de serre est possible dés à présent, au niveau des individus, des villes, et des régions.

 


Mois de mars 2013

1/1 Hommage à Jean Bourgoin

L'ingénieur général de l'armement (hydrographe) Jean Bourgoin nous a quittés en janvier 2013. *

Né en 1925, entré à l'Ecole polytechnique en 1944, il en sort en 1947 dans le corps des ingénieurs hydrographes du Service Hydrographique de la Marine.

Au cours d'une longue carrière au service de la marine, il a effectué une douzaine d'années de service à la mer, et il a, notamment, été affecté à des missions hydrographiques en métropole, en Afrique du nord, en Afrique noire française, en Amérique centrale. Il a dirigé l'Etablissement principal du Service hydrographique et océanographique de la Marine à Brest - SHOM - de 1976 à 1981, puis il a été nommé Directeur du service de 1981 à 1987.
Il a fait partie de nombreux comités scientifiques notamment du Comité national français de Géodésie et de Géophysique, de l'Union géodésique et géophysique internationale dont il présida la section "Sciences physique de l'océan" de 1981 à 1986, du Comité des Travaux historiques et scientifiques du Ministère de la recherche, et du Comité de perfectionnement de l'Institut océanographique.
Jean Bourgoin était membre de l'Académie de marine depuis 1989 dans la section "Navigation et océanologie" qu'il a présidé de 1991 à 1997.
Jean Bourgoin était commandeur de la Légion d'honneur et officier du mérite maritime.
Jean Bourgoin a participé à des réunions du Club des Argonautes. Plusieurs des Argonautes suivirent ses cours sur le «régime des côtes» qu’il enseignait au Service Hydrographique.

Jean Bourgoin était un homme de grande culture s'intéressant à tous les domaines des sciences de la mer et de la navigation et il est l'auteur de nombreux articles et ouvrages scientifiques, et aussi d'histoire de l'hydrographie et de la navigation. Il a également développé les liens entre la recherche militaire et la recherche civile.
Jean Bourgoin était un scientifique brillant et un homme discret mais chaleureux et amical ; c'est le souvenir que nous garderons de lui.


Mois de Février 2013

1/2 Année 2012 : de nouveaux satellites disponibles pour la météorologie et l'océanographie - Perspectives 2013 et au-delà.

Parmi les quelques milliers de satellites actifs qui sillonnent l'espace à ce jour, 150 satellites opérationnels scrutent notre planète, leur mission étant de livrer des données en temps réel concernant l'atmosphère, l'océan, les continents, le milieu vivant..... Ils contiennent de multiples instruments de haute précision. Ils mesurent les profils de température et d'humidité, le vent, ainsi que le niveau des océans, leur température et salinité en surface, les courants marins, les vagues, la fonte des glaces, le champ de gravité... Ces mesures sont l'un des éléments essentiels de la démarche "observer, comprendre, prévoir" qui a donné naissance depuis plusieurs décennies à la prévision météorologique et plus récemment la prévision océanique. Certaines de ces mesures et leur traitement de plus en plus sophistiqués peuvent contribuer aussi à la détection et au suivi du changement climatique.
En ce début d'année 2013, le but de cet article est de faire le point sur ce qui s'est passé en 2012 et de donner un éclairage sur le futur de l'observation spatiale.

METOP-B ET MSG-3 en orbite

L'année 2012 a vu le renouvellement de plusieurs satellites météorologiques opérationnels.

Après la mise en orbite réussie du satellite américain NPP, le 28 octobre 2011, celui-ci est devenu pleinement opérationnel en mars 2012. Puis, entre juillet et septembre 2012, les deux nouveaux satellites européens, MSG-3 et MetOp-B (satellites de l'opérateur EUMETSAT) ont été mis en orbite et devraient être pleinement opérationnels dans les premiers mois de 2013.

Première image de MSG-3 août 2012

 

 

 

C'est le 5 juillet que le satellite géostationnaire MSG-3 a été lancé avec succès depuis la base de Kourou.

 

Il est le troisième de la série «Météosat Seconde Génération» (MSG).

 

Il a été rebaptisé «Météosat-10» au début 2013 lorsqu'il a remplacé Météosat-8 (lancé en 2002).

Grâce en particulier à son instrument infrarouge SEVIRI, il contribuera très fortement à la surveillance et à la prévision du temps sur l'Europe, l'Afrique et une partie des océans Atlantique et Indien, en tandem avec Météosat-9.

Metop

 

Le 17 septembre, le satellite à orbite polaire héliosynchrone MetOp-B a été lancé sur une fusée Soyouz de la base de Baïkonour.

 

Après MetOp-A lancé en 2006, il est le deuxième de la série MetOp d'EUMETSAT.

 

Il est équipé des mêmes treize instruments que son prédécesseur, parmi lesquels on peut citer :

 

    > le sondeur infrarouge IASI,

    > le diffusiomètre ASCAT

    > et le récepteur GPS baptisé GRAS.

MetOp-B deviendra au printemps 2013 le satellite «primaire» pour l'orbite polaire du matin (9h30 locales ; nœud équatorial descendant).

Mais EUMETSAT a prévu de continuer de distribuer les données de MetOp-A dont les instruments continuent de bien fonctionner, et qui volera sur la même orbite, à 50 minutes de MetOp-B.

Des nouvelles de la constellation Aqua-Train

Le concept de la constellation «Aqua-Train» consiste à faire voler de façon coordonnée sur la même orbite (polaire héliosynchrone, à 705 km d'altitude), plusieurs satellites d'observation de l'atmosphère. La constellation initialement prévue par la NASA et le CNES comportait 6 satellites emportant une palette d'instruments destinés à mesurer quasi simultanément température, humidité, composants chimiques de l'air, aérosols, nuages, précipitation.

En allant de l'avant vers la queue du «train», ces 6 satellites prévus étaient : Aqua, Aura, Parasol, Calipso, Cloudsat et Oco. Suite à l'échec du lancement d'Oco en 2009, l'Aqua-Train (ou A-Train) est resté plusieurs années composée des 5 premiers satellites seulement.

Aqua train

Fin 2009, Parasol avait quitté sa position nominale pour être placé sur une orbite plus basse de 3,9 km par rapport à l'A-Train, afin de minimiser les risques de collision. Puis, en juin 2011, Clousat avait aussi quitté l'orbite nominale suite à un problème sur ses batteries, mais il a repris de nouveau le «train» en mai 2012, derrière Calipso.

Le principal autre événement de 2012 est le lancement du satellite GCOM-W1, de l'agence spatiale japonaise JAXA. C'est un satellite dont les instruments sont essentiellement dédiés au cycle de l'eau qui a été lancé avec succès le 17 mai et qui a pris la tête de la constellation devant Aqua.

Pour 2014, il est prévu le lancement d'Oco-2 (le remplaçant d'Oco suite à son échec en 2009) qui doit se placer devant GCOM-W1, donc en tête de l'A-Train. Cette constellation serait alors plus riche qu'initialement prévu en nombre de satellites, mais avec certains satellites qui vieillissent et certains instruments qui ne fonctionnent plus (voir figure ci-dessus).

Quelques autres lancements réussis en 2012

PléiadesParmi les satellites mis en orbite vers la fin de l'année 2012, on trouve plusieurs satellites d'observation de la Terre.

Ils sont sur des orbites héliosynchrones d'environ 700km d'altitude. Ils sont équipés d'imageurs fonctionnant sur le même principe que ceux des satellites météorologiques ou océanographiques, mais permettant d'atteindre localement une très forte résolution horizontale. Les données ne sont pas distribuées en temps réel et ne sont pas utilisées en météorologie ou océanographie opérationnelles. Citons le satellite turc Göktürk-2 (lancé le 18 décembre 2012), le satellite Pléiades-1B (CNES, 2 décembre 2012), ou encore le satellite Spot-6 (Spot-Image, 9 septembre 2012).

C'est le 18 novembre 2012 qu'a été lancé le satellite chinois HJ-1C muni d'un instrument «SAR-S». Il s'agit d'un radar en bande S, destiné lui aussi à effectuer des observations locales à haute résolution horizontale, plutôt que d'obtenir une couverture rapide de tout le globe en observations. Il n'y a pas de diffusion en temps réel de ces données vers la communauté scientifique mondiale.

La construction de la constellation Galileo (le «GPS européen») s'est poursuivie en 2012 avec le lancement simultané des 3e et 4e satellites (sur les 30 que doit compter la constellation finale) réussi le 12 octobre.

Ce lancement est documenté dans le site du CNES et sur le site des Argonautes.

Côté observation de l'océan depuis l'espace...

Actuellement, et depuis la fin de vie de QuikScat, seul le diffusiomètre ASCAT de MetOp produit et distribue en temps réel des données diffusiométriques, données utilisées en particulier dans les modèles opérationnels de prévision du temps.

Les perspectives pour 2014 et au-delà permettent d'envisager plusieurs nouveaux satellites produisant des données diffusiométriques, sans toutefois la garantie que ces données puissent être utilisées en temps réel par la communauté météo-océanographique.

Ces satellites sont :

  • RapidScat, envisagé pour la période (2014-2019), héritage de QuikScat sera installé sur le module Colombus de la Station Spatiale Internationale.

  • CFOSAT, satellite héliosynchrone franco-chinois, envisagé aussi pour la période (2014-2019) ; il doit embarquer un radar diffusiomérique en bande Ku (12 à 18 GHtz), mais aussi le radar altimétique SWIM développé par le CNES, pour la mesure des spectres directionnels des champs de vagues océaniques.

  • OceanSat-3, satellite héliosynchrone indien (ISRO), envisagé pour 2014-2017 ; outre le diffusiomètre OSCAT, sa charge utile comprendra l'instrument OCM permettant des observations quantitatives de la couleur de l'océan.

HY 2A

Lancé depuis le 15 août 2011, le satellite franco-chinois HY-2A effectue des observations à la surface de l'océan au moyen d'un diffusiomètre et d'un altimètre, mais la plupart de ces données ne sont pas disponibles pour une utilisation en temps réel. Les données altimétriques dites «de niveau 2» n'ont pas actuellement une qualité suffisante pour être assimilées dans les modèles d'océan. Mais des scientifiques travaillent actuellement sur la chaîne de traitement des mesures de HY-2A, et l'on espère qu'elles seront prochainement améliorées puis diffusées.

Concernant l'altimétrie océanique, au début 2012, trois satellites étaient pleinement opérationnels : Jason-1, Jason-2 et Envisat, les deux premiers sur une orbite répétitive de période 10 jours. Il y avait aussi le satellite Cryosat-2 qui, bien que conçu d'abord pour observer les glaces, banquises et manteaux neigeux, peut effectuer des mesures sur l'océan.

En avril et mai 2012, deux de ces missions altimétriques ont été partiellement ou totalement perdues :

  • le satellite Envisat qui fournissait des données depuis 2002 par une dizaine d'instruments (dont un radar altimétrique) a cessé de fonctionner, suite à une panne brutale survenue le 8 avril 2012 ;

  • l'orbite du satellite Jason-1 (lancé en 2001) a dû être abaissée de 10 km, en mai 2012, suite à l'obligation de l'éloigner de « l'orbite historique » (où se trouvent encore Jason-2 et l'épave inerte de Topex-Poséidon) pour éviter le risque de collision.

Le changement d'orbite intervenu pour Jason-1 serait certainement anodin pour la plupart des observations satellitaires. Mais pour l'altimétrie, il est fondamental. En effet, les satellites d'altimétrie océanique sont, chaque fois que possible, placés sur des traces orbitales répétitives (cycles de 10 ou 14 jours par exemple), car c'est dans cette configuration qu'ils offrent la meilleure précision sur les observations.

Du fait de la qualité insuffisante des données gravimétriques en général, les anomalies du niveau de la mer (ou «SLA») sont bien plus précises lorsqu'elles sont évaluées par rapport à la moyenne (sur la trace considérée) de plusieurs dizaines ou centaines de profils altimétriques relevés au cours de passages successifs. Sur sa nouvelle orbite (dite « géodésique », Jason-1 (rebaptisé « Jason-1G ») a un cycle orbital proche de 400 jours, et ses observations SLA doivent être évaluées par rapport à une autre surface de référence basée sur des séries climatologiques des hauteurs de la mer observées, plutôt que par rapport à une surface de référence construite à partir de ses propres données. Dans cette nouvelle configuration de Jason-1, on obtient, avec Jason-2 et Cryosat-2, seulement 100 000 mesures précises de SLA par jour, au lieu de 150 000 avant.

Le satellite Cryosat-2 a pour mission principale l'observation des surfaces englacées. Comme Jason-1. il se trouve sur une orbite géodésique. Une mise à niveau de son segment sol est prévue pour augmenter sa contribution aux observations océaniques, déjà très considérable, mais qui laisse certaines capacités ou opportunités d'observation inexploitées sur l'océan non gelé. Pour cela on envisage de jouer sur les différents modes de fonctionnement de son radar altimétrique SIRAL :

Dans la continuité de Jason-1 et Jason-2 (toujours opérationnels, au moins partiellement), Jason-3 est envisagé pour 2014 avec les mêmes instruments , en attendant Jason-CS (vers 2018 et au-delà) qui devrait assurer la «Continuité de Service» (CS), avant que n'émergent de nouvelles technologies comme l'interférométrie large fauchée (mission SWOT).

Plus près de nous, dès 2013, l'altimètre Altika, en bande Ka (26,5 à 40 GHz) devrait voler sur le satellite franco-indien SARAL (CNES, ISRO). Il y aura ensuite «Sentinel-3A», l'un des satellites de l'ESA successeurs d'Envisat, en 2014 ou 2015. Quant au satellite franco-chinois CFOSAT (mentionné plus haut à propos des diffusiomètres), son altimètre permettra d'obtenir aussi des observations de la hauteur dynamique de l'océan, mais avec une précision dégradée.

Conclusion

Le site «Oscar» de l'OMM indique au début 2013 que 150 satellites d'observation sont opérationnels et que 33 lancements sont programmés dans le courant de l'année.

Ces chiffres peuvent donner une impression de foisonnement et de redondance dans l'observation. Mais il faut se souvenir que «opérationnel» (au sens d'Oscar) ne veut pas dire «mis à disposition de la communauté scientifique mondiale», et encore moins «en temps réel».

De fait, si l'on se limite à la météorologie et à l'océanographie opérationnelles, seul un petit pourcentage de ces données satellitaires est produit et diffusé mondialement dans les délais requis pour satisfaire les contraintes opérationnelles. Certaines variables clés pour la météorologie et l'océanographie peuvent parfois se trouver globalement à la merci d'un seul satellite ou d'un seul instrument (et de sa panne brutale toujours possible). C'est le cas actuellement pour le vent à la surface de l'océan, qui dépend beaucoup des diffusiomètres : une panne brutale de l'instrument ASCAT de MetOp nous ramènerait à la situation diffusiométrique d'avant 1991 (zéro observation !), malgré les nombreuses perspectives de lancements évoquées plus haut.


En savoir plus

Le site web récemment rendu public par l'OMM : http://www.wmo-sat.info/oscar,

permet une analyse des systèmes d'observation passés, existants et futurs, pour l'atmosphère et ses milieux connexes.

Il permet à l'internaute de se documenter sur différents aspects des systèmes d'observation (besoins et lacunes en observation par rapport à diverses applications).

En cliquant sur «satellite capabilities», il permet d'accéder («à la carte» et de manière interactive) à une revue de tous les satellites d'observation passés, existants et futurs, ainsi qu'à une fiche technique décrivant chaque instrument, chaque satellite et chaque programme satellitaire.

On peut aussi s'informer par exemple sur les lancements récents ou ceux prévus dans l'année en cours : cliquer sur «Recently launched» ou «Planned launches».

Ce site web de l'OMM (baptisé «Oscar») a servi à trouver plusieurs détails techniques dans le présent texte. Il peut aussi servir à approfondir l'information donnée dans chacun des paragraphes ci-dessus.


Acronymes

ASCAT : Instrument diffusiomètre : Advanced Scatterometer sur le satellite MetOp

CFOSAT : Satellite franco-chinois : Chinese-French Oceanic SATellite

EUMETSAT : European Organisation for the Exploitation of Meteorological Satellites

GCOM-W1 : Global Change Observation Mission 1-Water

GRAS : Global navigation satellite system Receiver for Atmospheric Sounding

IASI : Interféromètre Atmosphérique de Sondage Infrarouge

ISRO : Indian Space Research Organisation

METOP-B : Meteorological Operational Polar Satellite (en français Satellite Météorologique Polaire Opérationnel)

MSG-3 : Troisième satellite météorologique Meteosat de la deuxième génération (Meteosat Second Generation) rebaptisé Meteosat 10

OCM : Instrument "Ocean Colour Monitor"

OCO : Orbiting Carbon Observatory

OMM : Organisation Météorologique Mondiale - en anglais WMO : World Meteorological Organization

OSCAT : Oceansat-2 Scatterometer, diffusiomètre sur le satellite indien Oceansat-3

Quikscat : Quick Scatterometer. Satellite d'observation terrestre de la NOAA qui fournit des informations sur la vitesse et la direction des vents.

RapidScat : Rapid scatterometer, instrument qui sera installé par la NASA sur la station spatiale internationale en 2014

SARAL : Satellite with Argos and Altika

SAR-S : Synthetic Aperture Radar - Bande S (2 à 4 Ghz) - Radar à synthèse d'ouverture.

SLA : Sea Level Anomalies

SWOT : Surface Water Ocean Topography


2/2 Recension de l’ouvrage "150 questions sur l’océan et le climat"  par Guy Jacques
Éditeur : Universcience Édition - Le Pommier, 2012.

Les Argonautes ne pouvaient rester insensibles face à un ouvrage qui apporte des réponses aux questions régulièrement posées par le public et les jeunes lors de conférences, débats ou interventions en milieu scolaire, y compris celles qui surprennent, comme «combien pèse un nuage ?» ou «pourquoi la mer est-elle salée ?».

Le point de départ de ce livre est une borne interactive installée durant l’exposition «L’océan, le climat et nous» de la Cité des sciences.

L’éditeur a choisi de ne pas modifier les questions, quitte à conserver les imprécisions, la naïveté, voire les erreurs d’origine («Les espèces de crustacés (moules, huîtres..»), et il a bien fait.

Il a également conservé l’ordre chronologique des questions, compensant cette difficulté par un index divisé en 15 thématiques qui facilite la recherche des différents sujets.

Disons le d’emblée : pour le public comme pour le scientifique intéressé par la communication, il s’agit d’un ouvrage dont on doit conseiller la lecture, autant pour les questions que pour les réponses !

Dans son analyse de ce livre, la revue Science & Avenir souligne que les enfants ont l’art d’être émouvants citant les questions posées par Tristan, âgé de 10 ans, qui demande «comment l’eau est apparue»  alors qu’Elsa, 7 ans, «s’inquiète de la disparition des baleines».

Devant l’acuité ou la naïveté de certaines questions, on aurait aimé que soit indiqué l’âge de celui ou celle qui l’avait posée mais, contrairement à ce qu’indique Science & Avenir, cette précision ne figure pas dans l’ouvrage.

Ma principale critique est l’insuffisance du travail éditorial qui aurait amélioré cet ouvrage sur plusieurs points :

  1. il aurait sans doute été possible de pondérer le choix des sujets déposés par les visiteurs car je suppose que bien plus de 150 questions ont été déposées. Soumis à l’actualité médiatique, ils se sont intéressés principalement à la montée du niveau marin (25 questions sur 150, dont certaines très proches) et à l’augmentation de la teneur en CO2 de l’océan entraînant son acidification qui conduit les scientifiques, dans leurs réponses, à privilégier à l’excès les organismes vivant en pleine eau ou sur les fonds marins qui possèdent un squelette ou un test calcaire : coccolithophoridés, ptéropodes, foraminifères et, bien évidemment, le corail.
     

  2. liberté paraît avoir été donnée aux scientifiques sur la longueur de leur réponse, liberté qu’il eut peut-être fallu pondérer, d’autant que, comme souvent, les physiciens sont concis, les biologistes plus bavards.
    Citons deux exemples qui montrent ces deux types d’excès.
    Répondre à la question :
    «Bonjour, je voudrais savoir combien d’eau il y a dans l’océan ? Merci.»
    par
    «L’océan contient 1 320 millions de km3, soit plus de 97 % de l’eau présente sur Terre»
    est parfaitement exact mais, me semble t-il, insuffisant. Il aurait fallu énumérer les principaux réservoirs, notamment à propos de l’eau douce. À l’opposé, deux pages pour éclairer le lecteur sur la surpêche ne s’imposaient pas.
     

  3. il est certain que l’on pourrait critiquer mes propres critiques…Ce petit ouvrage n’a en effet pas pour ambition de constituer une encyclopédie, d’où des réponses nécessairement partielles et des questions non posées.
    En tenant compte de ces limites on ne peut que regretter néanmoins qu'il n' y ait pas eu un minimum de coordination entre scientifiques pour éviter des réponses parfois insuffisantes, trop concises, voire désinvoltes. Donnons-en quelques exemples :

  • à la question :
    «Comment connaît-on le climat qui régnait sur terre il y a 800 000 ans ?»
    le scientifique souligne dans un passage :
    «Ainsi les types de pollens ou de micro-organismes marins qui sont identifiés dans les sédiments des océans témoignent des changements de couverture végétale ou de température de la mer».
    Si cette phrase est parfaite, elle suppose pas mal de prérequis : comment les pollens ou le plancton se retrouvent-ils au fonds des océans en bon état de conservation ? Comment la présence du reste conservé d’un organisme vivant donne-t-il une indication de la température ?
     

  • la réponse à la question :
    «Pourquoi la mer des fois elle est bleue et des fois elle est verte ?»
    en plus d’être approximative, oublie de parler des satellites conçus pour mesurer la «couleur de la mer» qui permet d'estimer la teneur en chlorophylle de l’océan mondial alors qu’il s’agit d’une avancée majeure en océanographie aussi bien pour l’aspect production primaire que pour l’aspect climatique ;
     

  • répondre à la question :
    «Si la concentration en CO2 augmente, pourquoi n’est-ce pas favorable aux coquillages qui ont besoin de CO2 pour fabriquer leur calcaire ?»
    «Parce que les organismes fabriquant des coquilles en calcaire utilisent préférentiellement l’ion carbonate (CO32-) et non le CO2 dissous.
    Quand l’océan absorbe du carbone atmosphérique, le CO2 en excès consomme des ions carbonates ; la réaction produit des ions bicarbonates (HCO3-). C’est donc la diminution de la concentration en ions carbonates qui pourrait être potentiellement dommageable pour les organismes calcaires»,
    c’est s’adresser à un étudiant en licence de chimie et non au public visitant une exposition ;
     

  • le terme «désinvolte» paraît s’appliquer à la réponse donnée à la question suivante :
    «J’ai trois enfants, j’essaie de faire ce que je peux pour éviter de contribuer à la pollution et au réchauffement climatique mais j’ai l’impression de ne pas faire vraiment le poids face à la Chine ou aux États-Unis ! Vous pouvez me donner une raison de rester optimiste ? Merci !»
    Comment l’éditeur a-t-il pu laisser un scientifique répondre à cette question très fréquente lors des débats suivant les conférences venant d’une personne de bonne volonté :
    «Merci pour la question. Le pire n’est pas toujours sur, et si on a de la chance le climat de Paris à la fin du siècle sera comparable au climat de Bordeaux aujourd’hui. Ce n’est pas si mal, non».


Coédition Universcience / Le Pommier - «Hors collection» Octobre 2012.

Livre broché 192 pages

Auteurs :

Alexandre Magnan, Benoît Meyssignac, Claire Waelbroeck, Étienne Berthier, François Gemenne, Gonéri Le Cozannet, Julien Rochette, Laurence Eymard, Laurent Bopp, Minh Ha-Duong, Philippe Goulletquer, Sabine Charmasson, Stéphane Hallegatte, Valérie Masson-Delmotte, Virginie Racape, Yann Lefranc.


Mois de Janvier 2013

1/3 L'année 2012 au palmarès des années les plus chaudes depuis 1880. 

Analyse des indices climatiques 2012

La température globale

La NASA et la NOAA ont présenté le 15 janvier 2013 leur analyse respective des températures à la surface de la Terre en 2012 lors d’une téléconférence au cours de laquelle ils ont échangé et discuté leurs résultats.

Leurs analyses convergent très largement, et au palmarès des années les plus chaudes depuis 1880, la NASA place 2012 en 9ème position et la NOAA en dixième seulement.

La différence est mince et les années 2004 et 2012 sont à peu près équivalentes.

La température globale moyenne a été de 14,6 °C soit 0,6 °C au-dessus de la moyenne des années 1951-1980 et 0,8 °C supérieure à la moyenne de 1880, première année pour laquelle on dispose de cette information.

Certains sceptiques verront néanmoins dans ce modeste classement la confirmation qu’il n’y a plus de réchauffement significatif depuis 1998 (Fig.1) en dépit de la poursuite de l’accroissement ininterrompu de la teneur de l’atmosphère en gaz à effet de serre (Fig.5) et qu’il n’y a pas lieu de s’alarmer.

Ce serait oublier qu’une année ne fait pas le climat. Si l’on considère les moyennes décennales, beaucoup plus représentatives des évolutions climatiques, la température n’a cessé d’augmenter depuis plus de trente ans.

Les 12 années 2001-2012 comptent parmi les 14 années les plus chaudes depuis 1880 et 2012 est la trente sixième année consécutive dont la température moyenne est supérieure à la moyenne 1950- 1980 (Fig.2). Il ne fait pas de doute que la surface de la Terre continue de se réchauffer.

Anomalies de températures globale entre 1950 et 2012
 

L’oscillation ENSO

L’oscillation ENSO qui génère les alternances Niño Niña a un impact sur les températures moyennes globales de la surface de la Terre et module la tendance générale à l’accroissement de température. Effet positif pour Niño et négatif pour Niña.

L’année 1998 troisième au palmarès des années les plus chaudes était une année d’El Niño très intense. Des quatre années les plus chaudes, seule 2005 ne correspondait pas à un épisode El Niño. Les années Niña au contraire correspondent à des minimums relatifs de température. Pourtant 2012, l’année Niña la plus chaude, est entrée dans le "top" (voir Fig.2). Est-ce le signe de l’atténuation de l’amplitude de l’oscillation ENSO et de l’établissement d’un nouveau régime stable dans le Pacifique équatorial ? (voir news de décembre 2012). L’avenir le dira.

La banquise arctique

Le 16 septembre 2012 à la fin de l’été boréal la surface de la banquise arctique a atteint son niveau historique le plus bas : 3,41 millions de km2. Par comparaison en septembre 2007 date du précédent record elle était de 4,17 millions de Km2. Elle était d’environ 7,5 millions de km2 en septembre 1979 date des premières observations satellitaires par le satellite Nimbus 7 lancé en 1978.

Par rapport à la moyenne 1979/2000 c’est une diminution de 49%. Les six dernières années (2007-2012) sont aussi les six années d’extension minimale de la banquise de l’Arctique depuis 1979 (voir Fig.3 et Fig.4 ci-dessous).

Evolution de la banquise entre 1979 et 2012

 

Anomalie en Arctique 1979 2000

Fig 4: Evolution de 2004 à 2012 de l’extension et de la concentration de glace en septembre en Arctique.
Source : NSIDC National Snow and Ice Data Centre

C’est climatiquement significatif et montre qu’il y a une accélération du phénomène qui pourrait déboucher sur une disparition totale de la banquise estivale d’ici à quelques décennies beaucoup plus rapidement que ne le laissaient prévoir les modèles.

Les causes premières de cette diminution de la banquise sont les hausses de température de l’air et de la mer (cette dernière ayant un impact sur l’épaisseur de la banquise qui diminue). Une cause de la sous-estimation de la vitesse de disparition de la banquise qui selon Rampal et al. 2011 est quatre fois plus rapide que celle calculée par les modèles pourrait être une mauvaise prise en compte dans les modèles du comportement mécanique de la banquise et de la dérive des glaces en regard de leur épaisseur et de leur concentration.

Par exemple l’amincissement de la banquise sur la période 1979-2008 a été quatre fois plus rapide que dans les modélisations climatiques. Une banquise moins épaisse, plus fragile donc, se fragmente plus aisément. Cela la rend plus mobile et favorise sa dérive vers le sud par le détroit de Fram entre le Groenland et le Spitzberg hors de l’Arctique où elle fondra. Cette accélération de la dérive et donc de l’évacuation de la banquise n’est pas encore prise en compte dans les modèles.

Un autre phénomène pour lequel l’année 2012 détient aussi un record et qui contribue aussi à l’irréversibilité du phénomène est la fonte de la «vieille glace» ou glaces pluriannuelles. L'OMM la définit ainsi : glace âgée qui a résisté à au moins deux étés de fonte. C’est donc une glace pérenne épaisse, celle qui reste en été à la fin de la période de fonte. C’est en quelque sorte le noyau dur de la banquise. Or celui-ci est aussi en pleine régression : entre 1979 et 2011 l’extension de la glace pluriannuelle a diminué de 15% et son épaisseur décroît également, ce qui la fragilise et l’entraîne dans un processus quasi irréversible de fonte. L’année 2012 détient le record de fonte de glace entre le maximum hivernal du 20 mars et le minimum estival du 16 septembre. Elle est aussi de ce fait l’année du minimum du volume de glace en septembre ; ceci au détriment de la glace pluriannuelle.

On voit mal par quel tour de force on pourrait faire obstacle à ces processus qui s’accélèrent et comment la banquise arctique pourrait survivre à terme en été. D’autant que climatiquement cette fonte accélérée de la banquise génère une rétroaction positive. La diminution de la glace diminue l’albedo (réflexion et retour dans l’espace de l’énergie solaire) et accroît considérablement l’énergie absorbée par l’océan débarrassé de son couvercle de glace. Ce qui l’échauffe et a un impact sur le climat planétaire et singulièrement de l’Arctique dont l’accroissement de la température selon le GIEC pourrait être le double de celui de la température moyenne globale…..

Le CO2 atmosphérique

Protocole de Kyoto ou pas le gaz carbonique prospère dans l’atmosphère.

Régulièrement sa concentration y croît (voir Fig.5 ci-dessous).

L’observatoire de Mona Loa à Hawaii qui mesure la concentration en CO2 de l’atmosphère depuis 1958 (Année Géophysique Internationale) annonce pour décembre 2012 : 394,28 ppm contre 391,83 en décembre 2011. Non seulement elle croît, mais elle croît de plus en plus vite (voir Fig.6 ci-dessous).

Taux de croissance du CO2

La moyenne décennale d’accroissement du CO2 atmosphérique pour la dernière décennie (2000-2010) a été la plus forte depuis les années 1960 : en moyenne de 2 ppm/an entre 2000 et 2010 contre 1,5 ppm/an pour la décennie précédente et moins de 1 ppm/an entre 1960 et 1970. L’année 2012 détient la médaille de bronze pour le taux d’accroissement annuel du CO2 dans l’atmosphère depuis 1958 (derrière 1998 et 2005).

C’est d’ailleurs parfaitement logique puisque la production de CO2 ne cesse d’augmenter. Le Tyndall Centre for Climate Change Research de l’Université d’East Anglia (Grande Bretagne) a annoncé que les émissions de CO2 en 2012 s’étaient élevées à 9,7 gigatonnes (équivalent carbone) . Un record historique qui place l’année 2012 à un taux annuel de production de CO2 de 58% supérieur à celui de 1990.

Or le protocole de Kyoto signé en 1997 et entré en vigueur en 2005 prévoyait de réduire d’ci à 2012 les émissions de gaz à effet de serre de 5% par rapport à 1990. Nous en sommes loin et bien au-delà du scénario le plus pessimiste du GIEC (A1FI), FI pour « intensive fuel ».

Effectivement l’utilisation du fuel a été très intensive. Il n’y a là pas de surprise puisque le protocole de Kyoto ne prévoyait de réduction que pour les pays bien industrialisés. La Chine et l’Inde par exemple en étaient dispensées. Les USA n’ayant pas ratifié le protocole et le Canada s’en étant retiré il n’était finalement contraignant que pour l’Europe qui a réduit ses émissions de 2,8 % en 2011 alors qu’en Chine, devenue le plus gros producteur de CO2, elle augmentait de 10%.

De toutes ces informations convergentes on ne peut que faire le constat que la lutte contre le changement climatique est assez mal partie. Que l’objectif de l’Europe de limiter le réchauffement moyen global à 2° au cours du siècle ne sera pas atteint.

Evolution de la population mondialeNous sommes vraisemblablement à un moment crucial de l’évolution climatique de la Terre, un point de rupture qui sera peut-être aussi un point de non retour : la disparition de la banquise arctique estivale aura de forts impacts sur les circulations générales atmosphériques et océaniques et l’énergie qu’ils échangent, moteurs du climat. Les conséquences climatiques d’une telle transition à l’échelle mondiale sont difficilement prévisibles mais ne seront certainement pas négligeables. …Certains malgré tout en rêvent : ouverture au commerce, à de nouvelles ressources halieutiques et minérales, accès à de nouvelles terres agricoles afin de nourrir la population mondiale, paramètre climatique à ne pas négliger, qui ne cesse de croître (Fig 7) et qui comme le gaz carbonique dans l’atmosphère bat chaque année un nouveau record....


NASA : National Aeronautics and Space Administration
NOAA : National Oceanic and Atmospheric Administration

GIEC : Groupe d'experts intergouvernemental sur l'évolution du climat (IPCC en anglais)

ENSO : El Niño – Souhern Oscillation. Oscillation de la pression atmosphérique entre les hautes pressions du Pacifique central et les basses pressions de la région indopacifique couplée aux variations de la température de surface de l’océan Pacifique équatorial. 

El Niňo : (en espagnol "l'Enfant" ; les chrétiens fêtent la naissance de l'enfant Jésus à Noël, période à laquelle, en général, le phénomène atteint son maximum d'intensité);
Initialement, courant marin chaud superficiel dirigé vers le sud se développant parfois au large des côtes d’Équateur et du Pérou. Maintenant ce terme désigne l’épisode d’Enso caractérisé par un indice de l’oscillation australe fortement négatif et des températures océaniques anormalement chaudes à l’équateur et à l’est du Pacifique ainsi qu’un affaiblissement de la cellule de Walker.

Il se traduit par un réchauffement anormal de 4 à 6°C, des eaux superficielles au large des côtes d'Amérique. Affectant l'océan et l'atmosphère, il peut durer un an et se reproduire avec une intensité variable, avec des intervalles inégaux de deux à sept ans.

La Niňa : Épisode d’Enso durant lequel l’indice de l’oscillation australe est fortement positif. S’observent parallèlement une activation de la cellule de Walker du Pacifique et un refroidissement marqué des eaux de surface dans le Pacifique est et près de l’équateur, ce qui correspond à une activation de la remontée d’eau côtière et de la divergence équatoriale. 


Références :

IPCC climate models do not capture Arctic sea ice drift acceleration: Consequences in terms of projected sea ice thinning and decline, P. Rampal, J. Weiss, C. Dubois, J.M. Campin. J. Geophys. Res. 29 Septembre 2011.


En savoir plus :

http://..ncdc.noaa.gov/..l/
http://...esrl.noaa.gov..trends/
http://..tyndall.../record-high-global-carbon-emissions
http://nsidc.org...breaking-summer-and-winter/
http://nsidc.org/cryosphere/sotc/sea_ice.html
http://climate.nasa.gov/
http://www.statistiques-mondiales.com...


2/3 Jean Jouzel, premier lauréat français du prix Vetlesen

Les Argonautes se réjouissent que la Fondation américaine Vetlesen ait décidé d'attribuer à Jean Jouzel, en 2012, le prix qu'elle décerne tous les quatre ans à des chercheurs en sciences de la Terre et de l'univers, pour récompenser des travaux qui permettent une meilleure compréhension des phénomènes terrestres, physiques et biologiques ainsi que leur histoire.

Cette distinction est, avec le prix Crafoord, la plus élevée que puisse recevoir un scientifique de ces disciplines pour lesquelles il n'existe pas de prix Nobel.
Jean Jouzel

Jean Jouzel s'est illustré par des travaux remarquables qui ont permis, par une analyse isotopique des bulles d'air piégées dans les carottes de glace, de reconstituer la température que connaissait le globe à l'époque où elles ont été emprisonnées dans la glace.

C'est ainsi qu'on a pu reconstituer l'évolution de la température de la planète au cours des 800 000 dernières années, en analysant des glaces de la calotte antarctique prélevées jusqu'à une profondeur de 3 km.

Jean Jouzel a dirigé de 2001 à 2008 l'Institut Pierre Simon Laplace qui regroupe plusieurs laboratoires d'Ile de France. Il est, depuis 2002, membre du bureau du Giec aux travaux duquel il a participé depuis sa création.

Il partage le prix Vetlesen 2012 avec Susan Solomon distinguée pour ses travaux sur la diminution anthropique de la couche d'ozone. Cette dernière a largement contribué à l'adoption du protocole de Montréal sur l'interdiction de l'emploi des chlorofluorocarbones, précédemment utilisés dans les réfrigérateurs et les bombes aérosols. Elle est membre de l'Académie des sciences des Etats Unis et de celle de France. Elle a présidé le groupe I du Giec pour la rédaction du 4ème rapport de 2007.

Les Argonautes félicitent Susan et Jean et les remercient pour leur inlassable action de sensibilisation à la nécessité de réduire l'ampleur du changement climatique, en limitant autant que possible les émissions de gaz à effet de serre résultant des activités humaines.


3/3 Argo nouvelle génération : le programme NAOS

Le 4 novembre 2012 a été réalisé le millionième profil du programme ARGO.

En août 2012 a été testée avec succès une nouvelle génération de flotteur Argo (Deep Arvor) capable d’explorer les 3 500 premiers mètres de l’océan.

Le programme Argo, lancé en 2000, visait à construire le premier réseau mondial d’observation de l’océan dans ses trois dimensions. Il s’agissait de déployer dans tout l’océan des flotteurs capables de sonder l’océan en mesurant température, salinité et pression (qui donne la profondeur), jusqu’à 2000 mètres.

Flotteurs Argo

Dérivant à mille mètres, ces flotteurs plongent à deux mille mètres puis remontent automatiquement en surface tous les dix jours en réalisant ainsi un profil de température et de salinité de la profondeur de 2 000 mètres jusqu'à à la surface, l’équivalent pour l’océan des sondages météorologiques réalisés dans l’atmosphère.

Une fois en surface ces flotteurs transmettent leur position et les données récoltées par satellite. Ils replongent ensuite à leur profondeur de dérive jusqu’à leur prochaine excursion vers la surface dix jours plus tard.

Objectif réussi : fin 2007 on atteignait les trois mille flotteurs opérationnels et en septembre 2012, 3 573 flotteurs fournis par 28 pays étaient en service dont 230 fournis par le France. Soit 120 000 profils par an.

L’observation opérationnelle de l’océan est ainsi devenue une réalité. Les données récoltées associées à des mesures satellitaires, notamment altimétriques, ont permis de développer des modèles de prévision de tout l’océan analogues aux modèles météorologiques. L’océan est devenu prévisible et des centres de prévision opérationnelle à deux ou trois semaines se sont développés dans le monde, comme en France Mercator-Océan qui publie des cartes de prévision à 15 jours : courants, température, salinité.

Ce réseau est aussi nécessaire pour les études climatiques. L’océan est en effet un acteur majeur du système climatique par les quantités de chaleur, d’eau et de gaz qu’il stocke, qu’il transporte et qu’il échange avec l’atmosphère. Au cours des 50 dernières années, l'océan a ainsi absorbé 80 à 90 % de l'excès de chaleur dû à l'augmentation de la concentration des gaz à effet de serre dans l'atmosphère. Caractériser les effets du changement climatique, comprendre et prévoir l’évolution du climat de la Terre nécessite une connaissance précise de l’océan dans sa totalité et donc des observations globales sur le long terme.

Le réseau Argo, et les centres de prévision océanique n’ont pas encore le caractère vraiment opérationnel des systèmes de prévision météorologique, en ce sens que financés sur des budgets de recherche, la pérennité que leur donnerait une organisation institutionnelle et un financement adéquats, n’est pas assurée. Les résultats obtenus, les applications et services développés notamment dans le cadre du programme MyOcean, composante océanique du programme européen GMES, devraient inéluctablement déboucher, passée cette phase préopérationnelle financée jusqu’en 2014, sur la mise en place ensuite d’un système complètement opérationnel.

Le réseau ARGO a donc fait ses preuves mais on peut l’améliorer.

  • Explorer l’océan sur 2000 mètres c’est bien, mais aller encore plus profond c’est mieux.
     

  • Mesurer température et salinité c’est bien et c’est essentiel pour appréhender la dynamique des océans et son rôle dans le fonctionnement du climat. Mais il n’y a pas que cela. La dynamique océanique est aussi couplée à celle du milieu vivant qu’il contient : les écosystèmes et la complexité des réseaux trophiques qui vont de la production photosynthétique primaire par le phytoplancton aux poissons…. jusqu’à l’homme qui s’en nourrit ; ce que l’on appelle l’«océan vert». Le milieu vivant à tous les niveaux réagit aux variations océaniques et donc aux variations et changements climatiques qui lui sont liés. De même que l’on a appris à modéliser le couplage océan/atmosphère pour les prévisions climatiques, on développe maintenant des modèles couplant l’océan et le milieu vivant pour également simuler les évolutions possibles des écosystèmes et des ressources qu’ils produisent, halieutiques notamment. Pour cela il est nécessaire de mesurer dans les trois dimensions de l’océan des paramètres biochimiques que l’on ne mesure actuellement que ponctuellement ou en surface grâce aux satellites comme c’est le cas pour la chlorophylle.
     

  • Enfin des zones océaniques sont restées à l’écart du réseau Argo : les glaces et certaines régions marginales.

D’où le programme NAOS qui a démarré le premier juin 2011 et doit se terminer fin 2019.

C’est un programme français coordonné par l’Ifremer en partenariat avec de nombreux laboratoires et entreprises françaises.

Il a été retenu suite à l’appel d’offre «Equipex» lancé par «le Programme Investissements d’Avenir» de l’ANR. Il a pour objectif de consolider et d’améliorer la contribution française et européenne au réseau international ARGO et de préparer son évolution pour la prochaine décennie.

Pour cela il est prévu :

  1. de porter de 65 à 80 flotteurs la contribution française annuelle au réseau ARGO
     

  2. de développer une nouvelle génération de flotteurs techniquement plus performants (fiabilité, transmission) et pouvant atteindre la profondeur de 3 500 mètres
     

  3. de les équiper de capteurs biochimiques (chlorophylle, nitrate, oxygène, carbone particulaire) afin d’explorer sur 2000 mètres l’«océan vert»
     

  4. et de les doter de détecteurs de glace pour travailler aux hautes latitudes.

Sonde de mesure ArgoDés 2014 la contribution française au programme général ARGO devrait bénéficier progressivement de la nouvelle génération de profileurs. En outre 33 flotteurs nouvelle génération équipés de capteurs biochimiques seront déployés en Méditerranée entre 2013 et 2016 et 13 munis en plus de détecteurs de glace dans l’Arctique entre 2014 et 2016 pour étudier les blooms phytoplanctoniques encore mal connus aux confins des glaces. Enfin 24 flotteurs capables de faire des mesures jusqu’à 3500 mètres et équipés de capteurs d’oxygènes le seront dans l’Atlantique nord pour l’étude de la circulation profonde dans l’Atlantique Nord.

Ainsi, se développera aussi l’offre industrielle des flotteurs français aux niveaux européen et international.


GMES : Global Monitoring for Environment and Security

NAOS : Novel Argo Ocean observing System

Equipex : Appel à projets Equipements d’Avenir

ANR : Agence Nationale de la Recherche


Référence : Pierre- Yves Le Traon et al « Le projet Equipex NAOS : l’observation des océans Préparation de la nouvelle décennie d’Argo » La Météorologie 76 février 2012


En savoir plus :

Ifremer : http://www.ifremer.fr/naos/Le-projet
Mercator ocean : http://www.mercator-ocean.fr/fre/
Myocean : http://marine.copernicus.eu/ 
NAOS : http://www.naos-equipex.fr/
Club des Argonautes : http:/..ion/mesureinsitu.php