|
|
|
|
 |
|
Les événements climatiques extrêmes |
|
|
|
|
|
Les événements climatiques extrêmes
Publié le 13 juillet 2022
« Ouragan du siècle », « Canicule extrême » ou encore « Événement Cévenol ». Depuis quelques années, ces termes sont à la une des médias face à la survenance de phénomènes météorologiques extrêmes. Ces événements de nature très variée, le plus souvent inattendus et violents, nous semblent survenir bien plus fréquemment. Mais est-ce vraiment le cas ? Et si oui, peut-on établir un lien avec le réchauffement climatique ?
LES EXTRÊMES MÉTÉOROLOGIQUES
Même parmi les scientifiques, la notion d’événement météorologique extrême reste difficile à définir. En effet, statisticiens, physiciens et spécialistes des sciences sociales ont chacun leur définition d’événement météorologique extrême. Bien que ces trois définitions soient complémentaires, elles ont chacune une dimension propre.
Pour les statisticiens, un extrême sera nommé ainsi si une mesure (température, vitesse du vent) dépasse les valeurs communément rencontrées. Ce sont les chiffres qui déterminent si oui ou non un événement est extrême.
Une seconde définition est donnée par les physiciens : l’extrême correspond à une catégorie d’événement (cyclone tropical, tempête extra-tropicale, vague de chaleur, sécheresse, etc.) qui dépend de la région et de sa description phénoménologique.
Enfin, les spécialistes des sciences sociales définissent l’événement par les dégâts causés. En ce sens, un événement sera dit extrême lorsqu’il touche la société. Un événement aura plus tendance à être qualifié d’extrême dans ce cas que s’il se déroulait dans un lieu sans habitation (par exemple dans le désert) car il n’est à l’origine ni de dégât matériel, ni de perte humaine. Aussi, un événement climatique sera considéré comme extrême s’il se déroule dans un lieu où la population n’est pas habituée à se protéger contre un type d’événement particulier. Par exemple, en France, la population est moins habituée à recevoir beaucoup de chutes de neige, contrairement au Canada où la population est préparée et habituée à faire face à ce type d’événement.
Les critères de détermination d’un événement extrême diffèrent en fonction du lieu. Par exemple, on parle de canicule à Toulouse quand pendant au moins trois jours, les températures la nuit sont au-dessus de 21 °C et quand en journée les températures dépassent les 36 °C. Alors qu’à Brest, une canicule est avérée si pendant au moins trois jours il fait plus de 16 °C la nuit et plus de 28 °C en journée.
Météorologie ou climat ?
* Le météorologue s’intéresse à ce qui va se passer, ou ce qui s’est passé, tandis que le climatologue veut savoir ce qui peut se passer ou ce qui aurait pu se passer.
* De ce fait, les prévisions météo vont des prochaines heures aux prochains jours, tandis que les climatologues ont besoin de se placer dans les temps longs pour tracer des tendances générales, en balayant les données du passé et les scénarios du futur.
* Cette différence a également un impact bien concret sur nos vies : consulter la météo nous permet de déterminer « comment vais-je m’habiller demain ? », alors que se renseigner sur le climat nous aide à répondre à la question : « comment vais-je construire ma maison ? ».
Classement des extrêmes météorologiques
Les extrêmes météorologiques peuvent se classer en deux catégories en fonction de leur durée : des phénomènes longs persistant plusieurs semaines ou plusieurs mois (telle une sécheresse) et d’autres, souvent très intenses, dont la durée se limite à quelques heures voire quelques jours.
LES ROUAGES DES EXTRÊMES MÉTÉOROLOGIQUES
Les mécanismes des extrêmes météorologiques sont complexes. Par exemple, la canicule de l’été 2003 est la conséquence de mouvements de masses d’air sur une très vaste étendue spatiale (plusieurs milliers de kilomètres de rayon). Les conditions à réunir pour provoquer une vague de chaleur sont multiples et peuvent être annulées par quelques jours de précipitations. D’où l’extrême difficulté à prévoir leur occurrence quelques semaines à l’avance même s’il est clair qu’une augmentation des températures augmente le risque de survenue des canicules.
L’apparition des autres phénomènes climatologiques extrêmes (vagues de froid, tornades, tempêtes, etc.) est la résultante également de multiples facteurs et de leurs interactions, qu’il peut être très compliqué de modéliser et de prévoir.
COMPRENDRE LE PASSÉ POUR DÉTERMINER LES CAUSES DES PHÉNOMÈNES CLIMATIQUES EXTRÊMES
L’étude du climat du passé est l’une des pistes qui permet aux scientifiques d’établir un lien entre les extrêmes météorologiques (sécheresse, vagues de froid par exemple) et l’évolution des températures moyennes.
Certains historiens comme E. Le Roy Ladurie se sont penchés sur les archives, à la fois nationales mais aussi parfois très localisées et détaillées telles que des registres paroissiaux, dans lesquelles on trouve la trace de certains événements météorologiques ayant particulièrement marqué la population (tempêtes, épisodes de chaleur ou de froid, destruction de bâtiments, récoltes dévastées, etc.). La description des effets et des dégâts causés donne une approximation du niveau de violence de ces phénomènes subis par nos ancêtres. Des documents relatent que la sécheresse était particulièrement redoutée par les sociétés rurales car celle-ci mettait en danger les récoltes. Cette frayeur de la sécheresse était si grande que des processions pro pluvia s’organisaient pour implorer l’arrivée de la pluie.
Grâce à ces données et à celles que l’on peut analyser aujourd’hui (analyse de cernes de croissance des arbres, carottes glaciaires etc.), les chercheurs peuvent en savoir plus sur les événements extrêmes du passé et ainsi les comparer à ceux d’aujourd’hui. Par exemple, des historiens suisses (O. Wetter et C. Pfister) ont reconstruit, après avoir étudié de nombreuses archives, une canicule potentiellement pire que celle de 2003 qui aurait touché l’Europe… en 1540.
QUEL LIEN AVEC LE RÉCHAUFFEMENT CLIMATIQUE ?
Aujourd’hui, certains extrêmes météorologiques sont liés à la température moyenne du globe, et à son augmentation en raison du réchauffement climatique. Si le lien n’est pas encore totalement élucidé et fait l’objet de nombreux débats scientifiques, il est bien possible, dans certains cas, d’affirmer que le réchauffement climatique est responsable de l’augmentation de l’intensité des précipitations de pluie et de neige. Ceci s’explique par la relation thermodynamique de Clausius-Clapeyron, qui dit que la quantité d’eau sous forme de vapeur présente dans l’atmosphère augmente avec la température.
Ce phénomène se ressent notamment au sud de l’Italie où des vagues de froid entraînent d’importantes précipitations neigeuses depuis le début des années 2000, alors que l’on sait que par le passé il ne neigeait pas autant dans cette région. La mer Méditerranée étant plus chaude, elle crée une évaporation d’eau qui vient ensuite se transformer en chutes de neige une fois sur les terres. Le cycle de l’eau se voit impacté par le réchauffement climatique.
Mais le réchauffement climatique n’a, a priori, aucun effet sur le déclenchement des cyclones. On constate d’ailleurs que le nombre de tempêtes extratropicales et de cyclones tropicaux n’a pas augmenté au cours des dernières décennies. Cependant, le réchauffement climatique participe à l’augmentation des précipitations survenues pendant les cyclones (c’est la relation de Clausius-Clapeyron).
En revanche, l’augmentation du nombre de canicules est clairement corrélée au réchauffement climatique. En effet, il y a plus de canicules au 21e siècle qu’au début du 20e siècle. L’explication de cette corrélation est toujours débattue.
La question du lien entre réchauffement climatique et la multiplication des événements climatiques extrêmes enregistrés par les météorologues ne trouve donc pas de réponse définitive ni absolue. Elle diffère selon le type d’événement concerné. Si elle ne fait guère de doute pour certains événements, pour d’autres, elle nécessite encore de nombreuses données avant d’établir un éventuel lien de causalité.
Le lien entre le développement de nos connaissances sur le climat et la prévision des impacts météorologiques extrêmes reste un défi posé aux scientifiques s’intéressant au climat. Cela nécessite un travail en étroite collaboration entre des disciplines qui se sont ignorées pendant des décennies. Plusieurs initiatives nationales et internationales comblent ces fossés, entre sciences du climat, droit, économie et sciences sociales d’une manière générale.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
La fusion nucléaire |
|
|
|
|
|
La fusion nucléaire
Publié le 8 février 2015
La fusion nucléaire est une réaction physique qui se déroule au cœur des étoiles : des noyaux atomiques fusionnent, dégageant l’énergie à l’origine de la lumière et de la chaleur qu’émettent les étoiles. Les quantités d’énergie libérée sont très importantes, ce qui pousse les scientifiques à chercher le moyen d’exploiter la fusion comme nouvelle source d’énergie durable, puisque les matières premières nécessaires sont pratiquement illimitées.
LE PRINCIPE PHYSIQUE
Le noyau des atomes est composé de neutrons et protons, qui tiennent ensemble grâce à la force la plus intense de la nature : l’interaction forte, responsable de « l’énergie de liaison nucléaire ». Cette énergie peut être libérée de deux façons :
* soit en cassant des noyaux lourds : c'est ainsi que fonctionne une centrale nucléaire actuellement ;
*
* soit en fusionnant des noyaux légers : ce qui se passe dans les étoiles
Dans des conditions de température extrême (des millions de degrés Celsius), la matière se présente sous forme de plasma : ni solide, ni liquide, ni gazeuse, la matière est comparable à une « soupe » où noyaux et électrons ne sont plus liés, ils circulent librement. Lorsque deux noyaux « légers » se percutent à grande vitesse, ils peuvent fusionner, créant un noyau plus lourd : c’est la fusion nucléaire. Durant l’opération, une partie de l’énergie de liaison des composants du noyau est libérée sous forme de chaleur ou de lumière.
Dans le cœur des étoiles, ce sont deux noyaux d’hydrogène, composés uniquement d’un proton, qui fusionnent pour donner un noyau plus lourd : l’hélium dont le noyau contient deux protons et un ou plusieurs neutrons. Dans le Soleil, cette transformation se déroule en plusieurs étapes. Sur Terre, pour récupérer de l'énergie, les scientifiques tentent d’utiliser la fusion de deutérium et de tritium, deux isotopes de l’hydrogène (noyaux contenant un proton et un ou deux neutrons). Cette réaction donne elle aussi naissance à un noyau d'hélium très chaud, et libère un neutron de grande énergie.
ENJEU :
CRÉER ET MAINTENIR
UN PLASMA DE FUSION SUR TERRE
Pour imaginer récupérer de l’énergie à partir de la fusion nucléaire, il faut être capable de créer des conditions physiques similaires à celles des étoiles, et atteindre des températures de 150 millions de degrés (dix fois la température interne du Soleil). Ce défi scientifique et technologique posé aux chercheurs représente un important enjeu stratégique : la fusion pourrait devenir une nouvelle ressource d’énergie illimitée, sans risque majeur, et sans déchets hautement radioactifs à stocker.
ZOOM SUR...
Le tokamak
À la fin des années 1960, la communauté scientifique - à commencer par les scientifiques russes, qui furent précurseurs - est parvenue à développer une machine capable de contenir le plasma dans une enceinte fermée et à le chauffer pendant une fraction de seconde : le tokamak.
En forme d'anneau (ou « tore »), les particules qui y sont injectées subissent des champs magnétiques si intenses qu’elles restent maintenues dans la partie centrale de l’anneau, sans contact avec les parois. Leur chauffage est assuré par différents moyens : l’injection de matière chaude et le chauffage par ondes sont les plus utilisés actuellement. Il existe d’autres façons de faire la fusion, par exemple en employant des faisceaux lasers intenses qui compressent une microbille contenant le mélange deutérium-tritium.
R&D :
AMÉLIORER LES TECHNOLOGIES
POUR RÉUSSIR À METTRE
LE SOLEIL EN BOÎTE
De nombreux organismes de recherche, à travers le monde, étudient la fusion. L’expérience d’envergure de cette thématique, le projet Iter, requiert des partenariats internationaux, pour compléter les expérimentations menées à plus petite échelle à travers le monde.
Le but du réacteur est de pouvoir récupérer en continu suffisamment de puissance issue des réactions de fusion pour assurer, d’une part, le fonctionnement du réacteur et, d’autre part, la fourniture en électricité.
Le CEA, au sein d’Euratom, dispose d’un tokamak : Tore Supra, devenu West, situé sur le centre de Cadarache. Tore Supra a fonctionné de 1988 à 2013. Cette machine, dans le contexte européen, avait pour objectif l'étude de plasmas en régime permanents, c'est-à-dire sur plusieurs dizaines -voire centaines- de secondes. Pour cela de nouvelles technologies y ont été déployées :
* l’utilisation de « câbles supraconducteurs », pour créer des aimants qui vont confiner le plasma en continu ;
*
* l’utilisation de micro-ondes pour chauffer et générer du courant dans le plasma ;
*
* la mise en place d’éléments de première paroi situés immédiatement autours du plasma refroidis et capables de supporter de haut flux de chaleur.
Tore Supra détient le record du monde de durée d’un plasma performant (c’est-à-dire représentant un certain niveau de température et de densité), parfaitement maîtrisé, pendant 6mn30. La machine européenne JET, la plus grande du monde, située à Culham (Angleterre), à laquelle participe les équipes du CEA, détient quant à elle le record mondial de « puissance fusion » (16 MégaWatt pendant 1s, 1 mégawatt correspond à près de vingt mille ampoules allumées en même temps). Tous les résultats innovants fournis par ces machines ont été intégrés dans la construction du tokamak Iter.
De par sa configuration particulière, notamment le refroidissement « actif » des composants, Tore Supra a constitué une base unique d’expérimentation des composants face au plasma. Le projet WEST a consisté à modifier, entre 2013 et 2016, Tore Supra pour en faire une plateforme unique de tests pour ce composant « critique » du tokamak ITER, le divertor tungstène activement refroidi.
De par sa nouvelle configuration magnétique, ses équipements spécifiques et son environnement entièrement métallique, WEST va tester des composants en tungstène, identiques à ceux que l’on installera sur ITER. En effet, si la température et la densité au cœur du plasma de WEST sont plus faibles que dans ITER, les conditions à la périphérie du plasma sont très similaires, avec des flux de chaleur et de particules dans le divertor pouvant atteindre 20 MW / m2 – soit dix fois plus intenses que ce que subit le bouclier d’une navette spatiale à son entrée dans l’atmosphère. WEST permettra également d’explorer les problématiques de physique des plasmas sur des longues durées en environnement tungstène.
ET DEMAIN ?
Jusqu’à maintenant, les recherches menées ont permis aux scientifiques de mieux comprendre les plasmas, de les maîtriser et d’en augmenter les performances énergétiques. Ces thématiques regroupent aussi bien l’infiniment petit (compréhension du comportement de la matière qui nous entoure) que l’infiniment grand.
Le Tokamak international Iter, à proximité du centre CEA de Cadarache, est une nouvelle étape qui succède à une longue lignée de machine. Elle est la première installation à réunir toutes les conditions pour obtenir et étudier un plasma en combustion, c’est-à-dire d’un plasma dominé par les réactions de fusion. La suite, avec la conception de futurs réacteurs comme Demo, en intégrant de nouveaux concepts de matériaux de bord et la fourniture de tritium in situ, devrait mener, en délivrant pour la première fois du courant électrique, à la naissance d’une nouvelle filière énergétique : l’énergie nucléaire de fusion.
Les défis technologiques posés par la fusion nucléaire sont énormes : le cryomagnétisme, le contrôle-commande du plasma et de la machine en temps réel ; concevoir des matériaux de paroi capables de supporter des hauts flux de chaleur et la percussion de neutrons ; intégrer à ces matériaux du lithium, pour assurer l’auto-alimentation du réacteur…
Afin de développer une exploitation industrielle de la fusion, les limites, risques ou verrous technologiques à surmonter pour la construction de réacteurs à fusion sont déjà identifiés : la maintenance de l’ensemble, le vieillissement, la tenue des matériaux de structures et la gestion des déchets radioactifs de la première paroi…
De nature différente, toutes ces problématiques sont déjà présentes dans la filière nucléaire actuelle (qui exploite la fission nucléaire), et déjà en cours d’étude pour une exploitation industrielle de la fusion nucléaire. Diversifier nos ressources énergétiques permettra ainsi d’assurer l’approvisionnement énergétique des pays et de trouver des alternatives aux énergies fossiles carbonées (pétrole, gaz, charbon…), qui constituent encore l’essentiel de l’énergie consommée sur Terre.
DOCUMENT cea LIEN
|
|
|
|
|
|
 |
|
Qu'est-ce qu'une seconde ? |
|
|
|
|
|
Qu'est-ce qu'une seconde ?
Par Erwan Lecomte le 16.11.2018 à 17h38
Lecture 6 min.
Chaque vendredi, Sciences et Avenir répond à une question posée par ses lecteurs. Cette semaine, quelle est l'origine de la seconde ? Comment sa durée a-t-elle été déterminée ?
"Qu’est qu’une seconde ? Comment cela a été déterminé ?" nous demande Marco Darnaud sur la page Facebook de Sciences et Avenir. Chaque semaine, nous sélectionnons une question que vous vous posez, et nous apportons une réponse. Merci pour votre insatiable curiosité.
Qu'il s'agisse d'agriculture, de voyages ou d'observation du monde, mesurer le temps a toujours été une nécessité pour les activités humaines. Dès l'antiquité nos ancêtres ont cherché à découper le temps en unités dénombrables. Le plus évident pour cela est de se baser sur l'observation de phénomènes cycliques tels que l'alternance jour et nuit, les phases de la Lune ou le passage des saisons. Très tôt, des calendriers décrivant ce rythme naturel des saisons sont mis en place par les premières civilisations. Tous ne comportent pas le même nombre de jours, mais certains, comme ceux des égyptiens, sont très voisins du nôtre. Ainsi, deux millénaires avant J.C., les Egyptiens comptaient déjà des années de 365 jours divisées en 12 mois de 30 jours.
Ces cycles ont servi de base pour découper le temps en unités suffisamment petites pour rythmer les activités au cours d'une journée. Le découpage d'une journée en 24 unités temporelles d'une heure est une notion très ancienne puisqu'elle remonte au moins à Ptolémée, brillant astronome de l'antiquité grecque. Dans son célèbre recueil de mathématiques et d'astronomie, l'"Amalgeste", écrit au deuxième siècle après J.C., il décrit des journées divisées en 24 heures. "Heures qui étaient sans doute mesurées à l'aide d'un cadran solaire" explique l'astronome et conseiller scientifique auprès du directeur du musée des Arts et Métiers, Denis Savoie. Mais là n'est pas le plus impressionnant. Ptolémée et ses contemporains avaient déjà compris à l'époque que la durée du "temps solaire" était variable d'une journée à l'autre.
"En effet, il ne s'écoule pas tout à fait 24h d'un jour à l'autre car la vitesse de rotation de la Terre n'est pas uniforme" détaille Denis Savoie. Et ce, du fait de plusieurs facteurs : l'inclinaison de l'axe de la Terre, ou encore le fait qu'elle se déplace plus vite sur son orbite légèrement elliptique lorsqu'elle est à son périgée (le point le plus proche du soleil) qu'à son apogée (le point le plus éloigné). "C'est la raison pour laquelle Ptolémée définit donc un 'temps solaire moyen' calculé sur l'année" poursuit Denis Savoie.
La base sexagésimale héritée des astronomes babyloniens
La notion de seconde n'est d'ailleurs pas étrangère à Ptolémée. Dans son œuvre il présente un sous-découpage des heures en minutes (correspondant à 1/60e d'une heure) et en secondes (correspondant à 1/60e de minute). Pourquoi découper l'heure en 60 fragments et pas 12, 20 ou 100 (ou tout autre nombre de votre choix) ? "Parce que l'astronomie grecque est une héritière de l'astronomie babylonienne qui effectuait tous ces calculs sur une base sexagésimale (en base 60)" raconte Denis Savoie.
L'une des hypothèses pour expliquer ce choix est que le système sexagésimal présente l'avantage de pouvoir être divisé facilement. En effet, 60 peut-être divisé par 60, 30, 20, 15, 12, 10, 6, 5, 4, 3, 2 et naturellement 1, et donner à chaque fois un nombre entier. Ce choix s'est imposé au monde de l'astronomie puis à la mesure du temps.
On notera toutefois quelques tentatives pour proposer des systèmes alternatifs. Pendant la révolution française, une tentative de décimalisation de l'heure a eu lieu. Les révolutionnaires ont tenté de mettre en place des journées de 10 heures découpées chacune en 100 minutes, elles-mêmes découpées en 100 secondes. Sur les quelques horloges décimales qui ont été construites à l'époque, une heure décimale équivalait à 144 minutes actuelles. Toutefois, ce système n'a survécu qu'environ 16 mois avant de tomber dans l'oubli.
Mais les astronomes de l'époque n'arrêtaient pas leur découpage du temps à la seconde. Cette dernière était également divisée en tierces (1/60e de seconde), elles-mêmes divisées en quartes (1/60e de tierce). "Il ne s'agissait là toutefois que d'une division théorique car aucun appareil de mesure n'était à l'époque assez précis pour mesurer précisément le temps ne serait-ce qu'à l'échelle de la seconde" poursuit Denis Savoie. Le premier appareil à avoir été capable de le faire n'est apparu que beaucoup plus tard. Il s'agit d'un pendule à balanciers mis au point en 1673 par le physicien néerlandais Christian Huygens.
De la Terre à l'atome
Cette mesure du temps (et de la seconde) liée à la rotation de la Terre va perdurer jusqu'au 19e siècle. Jusqu'en 1960 le Bureau International des Poids et des Mesures définissait encore la seconde comme étant une fraction de 1/86.400 du "jour solaire moyen" décrit par Ptolémée. Mais ce système de mesure est bancal. "Notamment parce que la rotation de la Terre se ralentit inexorablement (on parle de ralentissement "séculaire") à cause des marées océaniques, des alizés ou encore des mouvements géophysiques. La Terre n'est de ce fait pas un étalon fiable pour le temps" expose Denis Savoie.
Ce qui conduit le bureau à rapidement revoir cette définition pour en proposer une autre... À peine moins bancale car basée sur une année de référence, mais obscure à souhait dans son énonciation. En effet, en 1960, la seconde est désormais définie comme "la fraction 1/31.556.925,9747 de l'année tropique pour 1900 janvier 0 à 12 heures de temps des éphémérides." Ce "temps des éphémérides" survira pendant 7 ans jusqu'à laisser place à un nouveau référentiel beaucoup plus précis : la vibration des atomes.
Depuis cette date et aujourd'hui encore, la durée de la seconde est définie par la fréquence de vibration de l'atome de césium. Une seconde est représentée comme "la durée de 9.192.631.770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133". Pourquoi ce chiffre ? "Tout simplement parce qu'il faut qu'il y ait toujours 86.400 secondes en 24 heures, et que ce nombre de vibrations est celui qui y correspond le mieux" explique Denis Savoie. De fait, la précision d'une horloge à césium est telle qu'elle mettrait une centaine de millions d'années à se décaler d'une seule seconde. Toutefois, la quête de précision étant sans fin, les horloges atomiques pourraient basculer dans une autre dimension en passant un jour du césium au strontium. Ces dernières, parce qu'elles battent plus vite, pourraient ne se décaler d'une seconde qu'au bout de 10 milliards d'années.
DOCUMENT sciences et avenir.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|