ecole de musique piano
     
menu
 
 
 
 
 
 

L'ESSENTIEL SUR... L'uranium

 



 

 

 

 

 

L'ESSENTIEL SUR...
L'uranium


Publié le 15 décembre 2017

L’uranium est un élément chimique radioactif présent à l’état naturel en quantité significative sur Terre. Il est essentiellement utilisé comme combustible dans les centrales nucléaires.
RESSOURCE MINIÈRE/ABONDANCE
La croûte terrestre contient en moyenne 2 à 3 grammes d’uranium par tonne. Cet élément est bien plus abondant que les métaux rares comme l’or ou l’argent.
L’eau de mer en contient environ 3,3 milligrammes par tonne.

Dans le sol, il est inégalement réparti mais des mines sont exploitées sur quasiment tous les continents. Les principaux pays disposant de ressources sont l’Australie, le Canada, le Kazakhstan, le Niger, la Namibie, la Russie et l’Afrique du sud.


Répartition des principales ressources d’uranium (en millier de tonnes) :

ISOTOPIE
Radioactivité
Les isotopes de l’uranium présents à l’état naturel sur la Terre se désintègrent principalement par émission de particules alpha, c’est à dire des rayonnements fortement atténués par un écran aussi mince qu’une feuille de papier. Cependant, leurs descendants radioactifs sont, eux, émetteurs de rayonnements bêta et gamma plus pénétrants.

L'uranium naturel
L’uranium naturel est composé des isotopes 234, 235 et 238. Leurs principales caractéristiques sont les suivantes :
    Composition isotopique de l'uranium naturel    Période radioactive (*)
234U    0,0056 %    2,46 x 105 an

235U    0,71 %    7,04 x 108 an
238U    99,28 %    4,47 x 109 an
(*) période de temps au terme de laquelle la moitié des atomes radioactifs présents initialement s’est désintégrée.

L’isotope 235 de l’uranium est dit « fissile », c’est-à-dire qu’il peut se casser en deux noyaux plus petits, sous l’effet d’un neutron. C’est ce qu’on appelle la fission nucléaire, réaction qui libère une grande quantité d’énergie. L’isotope 238 est dit « fertile » : lorsqu’il est heurté par un neutron, il peut le « capturer », générant du plutonium 239 lui-même fissile.

Autres isotopes
Les chercheurs en physique nucléaire s’intéressent aux noyaux lourds. Riches en neutrons et en protons, ils sont un objet d’étude idéal pour comprendre les lois physiques qui gouvernent ces objets et leurs interactions. Ils ont artificiellement fabriqué, puis caractérisé, plus de 25 isotopes différents de l’uranium. Certaines de ces espèces éminemment fugaces ont des durées de vie extrêmement courtes.

La séparation isotopique
Pour certaines applications, il est nécessaire de modifier la proportion de l’uranium naturel en isotope 235. Ainsi, la plupart des réacteurs nucléaires en fonctionnement dans le monde sont des réacteurs à eau légère qui requièrent un combustible dont la proportion en 235U est comprise entre 3% et 5%. Ceci nécessite donc d’enrichir l’uranium naturel en uranium 235. En France, cette opération de séparation isotopique est réalisée dans l’usine Georges Besse II (voir fiche « L’essentiel sur le cycle du combustible nucléaire »).
Des procédés industriels de séparation isotopique doivent être mis en œuvre. La production d’uranium enrichi s’accompagne alors d’une production d’uranium appauvri.


LES DIFFÉRENTES CATÉGORIES 
DE L'URANIUM

*         Uranium naturel (teneur en 235U égale à 0,71 %) : minerai.
*        


*         Uranium faiblement enrichi (teneur en 235U supérieure à 0,71 % et strictement inférieure à 20 %) : exploité dans le secteur électronucléaire.
*        


*         Uranium hautement enrichi (teneur 235U supérieure ou égale à 20 % : exploité dans les secteurs de la Défense, des réacteurs de recherche et de la médecine nucléaire.
*        


*         Uranium appauvri (teneur en 235U inférieure à 0,71 %) : exploité dans les réacteurs à neutrons rapides et dans l’armement conventionnel.

LE CONTRÔLE DE L’USAGE DE L’URANIUM
L’uranium est une matière nucléaire dont la sensibilité dépend de son taux d’enrichissement, dans la mesure où il peut être utilisé tant à des fins civiles que de défense.

A ce titre, il est soumis en France à un contrôle strict : sa détention est réglementée par le code de la défense.

Au niveau de l’Union Européenne, des contrôles sont exercés par la Commission européenne dans le cadre du chapitre VII du Traité Euratom afin de s’assurer que les matières nucléaires, dont l’uranium, sont utilisées conformément aux usages déclarés par leurs détenteurs. L’Agence internationale de l’énergie atomique (AIEA), quant à elle, effectue des contrôles de non-prolifération au niveau mondial afin de donner des garanties à la communauté internationale sur l’utilisation pacifique de ces matières.



QUELLES SONT LES PRINCIPALES UTILISATIONS DE L'URANIUM ?
Électronucléaire
L’uranium est utilisé comme combustible dans la plupart des réacteurs nucléaires industriels. Sous le flux de neutrons, il subit des fissions formant des noyaux de masse inférieure à celle de l’uranium et générant de nouveaux neutrons. Ces nouveaux neutrons peuvent à leur tour entraîner des fissions sur des atomes voisins, d’où la notion de « réaction en chaîne ».



Lors de ces réactions nucléaires de fission, la masse totale des atomes générés est inférieure à celle de l’atome initial. La différence est dissipée sous forme de chaleur qui est ensuite utilisée pour faire tourner des turbines générant de l’électricité.

Autres applications
Colorants
L’uranium naturel sous forme d’oxyde a été utilisé depuis l’Antiquité pour donner à des verres, des céramiques et des faïences de profonds reflets verts ou jaunes.

Armement conventionnel
Du fait de sa grande densité et dureté, l’uranium appauvri est aussi utilisé sous forme métallique dans des têtes d’obus conventionnels destinés à perforer le blindage de chars ou d’abris en béton.

Radioéléments pour le médical
L’uranium hautement enrichi peut être irradié dans des réacteurs de recherche pour la production de radioéléments (technetium-99) utilisés comme traceurs en imagerie médicale.

QUELS SONT LES EFFETS DE L'URANIUM DANS LE CORPS HUMAIN ?
L’uranium naturel est plus toxique du fait de ses propriétés de métal lourd qu’à cause de sa radioactivité.

Le comportement biologique de l’uranium dans l’organisme dépend :

*         De la forme chimique sous laquelle il est incorporé (un oxyde est beaucoup moins soluble qu’un nitrate) ;

*         Sa voie d’entrée dans l’organisme (inhalation ou ingestion).



En cas d’ingestion d’un composé soluble d’uranium, à peine quelques pourcents sont absorbés dans le sang ; le reste est éliminé dans les selles. La fraction absorbée dans le sang se dépose essentiellement dans le squelette et dans les reins. Cependant, c’est essentiellement dans les reins que se manifeste la toxicité – les effets néfastes – de l’uranium sur l’organisme.



Après inhalation, la majorité des particules inhalées insolubles se déposent au niveau des poumons. Toutefois, une faible fraction est solubilisée dans le sang.

Quelle que soit la voie d’entrée, après passage dans le sang, l’uranium est rapidement et majoritairement excrété dans l’urine. Le reste étant transféré vers les tissus : vers les reins où il est retenu de façon temporaire (quelques jours) et vers le squelette (où l’uranium peut rester plusieurs années). Les os constituent le site de rétention à long terme puisqu’on y retrouve environ 70 % de l’uranium contenu dans le corps chez des personnes exposées de manière chronique (c’est-à-dire en continu).


EFFET CANCÉROGÈNE DE L’URANIUM
Le Centre international de recherche sur le cancer (CIRC/OMS) classe par défaut tous les radionucléides émetteurs de rayonnement alpha, dont l’uranium, dans le groupe des éléments dont l’effet cancérogène est avéré (groupe 1 du CIRC). Cependant, s’agissant spécifiquement de l’uranium, le CIRC souligne que les études connues n’apportent pas de preuves suffisantes de son effet cancérogène chez l’Homme.
Par ailleurs, l’ATSDR (US-Agency for Toxic Substances and diseases registry), dans la mise à jour de son profil toxicologique de l’uranium (2013), rappelle que ni l’IARC (Agence internationale de recherche sur le cancer), ni l’EPA (Environmental Protection Agency) ont classé l’uranium naturel ou appauvri parmi les agents cancérogènes.

D'OÙ VIENT L'URANIUM ?
Fabriqué dans les étoiles
Il n’existe aucun noyau stable dont le numéro atomique serait supérieur à celui du bismuth (numéro atomique : 83). Pourtant, on trouve sur Terre des éléments plus lourds encore : le thorium et l’uranium. Ils sont radioactifs et ils ont été formés, au sein des étoiles, il y a plusieurs milliards d’années. C’est parce que leur période de décroissance radioactive est très grande (pour les isotopes de l’uranium naturel : des millions voire des milliards d’années selon les isotopes) qu’une partie de ces atomes est toujours présente jusqu’à notre ère.



Du fer jusqu’au bismuth, les atomes sont formés par des captures successives de neutrons. Ensuite, une décroissance radioactive de type « bêta-moins » (dans laquelle un neutron se transforme en proton) génère un élément de numéro atomique immédiatement supérieur.



Dans une supernova, c’est-à-dire une étoile super massive qui s’effondre sur elle-même en quelques millisecondes, la densité de matière extrême permet à un noyau de capturer plusieurs neutrons en une seule fois. Le noyau subit ensuite plusieurs transformations radioactives successives qui génèrent des éléments beaucoup plus lourds, dont l’uranium. Puis, dans un rebond explosif, la supernova explose et expulse ces noyaux dans le milieu interstellaire. Ils peuvent ensuite se rassembler autour d’une nouvelle étoile et s’agréger pour se retrouver dans les planètes comme notre Terre.



En revanche, dans une étoile comme notre Soleil, les densités de neutrons sont si faibles au point qu’il s’y produit moins d’une capture de neutron par décennie.

Sources d'uranium anthropique
Les engrais phosphatés utilisés en agriculture apportent de l’uranium dans les sols : à raison d'environ 100 kg d'engrais par hectare et par an, cet apport annuel peut être estimé à près de 1mg/m2.



L’extraction minière de l’uranium peut aussi représenter une voie d’apport dans l’environnement. Les nombreuses études internationales, réalisées sur le sujet, ont montré que la contamination environnementale reste toujours limitée et que les teneurs en uranium correspondantes sont celles de nombreux sites naturels.

L'URANIUM DANS L'ENVIRONNEMENT
L’uranium, est un élément naturel omniprésent dans notre environnement. Pour comprendre son comportement dans l’environnement, il est important de connaître sa chimie qui est complexe en raison notamment de ses différents états d’oxydation. Les deux états d’oxydation les plus importants sont l’uranium (IV) et l’uranium (VI). De manière générale, les composés d’uranium (IV) sont très insolubles, alors que ceux d’uranium (VI) présentent des solubilités plus variées.

Dans les eaux
Ainsi dans les eaux naturelles, l’uranium est stable sous deux états d’oxydation : l’état d’oxydation VI prédomine dans les milieux oxydés comme les eaux de surface, et l’état d’oxydation IV prédomine dans les milieux réduits, c’est-à-dire les eaux profondes dont l’oxygène est absent.
Selon la composition du milieu (pH, anions caractéristiques du milieu, conditions d’oxydo-réduction …), l’uranium peut être présent sous différentes formes chimiques dont la proportion va varier.

Dans les sols
Dans les sols comme dans les eaux, selon les conditions du milieu (oxydé ou réduit), l’uranium est présent sous différentes valences. L’uranium se trouve à l’état naturel à différentes concentrations dans les sols et les eaux ; il a également été mesuré dans des météorites à des teneurs variant de 90 à 360 microgramme par kilogramme  de matière.
Milieu    Concentration en mg/kg
Mer    0,003
Roche basaltique    0,5
Sol calcaire     1
Écorce terrestre    2
Roche granitique    5
Phosphate    100
Gisement uranifère    10 000
Le tableau suivant donne l'ordre de grandeur des concentrations d'uranium rencontrées naturellement dans différents milieux. Ce tableau illustre la grande disparité des concentrations d'uranium rencontrées dans la nature. Il démontre aussi et surtout l'omniprésence de cet élément sur Terre.


Migration de l'uranium dans l'environnement
Le comportement de l'uranium dans l'environnement dépend des conditions du milieu. Dans chaque système naturel, il existe des conditions spécifiques (pH, potentiel redox, force ionique, teneur en matière organique) pour lesquelles la mobilité de l'uranium est minimale. En milieu oxydant, l’uranium se trouve sous la valence VI, qui est la forme la plus stable et la plus mobile. En conditions anaérobies, il peut être réduit à la valence IV.


L'uranium a une mobilité moyenne dans les sols. En condition aérobie, il se complexe facilement avec la matière organique, les carbonates, les phosphates et les sulfates. La présence de substances humiques conduit à une fixation plus efficace de l'uranium dans les sols. Ceci peut conduire à l'existence de zones d'accumulation dans les horizons riches en matières organiques. La présence d'ions carbonates dans les sols conduit à la formation de composés chargés négativement, plus mobiles.
Ces mécanismes de complexation conditionnent le comportement de l'uranium dans les sols, ce qui explique que, dans les sols non remaniés, la répartition de l'uranium n'est pas homogène selon la profondeur du sol.


Réacteur nucléaire naturel
Certains sites géologiques favorisent la concentration de l’uranium dans les milieux naturels. Ainsi, la teneur en uranium peut atteindre plusieurs centaines de milligrammes par kilogramme de sol ou de roche dans des sites comme Cigar Lake au Canada, Pocos de Caldas au Brésil, El Berocal en Espagne. Des conditions hydrogéologiques favorables, associées à une concentration d'uranium adaptée, ont même conduit, il y a près de 2 milliards d'années, à l’existence de réacteurs nucléaires naturels tels que celui d’Oklo au Gabon.

Alimentation
La présence naturelle de l'uranium dans notre environnement conduit à l'ingestion quotidienne de cet élément par l’alimentation.

La présence d'uranium disponible dans les sols conduit à la présence d'uranium dans les végétaux qui s'y développent. Les concentrations dans les végétaux dépendent du type de sol et de la partie du végétal considérée ; en règle générale, l'uranium se retrouve en proportion plus importante dans les racines et les plantes que dans les graines. Chez les animaux, la présence d'uranium est liée à leur consommation de végétaux et de leur eau d'abreuvement, voire de l'ingestion directe de sol.

A partir de mesures d'uranium en dehors de l’influence d’installations nucléaires, l’UNSCEAR évalue l’activité dans l’air en 238U aux environs de 1 μBq.m-3.

L'absorption de l'uranium par inhalation est très faible et l'absorption par ingestion est de l'ordre de 1 à 4 µg par jour.

Compte tenu de l'existence de sols uranifères traversés par les eaux souterraines alimentant sources et puits, certaines eaux de boissons contiennent des concentrations d'uranium supérieures à 50 µg/L, voire supérieures à 7 800 µg/L dans certaines régions telles que la Finlande. En moyenne néanmoins, la quantité d’uranium apportée quotidiennement via l’alimentation est de l’ordre de quelques microgrammes, principalement par les coquillages et dans une moindre mesure, les légumes frais, les céréales et les poissons.

 

   DOCUMENT     cea         LIEN

 
 
 
 

LES SUPERCALCULATEURS

 


 

 

 

 

 

les supercalculateurs

Publié le 29 mai 2017
       
Un supercalculateur est un très grand ordinateur, réunissant plusieurs dizaines de milliers de processeurs, et capable de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. Les superordinateurs sont utilisés par les scientifiques et les industriels pour concevoir de nouveaux systèmes et objets (moteurs, avions, voitures), des matériaux ou des médicaments ; simuler des phénomènes physiques complexes (séismes, formation des étoiles, galaxies ou même Univers entier…) ; réaliser des prévisions (météorologie, climat) ; ou réaliser virtuellement des expériences difficilement réalisables en laboratoire.

COMMENT FONCTIONNE
UN SUPERCALCULATEUR ?
Dans les années 1930, les ordinateurs – ou calculateurs – effectuaient une opération par seconde. Aujourd’hui, les supercalculateurs les plus puissants réalisent des dizaines de millions de milliards d’opérations par seconde.
De tels progrès ont été possibles grâce à la miniaturisation des processeurs et des mémoires mais aussi grâce à une organisation particulière de ces calculateurs et de leur environnement à différentes échelles.


UN FONCTIONNEMENT EN « GRAPPE »

Pour réaliser autant d’opérations simultanées, les supercalculateurs effectuent les calculs « en parallèle », c’est-à-dire en les répartissant sur différents processeurs. Ceux-ci sont organisés en « grappe » de « nœuds de calcul », connectés par un réseau ultrarapide. Les nœuds de calcul mettent en commun leurs mémoires pour former une mémoire « distribuée » de très grande taille, et sont reliés à des espaces de stockage de plus grande taille encore. L’architecture détaillée des nœuds de calcul est également devenue un élément déterminant pour optimiser leur fonctionnement.
Les performances d’un supercalculateur décrivent ses capacités à exécuter des calculs mais aussi à traiter de très grands volumes de données. A ce niveau, on parle de « calcul haute performance » (ou « HPC », pour High Performance Computing en anglais) et la vitesse de traitement des opérations s’exprime principalement en Flops (Floating Point Operations Per Second, opération de base pour du calcul numérique, soit addition ou multiplication décimale).


LES SUPERCALCULATEURS  :
DES CAPACITÉS DE STOCKAGE GIGANTESQUES

Physiquement, les supercalculateurs sont constitués de nombreuses armoires (baies), reliées entre elles par des kilomètres de câble réseau (interconnexion ultra-rapide des nœuds de calcul) et regroupées dans des centres de calcul. Un centre de calcul comprend aussi de gigantesques capacités de stockage local de données auxquelles les ordinateurs doivent pouvoir accéder rapidement (dizaines de « petaoctets », contrepartie des dizaines de « petaflops » de puissance de calcul).
Comme ces machines sont de plus en plus puissantes et denses, leur consommation électrique devient très importante et dégage énormément de chaleur – tant dans les processeurs que dans les mémoires et réseaux de communication. Il faut donc mettre en place un système de refroidissement efficace et lui-même le moins énergivore possible - par exemple par circulation d’eau dans les portes des armoires ou dans les nœuds de calcul - ainsi qu’une climatisation dans la salle machine. Bien optimisés, ces systèmes de refroidissement consomment une fraction minoritaire de la consommation électrique globale, l’essentiel de l’énergie apportée au centre de calcul peut alors servir directement aux calculs et traitements de données et les coûts de fonctionnement sont mieux maîtrisés

LES SUPERCALCULATEURS, DES OUTILS ESSENTIELS POUR LA MODÉLISATION ET L’ANALYSE DES DONNÉES AU PROFIT DE LA SCIENCE ET DE L’INDUSTRIE

Grâce aux progrès des supercalculateurs, la simulation numérique – calculs permettant de représenter un phénomène physique ou complexe sur un ordinateur – s’est généralisée à toutes les disciplines au point de devenir le « troisième pilier » de la méthode scientifique, aux côtés de la théorie et de l’expérimentation.

La simulation numérique permet de mener des « expériences virtuelles » qui remplacent ou complètent les expérimentations lorsque celles-ci sont dangereuses (accidents, crash tests), à des échelles de temps trop longues ou trop courtes  (climatologie, physique atomique), à des échelles de taille trop petites ou trop grandes   (protéines, astrophysique) ou encore interdites (essais nucléaires)…
Depuis quelques années le calcul intensif, producteur de masses de données de plus en plus importantes, devient également un maillon indispensable du traitement des « mégadonnées » d’autres origines (expériences, observations, réseaux de capteurs, Internet…). Les techniques et méthodes du calcul haute performance (HPC) se retrouvent ainsi au cœur de processus mêlant production et analyse de données, modélisation numérique, techniques statistiques et d’apprentissage, intelligence artificielle...
Véritable fer de lance de ces approches, le HPC est la déclinaison la plus avancée à un moment donné de traitements parallèles qui se retrouvent souvent employés ou diffusés largement, à plus petite échelle et à terme, dans tous les secteurs de l’informatique.

LES DIFFÉRENTES ÉTAPES
D’UNE SIMULATION NUMÉRIQUE
Les différentes étapes d’une simulation numérique

Prenons l’exemple d’un chercheur ou d’une équipe de recherche recourant au HPC. Les moyens de calcul sont fournis par des centres de calcul régionaux, nationaux ou encore internationaux. L’accès à ces ressources se fait souvent via des dossiers de demande préparés à l’avance, parfois soumis à des processus de sélection compétitifs.

L’activité complète de modélisation/simulation comporte plusieurs étapes :

*         Décrire la réalité : les phénomènes physiques sont souvent complexes. Pour les représenter, les physiciens prennent en compte de nombreuses lois physiques, par exemple celles qui régissent les relations entre la vitesse, la température et la pression dans un fluide.
*        
*         Modélisation : Les lois physiques sont traduites en équations mathématiques, faisant intervenir l’ensemble des paramètres pertinents.
*        
*         Résolution numérique et programmation : les équations mathématiques, trop complexes pour être calculées humainement, doivent être traitées par un ordinateur. Comme celui-ci ne peut les résoudre en tous points et de manière continue, les mathématiciens les scindent en plus petits intervalles. Les équations sont calculées pour chacun des points et des instants pertinents. L’enchaînement des calculs à réaliser s’appelle un algorithme. En général, en simulation numérique, il s’agit au final de nombreuses additions et multiplications traduisant l’évolution des quantités physiques. Pour que l’ordinateur puisse exécuter l’algorithme, celui-ci est converti en langage informatique par les informaticiens.
*        
*         Validation : les trois étapes précédentes produisent un logiciel de calcul dont il faut assurer la mise au point « physique » (on parle de validation) et pas uniquement « informatique » (ici on parle de vérification). Il s’agit de délimiter la justesse physique des résultats pour certains domaines dans lesquels on peut se fier au logiciel. La comparaison avec des expériences ou résultats déjà connus est un ingrédient de la validation. De plus en plus, on recherche aussi l’estimation des incertitudes ou des sensibilités des calculs vis-à-vis de leurs paramètres. A défaut de réduire totalement les erreurs ou incertitudes, leur encadrement est apprécié.
*        
*         Ces quatre étapes ne sont pas nécessairement reproduites à chaque étude. L’effort de mise au point d’un environnement de simulation (logiciel de calcul et tous les outils complémentaires tels que la visualisation des résultats) se fait en amont soit par une équipe de recherche ou un groupement d’équipes, parfois par des sociétés logicielles spécialisées, et il est amorti sur des durées parfois très longues – années voire décennies.
*        
*         5. Exécution de simulations : grâce aux moyens de plus en plus performants mis à leur disposition par les spécialistes concevant les supercalculateurs et les centres de calcul, les physiciens et ingénieurs lancent leurs simulations numériques. Puis les résultats sont conservés dans des espaces de stockage de grande capacité, conçus pour un accès performant et pérenne. Les utilisateurs peuvent en général visualiser leurs données sur leur poste de travail de façon interactive, parfois directement connectés au système de stockage du centre de calcul - les masses de données concernées par le post-traitement peuvent en effet excéder les capacités locales de recopie ou les capacités de débit du réseau entre site de calcul et laboratoire.


Les enjeux de la simulation numérique

La simulation numérique a pour objectifs :
*         De comprendre et faire progresser la science, dans tous les domaines ;
*         De concevoir : dans l’industrie, la simulation numérique permet de réduire le nombre de tests nécessaires au développement des produits, et donc le coût et la durée des étapes de recherche, développement, et conception. Ainsi, elle améliore la productivité, la compétitivité et la capacité d’innovation des entreprises dans tous les secteurs : aéronautique, cosmétique, bâtiment…
*         D’agir et décider : dans le domaine de la sécurité vis-à-vis des risques naturels ou industriels, de la santé, de l’environnement, de la prévision climatique..., la simulation numérique permet de répondre à des enjeux sociétaux.

 

  DOCUMENT     cea         LIEN
 

 
 
 
 

LES ÉVÉNEMENTS CLIMATIQUES EXTRÊMES

 

 

 

 

 

 

 

LES  ÉVÉNEMENTS  CLIMATIQUES  EXTRÊMES

« Ouragan du siècle », « Canicule extrême » ou encore « Événement Cévenol ». Depuis quelques années, ces termes sont à la une des médias face à la survenance de phénomènes météorologiques extrêmes. Ces événements de natures très variées, le plus souvent inattendus et violents, nous semblent survenir bien plus fréquemment. Mais est-ce vraiment le cas ? Et si oui, peut-on établir un lien avec le réchauffement climatique ?

LES EXTRÊMES MÉTÉOROLOGIQUES
Même parmi les scientifiques, la notion d’événement météorologique extrême reste difficile à définir. En effet, statisticiens, physiciens et spécialistes des sciences sociales ont chacun leur définition d’événement météorologique extrême. Bien que ces trois définitions soient complémentaires, elles ont chacune une dimension propre.
Pour les statisticiens, un extrême sera nommé ainsi si une mesure (température, vitesse du vent) dépasse les valeurs communément rencontrées. Ce sont les chiffres qui déterminent si oui ou non un événement est extrême.

Une seconde définition est donnée par les physiciens : l’extrême correspond à une catégorie d’événement (cyclone tropical, tempête extra-tropicale, vague de chaleur, sécheresse, etc.) qui dépend de la région et de sa description phénoménologique.

Enfin, les spécialistes des sciences sociales définissent l’événement par les dégâts causés. En ce sens, un événement sera dit extrême lorsqu’il touche la société. Un événement aura plus tendance à être qualifié d’extrême dans ce cas que s’il se déroulait dans un lieu sans habitation (par exemple dans le désert) car il n’est à l’origine ni de dégât matériel, ni de perte humaine. Aussi, un événement climatique sera considéré comme extrême s’il se déroule dans un lieu où la population n’est pas habituée à se protéger contre un type d’événement particulier. Par exemple, en France, la population est moins habituée à recevoir beaucoup de chutes de neige, contrairement au Canada où la population est préparée et habituée à faire face à ce type d’événement.

Les critères de détermination d’un événement extrême diffèrent en fonction du lieu. Par exemple, on parle de canicule à Toulouse quand pendant au moins trois jours, les températures la nuit sont au-dessus de 21 °C et quand en journée les températures dépassent les 36 °C. Alors qu’à Brest, une canicule est avérée si pendant au moins trois jours il fait plus de 16 °C la nuit et plus de 28 °C en journée.

Classement des extrêmes
Les extrêmes météorologiques peuvent se classer en deux catégories en fonction de leur durée : des phénomènes longs persistant plusieurs semaines ou plusieurs mois (telle une sécheresse) et d’autres, souvent très intenses, dont la durée se limite à quelques heures voire quelques jours.

LES ROUAGES DES EXTRÊMES
Les mécanismes des extrêmes météorologiques sont complexes. Par exemple, la canicule de l’été 2003 est la conséquence de mouvements de masses d’air sur une très vaste étendue spatiale (plusieurs milliers de kilomètres de rayon). Les conditions à réunir pour provoquer une vague de chaleur sont multiples et peuvent être annulées par quelques jours de précipitations. D’où l’extrême difficulté à prévoir leur occurrence quelques semaines à l’avance même s’il est clair qu’une augmentation des températures augmente le risque de survenue des canicules.
L’apparition des autres phénomènes climatologiques extrêmes (vagues de froid, tornades, tempêtes, etc.) est la résultante également de multiples facteurs et de leurs interactions, qu’il peut être très compliqué de modéliser et de prévoir.

COMPRENDRE LE PASSÉ POUR DÉTERMINER LES CAUSES DES PHÉNOMÈNES CLIMATIQUES EXTRÊMES

L’étude du climat du passé est l’une des pistes qui permet aux scientifiques d’établir un lien entre les extrêmes météorologiques (sécheresse, vagues de froid par exemple) et l’évolution des températures moyennes.
Certains historiens comme E. Le Roy Ladurie se sont penchés sur les archives, à la fois nationales mais aussi parfois très localisées et détaillées telles que des registres paroissiaux, dans lesquelles on trouve la trace de certains événements météorologiques ayant particulièrement marqué la population (tempêtes, épisodes de chaleur ou de froid, destruction de bâtiments, récoltes dévastées, etc.). La description des effets et des dégâts causés donne une approximation du niveau de violence de ces phénomènes subis par nos ancêtres. Des documents relatent que la sécheresse était particulièrement redoutée par les sociétés rurales car celle-ci mettait en danger les récoltes. Cette frayeur de la sécheresse était si grande que des processions pro pluvia s’organisaient pour implorer l’arrivée de la pluie.
Grâce à ces données et à celles que l’on peut analyser aujourd’hui (analyse de cernes de croissance des arbres, carottes glaciaires etc.), les chercheurs peuvent en savoir plus sur les événements extrêmes du passé et ainsi les comparer à ceux d’aujourd’hui. Par exemple, des historiens suisses (O. Wetter et C. Pfister) ont reconstruit, après avoir étudié de nombreuses archives, une canicule potentiellement pire que celle de 2003 qui aurait touché l’Europe… en 1540.

QUEL LIEN AVEC LE RÉCHAUFFEMENT CLIMATIQUE ?

Aujourd’hui, certains extrêmes météorologiques sont liés à la température moyenne du globe, et à son augmentation en raison du réchauffement climatique. Si le lien n’est pas encore totalement élucidé et fait l’objet de nombreux débats scientifiques, il est bien possible, dans certains cas, d’affirmer que le réchauffement climatique est responsable de l’augmentation de l’intensité des précipitations de pluie et de neige. Ceci s’explique par la relation thermodynamique de Clausius-Clapeyron, qui dit que la quantité d’eau sous forme de vapeur présente dans l’atmosphère augmente avec la température.

Ce phénomène se ressent notamment au sud de l’Italie où des vagues de froid entraînent d’importantes précipitations neigeuses depuis le début des années 2000, alors que l’on sait que par le passé il ne neigeait pas autant dans cette région. La mer Méditerranée étant plus chaude, elle crée une évaporation d’eau qui vient ensuite se transformer en chutes de neige une fois sur les terres. Le cycle de l’eau se voit impacté par le réchauffement climatique. 

Mais le réchauffement climatique n’a, a priori, aucun effet sur le déclenchement des cyclones. On constate d’ailleurs que le nombre de tempêtes extratropicales et de cyclones tropicaux n’a pas augmenté au cours des dernières décennies. Cependant, le réchauffement climatique participe à l’augmentation des précipitations survenues pendant les cyclones (c’est la relation de Clausius-Clapeyron).

En revanche, l’augmentation du nombre de canicules est clairement corrélée au réchauffement climatique. En effet, il y a plus de canicules au 21e siècle qu’au début du 20e siècle.  L’explication de cette corrélation est toujours débattue.

La question du lien entre réchauffement climatique et la multiplication des événements climatiques extrêmes enregistrés par les météorologues ne trouve donc pas de réponse définitive ni absolue. Elle diffère selon le type d’événement concerné. Si elle ne fait guère de doute pour certains événements, pour d’autres, elle nécessite encore de nombreuses données avant d’établir un éventuel lien de causalité.

Le lien entre le développement de nos connaissances sur le climat et la prévision des impacts météorologiques extrêmes reste un défi posé aux scientifiques s’intéressant au climat. Cela nécessite un travail en étroite collaboration entre des disciplines qui se sont ignorées pendant des décennies. Plusieurs initiatives nationales et internationales comblent ces fossés, entre sciences du climat, droit, économie et sciences sociales d’une manière générale.

 

    DOCUMENT     cea         LIEN

 
 
 
 

La supraconductivité et ses applications

 


 

 

 

 

 

La supraconductivité et ses applications

Publié le 7 septembre 2016

Découvert en 1911, le phénomène de supraconductivité continue de fasciner et trouve aujourd’hui de nombreuses applications dans les domaines de la santé, de l’énergie, des transports, des instruments de recherche pour l’analyse chimique et structurale (analyse RMN) ou encore des grands accélérateurs pour étudier les particules élémentaires.

QU’EST-CE QUE LA SUPRACONDUCTIVITÉ ?

À l’état supraconducteur, un matériau refroidi à très basse température acquiert la capacité de conduire parfaitement un courant électrique, sans résistance, et donc sans perte d’énergie. De même, à l’état supraconducteur, les matériaux possèdent la propriété d’expulser totalement le champ magnétique qui les entoure, ce qui peut se manifester par des effets spectaculaires de lévitation magnétique.


Le phénomène de supraconductivité a été découvert en 1911 par le physicien Heike Kammerlingh Onnes. Traduit par des propriétés électriques, magnétiques et quantiques spécifiques, il apparaît lorsque l’on refroidit certains métaux ou alliages à très basses températures, proches du zéro absolu, 0 kelvin soit - 273,15 °C. Appelée température critique (Tc), la température à laquelle le matériau devient supraconducteur dépend de la composition chimique de celui-ci. Pour la plupart des matériaux, dits supraconducteurs conventionnels, elle se situe entre 1 et 33 kelvins (soit entre - 272 et – 240°C), ce qui nécessite un refroidissement à l’hélium liquide, voire au-delà.


Depuis 1986, des oxydes de cuivre ou cuprates, appelés supraconducteurs à haute température critique (haut-Tc) ou supraconducteurs non conventionnels, peuvent être refroidis à l’azote liquide (à 77 K soit - 196°C). Dans les conditions usuelles, ce sont les cuprates de mercure qui détiennent actuellement le record de température critique : 135 K (- 138°C). En 2008, des scientifiques ont réussi à synthétiser une nouvelle famille de supraconducteurs à haute température critique : les pnictures (Tc = 55K, soit - 218°C). Possédant des propriétés différentes des cuprates, ces matériaux suscitent également beaucoup d’intérêt depuis leur découverte. Enfin, sous très haute pression (1,5 mégabar, soit la moitié de la pression au centre de la Terre), le sulfure d'hydrogène (H2S) devient supraconducteur en dessous de la nouvelle température de -70° C.

QUELLE EST L’ORIGINE DE LA SUPRACONDUCTIVITÉ ?
La supraconductivité est un phénomène quantique collectif. C’est une des manifestations possibles, et perceptible à notre échelle, du comportement quantique de la matière.
Dans les matériaux supraconducteurs classiques, les électrons se regroupent par paires (dites paires de Cooper), en interagissant avec les atomes présents autour d’eux. Ils forment alors une vague collective. Cette vague électronique se propage comme une onde, sans subir de collision avec les défauts présents dans la matière, ce qui permet de conduire du courant électrique sans perte d’énergie. Ce phénomène ne peut se produire qu’à basse température lorsque les atomes du matériau ne vibrent pas trop (sinon les paires d'électrons se scindent et la résistance électrique du matériau réapparait).

EXEMPLES D’APPLICATIONS
DE LA SUPRACONDUCTIVITÉ

La compréhension et la maîtrise des principes de la supraconductivité est à l’origine de nombreuses applications. L'absence de résistance du matériau supraconducteur d'une bobine électrique permet en particulier de générer des champs magnétiques très intenses (plusieurs teslas). L’IRM, qui a révolutionné le diagnostic médical et la compréhension du cerveau, nécessite des champs magnétiques intenses qui peuvent être obtenus grâce à la maîtrise de ce phénomène ; les transports, les télécommunications, l’électronique, l’informatique,… peuvent également exploiter ses propriétés. En outre, sans supraconducteurs, les très grands instruments de recherche tels que l’accélérateur de particules LHC aujourd’hui, ou Iter demain, ne pourraient voir le jour.

Imagerie médicale
S’il est un domaine dans lequel la supraconductivité a joué un rôle essentiel, c’est celui de l’imagerie médicale. La technologie de l’IRM, outil de diagnostic et de recherche désormais incontournable, est en effet une retombée directe des recherches menées sur le sujet. Spécifiquement, la base d’une IRM est de créer un champ magnétique très fort et homogène sur un volume suffisant afin qu'une proportion significative des protons de l’eau du corps du sujet (quelques protons par million) ait un "axe de rotation sur eux-mêmes" aligné. Cette première difficulté technologique, est résolue avec la supraconductivité, qui permet de disposer de champs magnétiques intenses, stables et uniformes.
Outre l’IRM haut champ, la supraconductivité intervient dans la fabrication des capteurs magnétiques qui sont à la base d’autres techniques d’imagerie médicale : l’IRM bas champ (où, au lieu de renforcer la polarisation par un champ magnétique très intense, on utilise un capteur très sensible), la magnétoencéphalographie (MEG) et la magnétocardiographie (MCG).

Les très grands instruments de recherche
La supraconductivité joue aujourd’hui un rôle prépondérant dans la conception et la réalisation des très grands instruments dédiés à l’exploration de la matière. Employée dans les accélérateurs de particules pour développer les électroaimants supraconducteurs qui dévient et focalisent les faisceaux, elle intervient également dans le domaine des cavités radiofréquence (RF) qui génèrent le champ électrique qui accélère les particules chargées au centre du faisceau.
L’emploi de matériaux supraconducteurs a un triple avantage :  
*         l’absence de résistivité des supraconducteurs, qui évite toute dissipation d’énergie, permet de gagner en puissance sans augmenter la consommation de l’installation ;
*         grâce à l’annulation de l’effet joule (échauffement dû à la résistivité du matériau), il devient possible de faire passer de grandes densités de courant dans des bobinages très compacts. La densité alliée à la compacité permettent d’obtenir des champs magnétiques beaucoup plus élevés ;
*         la supraconductivité permet de générer des champs magnétiques très puissants, pouvant atteindre jusqu’à 20 teslas.

Fusion nucléaire
La supraconductivité trouve également des applications dans le domaine de la fusion nucléaire. L’une des pistes étudiées pour tenter de reproduire sur Terre l’énergie des étoiles repose sur la conception d’une machine appelée sous son acronyme russe « Tokamak ».
En forme d'anneau (ou « tore »), les particules qui y sont injectées subissent des champs magnétiques si intenses qu’elles restent fortement confinées dans la partie centrale de l’anneau, sans contact avec les parois et peuvent ainsi provoquer des réactions de fusion. Pour produire de tels champs, on utilise des bobines réalisées à partir de matériaux supraconducteurs.

OÙ EN EST LA RECHERCHE SUR LA SUPRACONDUCTIVITÉ ?
Si les mécanismes à l’origine de la supraconductivité dans la majorité des matériaux, dits supraconducteurs conventionnels, sont élucidés depuis longtemps et bien compris, ce n’est pas le cas des supraconducteurs à haute température critique (cuprates et pnictures). Il s’agit d’un des principaux sujets de recherche actifs dans le domaine de la supraconductivité qui oblige les physiciens à élaborer de nouveaux matériaux et à inventer différentes façons de mesurer leurs propriétés ainsi que de nouveaux concepts pour les décrire.
En synthétisant de nouveaux échantillons supraconducteurs et en analysant leurs propriétés, les chercheurs espèrent percer les derniers mystères de la supraconductivité afin d’arriver à l’obtention du même phénomène à plus haute température et peut-être un jour découvrir une supraconductivité encore plus proche de la température ambiante, ce qui ouvrirait de nouveaux champs d’applications.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon