ecole de musique piano
     
menu
 
 
 
 
 
 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

 

 

 

 

 

 

 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

Au voisinage du zéro absolu de température, la matière se transforme, adoptant des comportements que notre intuition a de la peine à appréhender. Certains gaz liquéfiés deviennent superfluides, s'échappant du réservoir qui les contient comme s'ils défiaient la pesanteur. La supraconductivité apparaît dans les métaux et donne lieu à des courants électriques permanents, utilisés aujourd'hui pour la production de champs magnétiques intenses. L'explication de ces phénomènes étranges apporte un nouvel éclairage dans des domaines que l'on aurait crus très éloignés, comme la dynamique des étoiles à neutrons ou l'évolution de l'Univers après le Big Bang, contribuant ainsi à établir des concepts physiques fondamentaux. Pour atteindre des basses températures qui n'existent pas dans la Nature, les chercheurs ont mis au point des méthodes de réfrigération sophistiquées. Celles-ci ont ouvert un nouveau domaine de recherche, la Physique des très basses températures, particulièrement riche en phénomènes physiques nouveaux qui constituent la source d'applications technologiques de pointe. Au cours d'une promenade à la limite du zéro absolu de température nous explorerons ensemble le royaume du froid.

Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu
par Henri Godfrin
Température et intuition...
Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.

Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...

Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !

La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.

Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.

La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.

La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.

Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.

Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !

L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !

Les fluides cryogéniques
Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.

Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.

Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.

L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !

La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !

H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.

On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.

Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].

Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.

Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.

Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.

Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.

D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.

Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».

Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannou
dji .

 

VIDEO       CANAL  U         LIEN

 
 
 
 

L'ORDINATEUR QUANTIQUE

 

 

 

 

 

 

 

L'ordinateur quantique

Publié le 15 mai 2019

 Si on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".
La quête de l’ultime Bit quantique, qubit

A la base du concept de l’ordinateur quantique figure l’idée selon laquelle les phénomènes quantiques pourraient être utilisés pour décupler la puissance de calcul des machines classiques. Ce rêve, poursuivi par des scientifiques, de par le monde, depuis plus de trente ans, se heurte cependant à d’importants obstacles technologiques.
VidéoComment fonctionne un ordinateur quantique ?

Voir dans la médiathèque 

L'histoire de l'ordinateur quantique

Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


* Télécharger l'infographie sur un processeur quantique élémentaire

Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.
VidéoL'histoire de l'ordinateur et de la physique quantique

Voir dans la médiathèque  HD (requiert flash)

Qu'est-ce qu'un bit quantique ?

Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.




Etats quantiques d'un bit quantique. © CEA/F. Mathé




L'ordinateur quantique : un potentiel de rupture majeur mais un problème conceptuel et technologique extrêmement difficile
Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.

Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique permettrait des approches révolutionnaires pour certaines classes de problèmes.

Une communauté scientifique et technique encore réduite
La communauté scientifique bien informée sur les possibilités des technologies quantiques est encore réduite. Issue pour l’essentiel du monde académique (physique et mathématiques), elle a peu développé les voies applicatives pour le moment. Il est donc possible que de nombreuses applications insoupçonnées jusqu’à présent apparaissent dans un futur proche.

L'ordinateur quantique : Des domaines d’application déjà identifiés
Aujourd’hui, des programmes de recherche importants sont menés selon trois grandes voies de l’ingénierie quantique qui étudie ce qu’il est possible de réaliser en termes d’application en exploitant les propriétés d’intrication, de non localité et de superposition, propre à un système quantique :


Les capteurs : une information portée par un qubit est très sensible aux perturbations apportées par son environnement ; c’est une difficulté pour réaliser un ordinateur mais cela peut permettre de construire une sonde très sensible.
Les ordinateurs de très grande performance : le calcul quantique est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique pour certaines applications.
Les télécommunications protégées : les corrélations quantiques entre des particules intriquées permettent de coder un message garantissant l’absence d’interception lors de sa transmission. Le codage à base de clefs publiques trop difficiles à factoriser par les ordinateurs actuels pourrait être cassé par un ordinateur quantique ayant un nombre suffisant de qubits (de l’ordre du nombre de bits de la clef).


Le calcul massivement parallèle, intrinsèque à l’ordinateur quantique, permet de sonder l’espace des états d’un système comportant de très nombreux paramètres. 

Cette caractéristique permet déjà d’identifier quatre grands domaines d’application :

La chimie
Simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, même les plus puissants, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.

Le Data Mining
Accélérer la recherche d’une information spécifique dans une vaste base de données.


L’optimisation de procédés de l’industrie 4.0 

Trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.


L’intelligence artificielle  

Au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourront être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
Les enjeux de la recherche sur l'ordinateur quantique

Atout du quantique : des calculs intrinsèquement parallèles
Alors que dans un calculateur classique, les bits (unités de base utilisées) ne peuvent prendre qu’une valeur parmi deux (soit 0 soit 1), les qubits peuvent être placés dans un ensemble continu de superpositions de leurs deux états de base |0> ou |1>.

Un ordinateur exploitant cette possibilité, offerte par les lois de la physique quantique, pourrait calculer de façon massivement parallèle, c'est-à-dire simultanément, l'ensemble des valeurs des qubits, et ainsi surpasser considérablement la puissance de l'ordinateur classique.

Ainsi, dans un ordinateur classique, une série de N bits égaux à 0 ou 1 permet d’encoder un unique nombre parmi les 2N possibles (un parmi 4 096 pour N = 12).
En revanche, un registre quantique dont les 12 qubits seraient en parallèle plongés dans les deux états de base |0> ou |1>, se trouverait dans une superposition des 4 096 états de base du registre. Toute opération quantique qui lui serait appliquée s’effectuerait en parallèle sur ces 4 096 états de base. Ceci ne réaliserait pas pour autant du calcul parallèle car la lecture ne donnera qu’un seul résultat. L’art de l’algorithmique quantique consiste alors à exploiter le parallélisme tout en concentrant, par chaque étape de mesure, l’état du registre quantique sur la ou les solutions du problème étudié.


Difficultés du quantique : un état intrinsèquement peu stable
Si les spécialistes de physique quantique savent observer atomes, photons ou molécules dans des états dits de "superposition quantique", ces états sont extrêmement fragiles : à la moindre perturbation extérieure, ils s’évanouissent ; d’où la nécessité d’isoler aussi complètement que possible de leur environnement les systèmes que l’on souhaite mettre durablement dans de tels états.
Les qubits sont les unités de construction des calculateurs quantiques. Ils peuvent être mis en œuvre dans une large variété de systèmes physiques à l’échelle du laboratoire. La recherche sur les qubits s’est d’abord naturellement portée sur des systèmes au comportement quantique avéré, comme les atomes et les ions, bien que ces systèmes microscopiques soient difficiles à contrôler individuellement et à coupler. Elle s’est également portée ensuite sur des systèmes plus faciles à contrôler, comme des circuits électriques, qui eux ne fonctionnent, en général, pas en régime quantique.
Cependant, lorsqu’on veut produire de grands systèmes ou des qubits en série, il faut utiliser des supports de l’information quantique compatibles avec les standards industriels. Les qubits de spin dans le silicium sont de petite taille (typiquement 30 nanomètres) et sont compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication de composants électroniques), largement utilisées dans l’industrie microélectronique. Ils présentent donc des avantages évidents pour la production en série par rapport aux autres types de qubits.
Depuis 2012, où ont été mis au point les premiers qubits basés sur des spins d’électrons confinés, le silicium 28 purifié isotopiquement a permis d’améliorer significativement le temps de cohérence du spin quantique : en effet, l’isotope 28 du silicium ne porte pas de spin nucléaire, source importante de décohérence pour le qubit. Plus le temps de cohérence du spin augmente, plus la fidélité des opérations de calcul quantique et la capacité à effectuer une séquence complète d’opérations s’améliorent.
La recherche dans le domaine
La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche. L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.

Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l’étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd’hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d’euros. Au niveau européen, un flagship sur l’ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l’ambition d’amener les technologies quantiques sur le marché. Le financement annoncé est d’au moins un milliard d’euros, apporté par la Commission européenne et les Etats membres sur dix ans.

Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente.
En particulier, le problème de la correction d’erreurs est plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…)




Voir aussi

* L'essentiel sur... la mécanique quantique
* Clefs CEA n°66 - Révolutions quantiques - juin 2018
* Vidéo Masterclass Introduction à la physique quantique, par Roland Lehoucq, astrophysicien au CEA 

* Les Défis du CEA n° 214 - L'ordinateur quantique, graal du numérique - février 2017

 

 DOCUMENT     cea         LIEN
 

 
 
 
 

EAU

 

 

 

 

 

 

 

eau
(latin aqua)

Consulter aussi dans le dictionnaire : eau
Cet article fait partie du dossier consacré à l'eau.

Cascade.
Corps liquide à la température et à la pression ordinaires, incolore, inodore, insipide, dont les molécules sont composées d'un atome d'oxygène et de deux atomes d'hydrogène.
*         Volumes massiques (l/kg)
*         Glace à 0 °C : 1,091
*         Liquide à 0 °C : 1,000 132
*         Liquide à 4 °C : 1,000 000
*         Indice de réfraction : n20 = 1,333 00
*         Chaleur de formation à 25 °C (ΔG0) : −56,69 kcal/mole
*         Produit ionique à 25 °C : 10−14
CHIMIE

L'eau contient en solution ou en suspension toutes sortes d'autres corps (sels, gaz, micro-organismes, etc.), très répandu à la surface terrestre (eau de pluie, eau de mer, eau du robinet, etc.).

       


Considérée par les Anciens comme un élément, l'eau est une combinaison d'hydrogène et d'oxygène. Henry Cavendish reconnut en 1781 qu'elle se formait dans la combustion de l'hydrogène. Les travaux d’Antoine Laurent de Lavoisier, de Pierre Simon Laplace et de Jean-Baptiste Marie Meusnier, complétés par ceux d’Anthony Carlisle et de William Nicholson (analyse électrolytique de l'eau, 1800), de Louis Joseph Gay-Lussac et d’Alexander Humboldt (synthèse eudiométrique, 1805), et enfin par ceux de Jean-Baptiste Dumas (synthèse pondérale, 1843), établirent sa composition.



1. LA STRUCTURE DE L’EAU
1.1. LA MOLÉCULE D'EAU
Dans la molécule H2O, chaque atome d'hydrogène est lié à l'atome d'oxygène par une liaison dite « covalente », c'est-à-dire qu'une paire d'électrons est mise en commun, ce qui confère une très grande stabilité à la molécule. Celle-ci se manifeste dans la valeur élevée de l'enthalpie de la liaison O―H (462,5 kJ. mol−1).
Chaque liaison O―H mesure 0,96 Å (1 Å = 10−10 m) et l'angle HOH est voisin de 105 °.



1.2. LA POLARITÉ DE LA MOLÉCULE D'EAU
La répartition des charges dans la liaison O–H n'est pas symétrique : les électrons sont plus fortement attirés vers l'atome d'oxygène que vers celui d'hydrogène. Ainsi, la molécule H2O est polaire : elle se comporte comme un dipôle électrique permanent formé par deux charges électriques égales et de signes opposés séparées l'une de l'autre, la charge positive étant localisée au voisinage des atomes d'hydrogène, la charge négative au voisinage de l'atome d'oxygène. Il en résulte des propriétés électriques particulières.
Cette polarité se mesure expérimentalement par de nombreuses caractéristiques électriques, comme le moment dipolaire (1,85 D) ou la constante diélectrique statique (ε = 78 à 25 °C). Aussi, la molécule d'eau est en interaction électrostatique avec toute particule chargée (ion, molécule polaire), et en particulier avec les autres molécules d'eau à l'état solide ou liquide. Cela explique en partie les propriétés de solvant ionisant de l'eau et sa structure condensée.

Le dipôle eau va donc s'orienter dans un champ électrique. Dans un champ alternatif de fréquence convenable (1 à 100 GHz), les dipôles sont soumis à un mouvement d'oscillation qui produit de la chaleur. Ce phénomène est d'ailleurs à la base de la technique de chauffage par micro-ondes des aliments.

1.3. LES LIAISONS HYDROGÈNE DANS L'EAU EN PHASE CONDENSÉE

Les molécules d'eau en phase condensée ne sont plus isolées, mais associées pour former de petits amas transitoires (état liquide) ou des structures permanentes et infinies à trois dimensions (état solide ou cristallin). Dans tous ces édifices, deux molécules d'eau voisines sont liées par une liaison particulière dite « liaison hydrogène » (→ matière).
Pour en savoir plus, voir l'article état [physique].
La liaison hydrogène peut être définie schématiquement comme une attraction électrostatique entre une charge négative localisée sur l'oxygène et une charge positive portée par un atome d'hydrogène d'une molécule d'eau voisine.
Ainsi, dans la glace ordinaire, de type I, cette liaison est linéaire, c'est-à-dire que les groupes ―O et HO― impliqués dans ce type de liaison sont alignés avec une distance entre les atomes d'oxygène de 2,76 Å (au point de fusion, 0 °C). Chaque molécule est ainsi reliée à trois autres dans une géométrie tétraédrique.
Cette liaison, d'une énergie de 19 kJ . mol−1, qui est beaucoup plus facile à rompre que la liaison covalente, a cependant une influence sur les propriétés thermodynamiques anormales de l'eau. En effet, à la pression atmosphérique normale, les températures de changement d'état de l'eau – fusion à 0 °C, vaporisation à 100 °C – sont élevées par rapport à celles d'autres composés chimiques de même poids moléculaire, car la rupture de la liaison hydrogène nécessite une agitation thermique importante.
Pour en savoir plus, voir l'article énergie chimique.

1.4. LES DIFFÉRENTES MASSES MOLÉCULAIRES DE L'EAU

EAU LOURDE
En 1931 fut découvert par Harold Urey un premier isotope de l'hydrogène, le deutérium D (ou 2 H), deux fois plus lourd que l'hydrogène ordinaire et qui, combiné à l'oxygène dans la même proportion, constitue la molécule D2O, dite « eau lourde ».

Elle est formée de molécules d'eau dont les atomes d'hydrogène ont été remplacés par un isotope de l'hydrogène qui contient un proton et un neutron et que l'on appelle deutérium, de symbole D. De densité 1,106, l’eau lourde se solidifie à 3,82 °C et bout à 101,42 °C. L'eau naturelle contient 0,15 % d'oxyde de deutérium. L'eau lourde est principalement obtenue :
– par électrolyse, l'hydrogène étant libéré plus vite que le deutérium ;
– par distillation fractionnée de l'eau naturelle ;
– par échange isotopique, en tirant profit des petites différences de réactivité entre l'hydrogène et le deutérium ;
– par distillation fractionnée de l'hydrogène naturel liquide. Cette dernière méthode est la plus efficace et la moins onéreuse.
L'existence d'un second isotope de l'hydrogène, le tritium T (3H), radioactif, et aussi de trois isotopes de l'oxygène (16O, 17O, 18O) fait que l'eau est constituée de molécules de masses très variées. L'eau lourde a, comme l'eau, la propriété de ralentir les neutrons par collisions élastiques, mais son pouvoir de capture est inférieur ; de ce fait, elle est utilisée comme modérateur dans certains types de réacteurs nucléaires.
Les variations des rapports isotopiques sont de précieux témoins car, l'abondance de l'isotope 18O diminuant avec le temps, elles fournissent des indications sur l'origine de l'eau et sur son âge.

EAU OXYGÉNÉE

Découverte en 1818 par Louis Jacques Thenard, l'eau oxygénée est une solution aqueuse de peroxyde d'hydrogène H2O2. Pur, ce dernier corps est un liquide sirupeux, incolore, à saveur métallique, de densité 1,46, pouvant se congeler à − 1 °C. Il est soluble dans l'eau en toutes proportions. On trouve dans le commerce l'eau oxygénée à 2 ou 3 % (dite à 10 ou 12 volumes, car elle peut libérer de 10 à 12 fois son propre volume d'oxygène).
Elle est douée de propriétés oxydantes, d'où son emploi comme antiseptique et décolorant. Sa préparation industrielle utilise surtout le procédé à l'anthraquinone.
→ eau oxygénée [médecine].

2. PROPRIÉTÉS PHYSIQUES ET CHIMIQUES DE L’EAU

2.1. PROPRIÉTÉS PHYSIQUES DE L’EAU
GÉNÉRALITÉS

La plus manifeste des propriétés originales de l'eau est celle de ses trois états (gazeux, liquide, solide), de poids spécifiques différents, qui peuvent voisiner : ainsi, sous un ciel chargé de nuages, il n'est pas rare de voir couler un fleuve au milieu d'espaces couverts de neige ou de glace. En outre, et contrairement à beaucoup de substances plus lourdes sous forme solide que sous forme liquide, un bloc de glace est plus léger qu'un égal volume d'eau : 1 l d'eau donne 1,091 l de glace en se solidifiant à 0 °C. Il en résulte que la glace, dont la structure est relativement peu compacte, flotte sur l'eau.

En effet, si l'eau à l'état solide compte près de dix formes cristallines différentes, dans la structure la plus courante, le type I, chaque molécule est liée à ses quatre voisines par des liaisons hydrogène. Cette structure présente des lacunes, ce qui explique sa plus faible masse volumique par rapport à l'eau liquide. Cette propriété explique que la glace ne se forme qu'à la surface des mers et des lacs.

LES PROPRIÉTÉS THERMIQUES DE L'EAU
Une autre originalité de l'eau concerne sa chaleur spécifique. Elle est tellement élevée par rapport à celle des autres corps (18 cal . mol−1 . degré−1) qu'elle a été prise comme référence calorifique : la calorie est la quantité de chaleur nécessaire, à la pression ordinaire, pour porter de 14,5 à 15,5 °C la température de 1 g d'eau.
La chaleur latente de fusion (chaleur nécessaire pour fondre 1 g de glace) est très importante : 83 calories par gramme ; mais la chaleur de vaporisation (chaleur nécessaire pour vaporiser 1 g d'eau) l'est plus encore : 600 calories par gramme.
L'eau possède, en conséquence, une forte inertie thermique et, sous toutes ses formes, sa présence amortit les variations de température (son influence est modératrice sur les climats). Elle est également un excellent agent de transport et de conservation de la chaleur.

TENSION SUPERFICIELLE DE L'EAU

La très forte tension superficielle de l'eau (72 dyn . cm−1) explique ses mouvements de bas en haut, par capillarité, dans le sol et dans les plantes : l'adhérence des molécules d'eau entre elles autorise ce défi aux lois de la pesanteur.

2.2. PROPRIÉTÉS CHIMIQUES DE L’EAU
L’EAU SOLVANT
L'eau dissout un grand nombre de substances solides, liquides ou gazeuses. C'est un bon solvant des électrolytes et un mauvais solvant des composés non polaires (hydrocarbures). Ainsi, du fait de sa très grande capacité diélectrique, l'eau est, de tous les liquides connus, le plus proche d'un solvant universel et inerte.
Un autre résultat de sa structure, l'effet hydrophobe – c’est-à-dire le rejet, par les molécules d'eau, des groupements hydrocarbonés CH est de grande conséquence sur la structure même des êtres vivants (protéines, ADN, bicouches lipidiques des membranes cellulaires), qui serait instable en l'absence d'eau.

UNE MOLÉCULE AMPHOTÈRE
Possédant à la fois des propriétés oxydantes et réductrices (→ oxydoréduction), la molécule d'eau est une molécule amphotère : c'est l'acide du couple H2O, OH− et la base du couple H+, H2O ou, mieux, H3O+, H2O (→ acides et bases).
Par ailleurs, l'eau donne de nombreux composés d'addition : hydrates ou complexes.

ÉCOLOGIE

1. ÉTAT NATUREL DE L'EAU

1.1. L’EAU SUR LA TERRE
L’eau est présente sur la Terre sous ses trois états : liquide (la Terre est la seule planète du système solaire à posséder de l’eau liquide), à la surface et sous terre, solide (neige et glace), aux pôles, dans les glaciers et au sommet des montagnes, et sous forme de vapeur d’eau, dans l’atmosphère. De l’eau liquide est également contenue dans tous les êtres vivants ; elle est indispensable à la vie (et c’est dans l’eau que celle-ci est apparue, il y a plus de 3,8 milliards d’années).

Le volume total de l’eau présente sur la Terre, sous toutes ses formes, souterraine, en surface ou dans l’atmosphère, constitue l’hydrosphère. Il représente près de 1,4 milliards de km3. Pour 97,2 %, l’hydrosphère est constituée par les mers et les océans, qui couvrent presque les trois-quarts (72 %) de la surface de la Terre et lui donnent, vue de l’espace, la couleur bleue qui lui a valu le nom de « planète bleue ». L’ensemble des eaux douces (à peine 2,8 % de l’eau totale) est estimé à environ 39 millions de km3. L’essentiel de ces eaux est immobilisé sous la forme de glaces (29 millions de km3), essentiellement dans les calottes glaciaires de l’Antarctique et du Groenland (qui couvrent une superficie supérieure à 17 millions de km2 de terre, sur une épaisseur moyenne de plus de 1,5 km). Le reste se répartit en eaux souterraines (9,5 millions de km3), et eaux de surface : lacs et mers intérieures (125 000 km3), humidité des sols (65 000 km3), fleuves et rivières (1 700 km3), auxquelles il faut ajouter l’eau de l’atmosphère (environ 13 000 km3 d’eau) – une quantité destinée à augmenter en raison du réchauffement climatique. L’eau contenue dans les êtres vivants représenterait environ 1 100 km3. (Ces chiffres sont des estimations ; divers travaux ont été publiés sur cette question, c’est pourquoi l’on en rencontre d’autres, différents mais néanmoins proches et respectant peu ou prou les mêmes proportions).
On appelle parfois eau bleue l’ensemble des eaux des lacs, fleuves, rivières, nappes phréatiques, glaciers, et eau verte l’eau contenue dans les sols et disponible pour les plantes (et indirectement les animaux). Au final, l’eau douce disponible et accessible pour l’homme (cours d’eau, lacs, barrages, nappes souterraines peu profondes, récupérateurs d’eau de pluie...) représente moins de 1 % du total de l’eau de la planète, ce qui correspond à – seulement – 0,028 % de l’hydrosphère.

1.2. LE CYCLE DE L’EAU

Le volume total de l’eau sur la Terre (l’hydrosphère) est en perpétuel mouvement et circule en permanence entre ses différents réservoirs (à la surface de la planète, dans l’atmosphère et dans le sous-sol) : c’est ce que l’on appelle le cycle de l’eau.
L’eau séjourne dans ses différents réservoirs plus ou moins longtemps. Ainsi, il faut jusqu’à 9 700 ans pour que soit entièrement renouvelée l’eau des calottes glaciaires, mais 2 500 pour les océans, 17 ans pour les lacs d’eau douce, 16 jours pour les cours d’eau et 8 jours pour l’atmosphère.
Provoquée par le rayonnement solaire, l'évaporation soustrait à tout moment de l'eau liquide aux océans (1 000 km3 par jour), aux lacs, aux rivières, aux surfaces humides, ainsi qu'aux sols et aux plantes (on parle plus précisément, dans ce dernier cas, d’évapotranspiration). La vapeur d'eau s'élève et circule, comme un gaz, dans l'atmosphère, où elle se condense au contact d'un air plus froid et donne naissance aux nuages. Dans certaines conditions et par l'effet de la pesanteur, cette eau regagne la surface des continents et des océans sous forme de précipitations (pluie, neige, grêle). Parvenue au sol, une grande partie (61 %) s’évapore ; le reste ruisselle (16 %) et rejoint les cours d’eau, ou pénètre dans le sol (23 %) où elle circule et alimente les nappes et les rivières souterraines. Ces flux souterrains hydratent les couches superficielles du sol, alimentent et renouvellent les nappes profondes, nourrissent les sources, soutiennent la vie des plantes, par lesquelles une partie de l'eau remonte dans l'atmosphère en changeant à nouveau d'état.
Drainées par les cours d'eau ou les langues glaciaires aux hautes latitudes, les eaux continentales, après des trajets fort divers, finissent à la mer pour se mêler aux immenses réserves océaniques.
Le moteur du cycle de l’eau est le Soleil : c’est en fonction de l’énergie qu’il envoie sur Terre que l’eau s’évapore ou précipite, que les glaces fondent ou non, etc. Le cycle de l’eau a un impact sur le modelage de la surface de la Terre : érosion (par les rivières, les pluies, les glaciers), remplissage variable des cours d’eau et des plans d’eau...

1.3. LE BILAN DE L’EAU

L'estimation des quantités d'eau entraînées dans le cycle de l'eau, en une période donnée, constitue le bilan, première tâche que se fixent les hydrologues. Il implique l'évaluation des apports et des restitutions d'eau ainsi que le calcul de la vitesse à laquelle se renouvellent les aquifères, et ce à n'importe quelle échelle d'espace et de temps.
Le bilan peut en effet porter sur le système global de la circulation terrestre ou sur toute autre fraction de l'ensemble, par exemple un continent, une région, un pays, un champ, un bassin-versant de quelques hectares comme celui qui s'étendrait sur des millions de kilomètres carrés… Le bilan peut de même avoir pour cadre temporel l'année, la saison, le mois, quelques jours, quelques heures ou même moins. On appelle bilan hydrologique celui réalisé à l’échelle d’un bassin-versant, bilan hydrique celui étudiant les mouvements de l’eau à l’échelle d’une parcelle agricole ou même d’une simple plante.
À l'échelle mondiale et au cours d'une année, le volume estimé de l’eau entraînée dans le cycle équivaut à une lame d'eau de 1 m d'épaisseur qui serait répartie uniformément sur toute la surface terrestre, volume énorme de quelque 500 000 km3 – relativement faible pourtant quand il est comparé au stock hydrique total, qui envelopperait la Terre d'une couche d'eau épaisse de 3 km ! Les précipitations annuelles sur la planète représentent environ 1,1 million de km3.

1.4. LA QUALITÉ DES EAUX NATURELLES
S'il n'y a pas de différence essentielle entre les eaux rencontrées dans la nature – il s'agit toujours de la même substance –, leur qualité est aussi variable que les éléments de l'environnement où elles circulent.

DES EAUX TRÈS DIFFÉRENTES
Elles diffèrent par leur goût, leur odeur, leur couleur, leur température, leur acidité. Même l'eau de pluie contient quelques particules de sels dissous qui ont été transportées par le vent soufflant au-dessus des continents ; elle est aussi quelquefois chargée de poussières et de gaz dissous, ainsi que de substances polluantes (c’est notamment le cas des pluies acides). Certaines sources sont connues pour leurs propriétés minérales particulières. Des forages proches dans une même nappe fournissent parfois des eaux différentes. L'eau des rivières peut être claire ou turbide. Quant aux eaux superficielles courantes ou stagnantes et aux eaux souterraines, leur qualité varie d'un lieu à l'autre selon la nature du sol et du substratum rocheux, le climat, la saison, le niveau de pollution, l'activité biologique d'organismes vivants qui la peuplent, y vivent, y meurent et s'y décomposent.
Les éléments minéraux, présents à des concentrations plus ou moins élevées, sont les mêmes dans les eaux provenant des aquifères souterrains ou de surface (rivières, lacs, retenues de barrages).

LES EAUX SOUTERRAINES
La filtration au travers de terrains poreux, l'obscurité et la raréfaction de l'oxygène dans les profondeurs du sol, ainsi que l'atténuation des variations de température confèrent aux eaux souterraines des qualités distinctes de celles des eaux superficielles. ces dernières sont, en général, plus turbides, plus colorées, moins minéralisées, plus riches en matières organiques, plus exposées aussi aux principales pollutions d'origine humaine. Mieux protégées des pollutions car elles sont filtrées par les couches de terrains et de roches qu’elles traversent lors de l'infiltration, les eaux souterraines n'en sont toutefois pas complètement préservées. Si la pollution les gagne, elle est toujours grave, tant à cause de la quantité d'eau contaminée que de la longue durée nécessaire au renouvellement de la réserve.
Par ailleurs, en agissant sur les roches, dont elles dissolvent les éléments solubles, les eaux souterraines se minéralisent. Selon la proportion des sels dissous, ces eaux sont dites douces (moins de 0,6 g de sels par litre) ou dures. Les eaux minérales contiennent une notable proportion de sels minéraux utilisables en thérapeutique.

LES PARAMÈTRES CARACTÉRISTIQUES DE LA QUALITÉ DE L'EAU
Quelques paramètres sont jugés suffisants pour caractériser l'ensemble des altérations physiques et biochimiques : la charge des matières en suspension (MES), en matières oxydables (MO) et en oxygène dissous, la teneur en nitrates, en phosphore et en chlorophylle, l'indice biologique global (IBG).
La charge en matières oxydables est mesurée par les demandes biologiques (DBO 5) et chimiques (DCO) en oxygène. La raréfaction de ce gaz indispensable à l'équilibre biologique des milieux aquatiques, notamment par élévation, naturelle ou non, de la température de l'eau, peut provoquer la mort d'êtres vivants qui l'habitent.
Une forte DBO 5 est l'indice de fertilité du milieu et d'une active biodégradation des matières organiques. Si les bactéries aérobies, réductrices, viennent à manquer d'oxygène, la décomposition anaérobie des matières organiques accumulées provoque le dégagement de gaz et de substances toxiques. L'introduction dans l'eau de nutriants (principalement des nitrates et des phosphates) accélère donc un processus naturel d'eutrophisation, qui est devenu une forme de pollution des plus répandues et des plus tenaces. L'excès de phosphore – substance nécessaire à la vie à doses modérées – est ainsi la cause principale des proliférations d'algues dans les eaux continentales et littorales, et à l'origine indirecte de toxines.
Pour en savoir plus, voir l'article traitement des eaux.

1.5. L'EAU DE MER
On définit la salinité de l'eau de mer par sa teneur en sels dissous, exprimée en ‰, c'est-à-dire en grammes par kilogramme d'eau de mer. Si la salinité des eaux océaniques varie avec les régions, leur composition en revanche reste sensiblement constante, si l'on ne tient pas compte des eaux côtières ; soit, pour 1 kg d'eau de mer à 35 ‰, 27,3 g de chlorure de sodium, 3,4 g de chlorure de magnésium, 2 g de sulfate de magnésium, 1,3 g de chlorure de calcium, 0,6 g de chlorure de potassium, 0,1 g de carbonate de calcium. La majeure partie de ces sels se trouve à l'état ionisé, et l'excès de cations donne à l'eau de mer un caractère alcalin (pH compris entre 7,5 et 8,4) dont les variations, inversement proportionnelles à leur teneur en gaz carbonique, jouent un rôle prépondérant en biologie marine.
La salinité des eaux océaniques superficielles varie avec la latitude en fonction de l'évaporation et des précipitations : 34,5 ‰ dans les régions équatoriales, de 36 à 37 ‰ aux moyennes latitudes, 34 ‰ dans les régions polaires.
L'eau de mer est également définie par sa température, très variable en surface en fonction de l'éclairement solaire et des échanges de chaleur entre l'océan et l'atmosphère : elle varie entre 1,9 °C, dans les régions polaires et + 30 °C environ dans les régions tropicales. En profondeur, en revanche, la température varie très peu (entre 0 °C et 4 °C).
La température et la salinité d'une eau océanique permettent de déterminer sa densité. On définit ainsi des masses d'eau bien particulières dont on peut suivre les mouvements (ce sont les grands mouvements océaniques) grâce à l'étude des courbes de température et de salinité, appelées diagrammes T-S.
Une autre propriété de l'eau de mer est sa couleur. Le bleu est dû à l'absorption plus rapide des radiations rouges que des radiations bleues par l'eau de mer. La couleur verte que l'on observe dans les régions côtières est due à la présence de plancton et de particules minérales provenant de l'érosion littorale. La moitié de la lumière est absorbée à 1 m de profondeur, et plus de 90 % au-delà de 1 m de profondeur.
Les ondes sonores, enfin, se propagent beaucoup plus rapidement dans l'eau que dans l'air et présentent un intérêt considérable pour la navigation maritime et pour l'océanographie.

2. L'EAU ET LES ORGANISMES VIVANTS
L'eau est le milieu de vie de tous les animaux ou plantes aquatiques. Mais elle constitue aussi l'élément principal de toutes les cellules en état de vie active, y compris sur la terre ferme. Enfin, chez les êtres de grande taille, elle forme l'essentiel d
EN TANT QUE MILIEU
Les eaux diffèrent par leur salinité (la teneur en sel définissant les eaux douces, saumâtres et salées), leur température, leur éclairement, leur mouvement (eau circulante ou eau stagnante), leur teneur en oxygène, etc. Pour chacun de ces facteurs, certaines espèces animales ou végétales supportent d'importants écarts alors que d'autres exigent des conditions constantes. En outre, tous les intermédiaires existent entre les êtres aquatiques stricts (méduses, poissons, plantes aquatiques...) qui meurent rapidement hors de l'eau et les animaux qui ne passent dans l'eau que leur vie larvaire (moustiques, libellules, grenouilles...) ou les algues ou les coquillages du littoral, longuement émergés à chaque marée basse.

2.2. L'EAU EN TANT QUE CONSTITUANT DU VIVANT
L’eau est le constituant essentiel des cellules. Elle est le milieu dans lequel s’effectuent toutes les réactions biochimiques et assure le transport des protéines, des sels minéraux, des vitamines hydrosolubles.
Chez les plantes terrestres, c'est l'eau qui assure la turgescence, c'est-à-dire la pression intérieure qui donne aux cellules leur volume et leur fermeté. Ainsi la perte d'eau entraîne-t-elle la fanaison, puis la mort.
Les animaux sont également dépendants de l’eau pour survivre. Or, en milieu terrestre, l'air est rarement humide à saturation et l'évaporation risque toujours d'excéder l'alimentation en eau. D'où l'importance et la diversité des dispositifs de rétention de l'eau : réduction des surfaces susceptibles de permettre l’évaporation, existence de carapaces ou de coquilles, activité nocturne, voire entrée en vie ralentie (c’est le cas par exemple de certains poissons dipneustes, qui s’enferment pendant la saison sèche dans un cocon de boue au fond des lacs et des rivières asséchés).

2.3. L'EAU EN TANT QUE LIQUIDE CIRCULANT
Le pouvoir solvant de l'eau à l'égard de la plupart des substances vitales : oxygène, gaz carbonique, minéraux, glucose, acides aminés, etc., fait d'elle le meilleur support pour la distribution de ces substances à tout un organisme, sous la forme des sèves brute et élaborée chez les plantes, du sang chez les animaux. Très fluide, l'eau circule dans les vaisseaux à faible coût énergétique et elle peut véhiculer des particules solides telles que les globules du sang.

2.4. L’EAU CHEZ L'HOMME ADULTE
Le corps humain est constitué en moyenne de 60 % d'eau, diversement répartie. À titre d’exemple, un homme adulte de 70 kg renferme 45 l d’eau. Mais la teneur en eau varie selon l’âge (de 75 % chez un nourrisson à environ 50 % après 50 ans), le sexe (elle est plus élevée chez l’homme que chez la femme) et les organes étudiés (elle représente ainsi 90 % du plasma du sang, mais seulement 1 % de l’ivoire des dents).
L’eau du corps est répartie en deux grands compartiments liquidiens :
L'eau extracellulaire, qui représente environ 40 % de l'eau totale, correspond au plasma, à la lymphe, au liquide céphalorachidien et aux liquides interstitiels baignant les cellules.

L'eau intracellulaire, c'est-à-dire incluse dans les cellules, représente 60 % de l'eau totale de l'organisme.
L'eau circule d'un secteur à l'autre en fonction des concentrations existant respectivement de part et d'autre de la membrane cellulaire. Elle permet le transport des diverses substances qu'elle renferme en solution et les réactions chimiques entre elles. Par son fonctionnement, l'organisme humain perd en moyenne 2,5 litres d'eau par jour, principalement par les urines – ces pertes étant régulées par les reins (sous l'effet de l'hormone antidiurétique) –, le tube digestif (selles), les poumons (expiration) et la peau (transpiration). Les pertes organiques en eau doivent être compensées par un apport correspondant : eau de boisson (environ 1,5 l d’eau par jour pour un organisme adulte ne fournissant pas d’effort physique particulier) et eau contenue dans les aliments (1 l). Le métabolisme de l'eau est régulé par l'organisme.

La déshydratation correspond à une teneur en eau insuffisante ; la soif est le premier signal indiquant un déficit en eau. Sans aucun apport d’eau par la nourriture ni la boisson, un homme adulte survit 2 à 3 jours maximum). À l'inverse, lors d'une sécrétion trop importante d'hormone antidiurétique, l'organisme a tendance à retenir trop d'eau, ce qui peut provoquer la formation d'œdèmes, en particulier d'œdème cérébral, susceptible d'entraîner des troubles de la conscience, voire un coma.

 


                                                                                                             DOCUMENT   larousse.fr    LIEN

 


                                                                                   

 
 
 
 

LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

 

 

 

 

 

 

 

LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

La qualité de l'air par Gérard Mégie La présence de la vie sur Terre est indissociable de la composition chimique de l'air que nous respirons. C'est à ce titre que nous pouvons parler de " qualité de l'air " puisque tous les constituants de l'atmosphère - azote, oxygène, vapeur d'eau, gaz carbonique, ozone... - jouent, à des titres divers, un rôle déterminant dans l'équilibre précaire qui conditionne le maintien des différentes formes de vie sur Terre. Si les dangers des émanations liées à l'usage du charbon étaient mentionnés dès le XVIIe siècle et l'apparition de pluies acides mise en évidence au XIXe siècle, le développement des activités industrielles et agricoles, la multiplication des moyens de transport, l'explosion démographique, ont entraîné, au cours du dernier siècle , une modification de la composition chimique de l'atmosphère sans commune mesure avec celle induite par les phénomènes naturels. La pollution de l'air concerne aujourd'hui aussi bien l'air ambiant, de l'échelle locale à l'échelle planétaire, que celui des locaux de travail et des habitations domestiques. Les mécanismes physiques et chimiques qui conduisent à la production de composés nocifs pour la santé humaine, l'équilibre des écosystèmes et l'environnement global de la Terre, sont pour l'essentiel élucidés. Les principales sources des précurseurs de la pollution photo-oxydante et acide sont également connus : transports, foyers de combustion, procédés industriels fixes. Les études épidémiologiques montrent également que si la pollution de l'air a été sensiblement réduite par rapport aux situations qui prévalaient il y a quelques décennies, principalement par la réduction des émissions des sources fixes, elle continue aujourd'hui à exercer des effets néfastes sur la santé, particulièrement sur les populations à risques, dont les conséquences à long terme sont encore mal comprises. La prise en compte des problèmes de qualité de l'air nécessite donc une action cohérente en termes de politique publique, qui prenne en compte à la fois des efforts ciblés sur les lieux et niveaux d'exposition affectant le plus de personnes pendant le plus de temps, et une réduction générale, tout au long de l'année, des niveaux moyens de pollution. Pour autant qu'elle soit respectée, la loi sur l'air et l'utilisation rationnelle de l'énergie de 1996, offre le cadre nécessaire à une mise en oeuvre efficace de telles politiques.


LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

Texte de la 288e conférence de l'Université de tous les savoirs donnée le 14 octobre 2000.

Ozone et qualité de l'air
par Gérard Mégie

La composition chimique de l'atmosphère terrestre résulte d'échanges permanents de matière avec les autres compartiments de la planète Terre : biosphère, océans, surfaces continentales. Ces échanges sont initiés par des sources naturelles à la surface de la Terre. Ils mettent ensuite en jeu des interactions chimiques complexes, qui conduisent à la formation de constituants qui seront à leur tour éliminés par déposition à la surface, principalement du fait des précipitations. De ce fait, un constituant donné ne restera qu'un temps fini dans l'atmosphère et l'équilibre de l'environnement terrestre est donc dynamique et non statique. Ainsi, depuis la formation de la Terre voici quatre milliards et demi d'années, la composition chimique de l'atmosphère a continûment changé à l'échelle des temps géologiques passant d'une atmosphère originelle essentiellement réductrice au mélange azote moléculaire (78 %) - oxygène moléculaire (21 %) qui caractérise l'atmosphère actuelle. L'apparition de la vie sur la Terre est d'ailleurs directement liée à ce caractère oxydant de l'atmosphère terrestre, qui constitue un fait unique dans l'ensemble des planètes du système solaire.
Les sources des constituants atmosphériques résultent de processus physiques, comme l'évaporation ou le dégazage des roches, et biologiques comme la dénitrification ou la fermentation anaérobique, en l'absence d'oxygène. Elles correspondent à la production à la surface de la Terre de constituants gazeux comme la vapeur d'eau, l'hydrogène moléculaire, le méthane, l'hémioxyde d'azote, et certains composés organo-halogénés. La concentration relative en vapeur d'eau dans la basse atmosphère est directement fonction des propriétés thermodynamiques de l'air. Elle décroît rapidement dans la troposphère, passant de quelques fractions de % au niveau du sol à 4 à 5 millionièmes (ppm) dans la basse stratosphère. Les autres constituants, dont les abondances relatives sont également de l'ordre de quelques ppm, diffusent verticalement dans l'atmosphère. Cette diffusion est relativement rapide entre le sol et 12 km d'altitude en moyenne, dans la région inférieure appelée troposphère, qui se caractérise par l'influence des mécanismes de convection liés au chauffage de la surface par le rayonnement solaire. Elle est plus lente dans la région supérieure, la stratosphère, qui s'étend jusqu'à 50 km, et les temps nécessaires pour que les constituants atteignent une altitude moyenne de 30 km sont de l'ordre de 3 à 5 ans.
Ces constituants sources sont principalement détruits par l'action du rayonnement solaire, soit directement par photodissociation, soit de façon indirecte par des mécanismes d'oxydation, eux-mêmes induits par le rayonnement. Des constituants chimiquement actifs sont ainsi créés, dans des rapports d'abondance de l'ordre de quelques milliardièmes (ppb) ou moins, dont les interactions chimiques régissent les équilibres atmosphériques. Ceux-ci sont ensuite éliminés par des processus de recombinaison, qui conduisent en règle générale à la formation d'espèces acides solubles dans l'eau.
Jusqu'au début du XXe siècle, l'évolution de la composition chimique de l'atmosphère, que les archives glaciaires et sédimentaires permettent de relier aux grandes oscillations climatiques, trouvent leur origine dans des phénomènes naturels. L'explosion démographique, le développement des activités industrielles et agricoles, la multiplication des moyens de transport ont entraîné au cours des cinquante dernières années un changement profond de notre environnement, traduit notamment par une modification de la composition chimique de l'atmosphère.

La couche d'ozone stratosphérique

L'ozone est certainement le constituant atmosphérique qui permet le mieux de rendre compte de ces équilibres physico-chimiques de l'atmosphère terrestre et de leur évolution sous l'influence des activités humaines. Molécule constituée de trois atomes d'oxygène (O3), il joue en effet dans les équilibres de l'environnement un rôle essentiel. 90 % de l'ozone atmosphérique est contenu dans le domaine des altitudes comprises entre 20 et 50 km et son abondance relative maximale est de l'ordre de 6 à 8 ppm à 30 km d'altitude. Mais, bien que constituant minoritaire de l'atmosphère, l'ozone est l'unique absorbant, entre le sol et 80 km d'altitude, du rayonnement solaire ultraviolet de longueurs d'onde comprises entre 240 et 300 nanomètres (nm). Cette absorption permet le maintien de la vie animale et végétale à la surface de la Terre, en éliminant les courtes longueurs d'onde susceptibles de détruire les cellules de la matière vivante et d'inhiber la photosynthèse.

Comme pour les autres constituants, l'équilibre de l'ozone dans l'atmosphère terrestre résulte d'un grand nombre d'interactions chimiques mettant en jeu, outre le rayonnement solaire, des constituants minoritaires de l'atmosphère représentant, pour certains, moins d'un milliardième en volume de la concentration totale. En 1974, F.S. Rowland et M.J. Molina attirent l'attention de la communauté scientifique sur des gaz supposés inertes, les chlorofluorocarbures (CFC), produits par les industries chimiques et utilisés principalement pour la réfrigération, les mousses synthétiques, les solvants organiques et comme gaz porteur dans les bombes aérosols. Photodissociés par le rayonnement solaire plus intense qui irradie la stratosphère, ces constituants libèrent du chlore chimiquement actif, susceptible de détruire l'ozone. La découverte en 1985 d'un phénomène de grande ampleur au dessus du continent antarctique, correspondant à une diminution de plus de 50 % de l'épaisseur de la couche d'ozone au moment du printemps austral, largement médiatisé sous le nom de « trou d'ozone » polaire, relance les recherches sur les conséquences potentielles des activités humaines sur la couche d'ozone stratosphérique. De nombreuses campagnes internationales organisées dans l'Antarctique puis dans l'Arctique démontrent que l'explication la plus vraisemblable des diminutions d'ozone observées au printemps austral est d'origine chimique et correspond à un déplacement de l'équilibre des constituants chlorés stratosphériques en faveur des formes chimiques susceptibles de détruire l'ozone. Sur la base des rapports rédigés par la communauté scientifique, les négociations conduites au niveau international conduisent à la suppression totale des CFC à partir de 1995, et à leur remplacement par des produits de substitution à durée de vie plus courte dans l'atmosphère, les hydro-chloro-fluorocarbures (HCFC) et les hydro-fluorocarbures (HFC).
Malgré ces mesures, la charge en chlore de la stratosphère continuera au cours du siècle prochain à être dominé par les émissions des CFC émis dans les années 1960-1990, du fait notamment de la très longue durée de vie de ces constituants, supérieure au siècle pour certains d'entre eux. Le retour au niveau de concentration qui existait antérieurement à l'apparition des phénomènes de destruction de l'ozone dans les régions polaires ne sera pas effectif avant les années 2040-2050. En revanche, la contribution à la charge totale en chlore de la stratosphère des produits de substitution, HCFC et HFC, restera limitée, compte tenu des mesures de réglementation déjà prises. En trois décennies, le problème de l'ozone stratosphérique est ainsi passé de la simple hypothèse scientifique à la mise en évidence d'une atteinte de grande ampleur à l'environnement global. Si les conséquences sur l'équilibre de la vie de cette évolution restent encore aujourd'hui non quantifiables, les conséquences économiques sont particulièrement importantes puisqu'elles ont conduit à la suppression totale des émissions des composés organo-chlorés jugés responsables de cette perturbation des équilibres globaux de l'atmosphère. Celle-ci a été suffisamment importante pour modifier profondément les équilibres stratosphériques, faisant apparaître du fait de la croissance rapide des concentrations du chlore dans la stratosphère, des processus chimiques entièrement nouveaux, qui ne pouvaient que difficilement être imaginés dans les conditions « naturelles » qui prévalaient au début des années 1950, avant la mise massive sur la marché des CFC.
On pourrait penser que du fait des mesure réglementaires prises dans le cadre du Protocole de Montréal, qui vise à l'élimination de la cause, en l'occurrence les émissions des composés organo-halogénés, les efforts de recherche sur la couche d'ozone devraient être ralentis dans l'attente d'un retour à l'équilibre de la stratosphère terrestre. Malgré les incertitudes qui limitent fortement notre capacité à prédire l'évolution future de la couche d'ozone stratosphérique, plusieurs faits scientifiques plaident contre une telle attitude attentiste. D'une part, l'effet maximum des composés chlorés sur la couche d'ozone ne sera atteint qu'après l'an 2000. La couche d'ozone sera donc dans un état très vulnérable au cours de la prochaine décennie, et les non linéarités du système atmosphérique déjà mises en évidence par l'apparition du « trou d'ozone », ne nous mettent pas à l'abri des surprises, bonnes ou mauvaises. D'autre part, il n'est pas possible d'affirmer de façon scientifiquement fondée que la diminution des concentrations en chlore dans la stratosphère, entraînera de facto un retour à l'équilibre qui prévalait au début des années 1970. La stratosphère, et plus généralement l'atmosphère terrestre, ont en effet évolué au cours de deux dernières décennies sous l'effet des perturbations anthropiques, et les contraintes globales d'environnement sont donc totalement différentes de celles des années « pré-industrielles ». On sait notamment que si l'augmentation du gaz carbonique induit un réchauffement de la surface terrestre, elle refroidit la stratosphère et de ce fait favorise la destruction d'ozone dans les régions polaires. C'est donc au cours de la prochaine décennie que l'on pourra effectivement mesurer l'impact réel des mesures réglementaires sur l'évolution de la couche d'ozone stratosphérique.

Ozone troposphérique

Dans la troposphère, le contenu en ozone reste limité à 10 % du contenu atmosphérique total et les concentrations relatives sont de l'ordre de quelques dizaines de milliardièmes (ppb). L'origine de l'ozone troposphérique est double. D'une part, les transferts de masse d'air entre la stratosphère, réservoir principal, et la troposphère. D'autre part, la photo-oxydation de constituants précurseurs - hydrocarbures, oxydes d'azote, monoxyde de carbone, méthane - dont les émissions sont aujourd'hui largement dominées par les sources anthropiques (industrie, transport, pratiques agricoles). L'existence de cette formation photochimique d'ozone a été depuis longtemps mise en évidence dans les atmosphères urbaines et péri-urbaines des grandes cités fortement polluées (Los Angeles, Milan, Athènes, Mexico, New York..). L'ozone ainsi formé à l'échelle locale constitue une source qui, alliée à la production directe d'ozone dans l'atmosphère libre hors des régions de forte pollution, contribue à l'augmentation des concentrations observées aux échelles régionales et globales. Ainsi, la comparaison avec les valeurs actuelles des concentrations d'ozone mesurées au début du XXe siècle dans plusieurs stations de l'hémisphère Nord (Observatoire Météorologique du Parc Montsouris à Paris, Observatoire du Pic du Midi, Observatoire de Montecalieri en Italie) et de l'hémisphère Sud (Montevideo en Uruguay, Cordoba en Argentine) montrent que le niveau d'ozone dans l'atmosphère « non polluée » a été multiplié par 4 dans l'hémisphère Nord et par près de 2 dans l'hémisphère Sud. L'influence des sources anthropiques est confirmée par les observations de la variation en latitude des concentrations d'ozone qui montrent des valeurs deux fois plus élevées dans l'hémisphère Nord (40-60 ppb) que dans l'hémisphère Sud (20-25 ppb), reflétant ainsi la dissymétrie dans la distribution des sources, plus de 80 % des précurseurs polluants étant émis dans l'hémisphère Nord et dans les régions tropicales, notamment par la combustion de la biomasse.

Les enjeux pour l'environnement de l'augmentation de l'ozone troposphérique et des constituants photo-oxydants qui lui sont liés sont particulièrement importants. Oxydant puissant, l'ozone constitue un danger pour la santé des populations lorsque les teneurs relatives dépassent des seuils de l'ordre de la centaine de ppb. Cet effet oxydant est également néfaste pour la croissance des végétaux, et constitue une cause additionnelle du dépérissement des forêts et de la dégradation des matériaux. Par ailleurs, du fait de ses propriétés d'absorption du rayonnement ultra-violet solaire, l'ozone peut être photodissocié dans la basse atmosphère et toute modification de sa concentration influe directement, à courte échelle de temps, sur les propriétés oxydantes de la troposphère. Enfin, l'ozone est un gaz à effet de serre 1200 fois plus actif à masse égale dans l'atmosphère que le gaz carbonique. L'augmentation de sa concentration dans la troposphère conduit donc à un renforcement de l'effet de serre additionnel. Le problème de l'ozone troposphérique est ainsi étroitement lié au problème climatique. Il constitue en fait l'essentiel du couplage entre le climat et la chimie de l'atmosphère.
Dans la troposphère, les concentrations d'ozone, polluant secondaire produit par réaction chimique dans l'atmosphère, sont étroitement liées à celles des ses précurseurs oxydes d'azote, méthane, monoxyde de carbone, hydrocarbures. Elles sont donc particulièrement sensibles à la part prise par les sources anthropiques dans les émissions de ces constituants, part qui atteint 65 % pour le méthane et le monoxyde de carbone et près de 75 % pour les oxydes d'azote. En revanche à l'échelle planétaire, les émissions d'hydrocarbures non méthaniques par la végétation dominent, ramenant la part anthropique à seulement 20 à 25 % des émissions totales.
Aux échelles locales et régionales, la distribution de l'ozone et de ses précurseurs résulte alors de la combinaison entre les processus chimiques de formation ou de destruction, et les processus de mélange qui conduisent au transport et à la dispersion des constituants atmosphériques. Localement, notamment l'été, apparaissent dans les grandes agglomérations des pics de pollution dus à l'ozone. Les causes premières en sont connues, qui impliquent conditions météorologiques propices et émissions de constituants chimiques. Par temps calme, avec un rayonnement solaire maximal, l'accumulation des polluants primaires - oxydes d'azote, monoxyde de carbone et hydrocarbures - conduit à la production d'ozone dans les basses couches. Les activités humaines liées aux combustions, associées aux modes de transport et de chauffage, font ainsi des zones urbaines et périurbaines un champ privilégié de la pollution par l'ozone. Depuis de nombreuses années, les métropoles mondiales sont concernées et les grandes villes françaises ne sont plus épargnées. Ainsi, Paris et la région marseillaise enregistrent pratiquement tous les étés des pics de pollution pouvant atteindre des niveaux d'alerte à partir desquels des mesures restrictives doivent être mises en place par les pouvoirs publics. Lors de tels épisodes, les effets de la pollution oxydante sur la santé sont apparents, en particulier les affections du système respiratoire chez les personnes à risque.
Ces pollutions fortes et localisées agissent également comme révélateur d'une tendance continue de l'augmentation du pouvoir oxydant de l'atmosphère des basses couches observée à l'échelle globale. L'augmentation, déjà citée, d'un facteur 4 des concentrations d'ozone troposphérique dans l'hémisphère Nord depuis le début du siècle ne doit cependant pas être traduite sans précaution en termes de tendance annuelle, comme il est d'usage de le faire pour les constituants à durée de vie plus longues tels que le dioxyde de carbone ou les chlorofluorocarbures. En effet, les temps caractéristiques des processus photochimiques qui régissent l'équilibre de l'ozone dans la troposphère sont de quelques mois au maximum, et les concentrations observées reflètent donc les variations à la fois spatiales et temporelles des constituants précurseurs. Il est ainsi probable que les mesures de réduction des émissions d'oxydes d'azote et d'hydrocarbures prises dans les années 1970, aient conduit à une diminution du rythme annuel d'accroissement des concentrations d'ozone à la surface au cours de la dernière décennie. En revanche, si les augmentations maximales d'ozone ont été observées au cours des dernières décennies en Amérique du Nord et en Europe, il est vraisemblable que les régions de l'Asie du Sud-Est seront les plus sensibles au cours de la première moitié du XXIe siècle en termes d'augmentation des concentrations d'ozone troposphérique.

La compréhension et la quantification des mécanismes de couplage de la pollution oxydante aux différentes échelles de temps et d'espace concernées est aujourd'hui un sujet de recherche ouvert. De ce fait, la mise en place de politiques de prévention et de réglementation efficaces reste difficile, tant les paramètres à prendre en compte sont nombreux et les mécanismes qui régissent la capacité d'oxydation de l'atmosphère complexes. Des régimes très différents sont observés suivant les concentrations des espèces primaires impliquées, oxyde d'azote et hydrocarbures en particulier, et les effets peuvent être non-linéaires. Par exemple, à proximité de sources d'émissions intenses d'oxyde d'azote, l'ozone peut, dans un premier temps, être détruit, avant que le transport et la dilution des masses d'air ne provoquent une augmentation rapide de sa concentration dans l'atmosphère. C'est ainsi qu'en région parisienne, l'on observe parfois des concentrations en ozone bien plus élevées dans la grande banlieue qu'au centre-ville, et qu'une diminution du trafic automobile peut s'accompagner d'une augmentation rapide des concentrations d'ozone dans Paris intra muros et d'une baisse de ces mêmes concentrations, le lendemain, en banlieue.

Conclusion

Notre compréhension actuelle des mécanismes qui régissent le comportement de l'ozone atmosphérique montre, qu'au-delà des problèmes spécifiques posés par la destruction de couche d'ozone stratosphérique et l'augmentation des propriétés oxydantes de la troposphère, cette problématique rejoint celle du changement climatique dû aux émissions de gaz à effet de serre. En effet, la diminution de l'ozone stratosphérique influe directement sur le bilan d'énergie de la basse atmosphère et l'ozone troposphérique est un gaz à effet de serre. De même, les CFC, agents destructeurs de la couche d'ozone stratosphérique, mais aussi les constituants amenés à les remplacer dans leurs principales utilisations, sont des gaz à effet de serre particulièrement actifs, comme le sont certains précurseurs de l'ozone troposphérique, notamment le méthane. Les oxydes d'azote qui influent directement sur les concentrations d'ozone et des oxydants dans l'atmosphère ont également un effet indirect important sur l'effet de serre additionnel. Tous ces faits scientifiquement établis plaident pour une étude approfondie de l'influence de l'ozone atmosphérique sur le changement climatique.

Cette complexité des problèmes d'environnement implique une prise en compte rapide dans la décision politique et économique de l'avancée des connaissances scientifiques dans un domaine où l'incertitude domine, et dominera encore au cours des prochaines décennies, les rapports science - expertise - décision publique. De ce fait, la multiplication des lieux d'échanges entre les différents acteurs, décideurs, scientifiques mais aussi acteurs privés ou associatifs, reste indispensable à l'émergence des questions stratégiques pertinentes et de leur résolution.

Bibliographie

Ozone et propriétés oxydantes de la troposphère, Académie des Sciences, Rapport n° 30, Octobre 1993, Éditions Lavoisier, Technique et Documentation
Ozone Stratosphérique, Académie des Sciences, Rapport n° 41, Juin 1998, Éditions Lavoisier, Technique et Documentation

 


            VIDEO     canal U       LIEN    

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon