ecole de musique piano
     
menu
 
 
 
 
 
 

L'hydrogène

 


 

 

 

 

 

L'hydrogène

Publié le 10 mai 2022

Potentiellement inépuisable, non-émetteur de gaz à effet de serre… L’hydrogène n’est pas une source d’énergie mais un « vecteur énergétique » : il doit être produit puis stocké avant d’être utilisé. Il pourrait jouer à l’avenir un rôle essentiel dans la transition énergétique en permettant de réguler la production d’électricité produite par les énergies renouvelables intermittentes (solaire et éolien).

L’HYDROGÈNE,
UN VECTEUR ÉNERGÉTIQUE
L’hydrogène est l’élément chimique le plus simple : son noyau se compose d’un unique proton et son atome ne compte qu’un électron. La molécule de dihydrogène (H2) est constituée de deux atomes d’hydrogène. On parle communément d’hydrogène pour désigner en fait le dihydrogène.
    

La combustion d’1 kg d’hydrogène libère presque 4 fois plus d’énergie que celle d’1 kg d’essence et ne produit que de l’eau : 2H2 + O2 -> 2H2O.
L’hydrogène est très abondant à la surface de la Terre mais n’existe pas à l’état pur. Il est toujours lié à d’autres éléments chimiques, dans des molécules comme l’eau, les hydrocarbures. Les organismes vivants (animal ou végétal) sont également composés d’hydrogène. La biomasse constitue donc une autre source potentielle d’hydrogène.
Extraire l’hydrogène de ces ressources primaires que sont les hydrocarbures, la biomasse ou encore l’eau nécessite un apport en énergie. Comme pour l’électricité, on considère ainsi que l’hydrogène est un « vecteur » énergétique.
L’hydrogène pourrait être quasi-inépuisable, à condition de savoir le produire en quantité suffisante à un coût compétitif et, idéalement, à partir d’énergie bas carbone (nucléaire et renouvelables).
On appelle « technologies de l’hydrogène » l’ensemble des technologies étudiées pour produire l’hydrogène, le stocker et le convertir à des fins énergétiques.

PRODUCTION DE L’HYDROGÈNE
Produire l’hydrogène à partir d’hydrocarbures
Aujourd’hui, 95 % du dihydrogène est produit par « vaporeformage » de combustibles fossiles : cette réaction chimique casse les molécules d’hydrocarbures en présence de vapeur d’eau, de chaleur et d’un catalyseur, pour en libérer l’hydrogène. Mais cette méthode a l’inconvénient de produire du dioxyde de carbone.

Produire l’hydrogène à partir d’eau
L’électrolyse permet de décomposer chimiquement l’eau en dioxygène et dihydrogène grâce à l’action d’un courant électrique. Différentes voies d’électrolyse sont étudiées, avec l’hypothèse d’une électricité d’origine nucléaire ou renouvelable. La quantité d’énergie électrique nécessaire à l’électrolyse dépend des conditions de pression et de température du procédé utilisé. De façon générale, la recherche porte sur des matériaux performants et bon marché pour réaliser des électrolyseurs.

Produire l’hydrogène à partir de la biomasse
La biomasse (bois, paille, etc.) pourrait constituer une source potentielle importante d’hydrogène : la gazéification à la vapeur d’eau de cette biomasse génère un mélange appelé « gaz de synthèse », constitué principalement de monoxyde de carbone et de dihydrogène, que l’on purifie ensuite pour éliminer les polluants. Cette solution permet d’obtenir un bilan effet de serre quasiment neutre car le dioxyde de carbone émis par la combustion du monoxyde de carbone est équivalent à celui qui aurait été dégagé par la dégradation de la biomasse si elle n’avait pas été gazéifiée. On cherche aussi à faire produire de l’hydrogène par des microalgues ou des bactéries qui utilisent la lumière et des enzymes spécifiques : les hydrogénases. Une voie de recherche prometteuse consiste à mimer chimiquement ces réactions, pour développer des réacteurs bio-inspirés de production d’hydrogène.

Extraire l’hydrogène de gisements sous-marins
Enfin, une autre approche vise à exploiter des sources d’hydrogène naturel. L’existence de gisements le long des chaînes volcaniques sous-marines est connue mais ceux-ci sont inatteignables. Aujourd’hui, les chercheurs s’intéressent plutôt à la géologie de certaines couches « terrestres » qui dégazeraient et accumuleraient en leur sein de l’hydrogène.

STOCKAGE DE L’HYDROGÈNE
L’hydrogène ne peut jouer son rôle de vecteur d’énergie que si l’on peut le stocker efficacement, à moindre coût et dans des conditions de sécurité acceptables.
A température ambiante et pression atmosphérique, l’hydrogène se présente sous forme de gaz très volatile, en raison de la petite taille de sa molécule. L’enjeu est de créer des réservoirs compacts et à bas coût.
Différents modes de stockage sont étudiés.
Lorsqu’il n’est pas nécessaire de réduire le volume de stockage (par exemple, pour des applications stationnaires), on peut l’envisager sous forme gazeuse à une pression relativement basse (75 bars). Ce moyen de stockage est peu coûteux et parfaitement maîtrisé.
Le stockage sous forme liquide à basse pression est actuellement principalement réservé à certaines applications de très hautes technologies comme la propulsion spatiale. Il permet de stocker de grandes quantités d’hydrogène dans un volume restreint. Les réservoirs actuels conditionnent l’hydrogène à – 253 °C sous 10 bars. Mais il est impossible d’éviter les fuites : même très bien isolés, les réservoirs absorbent de la chaleur qui vaporise lentement le liquide.
Afin d’atteindre une compacité satisfaisante tout en évitant les inconvénients liés aux très basses températures du stockage à l’état liquide, on cherche à développer le stockage à l’état gazeux sous haute pression (700 bars). Il s’agit de concilier imperméabilité, résistance aux hautes pressions et résistance aux chocs en travaillant sur une architecture et des matériaux adaptés au réservoir.
Enfin, une voie de recherche plus récente porte sur l’utilisation de matériaux appelés hydrures qui ont la capacité d’absorber et désorber l'hydrogène de manière réversible, sous condition de température (stockage « solide »). Le stockage dans les hydrures est le moyen le plus efficace pour obtenir une forte densité volumique d'énergie. Mais cela se fait au détriment du poids, puisqu’il faut ajouter au bilan le poids du matériau dans lequel l'hydrogène s'insère.
Selon l’utilisation visée de l’hydrogène, les critères de coût, performance, compacité ou poids de ces différentes technologies sont arbitrés.

UTILISATION DE L’HYDROGÈNE
Le développement de la filière hydrogène repose en partie sur la technologie de la pile à combustible. Le principe de la pile à combustible est l'inverse d'une électrolyse. La réaction chimique produite par l'oxydation et la rencontre du dihydrogène et du dioxygène produit de l'électricité, de l'eau et de la chaleur.
Il existe plusieurs types de piles à combustible qui se différencient par leur électrolyte. Celui-ci définit la température de fonctionnement et donc les applications. La R&D porte actuellement sur les améliorations techniques (compacité, rendement énergétique, résistance à l’usure, fonctionnement sur de nombreux cycles…) ainsi que sur la baisse des coûts de production.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Nano-ions photoactifs : deux réactions chimiques dans un seul réacteur !

 

 

 

 

 

 

 

Nano-ions photoactifs : deux réactions chimiques dans un seul réacteur !

Des chercheurs de l'ICSM et leurs partenaires proposent de coupler des réactions d'oxydation et de réduction dans un même réacteur, pour des procédés chimiques plus économiques et plus respectueux de l'environnement.

Publié le 9 mars 2022

Dans la famille des ions nanométriques, certains anions de type polyoxométalates ont des propriétés photocatalytiques de plus en plus exploitées pour réduire ou oxyder des fonctions organiques en phase liquide.
Les chercheurs de l'ICSM, en collaboration avec l'Université de Regensburg (Allemagne), proposent un concept économique de procédé REDOX. Il utilise deux solvants non miscibles dans lesquels se distribuent les formes oxydée et réduite d'un catalyseur unique, ce qui permet de séparer dans deux phases distinctes les réactions de réduction et d'oxydation.

Parmi les exemples étudiés, le cas le plus démonstratif est la double réaction suivante :
*         l'oxydation d'un colorant toxique pour l'environnement, le DR-13 de couleur rouge, dans la phase organique ;
*         la réduction d'une solution ionique d'argent en phase aqueuse.
Le photocatalyseur est l'acide phosphotungstique (H3PW12O40), disponible sur catalogue. Ce cluster ionique inorganique, de dimension nanométrique, porte trois charges négatives sous sa forme naturelle (3-). En raison de sa faible densité de charge, il est liposoluble et plutôt distribué dans la phase organique.

Quand il est activé sous rayonnement UV, il peut oxyder le colorant et se trouve lui-même réduit sous la forme 4-. Il devient hydrosoluble, migre en phase aqueuse et rend alors le milieu réducteur pour les ions métalliques en solution.
Une fois les ions réduits en métal précipitant dans le fond du réacteur, les nano-ions se retrouvent oxydés (forme 3-) et donc de nouveau liposolubles, et retournent dans la phase organique où ils peuvent à nouveau être photo-activés et poursuivre la double réaction jusqu'à son terme.

Ce réacteur peut être alimenté de manière indépendante en composés organiques et métalliques.

RÉFÉRENCES
* {2-phases 2-reactions 1-catalyst} concept for the sustainable performance of coupled reactions, Green Chemistry


 

  DOCUMENT     cea         LIEN
 

 
 
 
 

LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN

 

 

 

 

 

 

 

LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN

"Le hasard est soumis à des lois, que le calcul des probabilités étudie d'un point de vue mathématique. La nature de ces lois est asymptotique, on ne peut rien déduire de la réalisation d'un événement aléatoire, seules les séries d'évènements ont une signification statistique, d'autant plus fiable que leur nombre est grand. Modéliser le hasard pour pouvoir faire des prévisions est un enjeu primordial. Dans de nombreuses situations il faut comprendre comment une source de "" bruit "" vient influencer le phénomène que l'on observe au cours du temps. Ce phénomène peut être un signal que l'on cherche à décrypter, la trajectoire d'une fusée que l'on veut guider, le cours d'une action en bourse, ou bien d'autres choses encore. Pour des raisons qui seront expliquées dans la conférence, le mouvement brownien fournit un modèle universel de bruit. On verra que les techniques mathématiques sophistiquées qui ont été développées pour étudier le mouvement brownien d'un point de vue théorique ont trouvé de nombreuses applications concrètes."




Il peut paraître paradoxal de parler de lois du hasard, car ce mot
évoque pour nous l'imprévisible, sur lequel nous n'avons aucune prise,
et pourtant le hasard obéit à des règles bien précises. La
connaissance de ces règles permet de faire des prédictions dans des
situations où l'on ne maîtrise pas toutes les données, parce qu'elles
sont trop nombreuses pour être connues en totalité. L'exemple le plus
visible, qui est devenu quasi-quotidien dans les sociétés
démocratiques modernes, est celui des sondages d'intention de vote qui
permettent de prédire le résultat d'une élection sans avoir à
interroger tous les électeurs. Comprendre la nature des lois du hasard
est indispensable si l'on veut connaître la portée et les limites de
ces méthodes. Tout d'abord il faut savoir que la nature de ces lois
est asymptotique: on ne peut pas déduire d'information
probabiliste de la réalisation d'un événement particulier, seules les
séries d'événements ont une signification statistique, d'autant plus
fiable que leur nombre est grand. Ainsi lorsqu'on jette une pièce de
monnaie en l'air, la symétrie de la pièce fait qu'il y a autant de
chances pour qu'elle retombe sur «~pile~» ou «~face~», mais cette
symétrie est brisée lorsque la pièce est retombée, et seule l'une des
deux alternatives est réalisée. L'équiprobabilité n'est observable que
si l'on répète l'expérience un grand nombre de fois: il est bien
connu qu'alors les fréquences d'apparition des «~pile~» et des
«~face~» se rapprochent de 1/2.  Cette observation se généralise pour
donner le résultat fondamental du calcul des probabilités, qui est la
loi des grands nombres.  Sous sa version la plus simple elle exprime
le fait que si l'on répète un grand nombre de fois une même expérience
aléatoire, dont le résultat est une valeur numérique, alors la moyenne
des résultats obtenus tend à se rapprocher de l'espérance mathématique
de l'expérience.  Cette espérance est, par définition, la somme
pondérée de tous les résultats possibles, chacun étant affecté d'un
poids égal à sa probabilité d'apparaître. Si nous reprenons l'exemple
du jeu de pile ou face, et si nous décidons de compter 1 pour chaque
face, et 0 pour chaque pile obtenus lors de lancers de pièces, la loi
des grands nombres nous assure que la moyenne des résultats obtenus,
qui ici est égale à la fréquence d'apparition des «~face~», se
rapproche de 1/2 quand le nombre de tirages devient grand,
conformément à l'expérience.
C'est la loi des grands nombres qui justifie les méthodes
d'échantillonnage utilisées en statistique, c'est elle encore qui
permet de savoir qu'à long terme un casino est toujours gagnant, et
même d'estimer son bénéfice futur. Enfin, on nomme aussi parfois, de
fa\c con plus générale, mais aussi moins précise, «~loi des grands
nombres~» tout résultat qui prédit le comportement déterministe, au
niveau macroscopique, d'un système composé d'un grand nombre
d'éléments microscopiques, interagissant de manière complexe et qui
échappent à une description détaillée.  C'est ainsi que les quantités
intensives de la thermodynamique classique (pression, température,
etc...) sont des moyennes, sur de petites régions de l'espace, de
quantités qui varient énormément sur des distances encore plus
petites.  Le comportement parfaitement prévisible, à notre échelle, de
ces moyennes, qui se traduit par les lois bien connues de la physique
des gaz, est un effet de cette loi des grands nombres plus
générale.
 
La loi des grands nombres n'a qu'une valeur asymptotique, on observe
donc lorsqu'on reste avec des nombres finis, des écarts par rapport au
comportement moyen attendu. Ces écarts eux aussi suivent des lois
précises, mais cette fois ce n'est plus leur valeur que l'on peut
prédire, seulement leur répartition statistique. Ainsi le théorème de
la limite centrale prédit que l'écart à la limite dans la loi des
grands nombres suit approximativement une loi gaussienne (décrite par
la fameuse «~courbe en cloche~») dont la variance, qui mesure
l'étalement de la courbe, est proportionnelle à l'inverse du nombre
d'expériences. Pour voir, en termes plus concrets, ce que cela
signifie, considérons l'expérience consistant à répéter « N » fois le
tirage d'une pièce de monnaie, « N »étant un nombre supposé très grand.
La quantité représente l'écart entre la fréquence théorique, 1/2, et la fréquence du nombre de faces observée pendant l'expérience, multiplié par un facteur de
renormalisation $2\sqrt{N}$.  Répétons cette expérience 200 fois (ce
nombre étant pris pour fixer les idées, cela revient donc à lancer
$200\times N$ fois la pièce), et répartissons les fréquences relatives
des résultats obtenus pour la quantité $E$ dans un histogramme, alors
on obtient typiquement un diagramme ressemblant à celui de la figure
1.

     \epsfxsize=8cm\epsfysize=8cm\epsfbox{TCL.ps}\caption{Le théorème
       de la limite centrale}\end{center}
 \end{figure}

 Les valeurs exactes des hauteurs des colonnes peuvent fluctuer en
 fonction de l'expérience, mais leur allure générale reste presque
 toujours proche de la courbe gaussienne, qui est le graphe de la
 fonction $e^{-x^2/2}/\sqrt{2\pi}$, tracé sur la figure, et aura
 tendance à s'y conformer encore plus précisément si le nombre
 d'expériences, qui ici était égal à 200, est augmenté.  Il est
 remarquable que la fa\c con dont les résultats se répartissent à la
 limite est indépendante de la nature de l'expérience que l'on répète.
 Cette universalité de la loi gaussienne est à l'origine de son
 intervention dans de nombreux problèmes de probabilités.  Le théorème
 de la limite centrale permet de donner des intervalles de confiance
 pour les estimations par échantillonnage, comme les sondages
 d'intention de vote.  Il permet aussi d'expliquer la «~loi des
 erreurs~» c'est-à-dire le fait que les erreurs de mesure des
 grandeurs physiques, qui ont de multiples causes indépendantes entre
 elles, tendent à se répartir suivant une distribution gaussienne.
 

 
 La loi des grands nombres et le théorème de la limite centrale, qui
 sont les deux résultats fondamentaux du calcul des probabilités,
 étaient en essence connus dès le dix-huitième siècle. Le
 développement de la théorie des probabilités aux dix-neuvième puis
 vingtième siècles a fait une place de plus en plus importante à
 l'étude des processus stochastiques, c'est à dire des phénomènes qui
 évoluent de fa\c con aléatoire au cours du temps. Parmi ces processus
 stochastiques, un rôle central est tenu par le mouvement brownien
 tant du point de vue de la théorie que de celui des applications. Je
 vais tenter dans cet exposé de présenter le mouvement brownien, et
 d'expliquer pourquoi et comment on l'utilise pour modéliser les
 phénomènes de bruit. Les applications technologiques de ces
 modélisations sont nombreuses, allant de l'aéronautique à la finance
 en passant par les télécommunications.
 
Le mouvement brownien


 L'observation du mouvement brownien est probablement aussi ancienne
 que l'invention du microscope, en fait il suffit d'observer de l'eau
 avec un fort grossissement pour y voir de petites particules en
 suspension agitées d'un mouvement désordonné et incessant. C'est le
 botaniste Brown qui, observant des particules de pollen à la surface
 de l'eau fit le premier, en 1827, une description précise de ce
 phénomène et lui laissa son nom. Une courbe comme celle représentée
 sur la figure 2, qui peut s'obtenir facilement par simulation sur un
 ordinateur personnel, représente un exemple typique de trajectoire
 d'une particule animée d'un mouvement brownien, observée pendant un
 intervalle de temps donné.

  \ Trajectoire
        d'une particule brownienne}
 
   Le caractère extrèmement irrégulier de ces trajectoires, qui
   apparaît clairement sur la figure, avait beaucoup intrigué ceux qui
   avaient observé ce phénomène à l'époque de Brown. Plusieurs
   hypothèses sur son origine furent proposées, dont certaines, de
   type vitaliste, supposaient que les particules possédaient une
   énergie propre qui les faisait se mouvoir, mais la véritable
   explication ne fut donnée qu'à la fin du siècle dernier, alors que
   la théorie de la structure atomique de la matière s'imposait au
   monde scientifique. Lorsqu'une petite particule solide est placée
   dans un fluide, elle est soumise au bombardement incessant des
   molécules qui composent le fluide. Ces molécules sont très petites
   par rapport à la particule (en pratique les particules en question
   ont une taille de l'ordre du micron, soit $10^{-3} mm$ alors que
   les molécules d'eau, par exemple, ont un diamètre de l'ordre de
   quelques Angström, soit $10^{-7}mm$), mais elles sont en très grand
   nombre, et leurs vitesses sont réparties dans l'espace de fa\c con
   isotrope, ce qui fait qu'en première approximation, par la loi des
   grands nombres, l'impulsion résultant de ces chocs est nulle.  Plus
   la particule est petite, moins elle subit de chocs par unité de
   temps, et plus elle est sensible aux écarts par rapport à la loi
   des grands nombres, si bien qu'en dessous d'une certaine taille les
   chocs cessent de se compenser exactement et produisent ce mouvement
   désordonné, dont la direction change de fa\c con incessante.  C'est
   Einstein qui le premier, en 1905, réussit à faire de cette
   observation une théorie physique quantitative.  La théorie
   d'Einstein fut bientôt confirmée expérimentalement par Jean Perrin,
   qui en déduisit la première détermination précise du nombre
   d'Avogadro (le nombre d'atomes contenus dans un gramme
   d'hydrogène).  Ces travaux, associés à ceux de Planck sur la
   radiation du corps noir, firent tomber les réticences des derniers
   sceptiques envers la théorie atomique, qui n'était pas à l'époque
   unanimement acceptée. Dans son mémoire, Einstein donne la
   description suivante du mouvement brownien:
 
   a) entre deux instants $s$ et $t$, le déplacement de la particule
   brownienne est aléatoire et suit une loi gaussienne de variance
   $D\times(t-s)$ où $D$ est un paramètre dépendant des
   caractéristiques physiques de la particule, comme la masse et le
   diamètre, et du fluide (viscosité, température, etc...).

 
 b) ce déplacement est indépendant du chemin parcouru par la particule
 avant le temps $s$.
 
La variance du a) est la valeur moyenne du carré de la
 distance entre les positions de la particule aux instants $s$ et $t$,
 et Einstein donne une formule explicite pour $D$.
 
 
 Ces deux propriétés caractérisent complètement le comportement
 statistique des particules browniennes.  Une conséquence importante
 est que la quantité que l'on doit mesurer, pour obtenir la valeur du
 paramètre $D$, est le déplacement quadratique moyen de la particule
 et non pas sa vitesse, qui n'est pas mesurable comme l'avaient
 observé depuis longtemps les expérimentateurs. C'est en mesurant la
 valeur de $D$ que Jean Perrin a pu estimer le nombre d'Avogadro.
 Comme nous le verrons plus loin, les lois d'Einstein sont très
 générales et concernent en fait une gamme de phénomènes beaucoup plus
 large que les particules en suspension dans un fluide. Leur
 universalité a la même origine que l'universalité de la loi
 gaussienne provenant du théorème de la limite centrale.

   {\it L'équation de la chaleur}
 
 
 Il résulte de la description donnée par Einstein que la probabilité
 de présence de la particule brownienne en un point suit une équation
 identique à celle qui régit la propagation de la chaleur, bien que
 ces phénomènes physiques soient tout à fait distincts l'un de
 l'autre. Cela se traduit concrètement de la manière suivante.
 Déposons une quantité de chaleur donnée en un point $x$ d'un corps
 homogène. Au bout d'un temps $t$, cette quantité de chaleur, en se
 répartissant dans le corps a fait monter la température en un point
 $y$ du corps, d'une quantité $\Delta T$. Oublions maintenant la
 quantité de chaleur et la température, et supposons qu'une particule
 animée d'un mouvement brownien soit placée au même point $x$, alors
 la probabilité (ou plus exactement la densité de probabilité, pour
 les puristes) $p(t,x,y)$ que cette particule se retrouve au point $y$
 au bout du même temps $t$ est proportionnelle à $\Delta T$, autrement
 dit
 $$p(t,x,y)=c\Delta T,$$
 le coefficient $c$ ne dépendant que des
 caractéristiques physiques du corps et pas des points $x$ et $y$ ou
 du temps $t$.  Outre la propagation de la chaleur, le mouvement
 brownien est également associé, toujours {\it via} les lois
 d'Einstein, au comportement des charges électriques à l'équilibre. Là
 encore je vais donner un exemple concret de l'interprétation
 brownienne d'un phénomène physique simple, illustré par la figure 3.

{la charge d'un point à la surface d'un corps conducteur est
         proportionnelle à la probabilité qu'une particule brownienne
         touche le corps en ce point.}


   Considérons un corps conducteur chargé électriquement.  En
   l'absence de champ électrique extérieur, les charges se
   répartissent spontanément à la surface du corps selon une
   configuration qui tend à minimiser l'énergie électrostatique.  Si
   maintenant une particule suivant les lois d'Einstein est lachée
   d'un point de l'espace situé très loin du corps alors la
   probabilité pour que l'endroit où elle touche pour la première fois
   le corps soit un point donné sur la surface est proportionnelle à
   la charge électrique de ce point dans la configuration d'équilibre.
   Ceci permet de relier le comportement du mouvement brownien avec
   certaines conséquences bien connues des lois de l'électrostatique,
   comme le principe du paratonnerre; en effet, la tendance du
   mouvement brownien à explorer l'espace autour de lui, bien visible
   sur la figure 2, fait qu'il a plus de chance, en s'approchant d'un
   corps de le toucher pour la première fois à un endroit où celui-ci
   présente une partie saillante. Traduit en termes électrostatiques,
   cela signifie que les charges électriques ont tendance à se
   concentrer dans les pointes, comme dans un paratonnerre.  Précisons
   encore une fois que ces phénomènes physiques ne sont reliés entre
   eux qu'à un niveau purement mathématique, celui des équations qui
   les décrivent, en particulier, le mouvement de la particule
   brownienne est supposé être totalement indépendant de la charge
   éventuelle du corps en question.
 

    {\it Théorie mathématique et applications technologiques}

 
  C'est N. Wiener qui le premier, dans les années 1920, montra que
  l'on pouvait définir de fa\c con rigoureuse un objet mathématique
  vérifiant les lois d'Einstein, en particulier il démontra que les
  trajectoires du mouvement brownien mathématique sont continues, et
  nulle part différentiables, ce qui signifie qu'à aucun instant la
  vitesse d'un mouvement brownien ne peut être définie, ses
  changements de direction étant trop rapides. Ceci confirme
  mathématiquement l'impossibilité de mesurer sa vitesse, observée par
  les expérimentateurs.  Ainsi, contrairement aux objets de la
  physique newtonienne classique, le mouvement brownien ne peut pas
  être décrit par des équations différentielles, néanmoins, il est
  possible de développer un calcul différentiel spécifique au
  mouvement brownien, le «~calcul stochastique~», inventé, pour des
  raisons purement théoriques par K. Itô dans les années 40. Ce calcul
  différentiel possède des règles propres, différentes de celles du
  calcul de Newton et de Leibniz, et traduit le caractère très
  irrègulier des trajectoires browniennes.  Il s'agit d'une des
  avancées majeures de la théorie moderne des processus stochastique,
  qui joue un rôle essentiel aussi bien dans la théorie que dans les
  applications, mais dont la présentation dépasse largement le cadre
  de cet exposé.
    

    L'origine de l'utilisation du mouvement brownien dans de
    nombreuses modélisations tient dans une remarque faite par L.
    Bachelier dans sa thèse sur la spéculation financière, parue en
    1900, soit un peu avant le mémoire de 1905 d'Einstein. Bachelier
    avait montré qu'un mouvement aléatoire dont le déplacement pendant
    un intervalle de temps infinitésimal $dt$ est de moyenne nulle, et
    de variance $D\times dt$, satisfait aux lois d'Einstein.  On peut
    donner à cette remarque une forme mathématique précise, connue
    sous le nom de «~théorème d'invariance de Donsker~». Je ne
    décrirai ce résultat, qui constitue une sorte de version dynamique
    du théorème de la limite centrale, mais je voudrais souligner
    qu'une conséquence importante en est qu'en faisant très peu
    d'hypothèses sur la nature d'un mouvement aléatoire, on montre que
    celui-ci doit satisfaire aux lois du mouvement brownien.
    Essentiellement, on en déduit qu'un objet soumis à une multitude
    d'influences, toutes de petite intensité, agissant indépendamment
    les unes des autres et constamment, se comporte comme une
    particule brownienne.  Cela justifie le recours au mouvement
    brownien mathématique pour modéliser les effets de perturbations
    aléatoires, de bruits dont la nature exacte ou la structure
    détaillée ne sont pas connues. Ces modélisations trouvent de
    nombreuses applications technologiques. Ainsi le guidage d'une
    fusée, ou d'un satellite, s'effectue à distance en modifiant sa
    trajectoire en fonction des données transmises par des capteurs
    placés à son bord.  La fusée est en effet constamment déviée de sa
    trajectoire théorique par des petites perturbations d'origines
    diverses par exemple atmosphériques, ou dues aux fluctuations
    locales du champ gravitationnel terrestre, et les communications
    entre la fusée et la base sont elles aussi entachées par des
    bruits d'origine électromagnétique.  Toutes ces perturbations ne
    peuvent être décrites exactement, mais il est naturel, pour les
    raisons mentionnées plus haut, d'avoir recours à un mouvement
    brownien pour les modéliser. On peut alors extraire du flux
    continu d'informations envoyées par la fusée une composante due au
    bruit, et rétablir la meilleure approximation possible de sa
    trajectoire réelle.  Le filtre de Kalman-Bucy est la plus ancienne
    des méthodes utilisées pour effectuer ce débruitage, ayant servi
    en particulier lors des premières missions Apollo de la NASA.
    Depuis cette époque la théorie du filtrage a fait des progrès
    notamment dans la résolution de problèmes dits «~non-linéaires~»
    où l'observation ne dépend plus linéairement du signal émis, avec
    d'importantes applications dans le domaine des télécommunications.
       
       
    L'idée originelle de Bachelier, qui était de modéliser par des
    marches au hasard les cours des actifs cotés en bourse a connu un
    développement spectaculaire ces dernières années, et le mouvement
    brownien fait désormais partie de l'attirail des financiers.
    Ainsi la formule de Black et Scholes est aujourd'hui
    universellement utilisée pour calculer la valeur des options
    proposées sur les marchés financiers. Rappelons qu'une option est
    un contrat à terme contingent, c'est-à-dire dont la réalisation
    est laissée à l'appréciation du client. Par exemple une option
    d'achat à six mois sur le dollar est un contrat qui permet au
    client d'une banque d'acheter, six mois aprés la date du contrat,
    une certaine quantité de dollars, à un taux de change fixé dans le
    contrat.  Évidemment, le client n'a intérêt à exercer son option
    que si le taux fixé par le contrat est inférieur au cours du
    dollar à l'échéance. Une telle option représente un contrat
    d'assurance contre les fluctuations des taux de change, et doit
    donc donner lieu au paiement d'une prime par le client, dont le
    calcul est l'objet de la formule de Black et Scholes.  Cette
    formule s'obtient par un raisonnement fondé sur le calcul
    stochastique, qui utilise une modélisation des cours des
    différents actifs par des mouvements browniens, ou des processus
    stochastiques très proches. Le paramètre $D$ des lois d'Einstein,
    qui est ici appelé volatilité, est une mesure de l'importance des
    fluctuations des cours, qui peut être évaluée statistiquement, et
    dont l'évolution au cours du temps peut être prise en compte dans
    des modèles plus sophistiqués.  Insistons encore sur le fait que
    toutes ces applications n'auraient pas pu voir le jour sans le
    développement des outils théoriques puissants inventés par Itô.
     

     {\it Perspectives actuelles}

   
Il est possible de considérer des mouvements browniens
   ayant lieu dans des espaces plus compliqués que l'espace euclidien
   usuel, comme des espaces courbes (ce qui se traduit par la
   variation du coefficient $D$ avec l'endroit où se trouve la
   particule, et la direction de son déplacement), des espaces munis
   de structures algébriques, comme des groupes, des espaces fractals,
   ou bien encore des espaces dont la structure est elle-même
   aléatoire, par exemple pour modéliser un milieu comportant des
   impuretés.  Le comportement du mouvement brownien reflète alors une
   partie de la structure de l'espace sous-jacent. On peut également
   s'intéresser au comportement de plusieurs particules browniennes
   interagissant, ou bien susceptibles de mourir et de se reproduire,
   comme dans certains modèles issus de la biologie.  Toutes ces
   généralisations font l'objet de recherches actives, mais le
   mouvement brownien ordinaire recèle encore bien des mystères. Les
   questions que l'on se pose à son sujet, et les outils utilisés pour
   l'étudier, dépendent fortement de la dimension de l'espace dans
   lequel il évolue. En dimension d'espace égale à un, la structure
   d'ordre de la droite réelle permet d'utiliser des méthodes
   combinatoires, ainsi que la théorie des fonctions spéciales, en
   lien avec les équations différentielles ordinaires. En dimension 2,
   c'est l'analyse complexe, et la théorie des fonctions analytiques
   qui prédominent. Il s'agit de domaines de recherches très
   dynamiques, et je terminerai cet exposé en évoquant un résultat
   mathématique obtenu très récemment.  L'examen de la figure 2 révèle
   le caractère extrèmement tortueux de la courbe brownienne.  On peut
   donner une mesure de la complexité de cette courbe en lui assignant
   un nombre, appelé «~dimension de Hausdorff~», dont on montre assez
   facilement qu'il est égal à deux, ce qui signifie que la courbe
   brownienne possède beaucoup de caractéristiques d'un espace à deux
   dimensions. Le bord de cette courbe est lui aussi un objet
   complexe, mais toutefois moins que la courbe tout entière.  Il y a
   une vingtaine d'années, B. Mandelbrot avait conjecturé, sur la foi
   de simulations informatiques, que la dimension de Hausdorff de ce
   bord devait être égale à 4/3. Il s'agit d'un problème
   mathématiquement beaucoup plus difficile que celui où l'on
   considère la courbe dans son entier, mais il vient d'être résolu
   grâce aux travaux de G. Lawler, O. Schramm et W. Werner.
   L'apparition d'un nombre rationnel simple comme ici 4/3 dans un
   problème aussi complexe est l'illustration de l'existence d'une
   profonde symétrie sous-jacente. La symétrie en jeu dans ce problème
   porte le nom d'«~invariance conforme~», et semble reliée, de fa\c
   con encore mystérieuse pour les mathématiciens, aux théories
   physiques, comme la théorie quantique des champs, qui tentent de
   décrire la structure de la matière à son niveau le plus
   élémentaire. Il ne fait pas de doute que l'exploration de ces
   relations donnera lieu a de nouvelles découvertes fondamentales.
   

   
RÉFÉRENCES
   
 
Ouvrages généraux

   

   
   N. Bouleau, Martingales et marchés financiers, O. Jacob, Paris,
   1998.

   
   
   C. Bouzitat, G. Pages, En passant par hasard : probabilités de tous
   les jours, Vuibert, Paris, 1999.
   

   
   I. Ekeland, Au hasard, la chance, la science et le monde, Point
   Sciences, Le Seuil, Paris 2000.
   


   
   J. Perrin, Les atomes, Gallimard, Paris 1970 (réédition).

   

   
   H. Poincaré, Calcul des probabilités, J. Gabay, Paris, 1987
   (réédition).
   




   
Quelques ouvrages plus spécialisés:
   



   
   P. Lévy, Processus stochastiques et mouvement brownien, Ed. Jacques
   Gabay (Les grands classiques Gauthier-Villars), 1992 (réédition).

   

                                          
   B. Oksendal, Stochastic differential equations, Springer Verlag,
   Berlin, 1998.

   

   
   D. Revuz, M. Yor, Continuous martingales and brownian motion,
   Springer Verlag, Berlin, 1991.

 

 VIDEO       CANAL  U         LIEN 

 























 

 
 
 
 

OXYGÈNE

 

 

 

 

 

 

 

oxygène

Consulter aussi dans le dictionnaire : oxygène
Cet article fait partie du dossier consacré à l'air.

Cycle de l'oxygène
Corps gazeux diatomique (O2) constituant en volume le cinquième de l'atmosphère terrestre et nécessaire à la respiration. Dans le langage courant, on parle abusivement d’« oxygène » pour désigner en réalité le dioxygène (gaz diatomique composé de deux atomes d’oxygène). Le terme « oxygène » devrait être réservé à l’élément chimique de symbole O.
*         Numéro atomique : 8
*         Masse atomique : 15,999 4
*         Température de fusion : − 218,4 °C
*         Température d'ébullition : − 182,96 °C
*         Densité : 1,105
CHIMIE
1. DÉCOUVERTE DE L’OXYGÈNE

       
L'oxygène fut découvert sous sa forme gazeuse (ou dioxygène) indépendamment par Carl Wilhelm Scheele en 1773 (mais il ne publia ses résultats qu’en 1777) et Joseph Priestley en 1774. L’histoire retient les noms des deux chimistes et la date de la première publication (1774). Toutefois, ni l’un ni l’autre ne se rendent compte de l’importance de leur découverte, en particulier pour expliquer les réactions de combustion qui impliquent la présence de dioxygène. C’est Antoine Laurent de Lavoisier qui établit les propriétés principales de ce gaz à partir de 1775. Il montra qu'il y avait de l’oxygène dans l'air et dans l'eau, et fit ressortir son rôle dans les combustions et la respiration. En démontrant que la combustion est un processus dans lequel une substance se combine avec le dioxygène, Lavoisier réfute la théorie du phlogistique (substance inventée près d'un siècle plus tôt par les chimistes allemands Johann Becher et Georg Stahl pour expliquer le phénomène de combustion) et contribue ainsi à l'avènement de la chimie moderne.

Antoine Laurent de Lavoisier

Par ailleurs, Lavoisier lui donna le nom « oxygène » (du grec oxys et genes, signifiant « qui produit de l’acide », parce l'oxygène apparaissait dans tous les acides connus à cette époque. Il montre également que l'oxygène de l'air se présente sous la forme d'un gaz diatomique (composé de 2 atomes d'oxygène, d'où sa formule chimique O2), et que c'est un élément chimique (corps pur simple).

2. ÉTAT NATUREL DE L’OXYGÈNE

atmosphère terrestre
L’oxygène est l’élément chimique le plus abondant sur Terre. En effet, la teneur en oxygène de l’atmosphère s’élève à environ 23 % (en masse), celle des océans à 86 %, celle de la croûte terrestre à 47 % et celle du corps humain à 60 %. On distingue généralement deux formes principales d’oxygène :
• l’oxygène sous forme élémentaire, c’est-à-dire sous forme de molécules constituées uniquement d’oxygène comme le dioxygène (O2) de l’air que l’on respire, ou l’ozone (O3) qui forme une couche fragile et vitale pour les êtres vivants car elle stoppe les rayonnements ultraviolets (UV) nocifs du Soleil ;
• l’oxygène sous forme de composés minéraux et organiques, appelés oxydes : la majorité des composés formés par l’oxygène sont des oxydes entrant dans la composition chimique des roches et des minéraux (silicates et carbonates), comme le quartz (dioxyde de silicium, de formule SiO2), l’hématite (Fe2O3), etc. Par ailleurs, l’oxygène apparaît dans la composition chimique d’une large gamme de composés organiques, tels que le dioxyde de carbone (CO2), l’éthanol (C2H5OH), l’aspirine (C9H8O4), le glucose (C6H12O6), etc.
→ chimie organique.

Principe de la photosynthèse
L'oxygène est un élément constitutif fondamental de la matière vivante, au même titre que le carbone, l'hydrogène et l'azote. C’est d’ailleurs l’un des constituants de l’ADN (molécule portant les informations génétiques dans les cellules des êtres vivants). Par ailleurs, l’oxygène est essentiel au cycle de la vie, car il intervient dans les processus biologiques fondamentaux que sont la photosynthèse (production de dioxygène par les plantes) et la respiration (absorption de dioxygène et rejet de dioxyde de carbone par les êtres vivants).

3. PROPRIÉTÉS CHIMIQUES ET PHYSIQUES DE L'OXYGÈNE
L'oxygène est, après le fluor, l'élément qui possède la plus forte électronégativité. Il a ainsi tendance à former l'anion O2− (dans les oxydes métalliques), à former, en combinaison avec les non-métaux, deux liaisons de covalence (H2O par exemple) ou à jouer le rôle d'accepteur en fixant un doublet d'électrons. Beaucoup de réactions auxquelles il participe sont exothermiques (réactions qui dégagent de la chaleur). Sa fixation est dite « combustion », en raison de la chaleur qu'elle dégage en général ; suivant les cas, cette combustion peut être vive ou lente. À l'exception des halogènes et de l'azote, tous les non-métaux peuvent brûler dans le dioxygène en donnant les oxydes les plus stables (H2O, SO2, etc.). Hormis l'or et le platine, les métaux peuvent également brûler dans le dioxygène, notamment les métaux alcalins et alcalino-terreux, le magnésium, l'aluminium, le zinc, le fer, etc. Beaucoup de métaux s'oxydent aussi à froid dans l'air, mais leur corrosion fait souvent intervenir la vapeur d'eau et le gaz carbonique de l'air.
Du point de vue de ses caractéristiques physiques, le dioxygène est un gaz incolore, inodore et sans saveur. Quand il est liquéfié (mis sous forme liquide), il est de couleur bleu pâle et devient légèrement magnétique. Dans les conditions normales de température et de pression (1 atm, 0 °C), l’oxygène bout à - 182,9 °C et fond à - 218,4 °C.

4. LES RÉACTIONS DE COMBUSTION

Combustion du carbone et du méthane
Les composés formés d'éléments combustibles sont en général eux-mêmes combustibles, notamment les combinaisons d'hydrogène et de carbone, c'est-à-dire les corps organiques. Leur combustion fournit de la vapeur d'eau et du gaz carbonique, mais, si le dioxygène est en quantité insuffisante, l'hydrogène brûle avant le carbone, qui se retrouve sous forme de noir de fumée. Il en est de même des composés du soufre, du phosphore, des métaux. De nombreux composés peuvent aussi subir une oxydation lente ; grâce à certains ferments, l'ammoniac se transforme en oxydes d'azote ; l'alcool éthylique, en acide acétique, etc.
Enfin, la respiration produit elle-même une oxydation de substances organiques dans les tissus vivants, ensemble de réactions qui libèrent l'énergie dont ceux-ci ont besoin.

5. PRÉPARATION ET UTILISATIONS DE L'OXYGÈNE

Production de l'oxygène liquide
Dans l'industrie, on prépare le dioxygène, en même temps que le diazote, par distillation fractionnée de l'air liquide. Il est stocké et livré gazeux dans des tubes d'acier, sous une pression de 200 bars, ou sous forme liquide dans des récipients isolants.
Le dioxygène est un produit d'une grande importance industrielle et pratique : sa production, à l'échelle mondiale, est d'environ 100 millions de tonnes par an, et la France y joue un rôle de premier plan en tant que producteur.

Convertisseur à oxygène
Depuis les années 1950, le dioxygène est utilisé à la place de l'air pour l'affinage de la fonte par oxydation contrôlée : cette opération permet d'éliminer partiellement le carbone de la fonte sortant du haut fourneau, et presque totalement le phosphore et le soufre, pour produire l'acier. Pour cette utilisation, un réseau d'oxyducs de 3 000 km a été construit en Europe occidentale.

Le dioxygène est également utilisé comme comburant dans les fusées spatiales (où il est stocké sous forme liquide) et dans les chalumeaux (soudage, oxycoupage, perforation du béton…). Il intervient aussi dans différentes applications médicales, où il est utilisé dans les traitements d’insuffisances respiratoires et en réanimation.
→ oxygénothérapie, oxygénothérapie hyperbare.

6. L'OXYGÈNE DANS LE CORPS HUMAIN

Échanges gazeux
Dans l'organisme, le dioxygène est véhiculé dans le sang après fixation sur l'hémoglobine des globules rouges. Ce dioxygène est cédé aux tissus, où il intervient dans la « respiration cellulaire » (réactions d'oxydoréduction productrices d'énergie).
On définit le taux sanguin d'oxygène par sa pression partielle (la pression partielle d'un gaz dans un mélange gazeux occupant un volume déterminé est égale à la pression qu'exercerait ce gaz s'il occupait seul ce volume). La pression partielle d'oxygène artériel (PaO2) est normalement de 90 à 100 millimètres de mercure, sachant qu'elle diminue avec l'âge. L'hypoxie (oxygénation insuffisante des tissus) entraîne un trouble de fonctionnement des cellules, pouvant aboutir à leur mort.

 

   DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon