|
|
|
|
|
|
L'hydrogène |
|
|
|
|
|
L'hydrogène
Publié le 10 mai 2022
Potentiellement inépuisable, non-émetteur de gaz à effet de serre… L’hydrogène n’est pas une source d’énergie mais un « vecteur énergétique » : il doit être produit puis stocké avant d’être utilisé. Il pourrait jouer à l’avenir un rôle essentiel dans la transition énergétique en permettant de réguler la production d’électricité produite par les énergies renouvelables intermittentes (solaire et éolien).
L’HYDROGÈNE,
UN VECTEUR ÉNERGÉTIQUE
L’hydrogène est l’élément chimique le plus simple : son noyau se compose d’un unique proton et son atome ne compte qu’un électron. La molécule de dihydrogène (H2) est constituée de deux atomes d’hydrogène. On parle communément d’hydrogène pour désigner en fait le dihydrogène.
La combustion d’1 kg d’hydrogène libère presque 4 fois plus d’énergie que celle d’1 kg d’essence et ne produit que de l’eau : 2H2 + O2 -> 2H2O.
L’hydrogène est très abondant à la surface de la Terre mais n’existe pas à l’état pur. Il est toujours lié à d’autres éléments chimiques, dans des molécules comme l’eau, les hydrocarbures. Les organismes vivants (animal ou végétal) sont également composés d’hydrogène. La biomasse constitue donc une autre source potentielle d’hydrogène.
Extraire l’hydrogène de ces ressources primaires que sont les hydrocarbures, la biomasse ou encore l’eau nécessite un apport en énergie. Comme pour l’électricité, on considère ainsi que l’hydrogène est un « vecteur » énergétique.
L’hydrogène pourrait être quasi-inépuisable, à condition de savoir le produire en quantité suffisante à un coût compétitif et, idéalement, à partir d’énergie bas carbone (nucléaire et renouvelables).
On appelle « technologies de l’hydrogène » l’ensemble des technologies étudiées pour produire l’hydrogène, le stocker et le convertir à des fins énergétiques.
PRODUCTION DE L’HYDROGÈNE
Produire l’hydrogène à partir d’hydrocarbures
Aujourd’hui, 95 % du dihydrogène est produit par « vaporeformage » de combustibles fossiles : cette réaction chimique casse les molécules d’hydrocarbures en présence de vapeur d’eau, de chaleur et d’un catalyseur, pour en libérer l’hydrogène. Mais cette méthode a l’inconvénient de produire du dioxyde de carbone.
Produire l’hydrogène à partir d’eau
L’électrolyse permet de décomposer chimiquement l’eau en dioxygène et dihydrogène grâce à l’action d’un courant électrique. Différentes voies d’électrolyse sont étudiées, avec l’hypothèse d’une électricité d’origine nucléaire ou renouvelable. La quantité d’énergie électrique nécessaire à l’électrolyse dépend des conditions de pression et de température du procédé utilisé. De façon générale, la recherche porte sur des matériaux performants et bon marché pour réaliser des électrolyseurs.
Produire l’hydrogène à partir de la biomasse
La biomasse (bois, paille, etc.) pourrait constituer une source potentielle importante d’hydrogène : la gazéification à la vapeur d’eau de cette biomasse génère un mélange appelé « gaz de synthèse », constitué principalement de monoxyde de carbone et de dihydrogène, que l’on purifie ensuite pour éliminer les polluants. Cette solution permet d’obtenir un bilan effet de serre quasiment neutre car le dioxyde de carbone émis par la combustion du monoxyde de carbone est équivalent à celui qui aurait été dégagé par la dégradation de la biomasse si elle n’avait pas été gazéifiée. On cherche aussi à faire produire de l’hydrogène par des microalgues ou des bactéries qui utilisent la lumière et des enzymes spécifiques : les hydrogénases. Une voie de recherche prometteuse consiste à mimer chimiquement ces réactions, pour développer des réacteurs bio-inspirés de production d’hydrogène.
Extraire l’hydrogène de gisements sous-marins
Enfin, une autre approche vise à exploiter des sources d’hydrogène naturel. L’existence de gisements le long des chaînes volcaniques sous-marines est connue mais ceux-ci sont inatteignables. Aujourd’hui, les chercheurs s’intéressent plutôt à la géologie de certaines couches « terrestres » qui dégazeraient et accumuleraient en leur sein de l’hydrogène.
STOCKAGE DE L’HYDROGÈNE
L’hydrogène ne peut jouer son rôle de vecteur d’énergie que si l’on peut le stocker efficacement, à moindre coût et dans des conditions de sécurité acceptables.
A température ambiante et pression atmosphérique, l’hydrogène se présente sous forme de gaz très volatile, en raison de la petite taille de sa molécule. L’enjeu est de créer des réservoirs compacts et à bas coût.
Différents modes de stockage sont étudiés.
Lorsqu’il n’est pas nécessaire de réduire le volume de stockage (par exemple, pour des applications stationnaires), on peut l’envisager sous forme gazeuse à une pression relativement basse (75 bars). Ce moyen de stockage est peu coûteux et parfaitement maîtrisé.
Le stockage sous forme liquide à basse pression est actuellement principalement réservé à certaines applications de très hautes technologies comme la propulsion spatiale. Il permet de stocker de grandes quantités d’hydrogène dans un volume restreint. Les réservoirs actuels conditionnent l’hydrogène à – 253 °C sous 10 bars. Mais il est impossible d’éviter les fuites : même très bien isolés, les réservoirs absorbent de la chaleur qui vaporise lentement le liquide.
Afin d’atteindre une compacité satisfaisante tout en évitant les inconvénients liés aux très basses températures du stockage à l’état liquide, on cherche à développer le stockage à l’état gazeux sous haute pression (700 bars). Il s’agit de concilier imperméabilité, résistance aux hautes pressions et résistance aux chocs en travaillant sur une architecture et des matériaux adaptés au réservoir.
Enfin, une voie de recherche plus récente porte sur l’utilisation de matériaux appelés hydrures qui ont la capacité d’absorber et désorber l'hydrogène de manière réversible, sous condition de température (stockage « solide »). Le stockage dans les hydrures est le moyen le plus efficace pour obtenir une forte densité volumique d'énergie. Mais cela se fait au détriment du poids, puisqu’il faut ajouter au bilan le poids du matériau dans lequel l'hydrogène s'insère.
Selon l’utilisation visée de l’hydrogène, les critères de coût, performance, compacité ou poids de ces différentes technologies sont arbitrés.
UTILISATION DE L’HYDROGÈNE
Le développement de la filière hydrogène repose en partie sur la technologie de la pile à combustible. Le principe de la pile à combustible est l'inverse d'une électrolyse. La réaction chimique produite par l'oxydation et la rencontre du dihydrogène et du dioxygène produit de l'électricité, de l'eau et de la chaleur.
Il existe plusieurs types de piles à combustible qui se différencient par leur électrolyte. Celui-ci définit la température de fonctionnement et donc les applications. La R&D porte actuellement sur les améliorations techniques (compacité, rendement énergétique, résistance à l’usure, fonctionnement sur de nombreux cycles…) ainsi que sur la baisse des coûts de production.
DOCUMENT cea LIEN |
|
|
|
|
|
|
Nano-ions photoactifs : deux réactions chimiques dans un seul réacteur ! |
|
|
|
|
|
Nano-ions photoactifs : deux réactions chimiques dans un seul réacteur !
Des chercheurs de l'ICSM et leurs partenaires proposent de coupler des réactions d'oxydation et de réduction dans un même réacteur, pour des procédés chimiques plus économiques et plus respectueux de l'environnement.
Publié le 9 mars 2022
Dans la famille des ions nanométriques, certains anions de type polyoxométalates ont des propriétés photocatalytiques de plus en plus exploitées pour réduire ou oxyder des fonctions organiques en phase liquide.
Les chercheurs de l'ICSM, en collaboration avec l'Université de Regensburg (Allemagne), proposent un concept économique de procédé REDOX. Il utilise deux solvants non miscibles dans lesquels se distribuent les formes oxydée et réduite d'un catalyseur unique, ce qui permet de séparer dans deux phases distinctes les réactions de réduction et d'oxydation.
Parmi les exemples étudiés, le cas le plus démonstratif est la double réaction suivante :
* l'oxydation d'un colorant toxique pour l'environnement, le DR-13 de couleur rouge, dans la phase organique ;
* la réduction d'une solution ionique d'argent en phase aqueuse.
Le photocatalyseur est l'acide phosphotungstique (H3PW12O40), disponible sur catalogue. Ce cluster ionique inorganique, de dimension nanométrique, porte trois charges négatives sous sa forme naturelle (3-). En raison de sa faible densité de charge, il est liposoluble et plutôt distribué dans la phase organique.
Quand il est activé sous rayonnement UV, il peut oxyder le colorant et se trouve lui-même réduit sous la forme 4-. Il devient hydrosoluble, migre en phase aqueuse et rend alors le milieu réducteur pour les ions métalliques en solution.
Une fois les ions réduits en métal précipitant dans le fond du réacteur, les nano-ions se retrouvent oxydés (forme 3-) et donc de nouveau liposolubles, et retournent dans la phase organique où ils peuvent à nouveau être photo-activés et poursuivre la double réaction jusqu'à son terme.
Ce réacteur peut être alimenté de manière indépendante en composés organiques et métalliques.
RÉFÉRENCES
* {2-phases 2-reactions 1-catalyst} concept for the sustainable performance of coupled reactions, Green Chemistry
DOCUMENT cea LIEN
|
|
|
|
|
|
|
LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN |
|
|
|
|
|
LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN
"Le hasard est soumis à des lois, que le calcul des probabilités étudie d'un point de vue mathématique. La nature de ces lois est asymptotique, on ne peut rien déduire de la réalisation d'un événement aléatoire, seules les séries d'évènements ont une signification statistique, d'autant plus fiable que leur nombre est grand. Modéliser le hasard pour pouvoir faire des prévisions est un enjeu primordial. Dans de nombreuses situations il faut comprendre comment une source de "" bruit "" vient influencer le phénomène que l'on observe au cours du temps. Ce phénomène peut être un signal que l'on cherche à décrypter, la trajectoire d'une fusée que l'on veut guider, le cours d'une action en bourse, ou bien d'autres choses encore. Pour des raisons qui seront expliquées dans la conférence, le mouvement brownien fournit un modèle universel de bruit. On verra que les techniques mathématiques sophistiquées qui ont été développées pour étudier le mouvement brownien d'un point de vue théorique ont trouvé de nombreuses applications concrètes."
Il peut paraître paradoxal de parler de lois du hasard, car ce mot
évoque pour nous l'imprévisible, sur lequel nous n'avons aucune prise,
et pourtant le hasard obéit à des règles bien précises. La
connaissance de ces règles permet de faire des prédictions dans des
situations où l'on ne maîtrise pas toutes les données, parce qu'elles
sont trop nombreuses pour être connues en totalité. L'exemple le plus
visible, qui est devenu quasi-quotidien dans les sociétés
démocratiques modernes, est celui des sondages d'intention de vote qui
permettent de prédire le résultat d'une élection sans avoir à
interroger tous les électeurs. Comprendre la nature des lois du hasard
est indispensable si l'on veut connaître la portée et les limites de
ces méthodes. Tout d'abord il faut savoir que la nature de ces lois
est asymptotique: on ne peut pas déduire d'information
probabiliste de la réalisation d'un événement particulier, seules les
séries d'événements ont une signification statistique, d'autant plus
fiable que leur nombre est grand. Ainsi lorsqu'on jette une pièce de
monnaie en l'air, la symétrie de la pièce fait qu'il y a autant de
chances pour qu'elle retombe sur «~pile~» ou «~face~», mais cette
symétrie est brisée lorsque la pièce est retombée, et seule l'une des
deux alternatives est réalisée. L'équiprobabilité n'est observable que
si l'on répète l'expérience un grand nombre de fois: il est bien
connu qu'alors les fréquences d'apparition des «~pile~» et des
«~face~» se rapprochent de 1/2. Cette observation se généralise pour
donner le résultat fondamental du calcul des probabilités, qui est la
loi des grands nombres. Sous sa version la plus simple elle exprime
le fait que si l'on répète un grand nombre de fois une même expérience
aléatoire, dont le résultat est une valeur numérique, alors la moyenne
des résultats obtenus tend à se rapprocher de l'espérance mathématique
de l'expérience. Cette espérance est, par définition, la somme
pondérée de tous les résultats possibles, chacun étant affecté d'un
poids égal à sa probabilité d'apparaître. Si nous reprenons l'exemple
du jeu de pile ou face, et si nous décidons de compter 1 pour chaque
face, et 0 pour chaque pile obtenus lors de lancers de pièces, la loi
des grands nombres nous assure que la moyenne des résultats obtenus,
qui ici est égale à la fréquence d'apparition des «~face~», se
rapproche de 1/2 quand le nombre de tirages devient grand,
conformément à l'expérience.
C'est la loi des grands nombres qui justifie les méthodes
d'échantillonnage utilisées en statistique, c'est elle encore qui
permet de savoir qu'à long terme un casino est toujours gagnant, et
même d'estimer son bénéfice futur. Enfin, on nomme aussi parfois, de
fa\c con plus générale, mais aussi moins précise, «~loi des grands
nombres~» tout résultat qui prédit le comportement déterministe, au
niveau macroscopique, d'un système composé d'un grand nombre
d'éléments microscopiques, interagissant de manière complexe et qui
échappent à une description détaillée. C'est ainsi que les quantités
intensives de la thermodynamique classique (pression, température,
etc...) sont des moyennes, sur de petites régions de l'espace, de
quantités qui varient énormément sur des distances encore plus
petites. Le comportement parfaitement prévisible, à notre échelle, de
ces moyennes, qui se traduit par les lois bien connues de la physique
des gaz, est un effet de cette loi des grands nombres plus
générale.
La loi des grands nombres n'a qu'une valeur asymptotique, on observe
donc lorsqu'on reste avec des nombres finis, des écarts par rapport au
comportement moyen attendu. Ces écarts eux aussi suivent des lois
précises, mais cette fois ce n'est plus leur valeur que l'on peut
prédire, seulement leur répartition statistique. Ainsi le théorème de
la limite centrale prédit que l'écart à la limite dans la loi des
grands nombres suit approximativement une loi gaussienne (décrite par
la fameuse «~courbe en cloche~») dont la variance, qui mesure
l'étalement de la courbe, est proportionnelle à l'inverse du nombre
d'expériences. Pour voir, en termes plus concrets, ce que cela
signifie, considérons l'expérience consistant à répéter « N » fois le
tirage d'une pièce de monnaie, « N »étant un nombre supposé très grand.
La quantité représente l'écart entre la fréquence théorique, 1/2, et la fréquence du nombre de faces observée pendant l'expérience, multiplié par un facteur de
renormalisation $2\sqrt{N}$. Répétons cette expérience 200 fois (ce
nombre étant pris pour fixer les idées, cela revient donc à lancer
$200\times N$ fois la pièce), et répartissons les fréquences relatives
des résultats obtenus pour la quantité $E$ dans un histogramme, alors
on obtient typiquement un diagramme ressemblant à celui de la figure
1.
\epsfxsize=8cm\epsfysize=8cm\epsfbox{TCL.ps}\caption{Le théorème
de la limite centrale}\end{center}
\end{figure}
Les valeurs exactes des hauteurs des colonnes peuvent fluctuer en
fonction de l'expérience, mais leur allure générale reste presque
toujours proche de la courbe gaussienne, qui est le graphe de la
fonction $e^{-x^2/2}/\sqrt{2\pi}$, tracé sur la figure, et aura
tendance à s'y conformer encore plus précisément si le nombre
d'expériences, qui ici était égal à 200, est augmenté. Il est
remarquable que la fa\c con dont les résultats se répartissent à la
limite est indépendante de la nature de l'expérience que l'on répète.
Cette universalité de la loi gaussienne est à l'origine de son
intervention dans de nombreux problèmes de probabilités. Le théorème
de la limite centrale permet de donner des intervalles de confiance
pour les estimations par échantillonnage, comme les sondages
d'intention de vote. Il permet aussi d'expliquer la «~loi des
erreurs~» c'est-à-dire le fait que les erreurs de mesure des
grandeurs physiques, qui ont de multiples causes indépendantes entre
elles, tendent à se répartir suivant une distribution gaussienne.
La loi des grands nombres et le théorème de la limite centrale, qui
sont les deux résultats fondamentaux du calcul des probabilités,
étaient en essence connus dès le dix-huitième siècle. Le
développement de la théorie des probabilités aux dix-neuvième puis
vingtième siècles a fait une place de plus en plus importante à
l'étude des processus stochastiques, c'est à dire des phénomènes qui
évoluent de fa\c con aléatoire au cours du temps. Parmi ces processus
stochastiques, un rôle central est tenu par le mouvement brownien
tant du point de vue de la théorie que de celui des applications. Je
vais tenter dans cet exposé de présenter le mouvement brownien, et
d'expliquer pourquoi et comment on l'utilise pour modéliser les
phénomènes de bruit. Les applications technologiques de ces
modélisations sont nombreuses, allant de l'aéronautique à la finance
en passant par les télécommunications.
Le mouvement brownien
L'observation du mouvement brownien est probablement aussi ancienne
que l'invention du microscope, en fait il suffit d'observer de l'eau
avec un fort grossissement pour y voir de petites particules en
suspension agitées d'un mouvement désordonné et incessant. C'est le
botaniste Brown qui, observant des particules de pollen à la surface
de l'eau fit le premier, en 1827, une description précise de ce
phénomène et lui laissa son nom. Une courbe comme celle représentée
sur la figure 2, qui peut s'obtenir facilement par simulation sur un
ordinateur personnel, représente un exemple typique de trajectoire
d'une particule animée d'un mouvement brownien, observée pendant un
intervalle de temps donné.
\ Trajectoire
d'une particule brownienne}
Le caractère extrèmement irrégulier de ces trajectoires, qui
apparaît clairement sur la figure, avait beaucoup intrigué ceux qui
avaient observé ce phénomène à l'époque de Brown. Plusieurs
hypothèses sur son origine furent proposées, dont certaines, de
type vitaliste, supposaient que les particules possédaient une
énergie propre qui les faisait se mouvoir, mais la véritable
explication ne fut donnée qu'à la fin du siècle dernier, alors que
la théorie de la structure atomique de la matière s'imposait au
monde scientifique. Lorsqu'une petite particule solide est placée
dans un fluide, elle est soumise au bombardement incessant des
molécules qui composent le fluide. Ces molécules sont très petites
par rapport à la particule (en pratique les particules en question
ont une taille de l'ordre du micron, soit $10^{-3} mm$ alors que
les molécules d'eau, par exemple, ont un diamètre de l'ordre de
quelques Angström, soit $10^{-7}mm$), mais elles sont en très grand
nombre, et leurs vitesses sont réparties dans l'espace de fa\c con
isotrope, ce qui fait qu'en première approximation, par la loi des
grands nombres, l'impulsion résultant de ces chocs est nulle. Plus
la particule est petite, moins elle subit de chocs par unité de
temps, et plus elle est sensible aux écarts par rapport à la loi
des grands nombres, si bien qu'en dessous d'une certaine taille les
chocs cessent de se compenser exactement et produisent ce mouvement
désordonné, dont la direction change de fa\c con incessante. C'est
Einstein qui le premier, en 1905, réussit à faire de cette
observation une théorie physique quantitative. La théorie
d'Einstein fut bientôt confirmée expérimentalement par Jean Perrin,
qui en déduisit la première détermination précise du nombre
d'Avogadro (le nombre d'atomes contenus dans un gramme
d'hydrogène). Ces travaux, associés à ceux de Planck sur la
radiation du corps noir, firent tomber les réticences des derniers
sceptiques envers la théorie atomique, qui n'était pas à l'époque
unanimement acceptée. Dans son mémoire, Einstein donne la
description suivante du mouvement brownien:
a) entre deux instants $s$ et $t$, le déplacement de la particule
brownienne est aléatoire et suit une loi gaussienne de variance
$D\times(t-s)$ où $D$ est un paramètre dépendant des
caractéristiques physiques de la particule, comme la masse et le
diamètre, et du fluide (viscosité, température, etc...).
b) ce déplacement est indépendant du chemin parcouru par la particule
avant le temps $s$.
La variance du a) est la valeur moyenne du carré de la
distance entre les positions de la particule aux instants $s$ et $t$,
et Einstein donne une formule explicite pour $D$.
Ces deux propriétés caractérisent complètement le comportement
statistique des particules browniennes. Une conséquence importante
est que la quantité que l'on doit mesurer, pour obtenir la valeur du
paramètre $D$, est le déplacement quadratique moyen de la particule
et non pas sa vitesse, qui n'est pas mesurable comme l'avaient
observé depuis longtemps les expérimentateurs. C'est en mesurant la
valeur de $D$ que Jean Perrin a pu estimer le nombre d'Avogadro.
Comme nous le verrons plus loin, les lois d'Einstein sont très
générales et concernent en fait une gamme de phénomènes beaucoup plus
large que les particules en suspension dans un fluide. Leur
universalité a la même origine que l'universalité de la loi
gaussienne provenant du théorème de la limite centrale.
{\it L'équation de la chaleur}
Il résulte de la description donnée par Einstein que la probabilité
de présence de la particule brownienne en un point suit une équation
identique à celle qui régit la propagation de la chaleur, bien que
ces phénomènes physiques soient tout à fait distincts l'un de
l'autre. Cela se traduit concrètement de la manière suivante.
Déposons une quantité de chaleur donnée en un point $x$ d'un corps
homogène. Au bout d'un temps $t$, cette quantité de chaleur, en se
répartissant dans le corps a fait monter la température en un point
$y$ du corps, d'une quantité $\Delta T$. Oublions maintenant la
quantité de chaleur et la température, et supposons qu'une particule
animée d'un mouvement brownien soit placée au même point $x$, alors
la probabilité (ou plus exactement la densité de probabilité, pour
les puristes) $p(t,x,y)$ que cette particule se retrouve au point $y$
au bout du même temps $t$ est proportionnelle à $\Delta T$, autrement
dit
$$p(t,x,y)=c\Delta T,$$
le coefficient $c$ ne dépendant que des
caractéristiques physiques du corps et pas des points $x$ et $y$ ou
du temps $t$. Outre la propagation de la chaleur, le mouvement
brownien est également associé, toujours {\it via} les lois
d'Einstein, au comportement des charges électriques à l'équilibre. Là
encore je vais donner un exemple concret de l'interprétation
brownienne d'un phénomène physique simple, illustré par la figure 3.
{la charge d'un point à la surface d'un corps conducteur est
proportionnelle à la probabilité qu'une particule brownienne
touche le corps en ce point.}
Considérons un corps conducteur chargé électriquement. En
l'absence de champ électrique extérieur, les charges se
répartissent spontanément à la surface du corps selon une
configuration qui tend à minimiser l'énergie électrostatique. Si
maintenant une particule suivant les lois d'Einstein est lachée
d'un point de l'espace situé très loin du corps alors la
probabilité pour que l'endroit où elle touche pour la première fois
le corps soit un point donné sur la surface est proportionnelle à
la charge électrique de ce point dans la configuration d'équilibre.
Ceci permet de relier le comportement du mouvement brownien avec
certaines conséquences bien connues des lois de l'électrostatique,
comme le principe du paratonnerre; en effet, la tendance du
mouvement brownien à explorer l'espace autour de lui, bien visible
sur la figure 2, fait qu'il a plus de chance, en s'approchant d'un
corps de le toucher pour la première fois à un endroit où celui-ci
présente une partie saillante. Traduit en termes électrostatiques,
cela signifie que les charges électriques ont tendance à se
concentrer dans les pointes, comme dans un paratonnerre. Précisons
encore une fois que ces phénomènes physiques ne sont reliés entre
eux qu'à un niveau purement mathématique, celui des équations qui
les décrivent, en particulier, le mouvement de la particule
brownienne est supposé être totalement indépendant de la charge
éventuelle du corps en question.
{\it Théorie mathématique et applications technologiques}
C'est N. Wiener qui le premier, dans les années 1920, montra que
l'on pouvait définir de fa\c con rigoureuse un objet mathématique
vérifiant les lois d'Einstein, en particulier il démontra que les
trajectoires du mouvement brownien mathématique sont continues, et
nulle part différentiables, ce qui signifie qu'à aucun instant la
vitesse d'un mouvement brownien ne peut être définie, ses
changements de direction étant trop rapides. Ceci confirme
mathématiquement l'impossibilité de mesurer sa vitesse, observée par
les expérimentateurs. Ainsi, contrairement aux objets de la
physique newtonienne classique, le mouvement brownien ne peut pas
être décrit par des équations différentielles, néanmoins, il est
possible de développer un calcul différentiel spécifique au
mouvement brownien, le «~calcul stochastique~», inventé, pour des
raisons purement théoriques par K. Itô dans les années 40. Ce calcul
différentiel possède des règles propres, différentes de celles du
calcul de Newton et de Leibniz, et traduit le caractère très
irrègulier des trajectoires browniennes. Il s'agit d'une des
avancées majeures de la théorie moderne des processus stochastique,
qui joue un rôle essentiel aussi bien dans la théorie que dans les
applications, mais dont la présentation dépasse largement le cadre
de cet exposé.
L'origine de l'utilisation du mouvement brownien dans de
nombreuses modélisations tient dans une remarque faite par L.
Bachelier dans sa thèse sur la spéculation financière, parue en
1900, soit un peu avant le mémoire de 1905 d'Einstein. Bachelier
avait montré qu'un mouvement aléatoire dont le déplacement pendant
un intervalle de temps infinitésimal $dt$ est de moyenne nulle, et
de variance $D\times dt$, satisfait aux lois d'Einstein. On peut
donner à cette remarque une forme mathématique précise, connue
sous le nom de «~théorème d'invariance de Donsker~». Je ne
décrirai ce résultat, qui constitue une sorte de version dynamique
du théorème de la limite centrale, mais je voudrais souligner
qu'une conséquence importante en est qu'en faisant très peu
d'hypothèses sur la nature d'un mouvement aléatoire, on montre que
celui-ci doit satisfaire aux lois du mouvement brownien.
Essentiellement, on en déduit qu'un objet soumis à une multitude
d'influences, toutes de petite intensité, agissant indépendamment
les unes des autres et constamment, se comporte comme une
particule brownienne. Cela justifie le recours au mouvement
brownien mathématique pour modéliser les effets de perturbations
aléatoires, de bruits dont la nature exacte ou la structure
détaillée ne sont pas connues. Ces modélisations trouvent de
nombreuses applications technologiques. Ainsi le guidage d'une
fusée, ou d'un satellite, s'effectue à distance en modifiant sa
trajectoire en fonction des données transmises par des capteurs
placés à son bord. La fusée est en effet constamment déviée de sa
trajectoire théorique par des petites perturbations d'origines
diverses par exemple atmosphériques, ou dues aux fluctuations
locales du champ gravitationnel terrestre, et les communications
entre la fusée et la base sont elles aussi entachées par des
bruits d'origine électromagnétique. Toutes ces perturbations ne
peuvent être décrites exactement, mais il est naturel, pour les
raisons mentionnées plus haut, d'avoir recours à un mouvement
brownien pour les modéliser. On peut alors extraire du flux
continu d'informations envoyées par la fusée une composante due au
bruit, et rétablir la meilleure approximation possible de sa
trajectoire réelle. Le filtre de Kalman-Bucy est la plus ancienne
des méthodes utilisées pour effectuer ce débruitage, ayant servi
en particulier lors des premières missions Apollo de la NASA.
Depuis cette époque la théorie du filtrage a fait des progrès
notamment dans la résolution de problèmes dits «~non-linéaires~»
où l'observation ne dépend plus linéairement du signal émis, avec
d'importantes applications dans le domaine des télécommunications.
L'idée originelle de Bachelier, qui était de modéliser par des
marches au hasard les cours des actifs cotés en bourse a connu un
développement spectaculaire ces dernières années, et le mouvement
brownien fait désormais partie de l'attirail des financiers.
Ainsi la formule de Black et Scholes est aujourd'hui
universellement utilisée pour calculer la valeur des options
proposées sur les marchés financiers. Rappelons qu'une option est
un contrat à terme contingent, c'est-à-dire dont la réalisation
est laissée à l'appréciation du client. Par exemple une option
d'achat à six mois sur le dollar est un contrat qui permet au
client d'une banque d'acheter, six mois aprés la date du contrat,
une certaine quantité de dollars, à un taux de change fixé dans le
contrat. Évidemment, le client n'a intérêt à exercer son option
que si le taux fixé par le contrat est inférieur au cours du
dollar à l'échéance. Une telle option représente un contrat
d'assurance contre les fluctuations des taux de change, et doit
donc donner lieu au paiement d'une prime par le client, dont le
calcul est l'objet de la formule de Black et Scholes. Cette
formule s'obtient par un raisonnement fondé sur le calcul
stochastique, qui utilise une modélisation des cours des
différents actifs par des mouvements browniens, ou des processus
stochastiques très proches. Le paramètre $D$ des lois d'Einstein,
qui est ici appelé volatilité, est une mesure de l'importance des
fluctuations des cours, qui peut être évaluée statistiquement, et
dont l'évolution au cours du temps peut être prise en compte dans
des modèles plus sophistiqués. Insistons encore sur le fait que
toutes ces applications n'auraient pas pu voir le jour sans le
développement des outils théoriques puissants inventés par Itô.
{\it Perspectives actuelles}
Il est possible de considérer des mouvements browniens
ayant lieu dans des espaces plus compliqués que l'espace euclidien
usuel, comme des espaces courbes (ce qui se traduit par la
variation du coefficient $D$ avec l'endroit où se trouve la
particule, et la direction de son déplacement), des espaces munis
de structures algébriques, comme des groupes, des espaces fractals,
ou bien encore des espaces dont la structure est elle-même
aléatoire, par exemple pour modéliser un milieu comportant des
impuretés. Le comportement du mouvement brownien reflète alors une
partie de la structure de l'espace sous-jacent. On peut également
s'intéresser au comportement de plusieurs particules browniennes
interagissant, ou bien susceptibles de mourir et de se reproduire,
comme dans certains modèles issus de la biologie. Toutes ces
généralisations font l'objet de recherches actives, mais le
mouvement brownien ordinaire recèle encore bien des mystères. Les
questions que l'on se pose à son sujet, et les outils utilisés pour
l'étudier, dépendent fortement de la dimension de l'espace dans
lequel il évolue. En dimension d'espace égale à un, la structure
d'ordre de la droite réelle permet d'utiliser des méthodes
combinatoires, ainsi que la théorie des fonctions spéciales, en
lien avec les équations différentielles ordinaires. En dimension 2,
c'est l'analyse complexe, et la théorie des fonctions analytiques
qui prédominent. Il s'agit de domaines de recherches très
dynamiques, et je terminerai cet exposé en évoquant un résultat
mathématique obtenu très récemment. L'examen de la figure 2 révèle
le caractère extrèmement tortueux de la courbe brownienne. On peut
donner une mesure de la complexité de cette courbe en lui assignant
un nombre, appelé «~dimension de Hausdorff~», dont on montre assez
facilement qu'il est égal à deux, ce qui signifie que la courbe
brownienne possède beaucoup de caractéristiques d'un espace à deux
dimensions. Le bord de cette courbe est lui aussi un objet
complexe, mais toutefois moins que la courbe tout entière. Il y a
une vingtaine d'années, B. Mandelbrot avait conjecturé, sur la foi
de simulations informatiques, que la dimension de Hausdorff de ce
bord devait être égale à 4/3. Il s'agit d'un problème
mathématiquement beaucoup plus difficile que celui où l'on
considère la courbe dans son entier, mais il vient d'être résolu
grâce aux travaux de G. Lawler, O. Schramm et W. Werner.
L'apparition d'un nombre rationnel simple comme ici 4/3 dans un
problème aussi complexe est l'illustration de l'existence d'une
profonde symétrie sous-jacente. La symétrie en jeu dans ce problème
porte le nom d'«~invariance conforme~», et semble reliée, de fa\c
con encore mystérieuse pour les mathématiciens, aux théories
physiques, comme la théorie quantique des champs, qui tentent de
décrire la structure de la matière à son niveau le plus
élémentaire. Il ne fait pas de doute que l'exploration de ces
relations donnera lieu a de nouvelles découvertes fondamentales.
RÉFÉRENCES
Ouvrages généraux
N. Bouleau, Martingales et marchés financiers, O. Jacob, Paris,
1998.
C. Bouzitat, G. Pages, En passant par hasard : probabilités de tous
les jours, Vuibert, Paris, 1999.
I. Ekeland, Au hasard, la chance, la science et le monde, Point
Sciences, Le Seuil, Paris 2000.
J. Perrin, Les atomes, Gallimard, Paris 1970 (réédition).
H. Poincaré, Calcul des probabilités, J. Gabay, Paris, 1987
(réédition).
Quelques ouvrages plus spécialisés:
P. Lévy, Processus stochastiques et mouvement brownien, Ed. Jacques
Gabay (Les grands classiques Gauthier-Villars), 1992 (réédition).
B. Oksendal, Stochastic differential equations, Springer Verlag,
Berlin, 1998.
D. Revuz, M. Yor, Continuous martingales and brownian motion,
Springer Verlag, Berlin, 1991.
VIDEO CANAL U LIEN
|
|
|
|
|
|
|
OXYGÈNE |
|
|
|
|
|
oxygène
Consulter aussi dans le dictionnaire : oxygène
Cet article fait partie du dossier consacré à l'air.
Cycle de l'oxygène
Corps gazeux diatomique (O2) constituant en volume le cinquième de l'atmosphère terrestre et nécessaire à la respiration. Dans le langage courant, on parle abusivement d’« oxygène » pour désigner en réalité le dioxygène (gaz diatomique composé de deux atomes d’oxygène). Le terme « oxygène » devrait être réservé à l’élément chimique de symbole O.
* Numéro atomique : 8
* Masse atomique : 15,999 4
* Température de fusion : − 218,4 °C
* Température d'ébullition : − 182,96 °C
* Densité : 1,105
CHIMIE
1. DÉCOUVERTE DE L’OXYGÈNE
L'oxygène fut découvert sous sa forme gazeuse (ou dioxygène) indépendamment par Carl Wilhelm Scheele en 1773 (mais il ne publia ses résultats qu’en 1777) et Joseph Priestley en 1774. L’histoire retient les noms des deux chimistes et la date de la première publication (1774). Toutefois, ni l’un ni l’autre ne se rendent compte de l’importance de leur découverte, en particulier pour expliquer les réactions de combustion qui impliquent la présence de dioxygène. C’est Antoine Laurent de Lavoisier qui établit les propriétés principales de ce gaz à partir de 1775. Il montra qu'il y avait de l’oxygène dans l'air et dans l'eau, et fit ressortir son rôle dans les combustions et la respiration. En démontrant que la combustion est un processus dans lequel une substance se combine avec le dioxygène, Lavoisier réfute la théorie du phlogistique (substance inventée près d'un siècle plus tôt par les chimistes allemands Johann Becher et Georg Stahl pour expliquer le phénomène de combustion) et contribue ainsi à l'avènement de la chimie moderne.
Antoine Laurent de Lavoisier
Par ailleurs, Lavoisier lui donna le nom « oxygène » (du grec oxys et genes, signifiant « qui produit de l’acide », parce l'oxygène apparaissait dans tous les acides connus à cette époque. Il montre également que l'oxygène de l'air se présente sous la forme d'un gaz diatomique (composé de 2 atomes d'oxygène, d'où sa formule chimique O2), et que c'est un élément chimique (corps pur simple).
2. ÉTAT NATUREL DE L’OXYGÈNE
atmosphère terrestre
L’oxygène est l’élément chimique le plus abondant sur Terre. En effet, la teneur en oxygène de l’atmosphère s’élève à environ 23 % (en masse), celle des océans à 86 %, celle de la croûte terrestre à 47 % et celle du corps humain à 60 %. On distingue généralement deux formes principales d’oxygène :
• l’oxygène sous forme élémentaire, c’est-à-dire sous forme de molécules constituées uniquement d’oxygène comme le dioxygène (O2) de l’air que l’on respire, ou l’ozone (O3) qui forme une couche fragile et vitale pour les êtres vivants car elle stoppe les rayonnements ultraviolets (UV) nocifs du Soleil ;
• l’oxygène sous forme de composés minéraux et organiques, appelés oxydes : la majorité des composés formés par l’oxygène sont des oxydes entrant dans la composition chimique des roches et des minéraux (silicates et carbonates), comme le quartz (dioxyde de silicium, de formule SiO2), l’hématite (Fe2O3), etc. Par ailleurs, l’oxygène apparaît dans la composition chimique d’une large gamme de composés organiques, tels que le dioxyde de carbone (CO2), l’éthanol (C2H5OH), l’aspirine (C9H8O4), le glucose (C6H12O6), etc.
→ chimie organique.
Principe de la photosynthèse
L'oxygène est un élément constitutif fondamental de la matière vivante, au même titre que le carbone, l'hydrogène et l'azote. C’est d’ailleurs l’un des constituants de l’ADN (molécule portant les informations génétiques dans les cellules des êtres vivants). Par ailleurs, l’oxygène est essentiel au cycle de la vie, car il intervient dans les processus biologiques fondamentaux que sont la photosynthèse (production de dioxygène par les plantes) et la respiration (absorption de dioxygène et rejet de dioxyde de carbone par les êtres vivants).
3. PROPRIÉTÉS CHIMIQUES ET PHYSIQUES DE L'OXYGÈNE
L'oxygène est, après le fluor, l'élément qui possède la plus forte électronégativité. Il a ainsi tendance à former l'anion O2− (dans les oxydes métalliques), à former, en combinaison avec les non-métaux, deux liaisons de covalence (H2O par exemple) ou à jouer le rôle d'accepteur en fixant un doublet d'électrons. Beaucoup de réactions auxquelles il participe sont exothermiques (réactions qui dégagent de la chaleur). Sa fixation est dite « combustion », en raison de la chaleur qu'elle dégage en général ; suivant les cas, cette combustion peut être vive ou lente. À l'exception des halogènes et de l'azote, tous les non-métaux peuvent brûler dans le dioxygène en donnant les oxydes les plus stables (H2O, SO2, etc.). Hormis l'or et le platine, les métaux peuvent également brûler dans le dioxygène, notamment les métaux alcalins et alcalino-terreux, le magnésium, l'aluminium, le zinc, le fer, etc. Beaucoup de métaux s'oxydent aussi à froid dans l'air, mais leur corrosion fait souvent intervenir la vapeur d'eau et le gaz carbonique de l'air.
Du point de vue de ses caractéristiques physiques, le dioxygène est un gaz incolore, inodore et sans saveur. Quand il est liquéfié (mis sous forme liquide), il est de couleur bleu pâle et devient légèrement magnétique. Dans les conditions normales de température et de pression (1 atm, 0 °C), l’oxygène bout à - 182,9 °C et fond à - 218,4 °C.
4. LES RÉACTIONS DE COMBUSTION
Combustion du carbone et du méthane
Les composés formés d'éléments combustibles sont en général eux-mêmes combustibles, notamment les combinaisons d'hydrogène et de carbone, c'est-à-dire les corps organiques. Leur combustion fournit de la vapeur d'eau et du gaz carbonique, mais, si le dioxygène est en quantité insuffisante, l'hydrogène brûle avant le carbone, qui se retrouve sous forme de noir de fumée. Il en est de même des composés du soufre, du phosphore, des métaux. De nombreux composés peuvent aussi subir une oxydation lente ; grâce à certains ferments, l'ammoniac se transforme en oxydes d'azote ; l'alcool éthylique, en acide acétique, etc.
Enfin, la respiration produit elle-même une oxydation de substances organiques dans les tissus vivants, ensemble de réactions qui libèrent l'énergie dont ceux-ci ont besoin.
5. PRÉPARATION ET UTILISATIONS DE L'OXYGÈNE
Production de l'oxygène liquide
Dans l'industrie, on prépare le dioxygène, en même temps que le diazote, par distillation fractionnée de l'air liquide. Il est stocké et livré gazeux dans des tubes d'acier, sous une pression de 200 bars, ou sous forme liquide dans des récipients isolants.
Le dioxygène est un produit d'une grande importance industrielle et pratique : sa production, à l'échelle mondiale, est d'environ 100 millions de tonnes par an, et la France y joue un rôle de premier plan en tant que producteur.
Convertisseur à oxygène
Depuis les années 1950, le dioxygène est utilisé à la place de l'air pour l'affinage de la fonte par oxydation contrôlée : cette opération permet d'éliminer partiellement le carbone de la fonte sortant du haut fourneau, et presque totalement le phosphore et le soufre, pour produire l'acier. Pour cette utilisation, un réseau d'oxyducs de 3 000 km a été construit en Europe occidentale.
Le dioxygène est également utilisé comme comburant dans les fusées spatiales (où il est stocké sous forme liquide) et dans les chalumeaux (soudage, oxycoupage, perforation du béton…). Il intervient aussi dans différentes applications médicales, où il est utilisé dans les traitements d’insuffisances respiratoires et en réanimation.
→ oxygénothérapie, oxygénothérapie hyperbare.
6. L'OXYGÈNE DANS LE CORPS HUMAIN
Échanges gazeux
Dans l'organisme, le dioxygène est véhiculé dans le sang après fixation sur l'hémoglobine des globules rouges. Ce dioxygène est cédé aux tissus, où il intervient dans la « respiration cellulaire » (réactions d'oxydoréduction productrices d'énergie).
On définit le taux sanguin d'oxygène par sa pression partielle (la pression partielle d'un gaz dans un mélange gazeux occupant un volume déterminé est égale à la pression qu'exercerait ce gaz s'il occupait seul ce volume). La pression partielle d'oxygène artériel (PaO2) est normalement de 90 à 100 millimètres de mercure, sachant qu'elle diminue avec l'âge. L'hypoxie (oxygénation insuffisante des tissus) entraîne un trouble de fonctionnement des cellules, pouvant aboutir à leur mort.
DOCUMENT larousse.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante |
|
|
|
|
|
|