ecole de musique piano
     
menu
 
 
 
 
 
 

EAU

 

 

 

 

 

 

 

eau
(latin aqua)

Consulter aussi dans le dictionnaire : eau
Cet article fait partie du dossier consacré à l'eau.

Cascade.
Corps liquide à la température et à la pression ordinaires, incolore, inodore, insipide, dont les molécules sont composées d'un atome d'oxygène et de deux atomes d'hydrogène.
*         Volumes massiques (l/kg)
*         Glace à 0 °C : 1,091
*         Liquide à 0 °C : 1,000 132
*         Liquide à 4 °C : 1,000 000
*         Indice de réfraction : n20 = 1,333 00
*         Chaleur de formation à 25 °C (ΔG0) : −56,69 kcal/mole
*         Produit ionique à 25 °C : 10−14
CHIMIE

L'eau contient en solution ou en suspension toutes sortes d'autres corps (sels, gaz, micro-organismes, etc.), très répandu à la surface terrestre (eau de pluie, eau de mer, eau du robinet, etc.).

       


Considérée par les Anciens comme un élément, l'eau est une combinaison d'hydrogène et d'oxygène. Henry Cavendish reconnut en 1781 qu'elle se formait dans la combustion de l'hydrogène. Les travaux d’Antoine Laurent de Lavoisier, de Pierre Simon Laplace et de Jean-Baptiste Marie Meusnier, complétés par ceux d’Anthony Carlisle et de William Nicholson (analyse électrolytique de l'eau, 1800), de Louis Joseph Gay-Lussac et d’Alexander Humboldt (synthèse eudiométrique, 1805), et enfin par ceux de Jean-Baptiste Dumas (synthèse pondérale, 1843), établirent sa composition.



1. LA STRUCTURE DE L’EAU
1.1. LA MOLÉCULE D'EAU
Dans la molécule H2O, chaque atome d'hydrogène est lié à l'atome d'oxygène par une liaison dite « covalente », c'est-à-dire qu'une paire d'électrons est mise en commun, ce qui confère une très grande stabilité à la molécule. Celle-ci se manifeste dans la valeur élevée de l'enthalpie de la liaison O―H (462,5 kJ. mol−1).
Chaque liaison O―H mesure 0,96 Å (1 Å = 10−10 m) et l'angle HOH est voisin de 105 °.



1.2. LA POLARITÉ DE LA MOLÉCULE D'EAU
La répartition des charges dans la liaison O–H n'est pas symétrique : les électrons sont plus fortement attirés vers l'atome d'oxygène que vers celui d'hydrogène. Ainsi, la molécule H2O est polaire : elle se comporte comme un dipôle électrique permanent formé par deux charges électriques égales et de signes opposés séparées l'une de l'autre, la charge positive étant localisée au voisinage des atomes d'hydrogène, la charge négative au voisinage de l'atome d'oxygène. Il en résulte des propriétés électriques particulières.
Cette polarité se mesure expérimentalement par de nombreuses caractéristiques électriques, comme le moment dipolaire (1,85 D) ou la constante diélectrique statique (ε = 78 à 25 °C). Aussi, la molécule d'eau est en interaction électrostatique avec toute particule chargée (ion, molécule polaire), et en particulier avec les autres molécules d'eau à l'état solide ou liquide. Cela explique en partie les propriétés de solvant ionisant de l'eau et sa structure condensée.

Le dipôle eau va donc s'orienter dans un champ électrique. Dans un champ alternatif de fréquence convenable (1 à 100 GHz), les dipôles sont soumis à un mouvement d'oscillation qui produit de la chaleur. Ce phénomène est d'ailleurs à la base de la technique de chauffage par micro-ondes des aliments.

1.3. LES LIAISONS HYDROGÈNE DANS L'EAU EN PHASE CONDENSÉE

Les molécules d'eau en phase condensée ne sont plus isolées, mais associées pour former de petits amas transitoires (état liquide) ou des structures permanentes et infinies à trois dimensions (état solide ou cristallin). Dans tous ces édifices, deux molécules d'eau voisines sont liées par une liaison particulière dite « liaison hydrogène » (→ matière).
Pour en savoir plus, voir l'article état [physique].
La liaison hydrogène peut être définie schématiquement comme une attraction électrostatique entre une charge négative localisée sur l'oxygène et une charge positive portée par un atome d'hydrogène d'une molécule d'eau voisine.
Ainsi, dans la glace ordinaire, de type I, cette liaison est linéaire, c'est-à-dire que les groupes ―O et HO― impliqués dans ce type de liaison sont alignés avec une distance entre les atomes d'oxygène de 2,76 Å (au point de fusion, 0 °C). Chaque molécule est ainsi reliée à trois autres dans une géométrie tétraédrique.
Cette liaison, d'une énergie de 19 kJ . mol−1, qui est beaucoup plus facile à rompre que la liaison covalente, a cependant une influence sur les propriétés thermodynamiques anormales de l'eau. En effet, à la pression atmosphérique normale, les températures de changement d'état de l'eau – fusion à 0 °C, vaporisation à 100 °C – sont élevées par rapport à celles d'autres composés chimiques de même poids moléculaire, car la rupture de la liaison hydrogène nécessite une agitation thermique importante.
Pour en savoir plus, voir l'article énergie chimique.

1.4. LES DIFFÉRENTES MASSES MOLÉCULAIRES DE L'EAU

EAU LOURDE
En 1931 fut découvert par Harold Urey un premier isotope de l'hydrogène, le deutérium D (ou 2 H), deux fois plus lourd que l'hydrogène ordinaire et qui, combiné à l'oxygène dans la même proportion, constitue la molécule D2O, dite « eau lourde ».

Elle est formée de molécules d'eau dont les atomes d'hydrogène ont été remplacés par un isotope de l'hydrogène qui contient un proton et un neutron et que l'on appelle deutérium, de symbole D. De densité 1,106, l’eau lourde se solidifie à 3,82 °C et bout à 101,42 °C. L'eau naturelle contient 0,15 % d'oxyde de deutérium. L'eau lourde est principalement obtenue :
– par électrolyse, l'hydrogène étant libéré plus vite que le deutérium ;
– par distillation fractionnée de l'eau naturelle ;
– par échange isotopique, en tirant profit des petites différences de réactivité entre l'hydrogène et le deutérium ;
– par distillation fractionnée de l'hydrogène naturel liquide. Cette dernière méthode est la plus efficace et la moins onéreuse.
L'existence d'un second isotope de l'hydrogène, le tritium T (3H), radioactif, et aussi de trois isotopes de l'oxygène (16O, 17O, 18O) fait que l'eau est constituée de molécules de masses très variées. L'eau lourde a, comme l'eau, la propriété de ralentir les neutrons par collisions élastiques, mais son pouvoir de capture est inférieur ; de ce fait, elle est utilisée comme modérateur dans certains types de réacteurs nucléaires.
Les variations des rapports isotopiques sont de précieux témoins car, l'abondance de l'isotope 18O diminuant avec le temps, elles fournissent des indications sur l'origine de l'eau et sur son âge.

EAU OXYGÉNÉE

Découverte en 1818 par Louis Jacques Thenard, l'eau oxygénée est une solution aqueuse de peroxyde d'hydrogène H2O2. Pur, ce dernier corps est un liquide sirupeux, incolore, à saveur métallique, de densité 1,46, pouvant se congeler à − 1 °C. Il est soluble dans l'eau en toutes proportions. On trouve dans le commerce l'eau oxygénée à 2 ou 3 % (dite à 10 ou 12 volumes, car elle peut libérer de 10 à 12 fois son propre volume d'oxygène).
Elle est douée de propriétés oxydantes, d'où son emploi comme antiseptique et décolorant. Sa préparation industrielle utilise surtout le procédé à l'anthraquinone.
→ eau oxygénée [médecine].

2. PROPRIÉTÉS PHYSIQUES ET CHIMIQUES DE L’EAU

2.1. PROPRIÉTÉS PHYSIQUES DE L’EAU
GÉNÉRALITÉS

La plus manifeste des propriétés originales de l'eau est celle de ses trois états (gazeux, liquide, solide), de poids spécifiques différents, qui peuvent voisiner : ainsi, sous un ciel chargé de nuages, il n'est pas rare de voir couler un fleuve au milieu d'espaces couverts de neige ou de glace. En outre, et contrairement à beaucoup de substances plus lourdes sous forme solide que sous forme liquide, un bloc de glace est plus léger qu'un égal volume d'eau : 1 l d'eau donne 1,091 l de glace en se solidifiant à 0 °C. Il en résulte que la glace, dont la structure est relativement peu compacte, flotte sur l'eau.

En effet, si l'eau à l'état solide compte près de dix formes cristallines différentes, dans la structure la plus courante, le type I, chaque molécule est liée à ses quatre voisines par des liaisons hydrogène. Cette structure présente des lacunes, ce qui explique sa plus faible masse volumique par rapport à l'eau liquide. Cette propriété explique que la glace ne se forme qu'à la surface des mers et des lacs.

LES PROPRIÉTÉS THERMIQUES DE L'EAU
Une autre originalité de l'eau concerne sa chaleur spécifique. Elle est tellement élevée par rapport à celle des autres corps (18 cal . mol−1 . degré−1) qu'elle a été prise comme référence calorifique : la calorie est la quantité de chaleur nécessaire, à la pression ordinaire, pour porter de 14,5 à 15,5 °C la température de 1 g d'eau.
La chaleur latente de fusion (chaleur nécessaire pour fondre 1 g de glace) est très importante : 83 calories par gramme ; mais la chaleur de vaporisation (chaleur nécessaire pour vaporiser 1 g d'eau) l'est plus encore : 600 calories par gramme.
L'eau possède, en conséquence, une forte inertie thermique et, sous toutes ses formes, sa présence amortit les variations de température (son influence est modératrice sur les climats). Elle est également un excellent agent de transport et de conservation de la chaleur.

TENSION SUPERFICIELLE DE L'EAU

La très forte tension superficielle de l'eau (72 dyn . cm−1) explique ses mouvements de bas en haut, par capillarité, dans le sol et dans les plantes : l'adhérence des molécules d'eau entre elles autorise ce défi aux lois de la pesanteur.

2.2. PROPRIÉTÉS CHIMIQUES DE L’EAU
L’EAU SOLVANT
L'eau dissout un grand nombre de substances solides, liquides ou gazeuses. C'est un bon solvant des électrolytes et un mauvais solvant des composés non polaires (hydrocarbures). Ainsi, du fait de sa très grande capacité diélectrique, l'eau est, de tous les liquides connus, le plus proche d'un solvant universel et inerte.
Un autre résultat de sa structure, l'effet hydrophobe – c’est-à-dire le rejet, par les molécules d'eau, des groupements hydrocarbonés CH est de grande conséquence sur la structure même des êtres vivants (protéines, ADN, bicouches lipidiques des membranes cellulaires), qui serait instable en l'absence d'eau.

UNE MOLÉCULE AMPHOTÈRE
Possédant à la fois des propriétés oxydantes et réductrices (→ oxydoréduction), la molécule d'eau est une molécule amphotère : c'est l'acide du couple H2O, OH− et la base du couple H+, H2O ou, mieux, H3O+, H2O (→ acides et bases).
Par ailleurs, l'eau donne de nombreux composés d'addition : hydrates ou complexes.

ÉCOLOGIE

1. ÉTAT NATUREL DE L'EAU

1.1. L’EAU SUR LA TERRE
L’eau est présente sur la Terre sous ses trois états : liquide (la Terre est la seule planète du système solaire à posséder de l’eau liquide), à la surface et sous terre, solide (neige et glace), aux pôles, dans les glaciers et au sommet des montagnes, et sous forme de vapeur d’eau, dans l’atmosphère. De l’eau liquide est également contenue dans tous les êtres vivants ; elle est indispensable à la vie (et c’est dans l’eau que celle-ci est apparue, il y a plus de 3,8 milliards d’années).

Le volume total de l’eau présente sur la Terre, sous toutes ses formes, souterraine, en surface ou dans l’atmosphère, constitue l’hydrosphère. Il représente près de 1,4 milliards de km3. Pour 97,2 %, l’hydrosphère est constituée par les mers et les océans, qui couvrent presque les trois-quarts (72 %) de la surface de la Terre et lui donnent, vue de l’espace, la couleur bleue qui lui a valu le nom de « planète bleue ». L’ensemble des eaux douces (à peine 2,8 % de l’eau totale) est estimé à environ 39 millions de km3. L’essentiel de ces eaux est immobilisé sous la forme de glaces (29 millions de km3), essentiellement dans les calottes glaciaires de l’Antarctique et du Groenland (qui couvrent une superficie supérieure à 17 millions de km2 de terre, sur une épaisseur moyenne de plus de 1,5 km). Le reste se répartit en eaux souterraines (9,5 millions de km3), et eaux de surface : lacs et mers intérieures (125 000 km3), humidité des sols (65 000 km3), fleuves et rivières (1 700 km3), auxquelles il faut ajouter l’eau de l’atmosphère (environ 13 000 km3 d’eau) – une quantité destinée à augmenter en raison du réchauffement climatique. L’eau contenue dans les êtres vivants représenterait environ 1 100 km3. (Ces chiffres sont des estimations ; divers travaux ont été publiés sur cette question, c’est pourquoi l’on en rencontre d’autres, différents mais néanmoins proches et respectant peu ou prou les mêmes proportions).
On appelle parfois eau bleue l’ensemble des eaux des lacs, fleuves, rivières, nappes phréatiques, glaciers, et eau verte l’eau contenue dans les sols et disponible pour les plantes (et indirectement les animaux). Au final, l’eau douce disponible et accessible pour l’homme (cours d’eau, lacs, barrages, nappes souterraines peu profondes, récupérateurs d’eau de pluie...) représente moins de 1 % du total de l’eau de la planète, ce qui correspond à – seulement – 0,028 % de l’hydrosphère.

1.2. LE CYCLE DE L’EAU

Le volume total de l’eau sur la Terre (l’hydrosphère) est en perpétuel mouvement et circule en permanence entre ses différents réservoirs (à la surface de la planète, dans l’atmosphère et dans le sous-sol) : c’est ce que l’on appelle le cycle de l’eau.
L’eau séjourne dans ses différents réservoirs plus ou moins longtemps. Ainsi, il faut jusqu’à 9 700 ans pour que soit entièrement renouvelée l’eau des calottes glaciaires, mais 2 500 pour les océans, 17 ans pour les lacs d’eau douce, 16 jours pour les cours d’eau et 8 jours pour l’atmosphère.
Provoquée par le rayonnement solaire, l'évaporation soustrait à tout moment de l'eau liquide aux océans (1 000 km3 par jour), aux lacs, aux rivières, aux surfaces humides, ainsi qu'aux sols et aux plantes (on parle plus précisément, dans ce dernier cas, d’évapotranspiration). La vapeur d'eau s'élève et circule, comme un gaz, dans l'atmosphère, où elle se condense au contact d'un air plus froid et donne naissance aux nuages. Dans certaines conditions et par l'effet de la pesanteur, cette eau regagne la surface des continents et des océans sous forme de précipitations (pluie, neige, grêle). Parvenue au sol, une grande partie (61 %) s’évapore ; le reste ruisselle (16 %) et rejoint les cours d’eau, ou pénètre dans le sol (23 %) où elle circule et alimente les nappes et les rivières souterraines. Ces flux souterrains hydratent les couches superficielles du sol, alimentent et renouvellent les nappes profondes, nourrissent les sources, soutiennent la vie des plantes, par lesquelles une partie de l'eau remonte dans l'atmosphère en changeant à nouveau d'état.
Drainées par les cours d'eau ou les langues glaciaires aux hautes latitudes, les eaux continentales, après des trajets fort divers, finissent à la mer pour se mêler aux immenses réserves océaniques.
Le moteur du cycle de l’eau est le Soleil : c’est en fonction de l’énergie qu’il envoie sur Terre que l’eau s’évapore ou précipite, que les glaces fondent ou non, etc. Le cycle de l’eau a un impact sur le modelage de la surface de la Terre : érosion (par les rivières, les pluies, les glaciers), remplissage variable des cours d’eau et des plans d’eau...

1.3. LE BILAN DE L’EAU

L'estimation des quantités d'eau entraînées dans le cycle de l'eau, en une période donnée, constitue le bilan, première tâche que se fixent les hydrologues. Il implique l'évaluation des apports et des restitutions d'eau ainsi que le calcul de la vitesse à laquelle se renouvellent les aquifères, et ce à n'importe quelle échelle d'espace et de temps.
Le bilan peut en effet porter sur le système global de la circulation terrestre ou sur toute autre fraction de l'ensemble, par exemple un continent, une région, un pays, un champ, un bassin-versant de quelques hectares comme celui qui s'étendrait sur des millions de kilomètres carrés… Le bilan peut de même avoir pour cadre temporel l'année, la saison, le mois, quelques jours, quelques heures ou même moins. On appelle bilan hydrologique celui réalisé à l’échelle d’un bassin-versant, bilan hydrique celui étudiant les mouvements de l’eau à l’échelle d’une parcelle agricole ou même d’une simple plante.
À l'échelle mondiale et au cours d'une année, le volume estimé de l’eau entraînée dans le cycle équivaut à une lame d'eau de 1 m d'épaisseur qui serait répartie uniformément sur toute la surface terrestre, volume énorme de quelque 500 000 km3 – relativement faible pourtant quand il est comparé au stock hydrique total, qui envelopperait la Terre d'une couche d'eau épaisse de 3 km ! Les précipitations annuelles sur la planète représentent environ 1,1 million de km3.

1.4. LA QUALITÉ DES EAUX NATURELLES
S'il n'y a pas de différence essentielle entre les eaux rencontrées dans la nature – il s'agit toujours de la même substance –, leur qualité est aussi variable que les éléments de l'environnement où elles circulent.

DES EAUX TRÈS DIFFÉRENTES
Elles diffèrent par leur goût, leur odeur, leur couleur, leur température, leur acidité. Même l'eau de pluie contient quelques particules de sels dissous qui ont été transportées par le vent soufflant au-dessus des continents ; elle est aussi quelquefois chargée de poussières et de gaz dissous, ainsi que de substances polluantes (c’est notamment le cas des pluies acides). Certaines sources sont connues pour leurs propriétés minérales particulières. Des forages proches dans une même nappe fournissent parfois des eaux différentes. L'eau des rivières peut être claire ou turbide. Quant aux eaux superficielles courantes ou stagnantes et aux eaux souterraines, leur qualité varie d'un lieu à l'autre selon la nature du sol et du substratum rocheux, le climat, la saison, le niveau de pollution, l'activité biologique d'organismes vivants qui la peuplent, y vivent, y meurent et s'y décomposent.
Les éléments minéraux, présents à des concentrations plus ou moins élevées, sont les mêmes dans les eaux provenant des aquifères souterrains ou de surface (rivières, lacs, retenues de barrages).

LES EAUX SOUTERRAINES
La filtration au travers de terrains poreux, l'obscurité et la raréfaction de l'oxygène dans les profondeurs du sol, ainsi que l'atténuation des variations de température confèrent aux eaux souterraines des qualités distinctes de celles des eaux superficielles. ces dernières sont, en général, plus turbides, plus colorées, moins minéralisées, plus riches en matières organiques, plus exposées aussi aux principales pollutions d'origine humaine. Mieux protégées des pollutions car elles sont filtrées par les couches de terrains et de roches qu’elles traversent lors de l'infiltration, les eaux souterraines n'en sont toutefois pas complètement préservées. Si la pollution les gagne, elle est toujours grave, tant à cause de la quantité d'eau contaminée que de la longue durée nécessaire au renouvellement de la réserve.
Par ailleurs, en agissant sur les roches, dont elles dissolvent les éléments solubles, les eaux souterraines se minéralisent. Selon la proportion des sels dissous, ces eaux sont dites douces (moins de 0,6 g de sels par litre) ou dures. Les eaux minérales contiennent une notable proportion de sels minéraux utilisables en thérapeutique.

LES PARAMÈTRES CARACTÉRISTIQUES DE LA QUALITÉ DE L'EAU
Quelques paramètres sont jugés suffisants pour caractériser l'ensemble des altérations physiques et biochimiques : la charge des matières en suspension (MES), en matières oxydables (MO) et en oxygène dissous, la teneur en nitrates, en phosphore et en chlorophylle, l'indice biologique global (IBG).
La charge en matières oxydables est mesurée par les demandes biologiques (DBO 5) et chimiques (DCO) en oxygène. La raréfaction de ce gaz indispensable à l'équilibre biologique des milieux aquatiques, notamment par élévation, naturelle ou non, de la température de l'eau, peut provoquer la mort d'êtres vivants qui l'habitent.
Une forte DBO 5 est l'indice de fertilité du milieu et d'une active biodégradation des matières organiques. Si les bactéries aérobies, réductrices, viennent à manquer d'oxygène, la décomposition anaérobie des matières organiques accumulées provoque le dégagement de gaz et de substances toxiques. L'introduction dans l'eau de nutriants (principalement des nitrates et des phosphates) accélère donc un processus naturel d'eutrophisation, qui est devenu une forme de pollution des plus répandues et des plus tenaces. L'excès de phosphore – substance nécessaire à la vie à doses modérées – est ainsi la cause principale des proliférations d'algues dans les eaux continentales et littorales, et à l'origine indirecte de toxines.
Pour en savoir plus, voir l'article traitement des eaux.

1.5. L'EAU DE MER
On définit la salinité de l'eau de mer par sa teneur en sels dissous, exprimée en ‰, c'est-à-dire en grammes par kilogramme d'eau de mer. Si la salinité des eaux océaniques varie avec les régions, leur composition en revanche reste sensiblement constante, si l'on ne tient pas compte des eaux côtières ; soit, pour 1 kg d'eau de mer à 35 ‰, 27,3 g de chlorure de sodium, 3,4 g de chlorure de magnésium, 2 g de sulfate de magnésium, 1,3 g de chlorure de calcium, 0,6 g de chlorure de potassium, 0,1 g de carbonate de calcium. La majeure partie de ces sels se trouve à l'état ionisé, et l'excès de cations donne à l'eau de mer un caractère alcalin (pH compris entre 7,5 et 8,4) dont les variations, inversement proportionnelles à leur teneur en gaz carbonique, jouent un rôle prépondérant en biologie marine.
La salinité des eaux océaniques superficielles varie avec la latitude en fonction de l'évaporation et des précipitations : 34,5 ‰ dans les régions équatoriales, de 36 à 37 ‰ aux moyennes latitudes, 34 ‰ dans les régions polaires.
L'eau de mer est également définie par sa température, très variable en surface en fonction de l'éclairement solaire et des échanges de chaleur entre l'océan et l'atmosphère : elle varie entre 1,9 °C, dans les régions polaires et + 30 °C environ dans les régions tropicales. En profondeur, en revanche, la température varie très peu (entre 0 °C et 4 °C).
La température et la salinité d'une eau océanique permettent de déterminer sa densité. On définit ainsi des masses d'eau bien particulières dont on peut suivre les mouvements (ce sont les grands mouvements océaniques) grâce à l'étude des courbes de température et de salinité, appelées diagrammes T-S.
Une autre propriété de l'eau de mer est sa couleur. Le bleu est dû à l'absorption plus rapide des radiations rouges que des radiations bleues par l'eau de mer. La couleur verte que l'on observe dans les régions côtières est due à la présence de plancton et de particules minérales provenant de l'érosion littorale. La moitié de la lumière est absorbée à 1 m de profondeur, et plus de 90 % au-delà de 1 m de profondeur.
Les ondes sonores, enfin, se propagent beaucoup plus rapidement dans l'eau que dans l'air et présentent un intérêt considérable pour la navigation maritime et pour l'océanographie.

2. L'EAU ET LES ORGANISMES VIVANTS
L'eau est le milieu de vie de tous les animaux ou plantes aquatiques. Mais elle constitue aussi l'élément principal de toutes les cellules en état de vie active, y compris sur la terre ferme. Enfin, chez les êtres de grande taille, elle forme l'essentiel d
EN TANT QUE MILIEU
Les eaux diffèrent par leur salinité (la teneur en sel définissant les eaux douces, saumâtres et salées), leur température, leur éclairement, leur mouvement (eau circulante ou eau stagnante), leur teneur en oxygène, etc. Pour chacun de ces facteurs, certaines espèces animales ou végétales supportent d'importants écarts alors que d'autres exigent des conditions constantes. En outre, tous les intermédiaires existent entre les êtres aquatiques stricts (méduses, poissons, plantes aquatiques...) qui meurent rapidement hors de l'eau et les animaux qui ne passent dans l'eau que leur vie larvaire (moustiques, libellules, grenouilles...) ou les algues ou les coquillages du littoral, longuement émergés à chaque marée basse.

2.2. L'EAU EN TANT QUE CONSTITUANT DU VIVANT
L’eau est le constituant essentiel des cellules. Elle est le milieu dans lequel s’effectuent toutes les réactions biochimiques et assure le transport des protéines, des sels minéraux, des vitamines hydrosolubles.
Chez les plantes terrestres, c'est l'eau qui assure la turgescence, c'est-à-dire la pression intérieure qui donne aux cellules leur volume et leur fermeté. Ainsi la perte d'eau entraîne-t-elle la fanaison, puis la mort.
Les animaux sont également dépendants de l’eau pour survivre. Or, en milieu terrestre, l'air est rarement humide à saturation et l'évaporation risque toujours d'excéder l'alimentation en eau. D'où l'importance et la diversité des dispositifs de rétention de l'eau : réduction des surfaces susceptibles de permettre l’évaporation, existence de carapaces ou de coquilles, activité nocturne, voire entrée en vie ralentie (c’est le cas par exemple de certains poissons dipneustes, qui s’enferment pendant la saison sèche dans un cocon de boue au fond des lacs et des rivières asséchés).

2.3. L'EAU EN TANT QUE LIQUIDE CIRCULANT
Le pouvoir solvant de l'eau à l'égard de la plupart des substances vitales : oxygène, gaz carbonique, minéraux, glucose, acides aminés, etc., fait d'elle le meilleur support pour la distribution de ces substances à tout un organisme, sous la forme des sèves brute et élaborée chez les plantes, du sang chez les animaux. Très fluide, l'eau circule dans les vaisseaux à faible coût énergétique et elle peut véhiculer des particules solides telles que les globules du sang.

2.4. L’EAU CHEZ L'HOMME ADULTE
Le corps humain est constitué en moyenne de 60 % d'eau, diversement répartie. À titre d’exemple, un homme adulte de 70 kg renferme 45 l d’eau. Mais la teneur en eau varie selon l’âge (de 75 % chez un nourrisson à environ 50 % après 50 ans), le sexe (elle est plus élevée chez l’homme que chez la femme) et les organes étudiés (elle représente ainsi 90 % du plasma du sang, mais seulement 1 % de l’ivoire des dents).
L’eau du corps est répartie en deux grands compartiments liquidiens :
L'eau extracellulaire, qui représente environ 40 % de l'eau totale, correspond au plasma, à la lymphe, au liquide céphalorachidien et aux liquides interstitiels baignant les cellules.

L'eau intracellulaire, c'est-à-dire incluse dans les cellules, représente 60 % de l'eau totale de l'organisme.
L'eau circule d'un secteur à l'autre en fonction des concentrations existant respectivement de part et d'autre de la membrane cellulaire. Elle permet le transport des diverses substances qu'elle renferme en solution et les réactions chimiques entre elles. Par son fonctionnement, l'organisme humain perd en moyenne 2,5 litres d'eau par jour, principalement par les urines – ces pertes étant régulées par les reins (sous l'effet de l'hormone antidiurétique) –, le tube digestif (selles), les poumons (expiration) et la peau (transpiration). Les pertes organiques en eau doivent être compensées par un apport correspondant : eau de boisson (environ 1,5 l d’eau par jour pour un organisme adulte ne fournissant pas d’effort physique particulier) et eau contenue dans les aliments (1 l). Le métabolisme de l'eau est régulé par l'organisme.

La déshydratation correspond à une teneur en eau insuffisante ; la soif est le premier signal indiquant un déficit en eau. Sans aucun apport d’eau par la nourriture ni la boisson, un homme adulte survit 2 à 3 jours maximum). À l'inverse, lors d'une sécrétion trop importante d'hormone antidiurétique, l'organisme a tendance à retenir trop d'eau, ce qui peut provoquer la formation d'œdèmes, en particulier d'œdème cérébral, susceptible d'entraîner des troubles de la conscience, voire un coma.

 


                                                                                                             DOCUMENT   larousse.fr    LIEN

 


                                                                                   

 
 
 
 

LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

 

 

 

 

 

 

 

LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

La qualité de l'air par Gérard Mégie La présence de la vie sur Terre est indissociable de la composition chimique de l'air que nous respirons. C'est à ce titre que nous pouvons parler de " qualité de l'air " puisque tous les constituants de l'atmosphère - azote, oxygène, vapeur d'eau, gaz carbonique, ozone... - jouent, à des titres divers, un rôle déterminant dans l'équilibre précaire qui conditionne le maintien des différentes formes de vie sur Terre. Si les dangers des émanations liées à l'usage du charbon étaient mentionnés dès le XVIIe siècle et l'apparition de pluies acides mise en évidence au XIXe siècle, le développement des activités industrielles et agricoles, la multiplication des moyens de transport, l'explosion démographique, ont entraîné, au cours du dernier siècle , une modification de la composition chimique de l'atmosphère sans commune mesure avec celle induite par les phénomènes naturels. La pollution de l'air concerne aujourd'hui aussi bien l'air ambiant, de l'échelle locale à l'échelle planétaire, que celui des locaux de travail et des habitations domestiques. Les mécanismes physiques et chimiques qui conduisent à la production de composés nocifs pour la santé humaine, l'équilibre des écosystèmes et l'environnement global de la Terre, sont pour l'essentiel élucidés. Les principales sources des précurseurs de la pollution photo-oxydante et acide sont également connus : transports, foyers de combustion, procédés industriels fixes. Les études épidémiologiques montrent également que si la pollution de l'air a été sensiblement réduite par rapport aux situations qui prévalaient il y a quelques décennies, principalement par la réduction des émissions des sources fixes, elle continue aujourd'hui à exercer des effets néfastes sur la santé, particulièrement sur les populations à risques, dont les conséquences à long terme sont encore mal comprises. La prise en compte des problèmes de qualité de l'air nécessite donc une action cohérente en termes de politique publique, qui prenne en compte à la fois des efforts ciblés sur les lieux et niveaux d'exposition affectant le plus de personnes pendant le plus de temps, et une réduction générale, tout au long de l'année, des niveaux moyens de pollution. Pour autant qu'elle soit respectée, la loi sur l'air et l'utilisation rationnelle de l'énergie de 1996, offre le cadre nécessaire à une mise en oeuvre efficace de telles politiques.


LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

Texte de la 288e conférence de l'Université de tous les savoirs donnée le 14 octobre 2000.

Ozone et qualité de l'air
par Gérard Mégie

La composition chimique de l'atmosphère terrestre résulte d'échanges permanents de matière avec les autres compartiments de la planète Terre : biosphère, océans, surfaces continentales. Ces échanges sont initiés par des sources naturelles à la surface de la Terre. Ils mettent ensuite en jeu des interactions chimiques complexes, qui conduisent à la formation de constituants qui seront à leur tour éliminés par déposition à la surface, principalement du fait des précipitations. De ce fait, un constituant donné ne restera qu'un temps fini dans l'atmosphère et l'équilibre de l'environnement terrestre est donc dynamique et non statique. Ainsi, depuis la formation de la Terre voici quatre milliards et demi d'années, la composition chimique de l'atmosphère a continûment changé à l'échelle des temps géologiques passant d'une atmosphère originelle essentiellement réductrice au mélange azote moléculaire (78 %) - oxygène moléculaire (21 %) qui caractérise l'atmosphère actuelle. L'apparition de la vie sur la Terre est d'ailleurs directement liée à ce caractère oxydant de l'atmosphère terrestre, qui constitue un fait unique dans l'ensemble des planètes du système solaire.
Les sources des constituants atmosphériques résultent de processus physiques, comme l'évaporation ou le dégazage des roches, et biologiques comme la dénitrification ou la fermentation anaérobique, en l'absence d'oxygène. Elles correspondent à la production à la surface de la Terre de constituants gazeux comme la vapeur d'eau, l'hydrogène moléculaire, le méthane, l'hémioxyde d'azote, et certains composés organo-halogénés. La concentration relative en vapeur d'eau dans la basse atmosphère est directement fonction des propriétés thermodynamiques de l'air. Elle décroît rapidement dans la troposphère, passant de quelques fractions de % au niveau du sol à 4 à 5 millionièmes (ppm) dans la basse stratosphère. Les autres constituants, dont les abondances relatives sont également de l'ordre de quelques ppm, diffusent verticalement dans l'atmosphère. Cette diffusion est relativement rapide entre le sol et 12 km d'altitude en moyenne, dans la région inférieure appelée troposphère, qui se caractérise par l'influence des mécanismes de convection liés au chauffage de la surface par le rayonnement solaire. Elle est plus lente dans la région supérieure, la stratosphère, qui s'étend jusqu'à 50 km, et les temps nécessaires pour que les constituants atteignent une altitude moyenne de 30 km sont de l'ordre de 3 à 5 ans.
Ces constituants sources sont principalement détruits par l'action du rayonnement solaire, soit directement par photodissociation, soit de façon indirecte par des mécanismes d'oxydation, eux-mêmes induits par le rayonnement. Des constituants chimiquement actifs sont ainsi créés, dans des rapports d'abondance de l'ordre de quelques milliardièmes (ppb) ou moins, dont les interactions chimiques régissent les équilibres atmosphériques. Ceux-ci sont ensuite éliminés par des processus de recombinaison, qui conduisent en règle générale à la formation d'espèces acides solubles dans l'eau.
Jusqu'au début du XXe siècle, l'évolution de la composition chimique de l'atmosphère, que les archives glaciaires et sédimentaires permettent de relier aux grandes oscillations climatiques, trouvent leur origine dans des phénomènes naturels. L'explosion démographique, le développement des activités industrielles et agricoles, la multiplication des moyens de transport ont entraîné au cours des cinquante dernières années un changement profond de notre environnement, traduit notamment par une modification de la composition chimique de l'atmosphère.

La couche d'ozone stratosphérique

L'ozone est certainement le constituant atmosphérique qui permet le mieux de rendre compte de ces équilibres physico-chimiques de l'atmosphère terrestre et de leur évolution sous l'influence des activités humaines. Molécule constituée de trois atomes d'oxygène (O3), il joue en effet dans les équilibres de l'environnement un rôle essentiel. 90 % de l'ozone atmosphérique est contenu dans le domaine des altitudes comprises entre 20 et 50 km et son abondance relative maximale est de l'ordre de 6 à 8 ppm à 30 km d'altitude. Mais, bien que constituant minoritaire de l'atmosphère, l'ozone est l'unique absorbant, entre le sol et 80 km d'altitude, du rayonnement solaire ultraviolet de longueurs d'onde comprises entre 240 et 300 nanomètres (nm). Cette absorption permet le maintien de la vie animale et végétale à la surface de la Terre, en éliminant les courtes longueurs d'onde susceptibles de détruire les cellules de la matière vivante et d'inhiber la photosynthèse.

Comme pour les autres constituants, l'équilibre de l'ozone dans l'atmosphère terrestre résulte d'un grand nombre d'interactions chimiques mettant en jeu, outre le rayonnement solaire, des constituants minoritaires de l'atmosphère représentant, pour certains, moins d'un milliardième en volume de la concentration totale. En 1974, F.S. Rowland et M.J. Molina attirent l'attention de la communauté scientifique sur des gaz supposés inertes, les chlorofluorocarbures (CFC), produits par les industries chimiques et utilisés principalement pour la réfrigération, les mousses synthétiques, les solvants organiques et comme gaz porteur dans les bombes aérosols. Photodissociés par le rayonnement solaire plus intense qui irradie la stratosphère, ces constituants libèrent du chlore chimiquement actif, susceptible de détruire l'ozone. La découverte en 1985 d'un phénomène de grande ampleur au dessus du continent antarctique, correspondant à une diminution de plus de 50 % de l'épaisseur de la couche d'ozone au moment du printemps austral, largement médiatisé sous le nom de « trou d'ozone » polaire, relance les recherches sur les conséquences potentielles des activités humaines sur la couche d'ozone stratosphérique. De nombreuses campagnes internationales organisées dans l'Antarctique puis dans l'Arctique démontrent que l'explication la plus vraisemblable des diminutions d'ozone observées au printemps austral est d'origine chimique et correspond à un déplacement de l'équilibre des constituants chlorés stratosphériques en faveur des formes chimiques susceptibles de détruire l'ozone. Sur la base des rapports rédigés par la communauté scientifique, les négociations conduites au niveau international conduisent à la suppression totale des CFC à partir de 1995, et à leur remplacement par des produits de substitution à durée de vie plus courte dans l'atmosphère, les hydro-chloro-fluorocarbures (HCFC) et les hydro-fluorocarbures (HFC).
Malgré ces mesures, la charge en chlore de la stratosphère continuera au cours du siècle prochain à être dominé par les émissions des CFC émis dans les années 1960-1990, du fait notamment de la très longue durée de vie de ces constituants, supérieure au siècle pour certains d'entre eux. Le retour au niveau de concentration qui existait antérieurement à l'apparition des phénomènes de destruction de l'ozone dans les régions polaires ne sera pas effectif avant les années 2040-2050. En revanche, la contribution à la charge totale en chlore de la stratosphère des produits de substitution, HCFC et HFC, restera limitée, compte tenu des mesures de réglementation déjà prises. En trois décennies, le problème de l'ozone stratosphérique est ainsi passé de la simple hypothèse scientifique à la mise en évidence d'une atteinte de grande ampleur à l'environnement global. Si les conséquences sur l'équilibre de la vie de cette évolution restent encore aujourd'hui non quantifiables, les conséquences économiques sont particulièrement importantes puisqu'elles ont conduit à la suppression totale des émissions des composés organo-chlorés jugés responsables de cette perturbation des équilibres globaux de l'atmosphère. Celle-ci a été suffisamment importante pour modifier profondément les équilibres stratosphériques, faisant apparaître du fait de la croissance rapide des concentrations du chlore dans la stratosphère, des processus chimiques entièrement nouveaux, qui ne pouvaient que difficilement être imaginés dans les conditions « naturelles » qui prévalaient au début des années 1950, avant la mise massive sur la marché des CFC.
On pourrait penser que du fait des mesure réglementaires prises dans le cadre du Protocole de Montréal, qui vise à l'élimination de la cause, en l'occurrence les émissions des composés organo-halogénés, les efforts de recherche sur la couche d'ozone devraient être ralentis dans l'attente d'un retour à l'équilibre de la stratosphère terrestre. Malgré les incertitudes qui limitent fortement notre capacité à prédire l'évolution future de la couche d'ozone stratosphérique, plusieurs faits scientifiques plaident contre une telle attitude attentiste. D'une part, l'effet maximum des composés chlorés sur la couche d'ozone ne sera atteint qu'après l'an 2000. La couche d'ozone sera donc dans un état très vulnérable au cours de la prochaine décennie, et les non linéarités du système atmosphérique déjà mises en évidence par l'apparition du « trou d'ozone », ne nous mettent pas à l'abri des surprises, bonnes ou mauvaises. D'autre part, il n'est pas possible d'affirmer de façon scientifiquement fondée que la diminution des concentrations en chlore dans la stratosphère, entraînera de facto un retour à l'équilibre qui prévalait au début des années 1970. La stratosphère, et plus généralement l'atmosphère terrestre, ont en effet évolué au cours de deux dernières décennies sous l'effet des perturbations anthropiques, et les contraintes globales d'environnement sont donc totalement différentes de celles des années « pré-industrielles ». On sait notamment que si l'augmentation du gaz carbonique induit un réchauffement de la surface terrestre, elle refroidit la stratosphère et de ce fait favorise la destruction d'ozone dans les régions polaires. C'est donc au cours de la prochaine décennie que l'on pourra effectivement mesurer l'impact réel des mesures réglementaires sur l'évolution de la couche d'ozone stratosphérique.

Ozone troposphérique

Dans la troposphère, le contenu en ozone reste limité à 10 % du contenu atmosphérique total et les concentrations relatives sont de l'ordre de quelques dizaines de milliardièmes (ppb). L'origine de l'ozone troposphérique est double. D'une part, les transferts de masse d'air entre la stratosphère, réservoir principal, et la troposphère. D'autre part, la photo-oxydation de constituants précurseurs - hydrocarbures, oxydes d'azote, monoxyde de carbone, méthane - dont les émissions sont aujourd'hui largement dominées par les sources anthropiques (industrie, transport, pratiques agricoles). L'existence de cette formation photochimique d'ozone a été depuis longtemps mise en évidence dans les atmosphères urbaines et péri-urbaines des grandes cités fortement polluées (Los Angeles, Milan, Athènes, Mexico, New York..). L'ozone ainsi formé à l'échelle locale constitue une source qui, alliée à la production directe d'ozone dans l'atmosphère libre hors des régions de forte pollution, contribue à l'augmentation des concentrations observées aux échelles régionales et globales. Ainsi, la comparaison avec les valeurs actuelles des concentrations d'ozone mesurées au début du XXe siècle dans plusieurs stations de l'hémisphère Nord (Observatoire Météorologique du Parc Montsouris à Paris, Observatoire du Pic du Midi, Observatoire de Montecalieri en Italie) et de l'hémisphère Sud (Montevideo en Uruguay, Cordoba en Argentine) montrent que le niveau d'ozone dans l'atmosphère « non polluée » a été multiplié par 4 dans l'hémisphère Nord et par près de 2 dans l'hémisphère Sud. L'influence des sources anthropiques est confirmée par les observations de la variation en latitude des concentrations d'ozone qui montrent des valeurs deux fois plus élevées dans l'hémisphère Nord (40-60 ppb) que dans l'hémisphère Sud (20-25 ppb), reflétant ainsi la dissymétrie dans la distribution des sources, plus de 80 % des précurseurs polluants étant émis dans l'hémisphère Nord et dans les régions tropicales, notamment par la combustion de la biomasse.

Les enjeux pour l'environnement de l'augmentation de l'ozone troposphérique et des constituants photo-oxydants qui lui sont liés sont particulièrement importants. Oxydant puissant, l'ozone constitue un danger pour la santé des populations lorsque les teneurs relatives dépassent des seuils de l'ordre de la centaine de ppb. Cet effet oxydant est également néfaste pour la croissance des végétaux, et constitue une cause additionnelle du dépérissement des forêts et de la dégradation des matériaux. Par ailleurs, du fait de ses propriétés d'absorption du rayonnement ultra-violet solaire, l'ozone peut être photodissocié dans la basse atmosphère et toute modification de sa concentration influe directement, à courte échelle de temps, sur les propriétés oxydantes de la troposphère. Enfin, l'ozone est un gaz à effet de serre 1200 fois plus actif à masse égale dans l'atmosphère que le gaz carbonique. L'augmentation de sa concentration dans la troposphère conduit donc à un renforcement de l'effet de serre additionnel. Le problème de l'ozone troposphérique est ainsi étroitement lié au problème climatique. Il constitue en fait l'essentiel du couplage entre le climat et la chimie de l'atmosphère.
Dans la troposphère, les concentrations d'ozone, polluant secondaire produit par réaction chimique dans l'atmosphère, sont étroitement liées à celles des ses précurseurs oxydes d'azote, méthane, monoxyde de carbone, hydrocarbures. Elles sont donc particulièrement sensibles à la part prise par les sources anthropiques dans les émissions de ces constituants, part qui atteint 65 % pour le méthane et le monoxyde de carbone et près de 75 % pour les oxydes d'azote. En revanche à l'échelle planétaire, les émissions d'hydrocarbures non méthaniques par la végétation dominent, ramenant la part anthropique à seulement 20 à 25 % des émissions totales.
Aux échelles locales et régionales, la distribution de l'ozone et de ses précurseurs résulte alors de la combinaison entre les processus chimiques de formation ou de destruction, et les processus de mélange qui conduisent au transport et à la dispersion des constituants atmosphériques. Localement, notamment l'été, apparaissent dans les grandes agglomérations des pics de pollution dus à l'ozone. Les causes premières en sont connues, qui impliquent conditions météorologiques propices et émissions de constituants chimiques. Par temps calme, avec un rayonnement solaire maximal, l'accumulation des polluants primaires - oxydes d'azote, monoxyde de carbone et hydrocarbures - conduit à la production d'ozone dans les basses couches. Les activités humaines liées aux combustions, associées aux modes de transport et de chauffage, font ainsi des zones urbaines et périurbaines un champ privilégié de la pollution par l'ozone. Depuis de nombreuses années, les métropoles mondiales sont concernées et les grandes villes françaises ne sont plus épargnées. Ainsi, Paris et la région marseillaise enregistrent pratiquement tous les étés des pics de pollution pouvant atteindre des niveaux d'alerte à partir desquels des mesures restrictives doivent être mises en place par les pouvoirs publics. Lors de tels épisodes, les effets de la pollution oxydante sur la santé sont apparents, en particulier les affections du système respiratoire chez les personnes à risque.
Ces pollutions fortes et localisées agissent également comme révélateur d'une tendance continue de l'augmentation du pouvoir oxydant de l'atmosphère des basses couches observée à l'échelle globale. L'augmentation, déjà citée, d'un facteur 4 des concentrations d'ozone troposphérique dans l'hémisphère Nord depuis le début du siècle ne doit cependant pas être traduite sans précaution en termes de tendance annuelle, comme il est d'usage de le faire pour les constituants à durée de vie plus longues tels que le dioxyde de carbone ou les chlorofluorocarbures. En effet, les temps caractéristiques des processus photochimiques qui régissent l'équilibre de l'ozone dans la troposphère sont de quelques mois au maximum, et les concentrations observées reflètent donc les variations à la fois spatiales et temporelles des constituants précurseurs. Il est ainsi probable que les mesures de réduction des émissions d'oxydes d'azote et d'hydrocarbures prises dans les années 1970, aient conduit à une diminution du rythme annuel d'accroissement des concentrations d'ozone à la surface au cours de la dernière décennie. En revanche, si les augmentations maximales d'ozone ont été observées au cours des dernières décennies en Amérique du Nord et en Europe, il est vraisemblable que les régions de l'Asie du Sud-Est seront les plus sensibles au cours de la première moitié du XXIe siècle en termes d'augmentation des concentrations d'ozone troposphérique.

La compréhension et la quantification des mécanismes de couplage de la pollution oxydante aux différentes échelles de temps et d'espace concernées est aujourd'hui un sujet de recherche ouvert. De ce fait, la mise en place de politiques de prévention et de réglementation efficaces reste difficile, tant les paramètres à prendre en compte sont nombreux et les mécanismes qui régissent la capacité d'oxydation de l'atmosphère complexes. Des régimes très différents sont observés suivant les concentrations des espèces primaires impliquées, oxyde d'azote et hydrocarbures en particulier, et les effets peuvent être non-linéaires. Par exemple, à proximité de sources d'émissions intenses d'oxyde d'azote, l'ozone peut, dans un premier temps, être détruit, avant que le transport et la dilution des masses d'air ne provoquent une augmentation rapide de sa concentration dans l'atmosphère. C'est ainsi qu'en région parisienne, l'on observe parfois des concentrations en ozone bien plus élevées dans la grande banlieue qu'au centre-ville, et qu'une diminution du trafic automobile peut s'accompagner d'une augmentation rapide des concentrations d'ozone dans Paris intra muros et d'une baisse de ces mêmes concentrations, le lendemain, en banlieue.

Conclusion

Notre compréhension actuelle des mécanismes qui régissent le comportement de l'ozone atmosphérique montre, qu'au-delà des problèmes spécifiques posés par la destruction de couche d'ozone stratosphérique et l'augmentation des propriétés oxydantes de la troposphère, cette problématique rejoint celle du changement climatique dû aux émissions de gaz à effet de serre. En effet, la diminution de l'ozone stratosphérique influe directement sur le bilan d'énergie de la basse atmosphère et l'ozone troposphérique est un gaz à effet de serre. De même, les CFC, agents destructeurs de la couche d'ozone stratosphérique, mais aussi les constituants amenés à les remplacer dans leurs principales utilisations, sont des gaz à effet de serre particulièrement actifs, comme le sont certains précurseurs de l'ozone troposphérique, notamment le méthane. Les oxydes d'azote qui influent directement sur les concentrations d'ozone et des oxydants dans l'atmosphère ont également un effet indirect important sur l'effet de serre additionnel. Tous ces faits scientifiquement établis plaident pour une étude approfondie de l'influence de l'ozone atmosphérique sur le changement climatique.

Cette complexité des problèmes d'environnement implique une prise en compte rapide dans la décision politique et économique de l'avancée des connaissances scientifiques dans un domaine où l'incertitude domine, et dominera encore au cours des prochaines décennies, les rapports science - expertise - décision publique. De ce fait, la multiplication des lieux d'échanges entre les différents acteurs, décideurs, scientifiques mais aussi acteurs privés ou associatifs, reste indispensable à l'émergence des questions stratégiques pertinentes et de leur résolution.

Bibliographie

Ozone et propriétés oxydantes de la troposphère, Académie des Sciences, Rapport n° 30, Octobre 1993, Éditions Lavoisier, Technique et Documentation
Ozone Stratosphérique, Académie des Sciences, Rapport n° 41, Juin 1998, Éditions Lavoisier, Technique et Documentation

 


            VIDEO     canal U       LIEN    

 
 
 
 

LES NEUTRINOS DANS L'UNIVERS

 

 

 

 

 

 

 

LES NEUTRINOS DANS L'UNIVERS

Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies
… Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes.

xte de la 581 e conférence de l'Université de tous les savoirs prononcée le 24 juin
2005
Par Daniel Vignaud: « Les neutrinos dans l'Univers »
Introduction
Notre corps humain contient environ 20 millions de neutrinos issus du big bang et émet chaque seconde quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil et quelques millions d'antineutrinos cm2 par seconde venus de la Terre, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies... Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ?

Inventé par W. Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F. Reines et C. Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir.

En 1938, H. Bethe imaginait que des réactions nucléaires de fusion étaient au cSur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la conception de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre avec certitude que le déficit de neutrinos solaires observé (le célèbre « problème des neutrinos solaires ») était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle.

Nous ferons le point sur cette particule fascinante après les découvertes récentes.


1. Le neutrino, particule élémentaire

Le neutrino est né en 1930 pour répondre à un problème expérimental non résolu. A la fin des années 20, période charnière en physique s'il en est, les physiciens s'interrogent sur une difficulté liée à la désintégration b des noyaux radioactifs. L'énergie de l'électron émis devrait avoir une valeur unique et non la forme d'un spectre étendu comme il est observé. Niels Bohr va alors jusqu'à proposer de manière iconoclaste que l'énergie n'est pas conservée dans un tel processus. En décembre 1930, Wolfgang Pauli, dans une lettre restée célèbre « Chers messieurs et dames radioactifs ... », émet l'hypothèse qu'une particule inconnue emporte une partie de l'énergie pour rétablir l'équilibre. Il n'est pas trop sûr de son idée, pourtant géniale, et il faudra plusieurs mois pour qu'il l'élabore plus officiellement. Le déclic a lieu à Rome à l'automne 1933. Enrico Fermi, qui a baptisé la particule « neutrino » (le petit neutre), l'incorpore à la théorie de l'interaction faible qu'il construit magistralement.
Le neutrino restera longtemps à l'état de particule « virtuelle ». Plusieurs physiciens, et non des moindres comme Hans Bethe, écriront même qu'il est quasiment impossible de le mettre en évidence, tant est faible sa probabilité d'interaction. Il faudra attendre d'avoir des sources de neutrinos suffisamment puissantes.
Le neutrino sera découvert en 1956 par Frederick Reines et Clyde Cowan, auprès du réacteur de Savannah River (Caroline du Sud), après une première tentative en 1953. Il s'agit en réalité de l'antineutrino émis dans la fission de l'uranium. Lorsque cet antineutrino interagit avec un proton de la cible, il émet un positron (antiparticule de l'électron) et un neutron. La détection simultanée de ces deux particules est la signature non ambiguë de l'interaction de l'antineutrino. Ces neutrinos associés avec un électron sont appelés neutrinos électroniques ne.
En 1962 une équipe de physiciens mettra en évidence un deuxième type de neutrinos, le neutrino-muon nm, auprès de l'accélérateur du Brookhaven National Laboratory. Les nm sont issus de la désintégration des mésons p (ou pions) en association avec un muon m, le m étant un lepton plus lourd que l'électron. A la suite de la découverte d'un troisième lepton encore plus lourd, le tau t, en 1978, il était clair qu'il y avait un troisième type de neutrinos associé, le nt. Celui-ci ne sera découvert qu'en 2000.
Combien y a-t-il d'espèces de neutrinos ? La réponse est venue du collisionneur électron-positron du CERN, le LEP, en 1990. En mesurant avec précision la largeur de désintégration du boson Z, proportionnelle au nombre d'espèces, les physiciens ont déterminé qu'il n'y en avait que trois. Ces trois neutrinos et les trois leptons chargés qui leur sont associés sont les briques leptoniques de la matière, soumises à l'interaction faible. Les 6 quarks sont les briques hadroniques de la matière, soumises à l'interaction forte. Ils sont regroupés en trois doublets dont l'association aux 3 doublets leptoniques est fondamentale au modèle standard de la physique des particules. Toutes les particules chargées sont en outre soumises à l'interaction électromagnétique, dont l'intensité est intermédiaire entre la force faible et la force forte. Les neutrinos, sans charge électrique, ne sont soumis qu'à l'interaction faible : ils interagissent environ mille milliards de fois moins que l'électron, qui lui-même interagit environ cent fois moins qu'un proton. Quid de leur masse ? Attendons la suite.

2. L'oscillation des neutrinos

Dans le modèle standard dit « minimal » de la physique des particules, les neutrinos n'ont pas de masse. C'est à priori surprenant car toutes les autres briques de matière (quarks, électrons, muons, ...) en ont une. Les tentatives de mesurer directement cette masse sont restées vaines. Les physiciens les plus ingénieux n'ont pu mettre que des limites supérieures sur leur valeur. Et cette limite supérieure est bien inférieure à la masse des leptons chargés associés. Par exemple celle sur la masse du ne est 1 eV [1] alors que la masse de l'électron est de 511000 eV (et celle du proton un milliard d'eV). Si les mesures directes ne donnent rien pour l'instant, il faut faire appel à la ruse, en l'occurrence une propriété liée à la mécanique quantique.
La mécanique quantique nous dit que les neutrinos que l'on observe, les ne, nm ou nt ne coïncident pas nécessairement avec ce qu'on appelle les états propres de masse mais peuvent en être des superpositions. Si les neutrinos ont une masse, le calcul montre alors que lorsqu'ils se déplacent, ils peuvent se transformer (plus ou moins totalement) d'une espèce dans une autre. Le phénomène est périodique en fonction de la distance L parcourue entre la source et le détecteur et a pris le nom d'oscillation. La longueur d'oscillation est proportionnelle à l'énergie et inversement proportionnelle à la différence des carrés des masses des deux neutrinos considérés. Comme nous avons 3 familles de neutrinos, les paramètres de l'oscillation sont 3 angles de mélange qi et deux différences des carrés des masses Dm2ij. La mise en évidence de l'oscillation serait donc une preuve directe que les neutrinos sont massifs.
Si nous voulons illustrer de manière simple le mécanisme d'oscillation et ses conséquences, donnons une couleur à chaque espèce de neutrinos, par exemple bleu pour le ne, rouge pour le nm et vert pour le nt. Supposons une source de neutrinos bleus et un détecteur de neutrinos sensible uniquement aux neutrinos rouges. Si le détecteur ne compte rien, c'est qu'il n'y a pas eu d'oscillation ; si le détecteur compte toujours du rouge, c'est que l'oscillation est maximale ; si le détecteur compte parfois du rouge c'est que le mélange est partiel.
La question de la masse des neutrinos est fondamentale pour ouvrir la porte du modèle standard vers de nouvelles théories plus complètes. Comme nous allons le voir, le mécanisme d'oscillation va prouver non seulement que les neutrinos ont une masse, mais également qu'il est la clé de plusieurs énigmes astrophysiques.

3. Les neutrinos solaires

Depuis les années 20, on pressent que la source d'énergie du Soleil (et des étoiles) est d'origine nucléaire. Les neutrinos nous en ont apporté la preuve directe, à la suite de quarante années excitantes d'échanges passionnés entre les astrophysiciens qui construisent des modèles du Soleil, les expérimentateurs qui inventent et mettent en Suvre des détecteurs de plus en plus gros et de plus en plus sensibles, les théoriciens qui affinent notre compréhension du comportement des neutrinos.
Le Soleil est une gigantesque boule de gaz, essentiellement de l'hydrogène et de l'hélium. Au centre, la température est suffisamment élevée (15 millions de degrés) pour initier des réactions nucléaires de fusion entre deux protons (deux noyaux d'hydrogène). Cette fusion produit un noyau de deutérium, un positron et un ne. Il s'ensuit un cycle compliqué de réactions nucléaires où l'hydrogène va se transformer en hélium en libérant une minuscule quantité d'énergie (10-12W). Lorsque l'on connaît l'énergie produite par le Soleil (1360 W par m2 sur Terre), on calcule que l'on est bombardé en permanence par 65 milliards de neutrinos solaires par cm2 par seconde.
L'histoire commence en 1964 par des discussions entre deux scientifiques que rien ne destinait à collaborer. L'astrophysicien John Bahcall fait les premiers calculs du flux et du spectre en énergie des neutrinos solaires. Raymond Davis, un chimiste, reprend une de ses idées antérieures de détecter les ne avec du chlore grâce à la réaction ne + 37Cl ® e- + 37Ar qui fait intervenir un des isotopes du chlore. Cette méthode radiochimique nécessite de construire un détecteur contenant 600 tonnes de tétrachlorure de carbone C2Cl4, de le placer profondément sous terre dans la mine d'or de Homestake (Dakota du Sud), d'extraire régulièrement les atomes d'argon radioactif (37Ar) et de compter leur désintégration, témoignage direct du passage des neutrinos solaires. L'expérience est difficile car malgré le flux important de neutrinos qui traverse le détecteur, un par jour seulement transmute le chlore en argon. Les premiers résultats, en 1968, montreront que Davis compte trois fois moins d'argon que prévu. C'est le début de ce que l'on a appelé le problème ou l'énigme des neutrinos solaires.
Les astrophysiciens ont raffiné leurs modèles ; plusieurs équipes, dont des françaises, ont brillamment contribué à mieux connaître le fonctionnement du Soleil. L'expérience chlore a continué pendant 30 ans, perfectionnant sa méthode, traquant les inefficacités. D'autres expériences se sont construites : Kamiokande au Japon, à partir de 1986 avec 3000 tonnes d'eau ; les expériences gallium (GALLEX au laboratoire souterrain du Gran Sasso, Italie, et SAGE au laboratoire souterrain de Baksan, Caucase), à partir de 1990 rassemblant près de 100 tonnes de ce précieux métal ; SuperKamiokande au Japon à partir de 1996 et ses 50000 tonnes d'eau. Rien à faire : le flux mesuré est toujours resté inférieur au flux calculé, après toutes les vérifications expérimentales et les progrès théoriques.
Parallèlement, les physiciens des particules, dans leur tentative d'inclure les neutrinos dans leur modèle standard, étudiaient sérieusement cette possibilité que les neutrinos puissent osciller d'une espèce dans une autre. Ils mettaient en évidence un effet nouveau d'amplification possible de l'oscillation dans la matière du Soleil. A la fin des années 90, il était séduisant de penser que les neutrinos solaires n'avaient pas disparu, mais que les ne s'étaient transformés en nm ou nt (hypothèse confortée par la mise en évidence de l'oscillation des nm atmosphériques en 1998 comme nous le verrons dans le chapitre suivant). En effet, tous les détecteurs n'étaient sensibles qu'à ces ne et pas aux nm ou nt. Mais il manquait la preuve ! C'est alors que le détecteur SNO (Sudbury Neutrino Observatory) entre en scène. Utilisant une cible de 2000 tonnes d'eau lourde placée à 2000 m sous terre dans une mine de nickel au Canada, SNO a pu observer non seulement les interactions des ne (ne d ® e- p p) en mesurant l'électron, mais également les interactions de toutes les espèces (n d ® n p n) en mesurant le neutron. En juin 2001, les physiciens de SNO ont pu annoncer que les ne n'avaient pas vraiment disparu, mais qu'ils s'étaient transformés par le mécanisme d'oscillation. Ils montraient également que le flux total de neutrinos solaires était bien égal à celui calculé par les modèles. Ils continuent d'affiner leurs mesures, mais l'essentiel est là, fabuleux épilogue d'une belle histoire scientifique. Nous savons aujourd'hui que les neutrinos solaires se transforment en grande partie (mais pas totalement) en nm ou nt, sans savoir dans quel type en particulier.

4. Les neutrinos atmosphériques.

L'atmosphère est bombardée en permanence par le rayonnement cosmique, constitué pour l'essentiel de protons ou de noyaux plus lourds. Lorsque ces particules arrivent dans les hautes couches de l'atmosphère, elles interagissent avec l'air en produisant des pions. Ceux-ci vont se désintégrer en émettant un muon m et un neutrino nm. Après un parcours variable, le muon lui-même se désintègre en un électron, un antineutrino électronique et un nm. Un bilan rapide donne au niveau du sol deux fois plus de nm que de ne si on oublie la distinction particule-antiparticule, sans importance au premier ordre. Des modèles phénoménologiques calculent toutes les caractéristiques des neutrinos (nature, énergie, direction,...) avec la précision requise.
La mesure des neutrinos atmosphériques est intéressante en soi, mais n'était pas prioritaire pour les physiciens, car la source de ces neutrinos n'a que peu d'intérêt astrophysique. Ils y sont venus lorsqu'ils ont construit au début des années 80 des détecteurs pour observer la désintégration du proton, processus fondamental prédit par les théories de grande unification (fort heureusement avec une durée de vie supérieure à 1032 ans qui nous laisse le temps d'y penser). En effet, les interactions des neutrinos atmosphériques dans le détecteur constituaient un bruit de fond incontournable pour le signal attendu pour la mort du proton.
Le proton s'accrochant à la vie plus que prévu, les physiciens se sont concentrés sur les neutrinos atmosphériques, en essayant de comptabiliser séparément les ne des nm. Les premières expériences (Fréjus au laboratoire souterrain de Modane, Kamiokande au Japon, IMB dans l'Ohio) donnaient des résultats contradictoires. Avec quelques poignées d'événements, certaines observaient un rapport entre les deux types de neutrinos conforme aux prédictions, d'autres observaient un peu moins de nm que prévu. La difficulté de séparer les interactions des deux types de neutrinos (un électron dans un cas, un muon dans l'autre) et la faible statistique rendaient la communauté sceptique.
SuperKamiokande, dont nous avons déjà parlé pour les neutrinos solaires, arrive au printemps 1996. 50000 tonnes d'eau ultra-pure sont observées par plus de 10000 photomultiplicateurs, comme autant d'yeux. Ceux-ci sont sensibles à la lumière Tcherenkov émise dans l'ultra-violet par le passage des particules chargées. L'électron et le muon ont un comportement légèrement différent. Le muon produit un bel anneau de lumière, l'électron un anneau plus flou, plus large. En deux ans, la collaboration SuperKamiokande accumule plusieurs milliers d'interactions de neutrinos et raffine la séparation des deux types. En juin 1998, elle annonce qu'il y a bien un déficit de nm mais que les ne sont au rendez-vous avec le nombre attendu. Elle précise que le déficit de nm est associé à ceux venus des antipodes, c'est-à-dire ceux qui ont traversé la terre en parcourant une distance de plusieurs milliers de km. Comme nous avons appris que l'oscillation dépendait de la distance parcourue, l'interprétation en termes d'oscillation s'imposait naturellement. Depuis, tous les artefacts ont été traqués, les données se sont accumulées, et nous avons maintenant la certitude que non seulement les nm oscillent, mais qu'ils se transforment intégralement en nt.

5. Les neutrinos de supernova

Nous avons vu que les neutrinos étaient les témoins directs de la vie du Soleil : 8 minutes après avoir été produits au cSur de l'étoile, ces messagers nous informent que l'astre qui conditionne la vie sur Terre est en parfaite santé ; il est en plein âge mûr et a encore plus de 4 milliards d'années devant lui. Mais les neutrinos peuvent être également les messagers de la mort des étoiles lorsqu'elles explosent à la fin de leur vie, phénomène que l'on appelle supernova.
Le Grand Nuage de Magellan est une petite galaxie voisine de la Voie Lactée, notre Galaxie, à 150000 années-lumière, visible depuis l'hémisphère sud. A la fin de février 1987, un événement astronomique n'est pas passé inaperçu : nous avons reçu sur Terre le faire-part de décès d'une étoile de ce Nuage, Sanduleak -69°202, il y a justement 150000 ans. Et le message a été transmis par la lumière ... et par les neutrinos.
Dans la nuit du 23 au 24 février 1987, à l'observatoire chilien de Las Campanas, un astronome canadien et son assistant chilien observent par hasard une nouvelle étoile brillante dans le Grand Nuage de Magellan, une étoile qui va être visible pendant quelques dizaines de jour sans télescope. C'est la première supernova de l'année 1987 et elle sera baptisée SN1987A. Il y a des siècles qu'une supernova n'a pas été observée à l'Sil nu. Assez proche de la Terre (tout est relatif), elle n'intéresse pas que les astronomes. Depuis les années 40, on sait que les explosions de certaines supernovas sont des sources de neutrinos. Il devient urgent de le vérifier. Par chance, il y a deux ou trois détecteurs de neutrinos en fonctionnement, en particulier celui de Kamiokande au Japon, qui vient d'entrer en service il y a quelques semaines. Dès l'annonce du télégramme, les japonais se précipitent sur les données accumulées dans les dernières heures. Bienheureuse surprise lorsqu'ils découvrent que, le 23 février à 7h35 en temps universel, une dizaine de signaux caractéristiques se détachent du ronronnement du détecteur (qu'ils appellent le bruit de fond). Le phénomène a duré une poignée de secondes. Une dizaine de neutrinos voyageant depuis 150000 ans se sont laissés piéger par le détecteur souterrain. Mission accomplie pour ces témoins directs de la mort d'une étoile.
Les étoiles ne peuvent vivre qu'en consommant des quantités considérables de carburant. Plus elles sont massives, plus elles en consomment et moins elles vivent longtemps : le carburant s'épuise plus vite car la température centrale de l'étoile est plus élevée. L'histoire commence toujours par la transformation de l'hydrogène en hélium, comme dans le Soleil. Mais ensuite le cycle de réactions nucléaires fait intervenir le carbone, l'oxygène, le néon, puis le silicium, et enfin le fer, le noyau le plus stable. La structure de l'étoile est alors comparable à celle d'un oignon, avec les éléments les plus lourds au centre. Lorsque le cSur de fer a atteint une masse de 1,4 fois celle du Soleil, appelée masse de Chandrasekhar, il s'effondre violemment sur lui-même. La température monte brutalement, mais aucune réaction nucléaire ne peut plus avoir lieu car il n'y a plus de combustible approprié. La densité devient extrême. Les nombreux photons vont alors provoquer la photodésintégration du fer qui va retourner à l'état initial de protons et de neutrons. C'est alors que les électrons se font capturer par les protons dans une réaction (e- p ® n ne) qui est source de neutrinos, les premiers témoins de la mort de l'étoile. Des réactions d'annihilation entre les électrons et les positrons produisent des paires neutrino-antineutrino et ces malheureux restent quelques instants prisonniers tellement la densité est élevée. Soudain, alors que la partie centrale du cSur ne fait plus qu'une vingtaine de km de diamètre, elle se durcit brutalement et provoque le rebond des couches externes, qui tombent en chute libre, créant une formidable onde de choc. L'implosion, jusque là cachée aux yeux extérieurs se transforme en une gigantesque déflagration dévastatrice qui va se propager à travers les pelures de l'oignon. Les couches externes sont alors balayées vers l'extérieur. Au moment de l'explosion, l'étoile qui meurt devient brillante comme mille soleils et les neutrinos libérés se propagent dans tout l'espace.

Dans la réalité, les choses sont un peu plus complexes et les physiciens qui modélisent n'ont pas réussi à faire exploser l'étoile : l'énergie rejetée violemment vers l'extérieur ne serait pas suffisante pour traverser toutes les couches externes qui n'arrêtent pas de tomber vers le centre. Et pourtant l'étoile explose puisqu'on en voit le feu d'artifice. Les physiciens ont alors pensé que les neutrinos pourraient jouer un rôle dans cette explosion en venant à la rescousse de la déflagration. La situation s'améliore, mais l'explosion n'est pas assurée. S'il y a encore du travail, on pense aujourd'hui que les neutrinos sont bien des acteurs indispensables à l'explosion.
Une grande partie de l'énergie gravitationnelle de l'étoile se transforme en neutrinos de toutes les espèces et le nombre produit lors de l'explosion est fabuleux. Environ 1058 de ces particules ont été émises dans toutes les directions. 500 millions de milliards ont traversé le détecteur Kamiokande en moins de 10 secondes et une dizaine a laissé un signal.
Depuis 1987, d'autres détecteurs plus gros, plus performants ont été construits ou sont en projet. La veille est longue. La Nature ne nous a pas encore récompensé d'une nouvelle explosion. Mais nous sommes sûrs que les neutrinos messagers de la mort des étoiles sont déjà en route vers nous. A quand le prochain signal ? Dans un jour, dans un an ou dans dix ans ? Sachons être patients.

6. Les neutrinos extragalactiques

L'Univers est le siège de phénomènes particulièrement violents. Nous venons d'en voir un exemple avec les supernovas, mais il existe des astres dont la violence est permanente. Et si là encore les neutrinos pouvaient compléter les informations que nous donne la lumière reçue dans les télescopes, des ondes radio aux photons gamma en passant par la lumière visible.
Parmi les sources de lumière particulièrement intenses se trouvent les quasars. Il s'agit de trous noirs très massifs, en général au cSur d'une galaxie (on les appelle aussi noyaux actifs de galaxie), qui brillent à eux tout seuls beaucoup plus que le reste de la galaxie. Le trou noir attire la matière avant de l'engloutir, ce qui fournit une fabuleuse source d'énergie gravitationnelle (un ogre comme 3C273, à plus d'un milliard d'années-lumière de nous, se nourrit chaque année de l'équivalent de plusieurs soleils). Cette matière a la forme d'un disque, appelé disque d'accrétion. Perpendiculairement à ce disque, deux puissants jets de particules relativistes sont émis à des distances de plusieurs centaines de milliers d'années-lumière. Dans ces jets, il y a bien sûr des électrons, qui émettent en particulier des rayons gamma très énergiques, du keV au TeV, que l'on observe tous les jours avec les satellites comme INTEGRAL ou les détecteurs au sol comme HESS, en Namibie. Mais il y a aussi probablement des protons. Et ces protons, dans leurs interactions avec la matière environnante, vont produire des pions (rappelons nous les neutrinos atmosphériques) qui vont se désintégrer en gammas s'ils sont neutres ou en muons et neutrinos s'ils sont chargés. Pour nous aider à comprendre le fonctionnement de ces quasars ou d'autres objets astrophysiques comme les pulsars binaires ou les sursauts gamma, il est important de mesurer le flux de neutrinos qu'ils émettent.

Les neutrinos offrent bien des avantages : comme ils interagissent très faiblement, ils peuvent traverser des quantités importantes de matière alors que même les gammas peuvent être absorbés sur des distances cosmologiques ; comme ils n'ont pas de charge, ils ne sont pas déviés par les champs magnétiques galactiques ou intergalactique des régions traversées. Mais il n'y a pas que des avantages. L'inconvénient majeur est bien sûr leur minuscule probabilité d'interaction, même si celle-ci augmente proportionnellement à leur énergie. En outre, les flux prédits par les modèles, si importants soient-ils, sont des milliards de fois inférieurs à celui des neutrinos solaires. La tâche est herculéenne.
Depuis une trentaine d'années, des projets de détecter ces neutrinos venus de l'enfer des quasars ou des sursauts gamma sont à l'étude. Depuis une dizaine d'années, plusieurs sont en construction, que ce soit dans la glace du pôle sud (AMANDA) ou au fond de la Méditerranée (ANTARES). Le principe est toujours le même. Il faut s'affranchir des bruits de fond parasites en s'installant à quelques milliers de mètres de profondeur. Mais même à 2 ou 3 mille mètres, les neutrinos atmosphériques sont le signal dominant (de la même façon qu'on ne voit pas les étoiles durant le jour car la lumière du Soleil est beaucoup plus forte). L'astuce consiste à observer les neutrinos venus des antipodes et qui ont traversé la Terre, utilisée comme filtre au rayonnement parasite. AMANDA observe ainsi l'hémisphère nord du ciel et ANTARES plutôt l'hémisphère sud. Les prédictions, malgré leurs incertitudes, annoncent toutes que ces détecteurs doivent avoir des tailles gigantesques, de l'ordre du km3. Les neutrinos interagissent dans l'eau, la glace ou la roche au voisinage ou à l'intérieur du détecteur ; ils émettent alors un muon (s'il s'agit d'un nm, ou un électron s'il s'agit d'un ne) qui va parcourir plusieurs dizaines ou centaines de mètres à une énergie de plusieurs TeV (1015 eV). Ce muon garde la mémoire de la direction du neutrino incident à ces énergies élevées. Il émet du rayonnement Tcherenkov (cf. SuperKamiokande) observé par des centaines de photomultiplicateurs déployés sur des lignes verticales au fond de la mer ou de la glace.
AMANDA a montré que son détecteur fonctionnait bien, malgré les difficultés de l'implantation au pôle sud ; les physiciens déploient aujourd'hui ICECUBE, au rythme des courts étés antarctiques. ANTARES, une douzaine de lignes de photomultiplicateurs en cours d'installation au large de Toulon, servira de prototype pour un grand projet européen de détecteur kilométrique au fond de la Méditerranée. Au-delà de ces détecteurs pionniers, qui nous réserveront certainement des surprises, comme toujours avec les neutrinos, les physiciens imaginent d'utiliser la radio ou les ondes sonores pour détecter les neutrinos les plus énergiques venus des tréfonds de l'Univers.

7. Les neutrinos du big bang

Nous nous sommes éloignés de notre planète en observant « notre étoile », le Soleil, nous avons franchi les frontières de la galaxie, nous avons remonté l'espace (et le temps) dans le monde extragalactique et les neutrinos sont toujours là. Poursuivons notre voyage vers les origines, le fameux big bang. Les neutrinos y jouent-ils un rôle ?

L'histoire thermique de l'Univers présent commence il y a environ 13 milliards d'années par ce qu'on appelle aujourd'hui le big bang. Son origine reste aujourd'hui encore très spéculative car les lois de la physique ne s'appliquent plus vraiment dans les conditions de température et de densité extrêmes de la singularité initiale. Il y a probablement eu très tôt (vers 10-43 s) une période d'inflation (brusque augmentation de l'espace en quelques 10-40 s), suivie d'une période continue de refroidissement et d'expansion.
Lorsque le temps s'écoule, le fluide cosmique (appelé encore la soupe primordiale) se refroidit en raison de l'expansion et la température diminue très rapidement. Les forces qui régissent le comportement de la matière vont se singulariser l'une après l'autre, en commençant par l'interaction gravitationnelle, bientôt suivie par l'interaction forte. La soupe contient alors des quarks et des leptons. Il y a en particulier des électrons, des photons, et les trois espèces de neutrinos, qui s'annihilent joyeusement avec leurs antiparticules, en se transformant les uns dans les autres. Bien vite cependant l'interaction faible devient beaucoup plus faible que l'interaction électromagnétique et les neutrinos s'annihilent beaucoup moins souvent. Il y a aussi dans la soupe quelques quarks qui vont commencer à former les premiers protons et les premiers neutrons. Lorsque l'Univers continue de refroidir, les neutrinos deviennent si dilués qu'ils ne peuvent plus s'annihiler. Il ne s'est passé qu'une seconde depuis l'explosion primordiale (ou ce qu'on qualifie comme tel), la température est de 10 milliards de degrés et nous voilà en présence des premiers fossiles connus de l'Univers, condamnés à errer à jamais dans l'espace : les neutrinos du big bang. L'histoire continue et le refroidissement se poursuit inexorablement. Le découplage des photons correspond au moment où les électrons se combinent aux premiers noyaux (principalement au plus simple d'entre eux, le proton) pour former les atomes, électriquement neutres. L'Univers est alors âgé de 1 million d'années et la température est de 3000 K. Les photons fossiles vont continuer de se refroidir jusqu'à atteindre la valeur de 3K, température à laquelle ils ont été découverts par Penzias et Wilson en 1965. Les neutrinos eux se sont refroidis un peu plus ; leur température est de 2K, correspondant à une énergie de l'ordre du milli-électron-volt (meV).

Des quantités fabuleuses de neutrinos ont été produites, puisqu'on estime aujourd'hui leur nombre à 300 par cm3 dans tout l'Univers, toutes espèces confondues. Malheureusement, nous n'avons pas réussi à les observer et leur détection est extrêmement difficile, en particulier en raison de leur énergie ridiculement faible. Une telle quantité de neutrinos ne peut laisser indifférent. Ils pourraient être une contribution importante de la matière noire de l'Univers. Las ! Leur masse est trop faible (voir chapitre suivant) pour qu'ils puissent jouer un rôle important à cet égard. On estime aujourd'hui leur contribution quelques pour mille de la densité critique[2], ce qui est malgré tout autant que la masse visible de toutes les étoiles et galaxies. Mais leur rôle en cosmologie n'est pas limité pour autant. Ils interviennent tout d'abord dans la formation des structures de l'Univers, galaxies et amas de galaxies. L'effet est le suivant : tant que les neutrinos sont relativistes (et cette notion dépend de leur masse), ils voyagent librement des régions denses vers les régions moins denses et vont donc contribuer plus ou moins rapidement à la densité locale, définissant des échelles de structures plus ou moins grandes. L'analyse de ce qu'on appelle les grandes structures, avec des sondages profonds de l'Univers, permet aujourd'hui de contraindre la masse des neutrinos à moins de 0,5 eV, mieux que les mesures directes. Ensuite, les neutrinos, en particulier les ne sont indispensables à la nucléosynthèse primordiale ; ils sont nécessaires pour transformer les neutrons en protons et vice-versa à l'aide de plusieurs réactions : ne n « p e- ; p « n e+ ; n ® p e- . Sans ces réactions, nous resterions paralysés par le nombre de protons et de neutrons présents à l'origine, et nous n'aurions pas eu ce formidable réservoir d'hydrogène qui est la source d'énergie de départ de toutes les étoiles qui veulent vivre longtemps. La mesure de l'hélium primordial dans l'Univers a ainsi permis de contraindre le nombre de familles de neutrinos à une valeur de 3, la même que les expériences auprès du LEP.

8. En guise de conclusion.

Les neutrinos sont au cSur d'un processus dialectique fécond entre la physique des particules, l'astrophysique et la cosmologie, entre la théorie et l'expérience. Les progrès considérables de ces dernières années dans notre compréhension des neutrinos sont dûs principalement à l'observation de phénomènes astrophysiques où ils jouent un rôle-clé ; en retour, ils ont solutionné quelques vieilles énigmes. Quel bilan peut-on tirer ? Que nous réserve l'avenir ?
L'analyse simultanée des résultats des expériences de neutrinos solaires et de neutrinos atmosphériques (complétée avec les expériences auprès des réacteurs nucléaires comme Chooz ou KamLAND) donne accès aux paramètres de l'oscillation entre les trois espèces de neutrinos. Concernant la masse, les deux paramètres sont des différences de masses au carré Dm2, et pas la valeur absolue, et on obtient 2,3 10-3 eV2 et 8 10-5 eV2. On peut illustrer la petitesse des masses de neutrino correspondantes à l'aide de quelques hypothèses, et notamment celle d'une hiérarchie des masses de neutrinos analogue à celle des leptons chargés. On estime alors la masse du neutrino le plus lourd, le nt, à 0,05 eV, soit 10 millions de fois plus petite que celle de l'électron ; celle du nm à 0,008 eV, celle du ne encore moins. Cette même analyse nous informe également sur les angles de mélange. Elle dit : a) l'oscillation à la fréquence déterminée par les neutrinos atmosphériques (fonction de leur énergie et la longueur parcourue) est maximale et le nm se transforme intégralement en nt ; l'oscillation à la fréquence déterminée par les neutrinos solaires est grande mais pas maximale et le ne se transforme assez souvent en nm ou nt ; c) le troisième angle de mélange est encore inconnu et l'expérience auprès du réacteur de Chooz a permis de mettre une limite supérieure. Une nouvelle collaboration internationale, Double Chooz, se met en place pour traquer ce dernier paramètre, simultanément avec des expériences auprès des accélérateurs.

Il est une propriété des neutrinos dont nous n'avons pas parlé. Le neutrino pourrait être sa propre antiparticule ? Pour étudier cette possibilité, passionnante sur le plan théorique, des expériences dites de « double désintégration b sans émission de neutrinos » se construisent à travers le monde. Une belle expérience, NEMO3, fonctionne actuellement dans le laboratoire souterrain de Modane à la recherche de ces trop rares événements. En cas de découverte, le résultat donnerait simultanément une information précieuse sur la masse des ne.

En résumé, nous pouvons dire que les neutrinos sont des messagers incontournables de phénomènes fondamentaux dans l'Univers. Au-delà de sa masse, qu'avons-nous appris ? Tout d'abord le Soleil fonctionne comme prévu, sa source d'énergie étant la réaction nucléaire de fusion entre deux protons. Ensuite la mort des étoiles massives en supernova émet des quantités phénoménales de neutrinos, et ils sont probablement acteurs de l'explosion. Les neutrinos sont les plus vieux fossiles de l'Univers, mais contribuent marginalement à la matière noire. L'astronomie neutrino à haute énergie, prometteuse, en est encore à ses balbutiements.
Les neutrinos nous ont gâtés ces dernières années. Ils nous réservent encore bien des surprises. Il suffit d'être curieux et ... patient.



[1] Les physiciens expriment l'énergie en électronvolts (eV), un électronvolt valant 1,6 10-19 joule. La masse est exprimée en eV/c2 et souvent par simplification en eV lorsque l'on prend la convention c=1. Une masse de 1 eV correspond à environ 10-33 g.
[2] La densité de l'Univers s'exprime en fonction de la densité critique. Si la densité est inférieure, l'Univers est ouvert ; si elle est supérieure, il est fermé et son volume est fini. Les mesures des paramètres cosmologiques laissent à penser aujourd'hui que la densité de l'Univers est exactement égale à la densité critique.

 

   VIDEO     canal U       LIEN  

 
 
 
 

1 - La gravité quantique à boucles en 5 questions

 

 

 

 

 

 

 

1 - La gravité quantique à boucles en 5 questions

Bernard Romney dans mensuel 458
daté décembre 2011 -

En quelques années, la théorie de la gravité quantique à boucles, qui cherche à quantifier la gravitation, a changé de statut et gagné une certaine maturité. Quels sont les fondements de cette théorie ?

F in mai 2011, Madrid accueille une communauté particulière de physiciens : tous les spécialistes de la « gravité quantique à boucles » s'y réunissent pour célébrer les 25 ans de l'article fondateur de cette théorie. Dans son allocution, l'auteur de cette publication, le physicien d'origine indienne Abhay Ashtekar, dépeint l'essor actuel de cette approche théorique, notamment en cosmologie. On est donc loin de la théorie longtemps considérée comme exotique, n'intéressant que quelques théoriciens travaillant à une reformulation mathématique de la loi de la gravitation.
Aujourd'hui, ce modèle de quantification de l'espace-temps est cohérent et a acquis une nouvelle assise. Tout tourne autour de l'idée que l'espace n'est plus continu mais formé de petits grains élémentaires. Bien sûr, cette théorie, très difficile à tester, est encore spéculative. Mais décrire la structure intime de l'espace-temps, comme passer « de l'autre coté du Big Bang » motive toute cette communauté de physiciens. « Les boucles » ont passé un cap : c'est donc l'occasion d'en expliquer les fondements.

1 Quels sont les objectifs de cette théorie ?
Imaginée à partir du milieu des années 1980, la gravité quantique à boucles est une théorie qui, comme son nom l'indique, cherche à quantifier la gravité, et tente ainsi de répondre à l'une des questions clés de la physique actuelle. En effet, le début du XXe siècle a vu l'émergence des deux théories de la physique contemporaine. La mécanique quantique qui décrit les propriétés de l'infiniment petit : molécules, atomes, particules élémentaires... Et la relativité générale, théorie relativiste de la gravitation, qui décrit l'Univers à grande échelle. Dans leurs domaines respectifs, ces deux théories font des merveilles. Pour autant, elles sont totalement incompatibles, et conduisent à deux représentations du monde radicalement différentes. D'un côté, des phénomènes quantiques aléatoires, incertains et discontinus, ayant cours dans l'espace-temps parfaitement plat et figé de la microphysique. De l'autre l'espace-temps courbe et dynamique, mais parfaitement lisse et continu de la relativité générale.
Exigence conceptuelle donc, mais pas seulement. En effet, si elles sont peu nombreuses, certaines questions, comme le début de l'Univers ou la fin de vie d'un trou noir, requièrent, pour être abordées dans leur intégralité, une théorie à même de rendre compte de situations où les effets gravitationnels se font sentir à l'échelle microscopique. Ce dont seule une théorie quantique de la gravitation serait capable.
Dès 1916, Einstein prend conscience de la nécessité de quantifier la gravitation. Mais les physiciens y sont d'abord parvenus pour les autres interactions fondamentales : la force électromagnétique et les interactions nucléaires faible et forte. C'est d'ailleurs l'un des triomphes de la physique du siècle dernier d'avoir forgé une théorie à la fois quantique et relativiste de ces trois dernières interactions. Et le résultat de ce tour de force est synthétisé dans ce que les physiciens des particules appellent le modèle standard.
À l'inverse, malgré un siècle d'efforts, personne n'a réussi à proposer une version quantique entièrement satisfaisante de la gravitation. Et pour cause : alors que les outils mathématiques utilisés pour quantifier les autres forces fondamentales ne sont utilisables que dans le cadre d'un espace-temps plat, celui de la gravitation est fondamentalement mouvant.
Pour contourner le problème, plusieurs tentatives ont consisté à étudier le cas de petites déformations de l'espace-temps sur une trame considérée comme plate et fixe. Mais toutes se sont confrontées à d'incontournables incohérences mathématiques les rendant in fine inutilisables.
Aujourd'hui, il existe essentiellement deux grandes théories concurrentes, et à ce stade encore spéculatives, qui proposent de quantifier la gravitation : la théorie des cordes lire L'ambitieuse théorie des cordes, p. 41 et la gravité quantique à boucles. La première évolue sur un espace-temps parfaitement figé. Et c'est ce qu'un certain nombre de théoriciens lui reprochent. Selon eux, pour cette raison, la théorie des cordes ne peut pas être l'ultime théorie quantique de la gravitation. Et ils lui préfèrent la gravité quantique à boucles, a priori plus modeste. N'ayant pas pour ambition d'unifier toutes les interactions, elle se concentre en effet exclusivement sur la quantification de la gravitation. De plus, l'approche « cordiste » part d'une hypothèse ad hoc - l'existence des cordes -, alors que les « bouclistes », et c'est leur force, ne se fondent que sur de la physique connue : la mécanique quantique et la relativité générale.

2 Comment les boucles quantifient-elles la gravitation ?
Pour les spécialistes des boucles, une véritable théorie quantique de la gravitation ne doit formuler aucune hypothèse sur la géométrie de l'espace-temps. Comme en relativité générale, c'est le contenu en matière de l'Univers qui fixe de façon dynamique sa géométrie. Les physiciens parlent ainsi d'approche « indépendante du fond ».
À partir de là, il s'agit d'appliquer les techniques standard de quantification à la gravitation. C'est-à-dire à l'espace-temps lui-même, puisque selon les équations d'Einstein, la force qui fait « tomber les pommes » est une manifestation directe de la déformation que la matière imprime à la trame de l'espace-temps.
Certes, de multiples tentatives ont montré toute la difficulté d'appliquer un tel programme. Mais pour les promoteurs de la gravité quantique à boucles, c'est justement le fait d'avoir privilégié des approches non indépendantes du fond qui a été à l'origine des échecs passés. Car en figeant la trame de l'espace-temps, elles empêchaient que ne se révèle son éventuelle structure quantique.
Concrètement, l'origine de la gravité quantique à boucles réside dans une reformulation de la relativité générale proposée en 1986 par Abhay Ashtekar, alors à l'université de Syracuse, aux États-Unis [1] . L'exercice est d'une extrême technicité mathématique. Sauf que réécrites sous cette forme, les équations décrivant la géométrie mouvante de l'espace-temps ressemblent désormais à celles qui décrivent les lignes de champ électrique dans la théorie de Maxwell. Ce que remarquent Carlo Rovelli et Lee Smolin, alors à l'université Yale aux États-Unis, au tournant des années 1980 et 1990 [2] .
Les deux physiciens suggèrent d'exporter les méthodes utilisées pour dériver la version quantique de l'électromagnétisme, quoique sous une forme très largement remaniée, dans le champ de la relativité générale et de la gravitation. Ainsi naît une théorie quantique de la gravité, dont le nom, gravité quantique à boucles, vient du fait qu'elle s'appuie sur le calcul de la variation de l'orientation de surfaces d'espace le long de lignes fermées d'espace-temps, autrement dit des boucles. Calculs auxquels sont associées des incertitudes fondamentales équivalentes à celles qui, en mécanique quantique, empêchent de déterminer simultanément la position et la vitesse d'une particule microscopique.

3 À quelle vision de l'espace-temps conduit la gravité quantique à boucles ?
En 1994, Carlo Rovelli et Lee Smolin, alors aux universités de Pittsburgh et de Syracuse, montrent que cette théorie conduit à une représentation de l'espace-temps radicalement nouvelle [3] . Alors que l'espace-temps de la théorie d'Einstein est lisse à toutes les échelles, celui de la gravité quantique à boucles, d'après les calculs des deux théoriciens, présente une structure discontinue si on le regarde aux échelles les plus petites.
Ainsi, de la même manière que l'énergie d'un atome ou d'une molécule ne peut prendre que certaines valeurs, la gravité quantique à boucles indique que l'espace lui-même n'est pas insécable à l'infini. Les calculs conduisent à une longueur élémentaire, la plus petite possible, équivalente à la longueur de Planck, soit 10-35 mètre. Ce qui mène à une surface élémentaire d'Univers de 10-70 mètre carré, et en trois dimensions à un volume élémentaire, le plus petit « cube » d'espace envisageable, de 10-105 mètre cube. L'Univers entier devenant alors une sorte de gigantesque « lego » composé de volumes élémentaires certes minuscules, mais insécables. De la même manière que la matière, d'apparence lisse et continue à notre échelle, résulte de l'agencement de particules dont la taille est finie.
Étonnant ? Peut-être. Si ce n'est que ces « grains » d'espace n'ont rien d' ad hoc , mais sont au contraire une conséquence implacable des calculs à base de boucles. Plus précisément, chaque fois que les équations de la théorie parcourent une boucle de façon abstraite, elles engendrent du même coup un nouveau quantum de volume [fig. 1] .
L'année suivante, Carlo Rovelli et Lee Smolin raffinent leur approche. Plus précisément, ils réalisent que la structure granulaire de l'espace peut être décrite par une gigantesque toile, ou réseau, dont chaque noeud représente un volume élémentaire et chaque lien la surface séparant deux volumes adjacents. Cette représentation leur a été inspirée par des travaux réalisés quinze ans plus tôt par Roger Penrose, à l'université d'Oxford. Et c'est donc auprès du célèbre mathématicien que les deux théoriciens peaufinent leurs idées durant l'été 1994, lors d'un séjour à Vérone, en Italie.
Pour autant, cet espace-temps granulaire ne suffit pas à faire alors de la théorie quantique à boucles une théorie quantique de la gravité. Encore faut-il qu'elle indique comment la dynamique de l'espace-temps met en oeuvre ces quanta d'espace dans des situations physiques concrètes, de la même manière que la relativité générale décrit l'extension de l'Univers dans l'espace-temps comme une solution des équations d'Einstein.
Les premières équations d'évolution d'un Univers quantique sont le fait de Thomas Thiemann, alors à l'université de Penn State, en Pensylvanie, en 1996. Accueillies avec un immense enthousiasme, elles laissent entrevoir la possibilité de calculer les probabilités quantiques précises de chaque modification de l'espace-temps quantifiée. Elles conduisent aussi à se représenter ce dernier telle une « mousse » faite de petits volumes d'espace et de temps, la quatrième dimension - le temps - devenant également une grandeur discontinue, dont le plus petit incrément est environ égal au temps de Planck, soit 10-43 seconde [fig.2] .
Néanmoins, l'euphorie est de courte durée : les équations de Thiemann sont si difficiles à manipuler qu'elles ne sont presque d'aucune utilité pratique. Sans compter qu'à l'horizon des années 2000 personne n'est en mesure de garantir l'unicité des règles conduisant à la quantification de l'espace-temps dans le cadre de la gravité quantique à boucle. D'où un risque de conduire, pour une situation physique donnée, à des prédictions différentes et contradictoires et donc d'invalider la théorie.
Aussi faut-il attendre ces toutes dernières années pour que plusieurs physiciens, notamment Laurent Freidel, à l'institut Perimeter, à Waterloo, au Canada, Etera Livine, à l'école normale supérieure de Lyon, et le groupe de Carlo Rovelli, au Centre de physique théorique, à Luminy, prouvent définitivement le caractère univoque de la gravité quantique à boucles [4] . Et en donnent une formulation permettant de l'utiliser pour réaliser des calculs.

4 Quels sont les succès de cette théorie ?
Tout d'abord, la gravité quantique à boucles est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation, qui intègre à la fois les exigences de la mécanique quantique : description probabiliste des phénomènes physiques, relations d'incertitude, caractère discontinu de la réalité... et le caractère fondamentalement dynamique de l'espace-temps de la relativité générale.
Par ailleurs, John Barrett, Winston Fairbairn et leur groupe de recherche, à l'université de Nottingham en Grande-Bretagne, ont récemment prouvé qu'à grandes échelles la gravité quantique à boucles se résume effectivement à la relativité générale [5] , de même que dans le domaine des faibles champs de gravitation, la relativité générale ne fait qu'une avec la théorie newtonienne.
Dans le même esprit, Eugenio Bianchi et You Ding, à l'université de Aix-Marseille, ont montré que la gravité quantique à boucles permet de décrire certaines propriétés de l'espace-temps en terme de propagation de gravitons, particule élémentaire imaginée être associée au champ de gravité. Et là encore, ses prédictions sont conformes à celles de la relativité générale. Elle permet aussi de retrouver les équations dites de Friedman qui décrivent l'expansion de l'Univers dans le cadre de la théorie d'Einstein de la gravitation.
Mais ce n'est pas tout. L'une des plus grandes réussites de la gravité quantique à boucles concerne la cosmologie. Ainsi, elle permet de dépasser les difficultés posées par la singularité mathématique associée au Big Bang, dont le sens physique est inexistant. Plus précisément, elle montre que notre univers en expansion pourrait résulter du « rebond » d'un univers en contraction qui l'aurait précédé lire « De l'autre côté du Big Bang », p. 46.
Enfin, la gravité quantique à boucles s'est illustrée dans la description de la physique des trous noirs lire « Comment la théorie des boucles voit les trous noirs », p. 44. En effet elle a permis à Carlo Rovelli, dès 1996, de retrouver la formule de l'entropie d'un trou noir. En des termes profanes, l'étrange résultat obtenu au début des années 1970 par Stephen Hawking, à Cambridge, et Jacob Bekenstein, alors à Princeton, selon lequel un trou noir, astre dont la relativité générale indique qu'il est impossible de s'en extraire, émet néanmoins, comme tout corps, un rayonnement thermique lié au fait qu'il possède une température. Et dont le physicien Stephen Hawking avait montré qu'il ne peut s'expliquer qu'en introduisant une dose de mécanique quantique dans la physique de ces astres noirs.

5 Est-il possible de tester la gravité quantique à boucles ?
Sachant que les prédictions de la gravité quantique à boucles concernent des domaines - échelle de Planck de l'espace-temps , Big Bang, trous noirs - totalement inaccessibles à l'expérimentation directe, la réponse est difficile. Et, il y a encore quelques années, d'aucuns auraient assuré que cette théorie, comme du reste toute théorie quantique de la gravitation, ne pourrait jamais être testée. Aujourd'hui, les avis sont partagés. Mais quelques pistes existent.
Ainsi, même s'il n'y a pas consensus sur la question, il n'est pas impossible que la granularité de l'espace prédite par les « boucles » s'accompagne d'une violation du sacro-saint caractère de la vitesse de la lumière. En effet, lorsqu'elle se propage entre les atomes d'un solide, la lumière, si sa longueur d'onde est très grande par rapport à la distance inter-atomique, ne subit pas d'influence du réseau cristallin, comme si elle ne le « voyait » pas. Et sa vitesse est la même que dans le vide. A l'inverse, si sa longueur d'onde est de l'ordre de grandeur de la distance inter-atomique, ou plus petite, elle devient sensible à l'influence du milieu dans lequel elle se propage. Sa vitesse dépend alors de sa longueur d'onde. Il n'est donc pas impossible qu'un photon de très petite longueur d'onde, de l'ordre de la longueur de Planck, puisse voir sa vitesse de propagation dans le vide affectée par la structure quantique de l'espace-temps telle que prédite par la gravité quantique à boucles.
Pour le savoir, les astrophysiciens comptent en particulier sur l'observation de ce qu'ils appellent des sursauts gamma, soit des bouffées de lumière ultra intenses - pendant quelques centaines de secondes, elles sont jusqu'à 10 fois plus lumineuses que toute la galaxie - émis par des galaxies anciennes situées à plusieurs milliards d'années-lumière de la Terre. Ainsi, un décalage constaté dans l'arrivée des photons de différentes longueurs d'onde pourrait être un signe favorable en faveur des boucles.

Autre possibilité : la piste cosmologique. En effet, les calculs montrent que la structure granulaire de l'espace-temps aurait pu imprimer sa marque dans le fond diffus cosmologique, la plus ancienne lumière aujourd'hui observable dans l'Univers. Effets qui pourraient être décelés par les nouveaux télescopes spatiaux. Avec tout de même un bémol : l'impossibilité de prévoir, étant donné l'indétermination qui règne sur certains paramètres de la théorie, si ces modulations dans le fond diffus ne seraient pas plus grandes que l'Univers observable. Auquel cas, même si elles existent, elles resteront à jamais inaccessibles.
Certains « bouclistes » optent enfin pour une approche probabiliste, et se demandent par exemple quelle est la probabilité que la gravité quantique à boucle engendre un Univers compatible avec les propriétés du nôtre. À ce jeu, il sera difficile de vérifier cette théorie.
[1] A. Ashtekar, Phys. Rev. Lett., 57, 2244, 1986.
[2] C. Rovelli et L. Smolin, Nuclear Physics, B331, 80, 1990.
[3] C. Rovelli and L. Smolin, Nuclear Physics, B 442, 593, 1995.
[4] L. Freidel et K. Krasnov, Class. Quant. Grav., 25, 125018, 2008.
[5] J. Engle et al., Nuclear Physics B799, 136, 2008.

LES FONDATEURS DE LA THÉORIE
Abhay Ashtekar, en 1986, alors à l'université de Syracuse, aux États-Unis, propose une reformulation des équations de la relativité générale.
Carlo Rovelli et Lee Smolin, à l'université Yale aux États-Unis, forts de cette reformulation, présentent une nouvelle approche pour quantifier la gravitation : la gravité quantique à boucles.
Lee Smolin et Carlo Rovelli, en 1994, montrent qu'elle conduit à une représentation de l'espace-temps radicalement nouvelle : à très petite échelle, ce dernier possède une structure granulaire.
Thomas Thiemann, en 1996, à l'université de Penn State, en Pensylvanie, établit les premières équations d'évolution d'un Univers quantique.
Laurent Freidel, à l'Institut Perimeter, est l'un de ceux qui ont prouvé ces dernières années le caractère univoque de la théorie.

L'ESSENTIEL
LA GRAVITÉ QUANTIQUE À BOUCLES est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation.
À LA DIFFÉRENCE de sa concurrente principale, la théorie des cordes, elle ne fige pas l'espace-temps, a priori. C'est la matière qui en façonne la géométrie de façon dynamique.
BIEN QUE DIFFICILE À TESTER, cette théorie connaît d'importants succès, en particulier dans le domaine de la cosmologie.
L'AMBITIEUSE THÉORIE DES CORDES
Apparue au début des années 1980, la théorie des cordes consiste à postuler que toutes les particules élémentaires, qui dans le modèle standard sont considérées comme ponctuelles, émanent en réalité des vibrations de minuscules cordes dont la taille avoisine la longueur de Planck 10-35 mètre. Hypothèse suffisante pour engendrer spontanément, du moins en théorie, une particule dont les propriétés sont exactement celles du graviton, particule élémentaire imaginée par les physiciens pour véhiculer la gravitation. Par ailleurs, cette théorie a la faveur de nombreux physiciens car elle offre également un cadre pour unifier l'ensemble des interactions. C'est-à-dire un cadre dans lequel les quatre forces de la nature semblent émerger d'une unique interaction encore plus fondamentale.

 

  DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon