ecole de musique piano
     
menu
 
 
 
 
 
 

LES NEUTRINOS DANS L'UNIVERS

 

 

 

 

 

 

 

LES NEUTRINOS DANS L'UNIVERS

Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies
… Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes.

xte de la 581 e conférence de l'Université de tous les savoirs prononcée le 24 juin
2005
Par Daniel Vignaud: « Les neutrinos dans l'Univers »
Introduction
Notre corps humain contient environ 20 millions de neutrinos issus du big bang et émet chaque seconde quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil et quelques millions d'antineutrinos cm2 par seconde venus de la Terre, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies... Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ?

Inventé par W. Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F. Reines et C. Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir.

En 1938, H. Bethe imaginait que des réactions nucléaires de fusion étaient au cSur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la conception de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre avec certitude que le déficit de neutrinos solaires observé (le célèbre « problème des neutrinos solaires ») était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle.

Nous ferons le point sur cette particule fascinante après les découvertes récentes.


1. Le neutrino, particule élémentaire

Le neutrino est né en 1930 pour répondre à un problème expérimental non résolu. A la fin des années 20, période charnière en physique s'il en est, les physiciens s'interrogent sur une difficulté liée à la désintégration b des noyaux radioactifs. L'énergie de l'électron émis devrait avoir une valeur unique et non la forme d'un spectre étendu comme il est observé. Niels Bohr va alors jusqu'à proposer de manière iconoclaste que l'énergie n'est pas conservée dans un tel processus. En décembre 1930, Wolfgang Pauli, dans une lettre restée célèbre « Chers messieurs et dames radioactifs ... », émet l'hypothèse qu'une particule inconnue emporte une partie de l'énergie pour rétablir l'équilibre. Il n'est pas trop sûr de son idée, pourtant géniale, et il faudra plusieurs mois pour qu'il l'élabore plus officiellement. Le déclic a lieu à Rome à l'automne 1933. Enrico Fermi, qui a baptisé la particule « neutrino » (le petit neutre), l'incorpore à la théorie de l'interaction faible qu'il construit magistralement.
Le neutrino restera longtemps à l'état de particule « virtuelle ». Plusieurs physiciens, et non des moindres comme Hans Bethe, écriront même qu'il est quasiment impossible de le mettre en évidence, tant est faible sa probabilité d'interaction. Il faudra attendre d'avoir des sources de neutrinos suffisamment puissantes.
Le neutrino sera découvert en 1956 par Frederick Reines et Clyde Cowan, auprès du réacteur de Savannah River (Caroline du Sud), après une première tentative en 1953. Il s'agit en réalité de l'antineutrino émis dans la fission de l'uranium. Lorsque cet antineutrino interagit avec un proton de la cible, il émet un positron (antiparticule de l'électron) et un neutron. La détection simultanée de ces deux particules est la signature non ambiguë de l'interaction de l'antineutrino. Ces neutrinos associés avec un électron sont appelés neutrinos électroniques ne.
En 1962 une équipe de physiciens mettra en évidence un deuxième type de neutrinos, le neutrino-muon nm, auprès de l'accélérateur du Brookhaven National Laboratory. Les nm sont issus de la désintégration des mésons p (ou pions) en association avec un muon m, le m étant un lepton plus lourd que l'électron. A la suite de la découverte d'un troisième lepton encore plus lourd, le tau t, en 1978, il était clair qu'il y avait un troisième type de neutrinos associé, le nt. Celui-ci ne sera découvert qu'en 2000.
Combien y a-t-il d'espèces de neutrinos ? La réponse est venue du collisionneur électron-positron du CERN, le LEP, en 1990. En mesurant avec précision la largeur de désintégration du boson Z, proportionnelle au nombre d'espèces, les physiciens ont déterminé qu'il n'y en avait que trois. Ces trois neutrinos et les trois leptons chargés qui leur sont associés sont les briques leptoniques de la matière, soumises à l'interaction faible. Les 6 quarks sont les briques hadroniques de la matière, soumises à l'interaction forte. Ils sont regroupés en trois doublets dont l'association aux 3 doublets leptoniques est fondamentale au modèle standard de la physique des particules. Toutes les particules chargées sont en outre soumises à l'interaction électromagnétique, dont l'intensité est intermédiaire entre la force faible et la force forte. Les neutrinos, sans charge électrique, ne sont soumis qu'à l'interaction faible : ils interagissent environ mille milliards de fois moins que l'électron, qui lui-même interagit environ cent fois moins qu'un proton. Quid de leur masse ? Attendons la suite.

2. L'oscillation des neutrinos

Dans le modèle standard dit « minimal » de la physique des particules, les neutrinos n'ont pas de masse. C'est à priori surprenant car toutes les autres briques de matière (quarks, électrons, muons, ...) en ont une. Les tentatives de mesurer directement cette masse sont restées vaines. Les physiciens les plus ingénieux n'ont pu mettre que des limites supérieures sur leur valeur. Et cette limite supérieure est bien inférieure à la masse des leptons chargés associés. Par exemple celle sur la masse du ne est 1 eV [1] alors que la masse de l'électron est de 511000 eV (et celle du proton un milliard d'eV). Si les mesures directes ne donnent rien pour l'instant, il faut faire appel à la ruse, en l'occurrence une propriété liée à la mécanique quantique.
La mécanique quantique nous dit que les neutrinos que l'on observe, les ne, nm ou nt ne coïncident pas nécessairement avec ce qu'on appelle les états propres de masse mais peuvent en être des superpositions. Si les neutrinos ont une masse, le calcul montre alors que lorsqu'ils se déplacent, ils peuvent se transformer (plus ou moins totalement) d'une espèce dans une autre. Le phénomène est périodique en fonction de la distance L parcourue entre la source et le détecteur et a pris le nom d'oscillation. La longueur d'oscillation est proportionnelle à l'énergie et inversement proportionnelle à la différence des carrés des masses des deux neutrinos considérés. Comme nous avons 3 familles de neutrinos, les paramètres de l'oscillation sont 3 angles de mélange qi et deux différences des carrés des masses Dm2ij. La mise en évidence de l'oscillation serait donc une preuve directe que les neutrinos sont massifs.
Si nous voulons illustrer de manière simple le mécanisme d'oscillation et ses conséquences, donnons une couleur à chaque espèce de neutrinos, par exemple bleu pour le ne, rouge pour le nm et vert pour le nt. Supposons une source de neutrinos bleus et un détecteur de neutrinos sensible uniquement aux neutrinos rouges. Si le détecteur ne compte rien, c'est qu'il n'y a pas eu d'oscillation ; si le détecteur compte toujours du rouge, c'est que l'oscillation est maximale ; si le détecteur compte parfois du rouge c'est que le mélange est partiel.
La question de la masse des neutrinos est fondamentale pour ouvrir la porte du modèle standard vers de nouvelles théories plus complètes. Comme nous allons le voir, le mécanisme d'oscillation va prouver non seulement que les neutrinos ont une masse, mais également qu'il est la clé de plusieurs énigmes astrophysiques.

3. Les neutrinos solaires

Depuis les années 20, on pressent que la source d'énergie du Soleil (et des étoiles) est d'origine nucléaire. Les neutrinos nous en ont apporté la preuve directe, à la suite de quarante années excitantes d'échanges passionnés entre les astrophysiciens qui construisent des modèles du Soleil, les expérimentateurs qui inventent et mettent en Suvre des détecteurs de plus en plus gros et de plus en plus sensibles, les théoriciens qui affinent notre compréhension du comportement des neutrinos.
Le Soleil est une gigantesque boule de gaz, essentiellement de l'hydrogène et de l'hélium. Au centre, la température est suffisamment élevée (15 millions de degrés) pour initier des réactions nucléaires de fusion entre deux protons (deux noyaux d'hydrogène). Cette fusion produit un noyau de deutérium, un positron et un ne. Il s'ensuit un cycle compliqué de réactions nucléaires où l'hydrogène va se transformer en hélium en libérant une minuscule quantité d'énergie (10-12W). Lorsque l'on connaît l'énergie produite par le Soleil (1360 W par m2 sur Terre), on calcule que l'on est bombardé en permanence par 65 milliards de neutrinos solaires par cm2 par seconde.
L'histoire commence en 1964 par des discussions entre deux scientifiques que rien ne destinait à collaborer. L'astrophysicien John Bahcall fait les premiers calculs du flux et du spectre en énergie des neutrinos solaires. Raymond Davis, un chimiste, reprend une de ses idées antérieures de détecter les ne avec du chlore grâce à la réaction ne + 37Cl ® e- + 37Ar qui fait intervenir un des isotopes du chlore. Cette méthode radiochimique nécessite de construire un détecteur contenant 600 tonnes de tétrachlorure de carbone C2Cl4, de le placer profondément sous terre dans la mine d'or de Homestake (Dakota du Sud), d'extraire régulièrement les atomes d'argon radioactif (37Ar) et de compter leur désintégration, témoignage direct du passage des neutrinos solaires. L'expérience est difficile car malgré le flux important de neutrinos qui traverse le détecteur, un par jour seulement transmute le chlore en argon. Les premiers résultats, en 1968, montreront que Davis compte trois fois moins d'argon que prévu. C'est le début de ce que l'on a appelé le problème ou l'énigme des neutrinos solaires.
Les astrophysiciens ont raffiné leurs modèles ; plusieurs équipes, dont des françaises, ont brillamment contribué à mieux connaître le fonctionnement du Soleil. L'expérience chlore a continué pendant 30 ans, perfectionnant sa méthode, traquant les inefficacités. D'autres expériences se sont construites : Kamiokande au Japon, à partir de 1986 avec 3000 tonnes d'eau ; les expériences gallium (GALLEX au laboratoire souterrain du Gran Sasso, Italie, et SAGE au laboratoire souterrain de Baksan, Caucase), à partir de 1990 rassemblant près de 100 tonnes de ce précieux métal ; SuperKamiokande au Japon à partir de 1996 et ses 50000 tonnes d'eau. Rien à faire : le flux mesuré est toujours resté inférieur au flux calculé, après toutes les vérifications expérimentales et les progrès théoriques.
Parallèlement, les physiciens des particules, dans leur tentative d'inclure les neutrinos dans leur modèle standard, étudiaient sérieusement cette possibilité que les neutrinos puissent osciller d'une espèce dans une autre. Ils mettaient en évidence un effet nouveau d'amplification possible de l'oscillation dans la matière du Soleil. A la fin des années 90, il était séduisant de penser que les neutrinos solaires n'avaient pas disparu, mais que les ne s'étaient transformés en nm ou nt (hypothèse confortée par la mise en évidence de l'oscillation des nm atmosphériques en 1998 comme nous le verrons dans le chapitre suivant). En effet, tous les détecteurs n'étaient sensibles qu'à ces ne et pas aux nm ou nt. Mais il manquait la preuve ! C'est alors que le détecteur SNO (Sudbury Neutrino Observatory) entre en scène. Utilisant une cible de 2000 tonnes d'eau lourde placée à 2000 m sous terre dans une mine de nickel au Canada, SNO a pu observer non seulement les interactions des ne (ne d ® e- p p) en mesurant l'électron, mais également les interactions de toutes les espèces (n d ® n p n) en mesurant le neutron. En juin 2001, les physiciens de SNO ont pu annoncer que les ne n'avaient pas vraiment disparu, mais qu'ils s'étaient transformés par le mécanisme d'oscillation. Ils montraient également que le flux total de neutrinos solaires était bien égal à celui calculé par les modèles. Ils continuent d'affiner leurs mesures, mais l'essentiel est là, fabuleux épilogue d'une belle histoire scientifique. Nous savons aujourd'hui que les neutrinos solaires se transforment en grande partie (mais pas totalement) en nm ou nt, sans savoir dans quel type en particulier.

4. Les neutrinos atmosphériques.

L'atmosphère est bombardée en permanence par le rayonnement cosmique, constitué pour l'essentiel de protons ou de noyaux plus lourds. Lorsque ces particules arrivent dans les hautes couches de l'atmosphère, elles interagissent avec l'air en produisant des pions. Ceux-ci vont se désintégrer en émettant un muon m et un neutrino nm. Après un parcours variable, le muon lui-même se désintègre en un électron, un antineutrino électronique et un nm. Un bilan rapide donne au niveau du sol deux fois plus de nm que de ne si on oublie la distinction particule-antiparticule, sans importance au premier ordre. Des modèles phénoménologiques calculent toutes les caractéristiques des neutrinos (nature, énergie, direction,...) avec la précision requise.
La mesure des neutrinos atmosphériques est intéressante en soi, mais n'était pas prioritaire pour les physiciens, car la source de ces neutrinos n'a que peu d'intérêt astrophysique. Ils y sont venus lorsqu'ils ont construit au début des années 80 des détecteurs pour observer la désintégration du proton, processus fondamental prédit par les théories de grande unification (fort heureusement avec une durée de vie supérieure à 1032 ans qui nous laisse le temps d'y penser). En effet, les interactions des neutrinos atmosphériques dans le détecteur constituaient un bruit de fond incontournable pour le signal attendu pour la mort du proton.
Le proton s'accrochant à la vie plus que prévu, les physiciens se sont concentrés sur les neutrinos atmosphériques, en essayant de comptabiliser séparément les ne des nm. Les premières expériences (Fréjus au laboratoire souterrain de Modane, Kamiokande au Japon, IMB dans l'Ohio) donnaient des résultats contradictoires. Avec quelques poignées d'événements, certaines observaient un rapport entre les deux types de neutrinos conforme aux prédictions, d'autres observaient un peu moins de nm que prévu. La difficulté de séparer les interactions des deux types de neutrinos (un électron dans un cas, un muon dans l'autre) et la faible statistique rendaient la communauté sceptique.
SuperKamiokande, dont nous avons déjà parlé pour les neutrinos solaires, arrive au printemps 1996. 50000 tonnes d'eau ultra-pure sont observées par plus de 10000 photomultiplicateurs, comme autant d'yeux. Ceux-ci sont sensibles à la lumière Tcherenkov émise dans l'ultra-violet par le passage des particules chargées. L'électron et le muon ont un comportement légèrement différent. Le muon produit un bel anneau de lumière, l'électron un anneau plus flou, plus large. En deux ans, la collaboration SuperKamiokande accumule plusieurs milliers d'interactions de neutrinos et raffine la séparation des deux types. En juin 1998, elle annonce qu'il y a bien un déficit de nm mais que les ne sont au rendez-vous avec le nombre attendu. Elle précise que le déficit de nm est associé à ceux venus des antipodes, c'est-à-dire ceux qui ont traversé la terre en parcourant une distance de plusieurs milliers de km. Comme nous avons appris que l'oscillation dépendait de la distance parcourue, l'interprétation en termes d'oscillation s'imposait naturellement. Depuis, tous les artefacts ont été traqués, les données se sont accumulées, et nous avons maintenant la certitude que non seulement les nm oscillent, mais qu'ils se transforment intégralement en nt.

5. Les neutrinos de supernova

Nous avons vu que les neutrinos étaient les témoins directs de la vie du Soleil : 8 minutes après avoir été produits au cSur de l'étoile, ces messagers nous informent que l'astre qui conditionne la vie sur Terre est en parfaite santé ; il est en plein âge mûr et a encore plus de 4 milliards d'années devant lui. Mais les neutrinos peuvent être également les messagers de la mort des étoiles lorsqu'elles explosent à la fin de leur vie, phénomène que l'on appelle supernova.
Le Grand Nuage de Magellan est une petite galaxie voisine de la Voie Lactée, notre Galaxie, à 150000 années-lumière, visible depuis l'hémisphère sud. A la fin de février 1987, un événement astronomique n'est pas passé inaperçu : nous avons reçu sur Terre le faire-part de décès d'une étoile de ce Nuage, Sanduleak -69°202, il y a justement 150000 ans. Et le message a été transmis par la lumière ... et par les neutrinos.
Dans la nuit du 23 au 24 février 1987, à l'observatoire chilien de Las Campanas, un astronome canadien et son assistant chilien observent par hasard une nouvelle étoile brillante dans le Grand Nuage de Magellan, une étoile qui va être visible pendant quelques dizaines de jour sans télescope. C'est la première supernova de l'année 1987 et elle sera baptisée SN1987A. Il y a des siècles qu'une supernova n'a pas été observée à l'Sil nu. Assez proche de la Terre (tout est relatif), elle n'intéresse pas que les astronomes. Depuis les années 40, on sait que les explosions de certaines supernovas sont des sources de neutrinos. Il devient urgent de le vérifier. Par chance, il y a deux ou trois détecteurs de neutrinos en fonctionnement, en particulier celui de Kamiokande au Japon, qui vient d'entrer en service il y a quelques semaines. Dès l'annonce du télégramme, les japonais se précipitent sur les données accumulées dans les dernières heures. Bienheureuse surprise lorsqu'ils découvrent que, le 23 février à 7h35 en temps universel, une dizaine de signaux caractéristiques se détachent du ronronnement du détecteur (qu'ils appellent le bruit de fond). Le phénomène a duré une poignée de secondes. Une dizaine de neutrinos voyageant depuis 150000 ans se sont laissés piéger par le détecteur souterrain. Mission accomplie pour ces témoins directs de la mort d'une étoile.
Les étoiles ne peuvent vivre qu'en consommant des quantités considérables de carburant. Plus elles sont massives, plus elles en consomment et moins elles vivent longtemps : le carburant s'épuise plus vite car la température centrale de l'étoile est plus élevée. L'histoire commence toujours par la transformation de l'hydrogène en hélium, comme dans le Soleil. Mais ensuite le cycle de réactions nucléaires fait intervenir le carbone, l'oxygène, le néon, puis le silicium, et enfin le fer, le noyau le plus stable. La structure de l'étoile est alors comparable à celle d'un oignon, avec les éléments les plus lourds au centre. Lorsque le cSur de fer a atteint une masse de 1,4 fois celle du Soleil, appelée masse de Chandrasekhar, il s'effondre violemment sur lui-même. La température monte brutalement, mais aucune réaction nucléaire ne peut plus avoir lieu car il n'y a plus de combustible approprié. La densité devient extrême. Les nombreux photons vont alors provoquer la photodésintégration du fer qui va retourner à l'état initial de protons et de neutrons. C'est alors que les électrons se font capturer par les protons dans une réaction (e- p ® n ne) qui est source de neutrinos, les premiers témoins de la mort de l'étoile. Des réactions d'annihilation entre les électrons et les positrons produisent des paires neutrino-antineutrino et ces malheureux restent quelques instants prisonniers tellement la densité est élevée. Soudain, alors que la partie centrale du cSur ne fait plus qu'une vingtaine de km de diamètre, elle se durcit brutalement et provoque le rebond des couches externes, qui tombent en chute libre, créant une formidable onde de choc. L'implosion, jusque là cachée aux yeux extérieurs se transforme en une gigantesque déflagration dévastatrice qui va se propager à travers les pelures de l'oignon. Les couches externes sont alors balayées vers l'extérieur. Au moment de l'explosion, l'étoile qui meurt devient brillante comme mille soleils et les neutrinos libérés se propagent dans tout l'espace.

Dans la réalité, les choses sont un peu plus complexes et les physiciens qui modélisent n'ont pas réussi à faire exploser l'étoile : l'énergie rejetée violemment vers l'extérieur ne serait pas suffisante pour traverser toutes les couches externes qui n'arrêtent pas de tomber vers le centre. Et pourtant l'étoile explose puisqu'on en voit le feu d'artifice. Les physiciens ont alors pensé que les neutrinos pourraient jouer un rôle dans cette explosion en venant à la rescousse de la déflagration. La situation s'améliore, mais l'explosion n'est pas assurée. S'il y a encore du travail, on pense aujourd'hui que les neutrinos sont bien des acteurs indispensables à l'explosion.
Une grande partie de l'énergie gravitationnelle de l'étoile se transforme en neutrinos de toutes les espèces et le nombre produit lors de l'explosion est fabuleux. Environ 1058 de ces particules ont été émises dans toutes les directions. 500 millions de milliards ont traversé le détecteur Kamiokande en moins de 10 secondes et une dizaine a laissé un signal.
Depuis 1987, d'autres détecteurs plus gros, plus performants ont été construits ou sont en projet. La veille est longue. La Nature ne nous a pas encore récompensé d'une nouvelle explosion. Mais nous sommes sûrs que les neutrinos messagers de la mort des étoiles sont déjà en route vers nous. A quand le prochain signal ? Dans un jour, dans un an ou dans dix ans ? Sachons être patients.

6. Les neutrinos extragalactiques

L'Univers est le siège de phénomènes particulièrement violents. Nous venons d'en voir un exemple avec les supernovas, mais il existe des astres dont la violence est permanente. Et si là encore les neutrinos pouvaient compléter les informations que nous donne la lumière reçue dans les télescopes, des ondes radio aux photons gamma en passant par la lumière visible.
Parmi les sources de lumière particulièrement intenses se trouvent les quasars. Il s'agit de trous noirs très massifs, en général au cSur d'une galaxie (on les appelle aussi noyaux actifs de galaxie), qui brillent à eux tout seuls beaucoup plus que le reste de la galaxie. Le trou noir attire la matière avant de l'engloutir, ce qui fournit une fabuleuse source d'énergie gravitationnelle (un ogre comme 3C273, à plus d'un milliard d'années-lumière de nous, se nourrit chaque année de l'équivalent de plusieurs soleils). Cette matière a la forme d'un disque, appelé disque d'accrétion. Perpendiculairement à ce disque, deux puissants jets de particules relativistes sont émis à des distances de plusieurs centaines de milliers d'années-lumière. Dans ces jets, il y a bien sûr des électrons, qui émettent en particulier des rayons gamma très énergiques, du keV au TeV, que l'on observe tous les jours avec les satellites comme INTEGRAL ou les détecteurs au sol comme HESS, en Namibie. Mais il y a aussi probablement des protons. Et ces protons, dans leurs interactions avec la matière environnante, vont produire des pions (rappelons nous les neutrinos atmosphériques) qui vont se désintégrer en gammas s'ils sont neutres ou en muons et neutrinos s'ils sont chargés. Pour nous aider à comprendre le fonctionnement de ces quasars ou d'autres objets astrophysiques comme les pulsars binaires ou les sursauts gamma, il est important de mesurer le flux de neutrinos qu'ils émettent.

Les neutrinos offrent bien des avantages : comme ils interagissent très faiblement, ils peuvent traverser des quantités importantes de matière alors que même les gammas peuvent être absorbés sur des distances cosmologiques ; comme ils n'ont pas de charge, ils ne sont pas déviés par les champs magnétiques galactiques ou intergalactique des régions traversées. Mais il n'y a pas que des avantages. L'inconvénient majeur est bien sûr leur minuscule probabilité d'interaction, même si celle-ci augmente proportionnellement à leur énergie. En outre, les flux prédits par les modèles, si importants soient-ils, sont des milliards de fois inférieurs à celui des neutrinos solaires. La tâche est herculéenne.
Depuis une trentaine d'années, des projets de détecter ces neutrinos venus de l'enfer des quasars ou des sursauts gamma sont à l'étude. Depuis une dizaine d'années, plusieurs sont en construction, que ce soit dans la glace du pôle sud (AMANDA) ou au fond de la Méditerranée (ANTARES). Le principe est toujours le même. Il faut s'affranchir des bruits de fond parasites en s'installant à quelques milliers de mètres de profondeur. Mais même à 2 ou 3 mille mètres, les neutrinos atmosphériques sont le signal dominant (de la même façon qu'on ne voit pas les étoiles durant le jour car la lumière du Soleil est beaucoup plus forte). L'astuce consiste à observer les neutrinos venus des antipodes et qui ont traversé la Terre, utilisée comme filtre au rayonnement parasite. AMANDA observe ainsi l'hémisphère nord du ciel et ANTARES plutôt l'hémisphère sud. Les prédictions, malgré leurs incertitudes, annoncent toutes que ces détecteurs doivent avoir des tailles gigantesques, de l'ordre du km3. Les neutrinos interagissent dans l'eau, la glace ou la roche au voisinage ou à l'intérieur du détecteur ; ils émettent alors un muon (s'il s'agit d'un nm, ou un électron s'il s'agit d'un ne) qui va parcourir plusieurs dizaines ou centaines de mètres à une énergie de plusieurs TeV (1015 eV). Ce muon garde la mémoire de la direction du neutrino incident à ces énergies élevées. Il émet du rayonnement Tcherenkov (cf. SuperKamiokande) observé par des centaines de photomultiplicateurs déployés sur des lignes verticales au fond de la mer ou de la glace.
AMANDA a montré que son détecteur fonctionnait bien, malgré les difficultés de l'implantation au pôle sud ; les physiciens déploient aujourd'hui ICECUBE, au rythme des courts étés antarctiques. ANTARES, une douzaine de lignes de photomultiplicateurs en cours d'installation au large de Toulon, servira de prototype pour un grand projet européen de détecteur kilométrique au fond de la Méditerranée. Au-delà de ces détecteurs pionniers, qui nous réserveront certainement des surprises, comme toujours avec les neutrinos, les physiciens imaginent d'utiliser la radio ou les ondes sonores pour détecter les neutrinos les plus énergiques venus des tréfonds de l'Univers.

7. Les neutrinos du big bang

Nous nous sommes éloignés de notre planète en observant « notre étoile », le Soleil, nous avons franchi les frontières de la galaxie, nous avons remonté l'espace (et le temps) dans le monde extragalactique et les neutrinos sont toujours là. Poursuivons notre voyage vers les origines, le fameux big bang. Les neutrinos y jouent-ils un rôle ?

L'histoire thermique de l'Univers présent commence il y a environ 13 milliards d'années par ce qu'on appelle aujourd'hui le big bang. Son origine reste aujourd'hui encore très spéculative car les lois de la physique ne s'appliquent plus vraiment dans les conditions de température et de densité extrêmes de la singularité initiale. Il y a probablement eu très tôt (vers 10-43 s) une période d'inflation (brusque augmentation de l'espace en quelques 10-40 s), suivie d'une période continue de refroidissement et d'expansion.
Lorsque le temps s'écoule, le fluide cosmique (appelé encore la soupe primordiale) se refroidit en raison de l'expansion et la température diminue très rapidement. Les forces qui régissent le comportement de la matière vont se singulariser l'une après l'autre, en commençant par l'interaction gravitationnelle, bientôt suivie par l'interaction forte. La soupe contient alors des quarks et des leptons. Il y a en particulier des électrons, des photons, et les trois espèces de neutrinos, qui s'annihilent joyeusement avec leurs antiparticules, en se transformant les uns dans les autres. Bien vite cependant l'interaction faible devient beaucoup plus faible que l'interaction électromagnétique et les neutrinos s'annihilent beaucoup moins souvent. Il y a aussi dans la soupe quelques quarks qui vont commencer à former les premiers protons et les premiers neutrons. Lorsque l'Univers continue de refroidir, les neutrinos deviennent si dilués qu'ils ne peuvent plus s'annihiler. Il ne s'est passé qu'une seconde depuis l'explosion primordiale (ou ce qu'on qualifie comme tel), la température est de 10 milliards de degrés et nous voilà en présence des premiers fossiles connus de l'Univers, condamnés à errer à jamais dans l'espace : les neutrinos du big bang. L'histoire continue et le refroidissement se poursuit inexorablement. Le découplage des photons correspond au moment où les électrons se combinent aux premiers noyaux (principalement au plus simple d'entre eux, le proton) pour former les atomes, électriquement neutres. L'Univers est alors âgé de 1 million d'années et la température est de 3000 K. Les photons fossiles vont continuer de se refroidir jusqu'à atteindre la valeur de 3K, température à laquelle ils ont été découverts par Penzias et Wilson en 1965. Les neutrinos eux se sont refroidis un peu plus ; leur température est de 2K, correspondant à une énergie de l'ordre du milli-électron-volt (meV).

Des quantités fabuleuses de neutrinos ont été produites, puisqu'on estime aujourd'hui leur nombre à 300 par cm3 dans tout l'Univers, toutes espèces confondues. Malheureusement, nous n'avons pas réussi à les observer et leur détection est extrêmement difficile, en particulier en raison de leur énergie ridiculement faible. Une telle quantité de neutrinos ne peut laisser indifférent. Ils pourraient être une contribution importante de la matière noire de l'Univers. Las ! Leur masse est trop faible (voir chapitre suivant) pour qu'ils puissent jouer un rôle important à cet égard. On estime aujourd'hui leur contribution quelques pour mille de la densité critique[2], ce qui est malgré tout autant que la masse visible de toutes les étoiles et galaxies. Mais leur rôle en cosmologie n'est pas limité pour autant. Ils interviennent tout d'abord dans la formation des structures de l'Univers, galaxies et amas de galaxies. L'effet est le suivant : tant que les neutrinos sont relativistes (et cette notion dépend de leur masse), ils voyagent librement des régions denses vers les régions moins denses et vont donc contribuer plus ou moins rapidement à la densité locale, définissant des échelles de structures plus ou moins grandes. L'analyse de ce qu'on appelle les grandes structures, avec des sondages profonds de l'Univers, permet aujourd'hui de contraindre la masse des neutrinos à moins de 0,5 eV, mieux que les mesures directes. Ensuite, les neutrinos, en particulier les ne sont indispensables à la nucléosynthèse primordiale ; ils sont nécessaires pour transformer les neutrons en protons et vice-versa à l'aide de plusieurs réactions : ne n « p e- ; p « n e+ ; n ® p e- . Sans ces réactions, nous resterions paralysés par le nombre de protons et de neutrons présents à l'origine, et nous n'aurions pas eu ce formidable réservoir d'hydrogène qui est la source d'énergie de départ de toutes les étoiles qui veulent vivre longtemps. La mesure de l'hélium primordial dans l'Univers a ainsi permis de contraindre le nombre de familles de neutrinos à une valeur de 3, la même que les expériences auprès du LEP.

8. En guise de conclusion.

Les neutrinos sont au cSur d'un processus dialectique fécond entre la physique des particules, l'astrophysique et la cosmologie, entre la théorie et l'expérience. Les progrès considérables de ces dernières années dans notre compréhension des neutrinos sont dûs principalement à l'observation de phénomènes astrophysiques où ils jouent un rôle-clé ; en retour, ils ont solutionné quelques vieilles énigmes. Quel bilan peut-on tirer ? Que nous réserve l'avenir ?
L'analyse simultanée des résultats des expériences de neutrinos solaires et de neutrinos atmosphériques (complétée avec les expériences auprès des réacteurs nucléaires comme Chooz ou KamLAND) donne accès aux paramètres de l'oscillation entre les trois espèces de neutrinos. Concernant la masse, les deux paramètres sont des différences de masses au carré Dm2, et pas la valeur absolue, et on obtient 2,3 10-3 eV2 et 8 10-5 eV2. On peut illustrer la petitesse des masses de neutrino correspondantes à l'aide de quelques hypothèses, et notamment celle d'une hiérarchie des masses de neutrinos analogue à celle des leptons chargés. On estime alors la masse du neutrino le plus lourd, le nt, à 0,05 eV, soit 10 millions de fois plus petite que celle de l'électron ; celle du nm à 0,008 eV, celle du ne encore moins. Cette même analyse nous informe également sur les angles de mélange. Elle dit : a) l'oscillation à la fréquence déterminée par les neutrinos atmosphériques (fonction de leur énergie et la longueur parcourue) est maximale et le nm se transforme intégralement en nt ; l'oscillation à la fréquence déterminée par les neutrinos solaires est grande mais pas maximale et le ne se transforme assez souvent en nm ou nt ; c) le troisième angle de mélange est encore inconnu et l'expérience auprès du réacteur de Chooz a permis de mettre une limite supérieure. Une nouvelle collaboration internationale, Double Chooz, se met en place pour traquer ce dernier paramètre, simultanément avec des expériences auprès des accélérateurs.

Il est une propriété des neutrinos dont nous n'avons pas parlé. Le neutrino pourrait être sa propre antiparticule ? Pour étudier cette possibilité, passionnante sur le plan théorique, des expériences dites de « double désintégration b sans émission de neutrinos » se construisent à travers le monde. Une belle expérience, NEMO3, fonctionne actuellement dans le laboratoire souterrain de Modane à la recherche de ces trop rares événements. En cas de découverte, le résultat donnerait simultanément une information précieuse sur la masse des ne.

En résumé, nous pouvons dire que les neutrinos sont des messagers incontournables de phénomènes fondamentaux dans l'Univers. Au-delà de sa masse, qu'avons-nous appris ? Tout d'abord le Soleil fonctionne comme prévu, sa source d'énergie étant la réaction nucléaire de fusion entre deux protons. Ensuite la mort des étoiles massives en supernova émet des quantités phénoménales de neutrinos, et ils sont probablement acteurs de l'explosion. Les neutrinos sont les plus vieux fossiles de l'Univers, mais contribuent marginalement à la matière noire. L'astronomie neutrino à haute énergie, prometteuse, en est encore à ses balbutiements.
Les neutrinos nous ont gâtés ces dernières années. Ils nous réservent encore bien des surprises. Il suffit d'être curieux et ... patient.



[1] Les physiciens expriment l'énergie en électronvolts (eV), un électronvolt valant 1,6 10-19 joule. La masse est exprimée en eV/c2 et souvent par simplification en eV lorsque l'on prend la convention c=1. Une masse de 1 eV correspond à environ 10-33 g.
[2] La densité de l'Univers s'exprime en fonction de la densité critique. Si la densité est inférieure, l'Univers est ouvert ; si elle est supérieure, il est fermé et son volume est fini. Les mesures des paramètres cosmologiques laissent à penser aujourd'hui que la densité de l'Univers est exactement égale à la densité critique.

 

   VIDEO     canal U       LIEN  

 
 
 
 

1 - La gravité quantique à boucles en 5 questions

 

 

 

 

 

 

 

1 - La gravité quantique à boucles en 5 questions

Bernard Romney dans mensuel 458
daté décembre 2011 -

En quelques années, la théorie de la gravité quantique à boucles, qui cherche à quantifier la gravitation, a changé de statut et gagné une certaine maturité. Quels sont les fondements de cette théorie ?

F in mai 2011, Madrid accueille une communauté particulière de physiciens : tous les spécialistes de la « gravité quantique à boucles » s'y réunissent pour célébrer les 25 ans de l'article fondateur de cette théorie. Dans son allocution, l'auteur de cette publication, le physicien d'origine indienne Abhay Ashtekar, dépeint l'essor actuel de cette approche théorique, notamment en cosmologie. On est donc loin de la théorie longtemps considérée comme exotique, n'intéressant que quelques théoriciens travaillant à une reformulation mathématique de la loi de la gravitation.
Aujourd'hui, ce modèle de quantification de l'espace-temps est cohérent et a acquis une nouvelle assise. Tout tourne autour de l'idée que l'espace n'est plus continu mais formé de petits grains élémentaires. Bien sûr, cette théorie, très difficile à tester, est encore spéculative. Mais décrire la structure intime de l'espace-temps, comme passer « de l'autre coté du Big Bang » motive toute cette communauté de physiciens. « Les boucles » ont passé un cap : c'est donc l'occasion d'en expliquer les fondements.

1 Quels sont les objectifs de cette théorie ?
Imaginée à partir du milieu des années 1980, la gravité quantique à boucles est une théorie qui, comme son nom l'indique, cherche à quantifier la gravité, et tente ainsi de répondre à l'une des questions clés de la physique actuelle. En effet, le début du XXe siècle a vu l'émergence des deux théories de la physique contemporaine. La mécanique quantique qui décrit les propriétés de l'infiniment petit : molécules, atomes, particules élémentaires... Et la relativité générale, théorie relativiste de la gravitation, qui décrit l'Univers à grande échelle. Dans leurs domaines respectifs, ces deux théories font des merveilles. Pour autant, elles sont totalement incompatibles, et conduisent à deux représentations du monde radicalement différentes. D'un côté, des phénomènes quantiques aléatoires, incertains et discontinus, ayant cours dans l'espace-temps parfaitement plat et figé de la microphysique. De l'autre l'espace-temps courbe et dynamique, mais parfaitement lisse et continu de la relativité générale.
Exigence conceptuelle donc, mais pas seulement. En effet, si elles sont peu nombreuses, certaines questions, comme le début de l'Univers ou la fin de vie d'un trou noir, requièrent, pour être abordées dans leur intégralité, une théorie à même de rendre compte de situations où les effets gravitationnels se font sentir à l'échelle microscopique. Ce dont seule une théorie quantique de la gravitation serait capable.
Dès 1916, Einstein prend conscience de la nécessité de quantifier la gravitation. Mais les physiciens y sont d'abord parvenus pour les autres interactions fondamentales : la force électromagnétique et les interactions nucléaires faible et forte. C'est d'ailleurs l'un des triomphes de la physique du siècle dernier d'avoir forgé une théorie à la fois quantique et relativiste de ces trois dernières interactions. Et le résultat de ce tour de force est synthétisé dans ce que les physiciens des particules appellent le modèle standard.
À l'inverse, malgré un siècle d'efforts, personne n'a réussi à proposer une version quantique entièrement satisfaisante de la gravitation. Et pour cause : alors que les outils mathématiques utilisés pour quantifier les autres forces fondamentales ne sont utilisables que dans le cadre d'un espace-temps plat, celui de la gravitation est fondamentalement mouvant.
Pour contourner le problème, plusieurs tentatives ont consisté à étudier le cas de petites déformations de l'espace-temps sur une trame considérée comme plate et fixe. Mais toutes se sont confrontées à d'incontournables incohérences mathématiques les rendant in fine inutilisables.
Aujourd'hui, il existe essentiellement deux grandes théories concurrentes, et à ce stade encore spéculatives, qui proposent de quantifier la gravitation : la théorie des cordes lire L'ambitieuse théorie des cordes, p. 41 et la gravité quantique à boucles. La première évolue sur un espace-temps parfaitement figé. Et c'est ce qu'un certain nombre de théoriciens lui reprochent. Selon eux, pour cette raison, la théorie des cordes ne peut pas être l'ultime théorie quantique de la gravitation. Et ils lui préfèrent la gravité quantique à boucles, a priori plus modeste. N'ayant pas pour ambition d'unifier toutes les interactions, elle se concentre en effet exclusivement sur la quantification de la gravitation. De plus, l'approche « cordiste » part d'une hypothèse ad hoc - l'existence des cordes -, alors que les « bouclistes », et c'est leur force, ne se fondent que sur de la physique connue : la mécanique quantique et la relativité générale.

2 Comment les boucles quantifient-elles la gravitation ?
Pour les spécialistes des boucles, une véritable théorie quantique de la gravitation ne doit formuler aucune hypothèse sur la géométrie de l'espace-temps. Comme en relativité générale, c'est le contenu en matière de l'Univers qui fixe de façon dynamique sa géométrie. Les physiciens parlent ainsi d'approche « indépendante du fond ».
À partir de là, il s'agit d'appliquer les techniques standard de quantification à la gravitation. C'est-à-dire à l'espace-temps lui-même, puisque selon les équations d'Einstein, la force qui fait « tomber les pommes » est une manifestation directe de la déformation que la matière imprime à la trame de l'espace-temps.
Certes, de multiples tentatives ont montré toute la difficulté d'appliquer un tel programme. Mais pour les promoteurs de la gravité quantique à boucles, c'est justement le fait d'avoir privilégié des approches non indépendantes du fond qui a été à l'origine des échecs passés. Car en figeant la trame de l'espace-temps, elles empêchaient que ne se révèle son éventuelle structure quantique.
Concrètement, l'origine de la gravité quantique à boucles réside dans une reformulation de la relativité générale proposée en 1986 par Abhay Ashtekar, alors à l'université de Syracuse, aux États-Unis [1] . L'exercice est d'une extrême technicité mathématique. Sauf que réécrites sous cette forme, les équations décrivant la géométrie mouvante de l'espace-temps ressemblent désormais à celles qui décrivent les lignes de champ électrique dans la théorie de Maxwell. Ce que remarquent Carlo Rovelli et Lee Smolin, alors à l'université Yale aux États-Unis, au tournant des années 1980 et 1990 [2] .
Les deux physiciens suggèrent d'exporter les méthodes utilisées pour dériver la version quantique de l'électromagnétisme, quoique sous une forme très largement remaniée, dans le champ de la relativité générale et de la gravitation. Ainsi naît une théorie quantique de la gravité, dont le nom, gravité quantique à boucles, vient du fait qu'elle s'appuie sur le calcul de la variation de l'orientation de surfaces d'espace le long de lignes fermées d'espace-temps, autrement dit des boucles. Calculs auxquels sont associées des incertitudes fondamentales équivalentes à celles qui, en mécanique quantique, empêchent de déterminer simultanément la position et la vitesse d'une particule microscopique.

3 À quelle vision de l'espace-temps conduit la gravité quantique à boucles ?
En 1994, Carlo Rovelli et Lee Smolin, alors aux universités de Pittsburgh et de Syracuse, montrent que cette théorie conduit à une représentation de l'espace-temps radicalement nouvelle [3] . Alors que l'espace-temps de la théorie d'Einstein est lisse à toutes les échelles, celui de la gravité quantique à boucles, d'après les calculs des deux théoriciens, présente une structure discontinue si on le regarde aux échelles les plus petites.
Ainsi, de la même manière que l'énergie d'un atome ou d'une molécule ne peut prendre que certaines valeurs, la gravité quantique à boucles indique que l'espace lui-même n'est pas insécable à l'infini. Les calculs conduisent à une longueur élémentaire, la plus petite possible, équivalente à la longueur de Planck, soit 10-35 mètre. Ce qui mène à une surface élémentaire d'Univers de 10-70 mètre carré, et en trois dimensions à un volume élémentaire, le plus petit « cube » d'espace envisageable, de 10-105 mètre cube. L'Univers entier devenant alors une sorte de gigantesque « lego » composé de volumes élémentaires certes minuscules, mais insécables. De la même manière que la matière, d'apparence lisse et continue à notre échelle, résulte de l'agencement de particules dont la taille est finie.
Étonnant ? Peut-être. Si ce n'est que ces « grains » d'espace n'ont rien d' ad hoc , mais sont au contraire une conséquence implacable des calculs à base de boucles. Plus précisément, chaque fois que les équations de la théorie parcourent une boucle de façon abstraite, elles engendrent du même coup un nouveau quantum de volume [fig. 1] .
L'année suivante, Carlo Rovelli et Lee Smolin raffinent leur approche. Plus précisément, ils réalisent que la structure granulaire de l'espace peut être décrite par une gigantesque toile, ou réseau, dont chaque noeud représente un volume élémentaire et chaque lien la surface séparant deux volumes adjacents. Cette représentation leur a été inspirée par des travaux réalisés quinze ans plus tôt par Roger Penrose, à l'université d'Oxford. Et c'est donc auprès du célèbre mathématicien que les deux théoriciens peaufinent leurs idées durant l'été 1994, lors d'un séjour à Vérone, en Italie.
Pour autant, cet espace-temps granulaire ne suffit pas à faire alors de la théorie quantique à boucles une théorie quantique de la gravité. Encore faut-il qu'elle indique comment la dynamique de l'espace-temps met en oeuvre ces quanta d'espace dans des situations physiques concrètes, de la même manière que la relativité générale décrit l'extension de l'Univers dans l'espace-temps comme une solution des équations d'Einstein.
Les premières équations d'évolution d'un Univers quantique sont le fait de Thomas Thiemann, alors à l'université de Penn State, en Pensylvanie, en 1996. Accueillies avec un immense enthousiasme, elles laissent entrevoir la possibilité de calculer les probabilités quantiques précises de chaque modification de l'espace-temps quantifiée. Elles conduisent aussi à se représenter ce dernier telle une « mousse » faite de petits volumes d'espace et de temps, la quatrième dimension - le temps - devenant également une grandeur discontinue, dont le plus petit incrément est environ égal au temps de Planck, soit 10-43 seconde [fig.2] .
Néanmoins, l'euphorie est de courte durée : les équations de Thiemann sont si difficiles à manipuler qu'elles ne sont presque d'aucune utilité pratique. Sans compter qu'à l'horizon des années 2000 personne n'est en mesure de garantir l'unicité des règles conduisant à la quantification de l'espace-temps dans le cadre de la gravité quantique à boucle. D'où un risque de conduire, pour une situation physique donnée, à des prédictions différentes et contradictoires et donc d'invalider la théorie.
Aussi faut-il attendre ces toutes dernières années pour que plusieurs physiciens, notamment Laurent Freidel, à l'institut Perimeter, à Waterloo, au Canada, Etera Livine, à l'école normale supérieure de Lyon, et le groupe de Carlo Rovelli, au Centre de physique théorique, à Luminy, prouvent définitivement le caractère univoque de la gravité quantique à boucles [4] . Et en donnent une formulation permettant de l'utiliser pour réaliser des calculs.

4 Quels sont les succès de cette théorie ?
Tout d'abord, la gravité quantique à boucles est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation, qui intègre à la fois les exigences de la mécanique quantique : description probabiliste des phénomènes physiques, relations d'incertitude, caractère discontinu de la réalité... et le caractère fondamentalement dynamique de l'espace-temps de la relativité générale.
Par ailleurs, John Barrett, Winston Fairbairn et leur groupe de recherche, à l'université de Nottingham en Grande-Bretagne, ont récemment prouvé qu'à grandes échelles la gravité quantique à boucles se résume effectivement à la relativité générale [5] , de même que dans le domaine des faibles champs de gravitation, la relativité générale ne fait qu'une avec la théorie newtonienne.
Dans le même esprit, Eugenio Bianchi et You Ding, à l'université de Aix-Marseille, ont montré que la gravité quantique à boucles permet de décrire certaines propriétés de l'espace-temps en terme de propagation de gravitons, particule élémentaire imaginée être associée au champ de gravité. Et là encore, ses prédictions sont conformes à celles de la relativité générale. Elle permet aussi de retrouver les équations dites de Friedman qui décrivent l'expansion de l'Univers dans le cadre de la théorie d'Einstein de la gravitation.
Mais ce n'est pas tout. L'une des plus grandes réussites de la gravité quantique à boucles concerne la cosmologie. Ainsi, elle permet de dépasser les difficultés posées par la singularité mathématique associée au Big Bang, dont le sens physique est inexistant. Plus précisément, elle montre que notre univers en expansion pourrait résulter du « rebond » d'un univers en contraction qui l'aurait précédé lire « De l'autre côté du Big Bang », p. 46.
Enfin, la gravité quantique à boucles s'est illustrée dans la description de la physique des trous noirs lire « Comment la théorie des boucles voit les trous noirs », p. 44. En effet elle a permis à Carlo Rovelli, dès 1996, de retrouver la formule de l'entropie d'un trou noir. En des termes profanes, l'étrange résultat obtenu au début des années 1970 par Stephen Hawking, à Cambridge, et Jacob Bekenstein, alors à Princeton, selon lequel un trou noir, astre dont la relativité générale indique qu'il est impossible de s'en extraire, émet néanmoins, comme tout corps, un rayonnement thermique lié au fait qu'il possède une température. Et dont le physicien Stephen Hawking avait montré qu'il ne peut s'expliquer qu'en introduisant une dose de mécanique quantique dans la physique de ces astres noirs.

5 Est-il possible de tester la gravité quantique à boucles ?
Sachant que les prédictions de la gravité quantique à boucles concernent des domaines - échelle de Planck de l'espace-temps , Big Bang, trous noirs - totalement inaccessibles à l'expérimentation directe, la réponse est difficile. Et, il y a encore quelques années, d'aucuns auraient assuré que cette théorie, comme du reste toute théorie quantique de la gravitation, ne pourrait jamais être testée. Aujourd'hui, les avis sont partagés. Mais quelques pistes existent.
Ainsi, même s'il n'y a pas consensus sur la question, il n'est pas impossible que la granularité de l'espace prédite par les « boucles » s'accompagne d'une violation du sacro-saint caractère de la vitesse de la lumière. En effet, lorsqu'elle se propage entre les atomes d'un solide, la lumière, si sa longueur d'onde est très grande par rapport à la distance inter-atomique, ne subit pas d'influence du réseau cristallin, comme si elle ne le « voyait » pas. Et sa vitesse est la même que dans le vide. A l'inverse, si sa longueur d'onde est de l'ordre de grandeur de la distance inter-atomique, ou plus petite, elle devient sensible à l'influence du milieu dans lequel elle se propage. Sa vitesse dépend alors de sa longueur d'onde. Il n'est donc pas impossible qu'un photon de très petite longueur d'onde, de l'ordre de la longueur de Planck, puisse voir sa vitesse de propagation dans le vide affectée par la structure quantique de l'espace-temps telle que prédite par la gravité quantique à boucles.
Pour le savoir, les astrophysiciens comptent en particulier sur l'observation de ce qu'ils appellent des sursauts gamma, soit des bouffées de lumière ultra intenses - pendant quelques centaines de secondes, elles sont jusqu'à 10 fois plus lumineuses que toute la galaxie - émis par des galaxies anciennes situées à plusieurs milliards d'années-lumière de la Terre. Ainsi, un décalage constaté dans l'arrivée des photons de différentes longueurs d'onde pourrait être un signe favorable en faveur des boucles.

Autre possibilité : la piste cosmologique. En effet, les calculs montrent que la structure granulaire de l'espace-temps aurait pu imprimer sa marque dans le fond diffus cosmologique, la plus ancienne lumière aujourd'hui observable dans l'Univers. Effets qui pourraient être décelés par les nouveaux télescopes spatiaux. Avec tout de même un bémol : l'impossibilité de prévoir, étant donné l'indétermination qui règne sur certains paramètres de la théorie, si ces modulations dans le fond diffus ne seraient pas plus grandes que l'Univers observable. Auquel cas, même si elles existent, elles resteront à jamais inaccessibles.
Certains « bouclistes » optent enfin pour une approche probabiliste, et se demandent par exemple quelle est la probabilité que la gravité quantique à boucle engendre un Univers compatible avec les propriétés du nôtre. À ce jeu, il sera difficile de vérifier cette théorie.
[1] A. Ashtekar, Phys. Rev. Lett., 57, 2244, 1986.
[2] C. Rovelli et L. Smolin, Nuclear Physics, B331, 80, 1990.
[3] C. Rovelli and L. Smolin, Nuclear Physics, B 442, 593, 1995.
[4] L. Freidel et K. Krasnov, Class. Quant. Grav., 25, 125018, 2008.
[5] J. Engle et al., Nuclear Physics B799, 136, 2008.

LES FONDATEURS DE LA THÉORIE
Abhay Ashtekar, en 1986, alors à l'université de Syracuse, aux États-Unis, propose une reformulation des équations de la relativité générale.
Carlo Rovelli et Lee Smolin, à l'université Yale aux États-Unis, forts de cette reformulation, présentent une nouvelle approche pour quantifier la gravitation : la gravité quantique à boucles.
Lee Smolin et Carlo Rovelli, en 1994, montrent qu'elle conduit à une représentation de l'espace-temps radicalement nouvelle : à très petite échelle, ce dernier possède une structure granulaire.
Thomas Thiemann, en 1996, à l'université de Penn State, en Pensylvanie, établit les premières équations d'évolution d'un Univers quantique.
Laurent Freidel, à l'Institut Perimeter, est l'un de ceux qui ont prouvé ces dernières années le caractère univoque de la théorie.

L'ESSENTIEL
LA GRAVITÉ QUANTIQUE À BOUCLES est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation.
À LA DIFFÉRENCE de sa concurrente principale, la théorie des cordes, elle ne fige pas l'espace-temps, a priori. C'est la matière qui en façonne la géométrie de façon dynamique.
BIEN QUE DIFFICILE À TESTER, cette théorie connaît d'importants succès, en particulier dans le domaine de la cosmologie.
L'AMBITIEUSE THÉORIE DES CORDES
Apparue au début des années 1980, la théorie des cordes consiste à postuler que toutes les particules élémentaires, qui dans le modèle standard sont considérées comme ponctuelles, émanent en réalité des vibrations de minuscules cordes dont la taille avoisine la longueur de Planck 10-35 mètre. Hypothèse suffisante pour engendrer spontanément, du moins en théorie, une particule dont les propriétés sont exactement celles du graviton, particule élémentaire imaginée par les physiciens pour véhiculer la gravitation. Par ailleurs, cette théorie a la faveur de nombreux physiciens car elle offre également un cadre pour unifier l'ensemble des interactions. C'est-à-dire un cadre dans lequel les quatre forces de la nature semblent émerger d'une unique interaction encore plus fondamentale.

 

  DOCUMENT   larecherche.fr    LIEN

 
 
 
 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

 

 

 

 

 

 

 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

Au voisinage du zéro absolu de température, la matière se transforme, adoptant des comportements que notre intuition a de la peine à appréhender. Certains gaz liquéfiés deviennent superfluides, s'échappant du réservoir qui les contient comme s'ils défiaient la pesanteur. La supraconductivité apparaît dans les métaux et donne lieu à des courants électriques permanents, utilisés aujourd'hui pour la production de champs magnétiques intenses. L'explication de ces phénomènes étranges apporte un nouvel éclairage dans des domaines que l'on aurait crus très éloignés, comme la dynamique des étoiles à neutrons ou l'évolution de l'Univers après le Big Bang, contribuant ainsi à établir des concepts physiques fondamentaux. Pour atteindre des basses températures qui n'existent pas dans la Nature, les chercheurs ont mis au point des méthodes de réfrigération sophistiquées. Celles-ci ont ouvert un nouveau domaine de recherche, la Physique des très basses températures, particulièrement riche en phénomènes physiques nouveaux qui constituent la source d'applications technologiques de pointe. Au cours d'une promenade à la limite du zéro absolu de température nous explorerons ensemble le royaume du froid.

Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu
par Henri Godfrin
Température et intuition...
Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.

Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...

Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !

La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.

Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.
La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.

La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.
Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.
Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !

L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !

Les fluides cryogéniques
Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.

Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.

Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.
L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !
La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !
H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.
On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.
Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].

Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.

Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.

Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.

Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.

D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.

Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».

Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannoudji.

 

  VIDEO     canal U       LIEN  

 
 
 
 

LA TURBULENCE

 

 

 

 

 

 

 

LA TURBULENCE

Cinq siècles après les travaux de Léonard de Vinci sur le contrôle des tourbillons et de leur effet dans la rivière Arno, le sujet n'est toujours pas clos. Au XXème siècle ce sont d'abord les innombrables applications pratiques (par exemple dans le domaine de l'aéronautique) qui ont été le moteur d'un progrès qui se concrétisait plutôt par le développement de modèles empiriques que par de véritables percées fondamentales. A partir de 1940, grâce en particulier au mathématicien russe Andrei Nikolaevich Kolmogorov, une véritable théorie a été proposée. Elle s'est révélée à la fois féconde en applications (en modélisation pour l'ingénieur) et pas tout à fait correcte : la théorie de Kolmogorov est invariante d'échelle (auto-similaire) alors que dans la réalité cette invariance d'échelle est brisée (un peu comme l'homogénéité de l'Univers est brisée par la présence de galaxies, d'étoiles, de cristaux, d'êtres vivants, etc.). on commence seulement depuis peu à comprendre le mécanisme physique et mathématique de cette brisure. Une véritable théorie de la turbulence pourrait naître dans les prochaines années.

Texte de la 177e conférence de l’Université de tous les savoirs donnée le 25 juin 2000.
La turbulence par Uriel Frisch
1
Comme ma conférence se situe dans le cadre du thème « Perspectives sur les mathématiques actuelles », je vais bien entendu vous parler aussi des aspects de la turbulence qui relèvent des mathématiques. Toutefois, le sujet est très interdisciplinaire et touche, comme vous le verrez, aussi à la physique, à la mécanique des fluides, à la météorologie et à l'astrophysique. Apres une brève introduction, je vous dirai deux mots de la formulation du problème, puis je vous parlerai de transition, de chaos, d'effet papillon, de mouvement Brownien, de chou-fleur et enfin du million de dollars que M. Clay nous a promis.
Le mot « turbulence » signifiait a l'origine « mouvements désordonnés d'une foule » (en latin turba signifie foule). Au Moyen Âge « turbulences » était utilisé comme synonyme de « troubles ». C'est ainsi que, sur un manuscrit en vieux français exposé au musée J. Paul Getty à Los Angeles, j'ai trouvé récemment un « Seigneur, délivrez nous des turbulences ». Comme vous le voyez, le sens a ensuite évolué.
Tout d'abord, la turbulence fait partie de l'expérience quotidienne : nul besoin d'un microscope ou d'un télescope pour observer les volutes de la fumée d'une cigarette, les gracieuses arabesques de la crème versée dans le café, ou les enchevêtrements de tourbillons dans un torrent de montagne [figure 1]. Ce que nous voyons, c'est très complexe, c'est très désordonné mais c'est très loin d'être le désordre total. Quand on regarde un écoulement turbulent, même en instantané, sur une photo, ce que l'on voit est autrement plus fascinant que l'espèce de chaos total obtenu, par exemple, en projetant une poignée de sable sec sur une feuille de papier. La turbulence, quand vous l'observez, est pleine de structures, en particulier de « tourbillons », entités connues depuis l'Antiquité, étudiées et peintes par Léonard de Vinci (qui fut sans doute le premier à utiliser le mot de turbulence – turbolenza en Italien – pour décrire les mouvements complexes de l'eau ou de l'air). Je crois que c'est ce mélange intime d'ordre et de désordre qui en fait a la fois le charme et, il faut bien le dire, une des principales difficultés.
2
Figure 1
Il est très facile d'obtenir de la turbulence. En fait, chaque fois qu'un fluide s'écoule autour d'un obstacle, par exemple dans le sillage d'un bateau, et si la vitesse est suffisante, eh bien, on aura de la turbulence. On trouve donc de la turbulence un peu partout : la circulation du sang à l'intérieur des vaisseaux sanguins, les écoulements de l'air autour d'une automobile ou d'un avion – responsable des fameuses « turbulences » pour lesquelles on nous demande d'attacher nos ceintures –, ou encore les mouvements de l'atmosphère en météorologie, les mouvements du gaz constituant les étoiles comme notre Soleil, et enfin les fluctuations de densité de l'Univers primitif donnant naissance ultérieurement aux grandes structures de l'Univers actuel, comme les amas de galaxies [figure 2]. Sans toute cette turbulence, la pollution urbaine persisterait pendant des millénaires, la chaleur produite par les réactions nucléaires dans les étoiles ne pourrait pas s'en échapper sur une échelle de temps acceptable et les phénomènes météorologiques deviendraient prévisibles à très long terme.
3
Figure 2 : Amas de galaxies simulé par la Collaboration Virgo en 1996. Il s’agit d’une simulation tri-dimensionnelle comportant 256X256X256 particules.
Les équations qui gouvernent les mouvements des fluides, qu'ils soient turbulents ou non, ont été écrites pour la première fois par Claude Navier en 1823. Elles sont souvent appelées équations de Navier-Stokes en raison des perfectionnements apportes ultérieurement par George Stokes. En fait il s'agit essentiellement des équations de Newton, qui relient la force et l'accélération, équations qu'il faut appliquer à chaque parcelle du fluide ce qui fut fait pour la première fois par Léonard Euler il y a trois siècles. L'apport crucial de Navier a été d'ajouter aux équations d'Euler un terme de friction entre les diverses couches de fluide proportionnel au coefficient de viscosité et aux variations de vitesse [figure 3]. Ces équations, que l'ont sait par exemple résoudre a l'ordinateur, comportent encore des défis majeurs sur lesquels je vais revenir.
4
Figure 3
La turbulence est devenue une science expérimentale vers la fin du XIXe siècle quand l'anglais Osborne Reynolds a pu observer la transition du régime laminaire au régime turbulent. Vous savez que, dans un tuyau, si l'eau passe lentement, on aura des filets bien réguliers, c'est-à-dire un écoulement laminaire. Si elle va trop vite, il apparaît un très grand nombre de tourbillons et les pertes de charges dans le tuyau vont être très différentes. Reynolds put mettre en évidence des lois assez simples relatives à n'importe quel tuyau pour cette transition vers la turbulence ; il introduisit un nombre, appelé depuis nombre de Reynolds, qui n'est autre que le produit du diamètre du tuyau D et de la vitesse moyenne de l'écoulement dans le tuyau V, le tout divisé par la viscosité du fluide ν (viscosité de l’air environ 0,1 cm2/S, viscosité de l’eau 0,01 cm2/S) soit R = DV/ν. Reynolds a montré que lorsque ce nombre dépasse une certaine valeur critique, de l'ordre de quelques milliers, alors tout d'un coup, l'écoulement devient turbulent. Des transitions analogues mais plus spectaculaires s'observent dans des écoulements ouverts derrière un cylindre [figure 4]. Léonard avait déjà vu le phénomène d'allée tourbillonnaire et l'avait représente de façon presque correcte [figure 5].
Figure 4 : L’allée tourbillonnaire de von Kármán.
Figure 5 : Recirculations à l’aval d’un élargissement brusque par Léonard de Vinci.
Une caractéristique très importante de ces écoulements turbulents, qui apparaît dès la transition, est leur caractère chaotique. De façon plus précise, les écoulements turbulents apparaissent comme non prédicibles. Qu'est-ce que cela veut dire, non prédicibles? Supposons que l'on connaisse de façon détaillée la configuration de l'écoulement à un instant donné. Alors, bien que cet écoulement soit régi par des équations bien déterminées, déterministes comme on dit, dans la pratique, il n'est pas possible de prédire l'évolution ultérieure pour des temps longs. Cette théorie du chaos, qui doit beaucoup à Henri Poincaré, à David Ruelle, à Edward Lorenz et à l'École russe de Kolmogorov et de ses élèves Vladimir Arnold et Yacov Sinai, a des implications très importantes en météorologie. Imaginons que, pour prévoir le temps, on mesure, à un instant donné, le vent, la pression, la température en tous les points de la planète et que l'on essaie de prédire l'évolution ultérieure du temps par un calcul à l'ordinateur. En fait, au bout d'un temps relativement court, vous ne pourrez plus prédire de façon détaillée dans quel état se trouve l'atmosphère, et cela quelle que soit la puissance des ordinateurs. On dit que la turbulence atmosphérique est non prédicible, elle finit par être sensible au moindre éternuement ou à un battement d'aile d'un papillon, comme l'a suggère le météorologue américain E. Lorenz. Son « effet papillon » est illustré sur la
5
6 figure 6 où les courbes représentent non pas la trajectoire d'un papillon mais – de
façon symbolique – la trajectoire du point représentatif de l'ensemble du système étudié. La courbe noire correspond au cas sans papillon et la courbe rouge à la trajectoire modifiée par la présence initiale d'un battement d'aile d'un papillon. Les deux trajectoire restent d'abord proches (pour le montrer j'ai répété la trajectoire noire en pointillé) puis s'écartent assez vite. Dans la pratique il n'est pas possible de prédire en détail le temps qu'il fera au-delà d'environ une dizaine de jours. Toutefois des progrès récents, qui doivent beaucoup aux travaux de Michael Ghil, Bernard Legras et Robert Vautard, rendent concevables des prévisions un peu plus grossières à l'échelle de plusieurs semaines, voire de plusieurs mois dans les régions tropicales.
Figure 6 : L’effet papillon.
En géophysique et en astrophysique des nombres de Reynolds gigantesques de centaines de millions et bien au-delà sont monnaie courante. Un point très intéressant est que, lorsqu'on augmente le nombre de Reynolds, ce qui peut se faire par exemple en diminuant sa viscosité, il apparaît de plus en plus de tourbillons de petite taille comme vous le voyez sur la figure 7 qui présente un jet turbulent. Chaque tourbillon est un peu comme une espèce de molécule. C'est ce que l'on appelle des « degrés de liberté ». Donc un grand nombre de Reynolds, cela veut dire qu'il y a beaucoup de degrés de liberté; c'est ce que l'on appelle le régime de turbulence développée. Il est facile d'observer ce régime dans une soufflerie de grande taille comme celles où l'on teste les maquettes d'autos et d'avions. On peut aussi maintenant réaliser des souffleries sur table qui exploitent les propriétés très particulières de l'Hélium à basse température, comme l'ont montré les travaux de Bernard Castaing à Grenoble et de Patrick Tabeling à Paris. Si on examine le comportement en fonction du temps de la vitesse en un point d'un tel écoulement mesuré par une sonde, on est frappé de l'analogie avec la courbe du mouvement Brownien [figure 8]. Cette dernière peut être imaginée comme le relevé en fonction du temps de la position d'un ivrogne arpentant la grand rue d'un village
7 aux innombrables bistrots, ivrogne qui déambulerait tantôt dans un sens tantôt dans
l'autre sans jamais se souvenir du sens précédent de sa marche au hasard. Il est facile de voir que le déplacement typique d'un tel ivrogne pendant un certain intervalle de temps est proportionnel non pas au temps écoulé mais à sa racine carrée (la même loi que celle qui régit les erreurs dans les sondages d'opinion). Dans un écoulement turbulent développe on trouve que la variation de la vitesse pendant un certain intervalle de temps est proportionnelle, non à la racine carrée mais à la racine cubique du temps écoulé. Cette loi en racine cubique, obtenue en fait par un argument dimensionnel lié à la conservation de l'énergie, fut prédite en 1941 par le mathématicien russe Andrei Kolmogorov et a été assez largement validée par des expériences et des simulations à l'ordinateur. En fait, des 1922 l'anglais Lewis Fry Richardson, avait pressenti ce qui se passait en présentant sa vision de la cascade d'énergie des grandes vers les petites échelles d'un écoulement turbulent, vision directement inspirée d'un poème du poète anglais Jonathan Swift :
« So, nat'ralists observe, a flea
Hath smaller fleas that on him prey; And these have smaller yet to bite 'em, And so proceed ad infinitum. »
8
Figure 7 : Jet d’eau turbulent (d’après Dimotakis, Lye et Papantoniou, 1981).
9
Figure 8 : Mouvement brownien.
Plutôt que de me hasarder à traduire, je vous demande d'imaginer une grosse puce en train de sucer le sang de votre chien, sang qui va ici jouer le rôle que l'énergie cinétique joue en turbulence. Maintenant, imaginez que la grosse puce est à son tour assaillie de puces plus petites qui lui sucent le sang et ainsi de suite jusqu'a atteindre des puces tellement petites que le sang y est décomposé par des processus moléculaires. Il est clair que le monstre ainsi sorti de l'imagination de Swift constitue ce que Benoît Mandelbrot a appelé une fractale. Ces fractales peuvent être caractérisées par une dimension qui n'est pas un nombre entier. Les objets de dimension entière 0, 1, 2, 3 sont, par exemple, des points, des lignes, des surfaces et des volumes. Pour imaginer un objet de dimension fractale entre 2 et 3 pensez par exemple à un chou-fleur. La dimension fractale de la turbulence – plus précisément ce que les mathématiciens appellent la dimension de Hausdorff de la dissipation d'énergie – est très proche de trois. Si c'était vraiment trois, la théorie proposée par Kolmogorov en 1941 serait exacte, ce qui explique le succès qu'a rencontré cette théorie dans l'élaboration de modèles empiriques pour les calculs des ingénieurs.
Le calcul de telles dimensions à partir des équations fondamentales de la mécanique des fluides reste un problème ouvert. Toutefois des progrès importants ont été faits ces dernières années en utilisant des outils mathématiques empruntés à la théorie quantique des champs, appliqués à un modèle simplifié dû à l'américain Robert Kraichnan. Dans ce modèle on suppose l'écoulement turbulent connu et l'on cherche à caractériser les propriétés d'un traceur transporté par cette turbulence, comme illustré par la figure 9 de Antonio Celani, Alain Noullez et Massimo Vergassola, représentant un instantané de la concentration d'un traceur obtenu par simulation a l'ordinateur. On peut imaginer par exemple qu'il s'agit de la concentration d'un polluant lâché dans l'océan, On sait maintenant calculer les propriétés fractales de tels polluants, mais il faudra sans doute des années avant de pouvoir mener à bien une entreprise comparable pour les propriétés fractales de la turbulence elle-même.
10
Figure 9 : Concentration d’un scalaire passif (polluant) transporté par un écoulement turbulent bi-dimensionnel du type que l’on trouve dans l’atmosphère et l’océan, simulé
numériquement sur une grille 2048x2048. Le scalaire est fortement intermittent et possède des propriétés d’échelle « anomales » qui ne peuvent être prédites par l’analyse dimensionnelle. Concentrations les plus faibles en bleu et les plus fortes en jaune.
Figure de Celani (A.), Noullez (A.) et Vergassola (M.), Observatoire de la Côte d’Azur, laboratoire G.-D. Cassini , UMR 6529 ; simulations à l’IDRIS, CNRS.
Dans un écoulement turbulent, si la variation temporelle de la vitesse en un point est généralement bien donnée par la loi en racine cubique de Kolmogorov, on sait depuis longtemps que ce n'est pas toujours vrai. Déjà en 1843 Adhémar Barré de Saint Venant observe que « les écoulements dans les canaux de grande section, ceux dont nous dirions aujourd'hui qu'ils possèdent un grand nombre de Reynolds présentent des ruptures, des tourbillonnements et autres mouvements compliques ». Le point intéressant ce sont les ruptures. C'est un fait expérimental que la vitesse de l'écoulement peut, à l'occasion, varier de façon considérable entre deux points voisins. Si par hasard l'échelle de cette variation devenait comparable à la distance parcourue par les molécules du fluide entre deux collisions successives, alors il faudrait repenser les fondements mathématiques des équations de Navier- Stokes. La façon traditionnelle d'obtenir ces équations suppose en effet une forte séparation entre le monde microscopique des molécules et le monde, appelé « macroscopique » où le fluide est traite comme un milieu continu.
Cela m'amène au grand défit mathématique qui fait l'objet d'un des sept prix d'un montant d'un million de dollars annoncés récemment par la fondation Clay au Collège de France. Le problème est de montrer que les équations de Navier-Stokes conduisent à un
11
problème « bien posé ». Cela veut dire que si l'on connaît le mouvement du fluide à
un instant initial on veut pouvoir montrer qu'il y a une solution unique à tout instant ultérieur. Notez que cette fois le problème n'est pas celui des erreurs mais de l'unicité de la solution. Ce problème a été résolu dans les années trente par Jean Leray dans le cas de deux dimensions d'espace (ce qui est pertinent en météorologie et en océanographie). Le problème est beaucoup plus difficile en dimension trois. Je vais essayer maintenant de donner un tout petit aperçu de la difficulté, sans utiliser de formalisme mathématique. Tout d'abord il faut noter que dans un fluide qui n'est pas en mouvement uniforme les filets fluides frottent les uns contre les autres, en raison de la viscosité, ce qui tend à ralentir leur mouvement relatif. À faible vitesse, donc à faible nombre de Reynolds (ce dernier est proportionnel à la vitesse), les effets du frottement visqueux sont très importants pour tous les tourbillons présents dans l'écoulement. Ce frottement rabote tout et l'on sait démontrer – ce n'est pas très difficile – que le problème est bien posé. En revanche, à grand nombre de Reynolds, les effets du frottement visqueux sont limités aux plus petits tourbillons et le problème est proche du problème du fluide parfait dans lequel la viscosité est ignorée. On sait montrer que ce dernier problème est bien posé pendant un temps court mais pas au-delà. En gros, le mieux qu'on sait démontrer pour l'instant, c'est que le fluide parfait ne se comporte pas mieux qu'un mobile dont l'accélération serait proportionnelle au carré de la vitesse, hypothèse qui conduit à une augmentation catastrophique de la vitesse qui peut devenir infinie au bout d'un temps assez court [figure 10]. Certaines simulations numériques à l'ordinateur suggèrent que le fluide parfait est en réalité bien plus sage, n'explose pas, et conduit de ce fait à un problème bien posé pour des temps arbitrairement longs. Il est possible aussi que le fluide parfait explose rapidement mais que l'effet du frottement visqueux empêche cette explosion. C'est précisément ce qui se passe dans la théorie de 1941 de Kolmogorov, mais pas nécessairement dans la réalité.
Figure 10 : L’accélération est proportionnelle au carré de la vitesse : la vitesse explose au bout d’un temps fini.
En conclusion, je voudrais souligner que la turbulence a un statut très particulier dans la physique contemporaine. Elle est souvent considérée comme un des grands problèmes
12
ouverts de la physique, mais contrairement à d'autres problèmes frontières de la physique, les phénomènes auxquels on s'intéresse en turbulence ne se situent ni dans l'infiniment petit ni, en général, dans l'infiniment grand. Ces phénomènes sont parfaitement décrits par la mécanique de Newton, sans qu'il soit nécessaire de faire intervenir la mécanique quantique ou la mécanique relativiste, c'est-à-dire les idées modernes de la physique sur l'espace, le temps et la matière. Comme vous le voyez, la physique, dite « classique », celle qui est enseignée au lycée, comporte encore quelques grands mystères.

 

  VIDEO       CANAL  U         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon