ecole de musique piano
     
menu
 
 
 
 
 
 

SUR LES TRACES DE LA MATIÈRE DANS LE COSMOS

 

 

 

 

 

 

 

SUR LES TRACES DE LA MATIÈRE DANS LE COSMOS

L'exposé débutera par une présentation synthétique de l'état actuel des connaissances concernant la genèse et l'histoire de l'Univers (modèle du big bang). Nous préciserons le rôle des différentes formes de matière et d'énergie dans l'évolution et la structuration de l'Univers. Ceci nous permettra en particulier d'introduire les concepts de la matière sombre et de l'énergie noire. La plus grande partie de l'exposé sera consacré à un tour d'horizon de quelques unes des méthodes utilisées pour identifier et caractériser les différentes composantes de matière et d'énergie présentes dans l'univers. Nous verrons en particulier comment l'étude des anisotropies du fond diffus micro-ondes permet de contraindre le contenu matériel du cosmos. Ce fond de rayonnement électromagnétique est le vestige du passé chaud de l'Univers et ses infimes anisotropies nous révèlent les clés de la physique de l'univers primordial. Nous montrerons ensuite comment l'observation des supernovae lointaines, véritables feux d'artifices cosmiques, apportent une information complémentaire à travers les contraintes obtenues sur la géométrie globale de l'univers. Enfin, la dernière partie de l'exposé nous amènera à explorer les étoiles à neutrons, ainsi que les trous noirs et leurs disques d'accrétion. Les observations à haute énergie, dans le domaine des rayons X et gamma permettent de lever le voile sur ces objets, sièges des phénomènes les plus violents dans l'univers. Dans les prochaines années, les détecteurs d'ondes gravitationnelles ouvriront peut-être une nouvelle fenêtre d'observation de ces objets insolites.

Texte de la 532e conférence de l'Université de tous les savoirs donnée le 19 juin 2004

Sur les traces de la matière dans le cosmos
Reza Ansari

La cosmologie nous fournit une image relativement précise et détaillée de l'origine et de l'histoire de notre univers. Elle est aujourd'hui une discipline scientifique à la croisée de la physique des interactions fondamentales, de l'astronomie et de l'astrophysique. La compréhension de la structure intime de la matière d'une part, et les mécanismes responsables de l'évolution de l'univers primordial d'autre part sont des domaines qui se nourrissent mutuellement.
Nous décrirons en particulier quelques-unes des méthodes utilisées pour rechercher les différentes formes de matière présentes dans l'univers et d'en quantifier l'effet sur son évolution. Un survol du modèle standard cosmologique est présenté dans la première partie de l'article (section 2). Nous nous intéresserons ensuite à notre Galaxie, pour y découvrir la matière noire du halo, ainsi que le trou noir qui se trouverait en son centre. La section 3 est consacrée à la recherche de l'énergie noire grâce aux supernovae lointaines. Enfin, la dernière partie de l'article présente une brève introduction à la physique du fond diffus cosmologique et la détermination de la densité des différentes formes de matière et d'énergie par la mesure des anisotropies du fond diffus cosmologique.

Les fondements du modèle cosmologique
La théorie de la relativité générale et le modèle standard des particules et des interactions en physique des particules constituent les deux socles sur lesquels repose le modèle cosmologique standard, appelé aussi modèle du Big Bang. Ce modèle dont les prédictions sont confirmées par de nombreuses observations, est communément admis par les chercheurs du domaine. Durant les dix ou quinze dernières années, ce modèle et notre compréhension de l'univers ont été affinés grâce à des observations de plus en plus précises.
Particules et interactions
Le modèle standard des particules et de leurs interactions est présenté brièvement ici. Celui-ci est souvent noté SU(2)Ä U(1)Ä SU(3) par référence aux groupes de symétrie de l'interaction électro-faible SU(2)Ä U(1) et de l'interaction forte SU(3).
Dans le cadre du modèle standard, la matière est constituée de particules de spin 1/2, appelées fermions. L'interaction entre ces fermions est portée par des particules de spin entier, qui sont les médiateurs des forces. On distingue deux types de fermions, les quarks et les leptons.
- Les quarks sont les briques de base qui forment la matière hadronique, c'est-à-dire sensible aux interactions fortes. En particulier, les protons et les neutrons qui forment le noyau atomique sont formés de quarks.
- Les leptons regroupent en trois familles des particules dont les propriétés sont proches de celles des électrons et des neutrinos. Dans chaque famille, les leptons sont sensiblement plus légers que les quarks.
L'ensemble des forces est décrit en faisant appel à quatre interactions fondamentales dans le modèle standard :
- L'interaction forte, appelée aussi la chromodynamique quantique (QCD) est responsable de la cohésion du noyau atomique et se trouve à l'origine de l'énergie nucléaire. Seuls les quarks sont sensibles à cette interaction, portée par les gluons.
- L'interaction électromagnétique est responsable de la presque totalité des propriétés physiques et chimiques de la matière. C'est le photon, quanta de lumière et du rayonnement électromagnétique qui est le médiateur de cette interaction.

- La radioactivité beta ne peut s'interpréter qu'en faisant appel à une nouvelle force, la force faible, moins intense que la force électromagnétique. Les forces faible et électromagnétique sont décrites par une théorie unifiée dans le cadre du modèle standard.
- La gravitation qui agit sur toutes les formes de matière. Nous ne disposons pas encore d'une théorie quantique de la gravitation. Il faut donc faire appel à la théorie de la relativité générale pour compléter la description des interactions.
Enfin, il faut noter qu'afin de palier certaines insuffisances du modèle standard SU(2)Ä U(1)Ä SU(3), d'autres modèles théoriques ont été élaborés. Les théories dites supersymétriques prédisent l'existence de nouvelles particules dont certaines pourraient former la matière noire à l'échelle de l'univers. Le mot WIMPs (Weakly Interacting Massive Particles) désigne de manière générique ces particules.
Parmi les différentes formes de matière et d'énergie, il y a celles qui sont présentes de manière certaine dans l'univers, et celles pour lesquelles nous avons des indications théoriques ou observationnelles. Dans la première catégorie se trouve la matière ordinaire, appelée parfois la matière baryonique. Cette dénomination provient de la classification des neutrons et des protons, constituants du noyau atomique qui sont des baryons parmi les hadrons. La matière ordinaire se présente sous différentes formes dans l'univers, depuis des formes diffuses comme des gaz atomiques ou moléculaires et des plasmas, jusqu'aux objets célestes que sont les étoiles et les planètes en passant par des agrégats et la poussière. Les photons constituent une autre composante essentielle de l'univers. De même, les neutrinos, qui sont des particules extrêmement discrètes, jouent un rôle important dans l'évolution de l'univers et des étoiles.
Quantifier la contribution relative de ces différentes formes de matière et d'énergie est essentiel pour une bonne compréhension de l'histoire de l'univers. Mais comme nous allons le montrer dans la suite de cet article, d'autres formes de matière et d'énergie semblent influencer l'évolution de l'univers. Clarifier la nature de celles-ci constitue le défi majeur de la cosmologie des prochaines années.

La relativité générale
Les forces gravitationnelles sont beaucoup moins intenses que les forces électromagnétiques ou les forces nucléaires ; Elles sont toujours attractives et dominent l'évolution des structures à grande échelle. C'est en effet la gravitation qui est responsable du mouvement des planètes, du système solaire dans la Galaxie et des galaxies au sein des amas. Naturellement, c'est encore la gravitation qui domine la dynamique de l'univers dans son ensemble.
La relativité générale est une théorie qui décrit l'interaction gravitationnelle comme une déformation de l'espace-temps à travers les équations d'Einstein. Celles-ci relient en particulier la courbure de l'espace-temps à la densité de matière et d'énergie. Ces équations admettent des solutions avec un espace-temps en expansion ou en contraction pour une distribution homogène et isotrope de matière. Einstein considérait initialement que ces solutions n'étaient pas physiquement acceptables et c'est en cherchant une solution statique pour la structure de l'espace-temps qu'il introduisit le terme connu sous le nom de constante cosmologique (L) dans les équations de la relativité générale.
Pour construire le modèle cosmologique, il faut en outre faire appel au principe cosmologique qui suppose que l'univers est homogène et isotrope à grande échelle pour construire le modèle du Big Bang. La métrique de Friedmann-Robertson-Walker (FRW) décrit alors la structure de l'espace-temps à grande échelle en fonction du paramètre d'échelle R( t) qui fixe l'échelle physique des distances, notamment des distances entre galaxies, à un instant donné. La dynamique de l'univers est alors fixée par les équations d'Einstein, associées à l'équation de Friedmann qui relie le taux d'expansion à la densité totale de l'énergie, sous quelque forme que ce soit. a( t)= R( t)/ R(0) est un terme sans dimension, appelé facteur d'échelle et correspond au rapport du facteur d'échelle à un instant t à sa valeur actuelle.
L'observation de l'expansion de l'univers, l'accord entre les prédictions de la nucléosynthèse primordiale et l'abondance mesurée des éléments légers et les mesures du fond diffus cosmologique sont les trois piliers observationnels du Big Bang[1].

L'expansion de l'univers
Dans un univers en expansion, les galaxies sont soumises à la dynamique gravitationnelle globale de l'univers et s'éloignent les unes des autres. La densité de la matière décroît au fur et à mesure que l'expansion progresse et, à l'inverse, si on remonte dans le temps, cette densité croît jusqu'à dépasser les valeurs caractérisant la matière nucléaire. C'est G. Lemaître, astrophysicien et mathématicien belge, qui avait remarqué le premier cette possibilité et avait envisagé, dès 1927, le commencement de l'univers à partir de ce qu'il avait appelé l'atome primitif. Mais ce n'est que lorsque l'astronome américain Edwin Powell Hubble publia l'observation de la récession des galaxies en 1929 que ce modèle, dénommé le Big Bang par la suite, sera accepté par les scientifiques. Nous verrons dans la suite (section Erreur ! Source du renvoi introuvable.) comment la mesure de l'évolution du taux d'expansion permet de contraindre la densité totale de matière et d'énergie dans l'univers
L'origine des éléments chimiques
La centaine d'éléments chimiques connus, depuis l'atome d'hydrogène, le plus léger, jusqu'aux atomes lourds, comme celui de l'uranium, sont tous des assemblages de neutrons, de protons et d'électrons. Le noyau atomique et l'énergie nucléaire ont commencé à livrer leurs secrets à partir des années 1920. La compréhension des mécanismes nucléaires a permis, entre autres, de résoudre l'énigme de la source d'énergie du soleil et des étoiles en général. En 1939, Hans Albrecht Bethe, physicien américain d'origine allemande, propose un cycle de réactions nucléaires conduisant à la formation d'hélium par fusion de protons comme source d'énergie des étoiles. On sait aujourd'hui que presque tous les noyaux sont formés dans la fournaise nucléaire au coeur des étoiles, ou lors de l'explosion de supernovae. La nucléosynthèse stellaire rencontre néanmoins quelques difficultés lorsqu'elle est confrontée aux mesures d'abondances nucléaires : l'abondance de l'hélium, qui représente près du quart de la masse de matière ordinaire dans l'univers est largement supérieure à la production cumulée de l'hélium dans les étoiles. En revanche, le modèle du Big Bang apporte une solution à ce problème. En effet, dans le cadre de ce modèle, la densité et la température de l'univers croissent lorsque l'on remonte le temps. Dans l'univers âgé de quelques minutes, les conditions sont réunies pour que le cycle de réactions de formation des noyaux légers - le deutérium, l'hélium et le lithium - puisse avoir lieu : c'est la nucléosynthèse primordiale. Le bon accord entre les abondances mesurées des éléments légers et les prédictions de la nucléosynthèse primordiale constitue le deuxième pilier du modèle standard cosmologique.

Une étrange lumière
L'univers jeune était donc formé d'un plasma extrêmement chaud et dense où les photons étaient en équilibre thermique avec les constituants fondamentaux de la matière : Les électrons, les quarks, les neutrinos... La température et la densité diminuent avec le temps, soumises à l'expansion de l'espace-temps. Petit à petit, les quarks peuvent s'assembler pour former les protons et les neutrons. Quelques secondes après, les protons et les neutrons forment à leur tour les noyaux légers, l'hélium en particulier. La nucléosynthèse primordiale correspond à la fin d'une première période d'évolution intense de l'univers.
Mais l'expansion continue et l'univers se refroidit donc de plus en plus : la température n'est plus que de 3000 K lorsque l'univers atteint quelques 300000 ans. Les photons ne sont plus assez énergétiques pour dissocier les atomes neutres qui se forment. L'univers devient alors transparent et les photons peuvent se propager librement.
Ces photons nous parviennent au terme d'un voyage de près de quatorze milliards d'années subissant au passage l'effet de l'expansion de l'univers. Émis essentiellement dans le domaine infrarouge proche ( ), nous les détectons aujourd'hui sous forme de rayonnement micro-ondes ( ).
Ce rayonnement, appelé le fond de rayonnement cosmologique, a été observé pour la première fois en 1964 par Arno Penzias et Robert Wilson. Chercheurs auprès de Bell Labs (Lucent Technologies aujourd'hui), ils tentaient de mesurer les émissions radio de la voie lactée grâce à une antenne géante de télécommunications. Ils identifient alors la présence d'un niveau de bruit plus élevé que prévu qui s'avérera provenir d'un rayonnement extra galactique.
Ce rayonnement de fond cosmologique, dont l'existence avait été suggéré dès 1948 par G. Gamow, R. Alpher et R. Herman, constitue le troisième pilier du modèle de Big bang. Les propriétés de ce rayonnement seront discutées dans la section Erreur ! Source du renvoi introuvable..
La matière noire dans notre Galaxie
Notre Galaxie, la Voie Lactée est une immense structure autogravitante formée d'étoiles, de gaz et de poussières. Elle comporte quelques dizaines de milliards d'étoiles, de nombreux nuages de gaz composés essentiellement d'hydrogène et d'hélium, et des grains de poussières contenant des éléments plus lourds (oxygène, carbone ...). Toutes ces composantes correspondent à différentes formes de matière ordinaire ou baryonique.
Si on était capable d'observer notre Galaxie de l'extérieur, on la verrait semblable à la nébuleuse M83, dont la photographie prise par le grand télescope VLT de l'ESO est présentée sur la figure Erreur ! Source du renvoi introuvable.. Les étoiles, le gaz et la poussière sont concentrés dans un disque peu épais, moins d'un millier d'années-lumière (AL), mais s'étendant sur près de 200000 AL. Les bras, structures riches en étoiles brillantes, semblent s'enrouler autour d'un noyau central, amas très dense d'étoiles.

figure 1
Galaxie spirale Messier 83, située à une distance d'environ 15 millions d'AL. Image prise par le télescope VLT de European Southern Observatory - Ó ESO
Le Soleil est une étoile ordinaire située à 25000 AL du centre de la Galaxie. Le système solaire, à l'instar des autres étoiles et nuages de gaz et de poussières, tourne autour du centre Galactique, l'ensemble constituant un système en équilibre gravitationnel.
Le halo Galactique
Lorsqu'on mesure les vitesses de rotation des étoiles, du gaz et des poussières en fonction de la distance au centre (courbe de rotation) pour notre Galaxie, et pour de nombreuses autres galaxies similaires, on observe un comportement étrange. En effet, comme on peut le voir sur la figure Erreur ! Source du renvoi introuvable., la matière lumineuse est concentrée vers le centre, et l'on s'attend à voir décroître les vitesses de rotation lorsqu'on s'éloigne suffisamment du centre (). Or la courbe de rotation comporte un plateau où la vitesse reste constante. Ce phénomène est interprété comme étant dû à la présence d'un halo de matière sombre qui n'émet, ni n'absorbe la lumière, mais qui interagit gravitationnellement. La masse du halo atteindrait une dizaine de fois la masse de la matière visible (étoiles, gaz, poussière) dans notre galaxie. Le halo sombre pourrait être formé d'une nouvelle forme exotique de matière, celle qu'on regroupe sous la dénomination WIMPs par exemple. Plusieurs équipes tentent de mettre en évidence cette forme de matière à l'aide de détecteurs cryogéniques, comme celui d'EDELWEISS [2] installé dans le laboratoire souterrain de Modane.

figure 2
Mesure de la courbe de rotation et du profil de luminosité en fonction de la distance au centre pour la galaxie spirale NGC3198
Mais ce halo sombre pourrait être constitué de matière ordinaire, mais sous une forme presque invisible. Plusieurs hypothèses ont été envisagées, comme celle de nuages de gaz moléculaires froids avec une structure fractale, ou celle d'objets compacts n'émettant pas de rayonnement électromagnétique. Les cadavres stellaires, les trous noirs et les naines brunes qui sont des étoiles avortées sont des candidats possibles pour de tels objets compacts. Ils sont regroupés sous le nom MACHO [3].

L'effet de microlentille gravitationnelle
Dans un article publié en 1986, B. Paczynski suggérait que de tels objets pouvaient être détectés à l'aide de l'effet de microlentille gravitationnelle. En effet, comme le prévoit la relativité générale, la lumière d'astres se trouvant en arrière plan serait défléchie par le champ gravitationnel de ces objets compacts. Il y a alors formation d'images multiples, comme cela est observé pour des effets de lentille gravitationnelle provoqués par des galaxies ou des amas de galaxies.
Dans le cas d'objets compacts de faible masse situés dans le halo, ayant moins d'une masse solaire, il n'est pas possible de résoudre les différentes images. Mais le mouvement de l'objet compact provoque une augmentation transitoire de la luminosité apparente de l'étoile en arrière-plan lorsque la ligne de visée est suffisamment proche de l'objet déflecteur : c'est l'effet de microlentille gravitationnelle. Bien que très peu probable, le phénomène serait détectable si les objets compacts étaient suffisamment nombreux pour constituer une fraction importante du halo. Il y a moins d'une chance sur un million pour qu'une étoile du fond soit affectée par cet effet.
Afin de rechercher les objets compacts du halo, l'équipe EROS [4] a mis sur pied un ambitieux programme d'observations de plusieurs dizaines de millions d'étoiles de la Galaxie et des nuages de Magellan durant la décennie 1990. Ce projet a été un grand succès : l'effet de microlentille a été observé et est devenu aujourd'hui un nouvel outil d'investigation en astrophysique. D'autres équipes dans le monde ont effectué des observations analogues.
En revanche, le nombre d'événements observés montre que seule une petite fraction du halo, au plus 10 % à 15 % de sa masse, serait formée d'objets compacts de faible masse. La figure Erreur ! Source du renvoi introuvable. résume les résultats de la collaboration EROS concernant la contribution de MACHOs à la masse totale du halo tactique, en fonction de la masse des objets déflecteurs [2].

figure 3
Résultat de l'équipe EROS basée sur l'analyse des observations vers les nuages de Magellan (LMC et SMC). Contribution maximale des objets compacts, exprimée sous forme de fraction de la masse totale d'un halo de masses solaires, en fonction de la masse typique des objets déflecteurs [2].
Un trou noir au Centre de la Galaxie ?
La mesure du mouvement apparent des étoiles très près du Centre Galactique a permis de mettre en évidence des vitesses de rotation très élevées, jusqu'à 1500 Km/s [3]. Les observations dans le plan Galactique et vers le centre Galactique en particulier sont rendues difficiles par l'absorption de la lumière par l'importante quantité de poussières présentes le long de la ligne de visée. L'utilisation des émissions dans le domaine des ondes radio et des rayons X permet néanmoins de voir à travers ce voile de poussières.
Les observations radio en interférométrie à très longue base (VLBI) montre que c'est un objet compact qui est présent au centre Galactique. L'observation des vitesses de rotation élevées associée à la compacité de la distribution de masse représente une indication forte en faveur de l'existence d'un trou noir de grande masse au centre de la Voie Lactée. Celui-ci aurait une masse d'environ 2,6 millions de fois la masse du soleil. Dans le langage de la relativité générale, un trou noir est une singularité de la structure de l'espace-temps provoquée par un objet massif très dense. En simplifiant, on peut considérer qu'un trou noir est un profond puits de potentiel gravitationnel, pour lequel la vitesse de libération dépasserait celle de la lumière à des distances suffisamment proches. Cette limite de distance définit le domaine que l'on appelle l'horizon du trou noir ().
D'autres observations en radio et en rayons X apportent des preuves complémentaires de l'existence de ce trou noir. En effet, il se forme des disques d'accrétion autour des trous noirs massifs. La matière du disque, proche du trou noir s'échauffe jusqu'à des températures très élevées () par friction lors de sa chute dans le trou noir. On peut observer alors des émissions dans le domaine des rayons X et, parfois, des jets relativistes de matière.

Les supernovae lointaines et le mystère de l'énergie noire
Les phares de l'univers
Les supernovae de type Ia (SNIa) sont de véritables feux d'artifice cosmiques, provoqués par l'explosion d'une naine blanche composée essentiellement de carbone et d'oxygène. L'explosion se produit lorsque l'équilibre gravitationnel est rompu suite à l'accrétion de matière par la naine blanche. Lorsque la masse de l'objet s'approche de la limite de Chandrasekhar, la pression du gaz dégénéré d'électrons n'est plus suffisante pour compenser l'attraction gravitationnelle. Cette rupture d'équilibre provoque une augmentation de la température et de la densité, déclenchant l'allumage des réactions de fusion thermonucléaire. Lorsqu'elles atteignent leur luminosité maximale, les supernovae deviennent aussi lumineuses qu'une galaxie entière, brillant comme une dizaine de milliards d'étoiles pendant quelques jours. La figure 4 provient des observations effectuées en 1994 par le télescope spatial Hubble (HST) de l'explosion d'une supernova dans une galaxie lointaine. La supernova, visible en bas à gauche, a une luminosité comparable à sa galaxie hôte.

figure 4
Image de la supernovae 1994D et de sa galaxie hôte, observée par le télescope spatial Hubble en 1994. Ó HST/STScI
Du fait de leur extrême brillance, les SNIa sont visibles jusqu'à des distances cosmologiques, c'est-à-dire plusieurs milliards d'années-lumière. En outre, leur luminosité intrinsèque au maximum est suffisamment uniforme pour qu'on puisse les considérer comme des chandelles standard. Cette uniformité s'explique par la masse de combustible nucléaire disponible, correspondant à la limite de Chandrasekhar à 1,4 .
Les SNIa peuvent donc être utilisées pour mesurer la distance en fonction du décalage vers le rouge z, jusqu'à des valeurs de z dépassant l'unité. La mesure de distance, appelée distance de luminosité , est obtenue en comparant la luminosité apparente de la supernova à sa luminosité intrinsèque. Les propriétés géométriques de l'univers peuvent être déterminées en analysant la courbe .

Les paramètres cosmologiques
Une dizaine de paramètres environ sont nécessaires pour caractériser notre univers dans le cadre du modèle standard cosmologique. L'évolution de l'univers dépend de la valeur de ces paramètres qui ne peuvent être obtenus qu'à partir des observations.
Parmi ceux-ci, la "constante" de Hubble et les paramètres de densité (Ω m, ΩΛ) tiennent une place à part. Ils déterminent en effet la géométrie de l'univers et la loi d'évolution du facteur d'échelle a( t) avec le temps cosmologique.
- La "constante" de Hubble est à la valeur actuelle du taux d'expansion .
- Le décalage vers le rouge z( t) appelé redshift en anglais correspond à la variation relative du facteur d'échelle, entre aujourd'hui et un moment t dans le passé : . z est souvent mesuré à l'aide du décalage en longueur d'onde de raies atomiques ou moléculaires ( z=Dl/l).
- Pour une valeur particulière de la densité totale de matière et d'énergie, appelée la densité critique , la géométrie de l'univers est euclidienne. Les paramètres de densité sont en général exprimés en unité de densité critique et sont notés .
- est la densité moyenne de matière aujourd'hui, qu'elle soit formée de matière ordinaire ou de particules exotiques massives.
- Si la constante cosmologique L était non-nulle, elle se manifesterait sous forme d'une force répulsive à grande échelle dans les équations d'évolution de l'univers. représente la densité d'énergie équivalente à celle de la constante cosmologique, rapportée à la densité critique. Dans le cadre de la mécanique quantique, l'état du vide peut avoir une énergie non nulle. L'énergie du vide aurait alors un comportement gravitationnel similaire à la constante cosmologique.
La figure 5 montre la variation de la distance de luminosité en fonction du décalage vers le rouge pour différentes valeurs de densité totale de matière et de densité associée à la constante cosmologique .
figure 5
Distance de luminosité en fonction du décalage vers le rouge pour trois jeux de paramètres de densité : ( = 1, = 0), ( = 0.3, = 0), ( = 0.3, = 0.7)
Plusieurs programmes de recherche et de mesure de supernovae lointaines ont été mis sur pied dans les dernières années, comme le relevé SNLS [5] auprès du télescope franco-canadien CFHT au Maunea Kea, à Hawaï, pour déterminer la variation de la distance de luminosité avec le décalage vers le rouge.
Les résultats récents publiés par différents groupes dans ce domaine, dont le SCP (Supenovae Cosmology Project) et le High Z Supernovae Team ont créé la surprise dans le milieu des cosmologistes en fournissant les premières indications en faveur d'une valeur non nulle pour la constante cosmologique.
La figure Erreur ! Source du renvoi introuvable. résume les contraintes obtenues à partir de l'observation des SNIa lointaines dans le plan (Ωm, ΩΛ) [4].

figure 6
Contraintes dans le plan (Ωm, ΩΛ) obtenues à partir des observations des supernovae lointaines [4].
Les anisotropies du fond diffus cosmologique
Nous avons vu dans la section Erreur ! Source du renvoi introuvable. que le fond diffus micro-ondes est un rayonnement thermique, vestige du passé chaud de l'univers, émis à un moment de l'histoire de l'univers caractérisé par un décalage vers le rouge z~1100. Ce rayonnement est remarquablement isotrope et présente le spectre d'un corps noir à une température de 2,725K, au moins lorsqu'on l'étudie en dehors des sources brillantes du ciel et de la Galaxie en particulier. Ces caractéristiques sont à la base de l'interprétation attribuant une origine cosmologique à ce rayonnement.
Or, l'univers bien qu'homogène et isotrope dans son ensemble, est de plus en plus structuré lorsqu'on l'observe à des échelles de plus en plus fines. De nombreuses galaxies, semblables à la Voie Lactée, formées d'étoiles et de nuages de gaz existent dans l'univers. Ces galaxies sont regroupées en structures de très grande taille, appelées amas, eux-mêmes rassemblés en superamas. Ces structures se seraient formées suite à l'effondrement gravitationnel d'infimes inhomogénéités de densité de matière, présentes dès les premiers instants de l'expansion. Dans le cadre du modèle cosmologique standard, l'origine de ces inhomogénéités de densité est attribuée aux fluctuations quantiques d'un champ qui serait responsable d'une première phase d'expansion accélérée de l'univers, appelée période d'inflation.
On s'attend à retrouver la trace de ces fluctuations de densité dans le rayonnement du fond cosmologique, sous forme d'anisotropies de température, c'est-à-dire de petites variations d'intensité du rayonnement en fonction de la direction d'observation. Après 25 années de tentatives infructueuses, c'est finalement en 1992 que l'instrument DMR (Differential Microwave Radiometers), embarqué à bord du satellite COBE, a pu mesurer ces anisotropies, correspondant à des variations de quelques dizaines de microkelvins () en fonction de la direction d'observation.
Le satellite WMAP (Wilkinson Microwave Anisotropy Probe), lancé par la NASA en juillet 2001, a fourni au début 2003 une cartographie complète du fond micro-ondes et une mesure précise du spectre des anisotropies jusqu'à des échelles angulaires de 15' d'arc.
La figure Erreur ! Source du renvoi introuvable. montre l'évolution de notre connaissance du ciel micro-ondes depuis sa découverte par Penzias et Wilson, et l'apport des satellites COBE [6] et WMAP [7].

figure 7
Evolution de la connaissance du ciel micro-ondes, depuis sa découverte en 1965, jusqu'aux mesures de WMAP en 2003, en passant par celles du satellite COBE en 1992
Les anisotropies du fond diffus sont une mine d'informations pour l'étude des modèles cosmologiques. Des variations de température sont visibles à toutes les échelles angulaires sur la carte de température du fond diffus (figure Erreur ! Source du renvoi introuvable.). Le spectre angulaire de ces anisotropies ( C( l)) permet de caractériser statistiquement l'amplitude des variations de température en fonction de l'échelle angulaire. Ce spectre présente une succession de pics et de creux, à des échelles angulaires inférieures au degré, caractéristique des oscillations acoustiques du plasma formé par les protons, les électrons et les photons avant la formation des atomes neutres et du découplage des photons.
L'analyse fine de ce spectre permet entre autres une détermination précise de la presque totalité des paramètres cosmologiques. La figure 8 représente le spectre des anisotropies de température mesuré par WMAP [5]. Fin 2002, quelques mois avant WMAP, la collaboration Archeops [8] , qui utilisait un instrument bolométrique embarqué à bord d'un ballon stratosphérique, publiait ses résultats obtenus à partir d'une large couverture du ciel, fournissant ainsi les premières mesures homogènes dans le domaine des échelles angulaires intermédiaires, de un à dix degrés. Le spectre des fluctuations mesuré par Archeops est représenté sur la figure 9 [6].

figure 8
Spectre de puissance mesuré par WMAP [5]

figure 9
Spectre de puissance mesuré par Archeops [6]
L'interprétation des observations décrites ici, celles du fond diffus et des supernovae lointaines, complétées par les mesures du paramètre de Hubble et d'autres observations cosmologiques provenant des grands relevés de galaxies par exemple, confirme de manière spectaculaire le modèle du Big Bang. Elles indiquent en outre que la densité totale de matière et d'énergie dans l'univers est proche de la densité critique, correspondant à un univers plat, de géométrie euclidienne.

La matière ordinaire (baryonique) ne représenterait que 4 % environ de la densité totale d'énergie, plus des deux tiers de la densité (~ 70 %) étant sous une forme mystérieuse d'énergie qui se comporte comme une constante cosmologique. Celle-ci agit comme une force gravitationnelle répulsive et serait à l'origine de l'accélération de l'expansion. Le quart restant (~ 25 %) serait composé d'une forme encore inconnue de matière, appelée matière noire froide. Les neutrinos et les photons, bien que très nombreux, ne représentent plus aujourd'hui qu'une toute petite fraction de la densité moyenne totale de l'Univers.

Malgré les grandes avancées dans la compréhension de l'Univers, de nombreuses questions sont encore sans réponse. Parmi celles-ci, élucider la nature de la matière sombre, notamment celle qui entoure notre Galaxie, déterminer les propriétés de l'énergie noire et en comprendre l'origine constituent certainement les grands défis de la cosmologie dans les années à venir.

Références
[1] James Rich, Fundamentals of Cosmology, Springer-Verlag (2001)
[2] Coll. EROS, Astronomy & Astrophyics, 400, 951-956 (2003)
[3] A.Eckart & R. Genzel, Nature 383, 415 (2002)
[4] A.G. Riess et al, The Astrophysical Journal, Volume 613, 189-199 (2004)
[5] D.N. Spergel et al, Astrophysical Journal, Supp. Series, 148, 175-194 (2003)
[6] Coll. Archeops, Astronomy & Astrophyics, 399, L19-L23 (2003)
[1] Pour une présentation détaillée du modèle cosmologique, on peut consulter par exemple l'ouvrage cité en [1].
[2]Expérience pour Détecter les WIMPs En Site Souterrain - http ://edelweiss.in2p3.fr
[3]MACHO : Massive Compact Halo Object
[4]EROS : Expérience de Recherche d'Objets Sombres - http ://eros.in2p3.fr
[5]SNLS SuperNovae Legacy Survey - http ://cfht.hawaii.edu/SNLS/
[6]COBE : Cosmic Background Explorer - http ://lambda.gsfc.nasa.gov/
[7]WMAP : Wilkinson Microwave Anisotropy Probe - http ://lambda.gsfc.nasa.gov/
[8]Archeops : http ://www.archeops.org

 

  VIDEO       CANAL  U         LIEN 

 
 
 
 

LES NEUTRINOS DANS L'UNIVERS

 

 

 

 

 

 

 

LES NEUTRINOS DANS L'UNIVERS

Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies
… Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes.

LES NEUTRINOS DANS L'UNIVERS

Texte de la 581 e conférence de l'Université de tous les savoirs prononcée le 24 juin
2005
Par Daniel Vignaud: « Les neutrinos dans l'Univers »
Introduction
Notre corps humain contient environ 20 millions de neutrinos issus du big bang et émet chaque seconde quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil et quelques millions d'antineutrinos cm2 par seconde venus de la Terre, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies... Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ?

Inventé par W. Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F. Reines et C. Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir.

En 1938, H. Bethe imaginait que des réactions nucléaires de fusion étaient au cSur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la conception de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre avec certitude que le déficit de neutrinos solaires observé (le célèbre « problème des neutrinos solaires ») était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle.

Nous ferons le point sur cette particule fascinante après les découvertes récentes.


1. Le neutrino, particule élémentaire

Le neutrino est né en 1930 pour répondre à un problème expérimental non résolu. A la fin des années 20, période charnière en physique s'il en est, les physiciens s'interrogent sur une difficulté liée à la désintégration b des noyaux radioactifs. L'énergie de l'électron émis devrait avoir une valeur unique et non la forme d'un spectre étendu comme il est observé. Niels Bohr va alors jusqu'à proposer de manière iconoclaste que l'énergie n'est pas conservée dans un tel processus. En décembre 1930, Wolfgang Pauli, dans une lettre restée célèbre « Chers messieurs et dames radioactifs ... », émet l'hypothèse qu'une particule inconnue emporte une partie de l'énergie pour rétablir l'équilibre. Il n'est pas trop sûr de son idée, pourtant géniale, et il faudra plusieurs mois pour qu'il l'élabore plus officiellement. Le déclic a lieu à Rome à l'automne 1933. Enrico Fermi, qui a baptisé la particule « neutrino » (le petit neutre), l'incorpore à la théorie de l'interaction faible qu'il construit magistralement.
Le neutrino restera longtemps à l'état de particule « virtuelle ». Plusieurs physiciens, et non des moindres comme Hans Bethe, écriront même qu'il est quasiment impossible de le mettre en évidence, tant est faible sa probabilité d'interaction. Il faudra attendre d'avoir des sources de neutrinos suffisamment puissantes.
Le neutrino sera découvert en 1956 par Frederick Reines et Clyde Cowan, auprès du réacteur de Savannah River (Caroline du Sud), après une première tentative en 1953. Il s'agit en réalité de l'antineutrino émis dans la fission de l'uranium. Lorsque cet antineutrino interagit avec un proton de la cible, il émet un positron (antiparticule de l'électron) et un neutron. La détection simultanée de ces deux particules est la signature non ambiguë de l'interaction de l'antineutrino. Ces neutrinos associés avec un électron sont appelés neutrinos électroniques ne.
En 1962 une équipe de physiciens mettra en évidence un deuxième type de neutrinos, le neutrino-muon nm, auprès de l'accélérateur du Brookhaven National Laboratory. Les nm sont issus de la désintégration des mésons p (ou pions) en association avec un muon m, le m étant un lepton plus lourd que l'électron. A la suite de la découverte d'un troisième lepton encore plus lourd, le tau t, en 1978, il était clair qu'il y avait un troisième type de neutrinos associé, le nt. Celui-ci ne sera découvert qu'en 2000.
Combien y a-t-il d'espèces de neutrinos ? La réponse est venue du collisionneur électron-positron du CERN, le LEP, en 1990. En mesurant avec précision la largeur de désintégration du boson Z, proportionnelle au nombre d'espèces, les physiciens ont déterminé qu'il n'y en avait que trois. Ces trois neutrinos et les trois leptons chargés qui leur sont associés sont les briques leptoniques de la matière, soumises à l'interaction faible. Les 6 quarks sont les briques hadroniques de la matière, soumises à l'interaction forte. Ils sont regroupés en trois doublets dont l'association aux 3 doublets leptoniques est fondamentale au modèle standard de la physique des particules. Toutes les particules chargées sont en outre soumises à l'interaction électromagnétique, dont l'intensité est intermédiaire entre la force faible et la force forte. Les neutrinos, sans charge électrique, ne sont soumis qu'à l'interaction faible : ils interagissent environ mille milliards de fois moins que l'électron, qui lui-même interagit environ cent fois moins qu'un proton. Quid de leur masse ? Attendons la suite.

2. L'oscillation des neutrinos

Dans le modèle standard dit « minimal » de la physique des particules, les neutrinos n'ont pas de masse. C'est à priori surprenant car toutes les autres briques de matière (quarks, électrons, muons, ...) en ont une. Les tentatives de mesurer directement cette masse sont restées vaines. Les physiciens les plus ingénieux n'ont pu mettre que des limites supérieures sur leur valeur. Et cette limite supérieure est bien inférieure à la masse des leptons chargés associés. Par exemple celle sur la masse du ne est 1 eV [1] alors que la masse de l'électron est de 511000 eV (et celle du proton un milliard d'eV). Si les mesures directes ne donnent rien pour l'instant, il faut faire appel à la ruse, en l'occurrence une propriété liée à la mécanique quantique.
La mécanique quantique nous dit que les neutrinos que l'on observe, les ne, nm ou nt ne coïncident pas nécessairement avec ce qu'on appelle les états propres de masse mais peuvent en être des superpositions. Si les neutrinos ont une masse, le calcul montre alors que lorsqu'ils se déplacent, ils peuvent se transformer (plus ou moins totalement) d'une espèce dans une autre. Le phénomène est périodique en fonction de la distance L parcourue entre la source et le détecteur et a pris le nom d'oscillation. La longueur d'oscillation est proportionnelle à l'énergie et inversement proportionnelle à la différence des carrés des masses des deux neutrinos considérés. Comme nous avons 3 familles de neutrinos, les paramètres de l'oscillation sont 3 angles de mélange qi et deux différences des carrés des masses Dm2ij. La mise en évidence de l'oscillation serait donc une preuve directe que les neutrinos sont massifs.
Si nous voulons illustrer de manière simple le mécanisme d'oscillation et ses conséquences, donnons une couleur à chaque espèce de neutrinos, par exemple bleu pour le ne, rouge pour le nm et vert pour le nt. Supposons une source de neutrinos bleus et un détecteur de neutrinos sensible uniquement aux neutrinos rouges. Si le détecteur ne compte rien, c'est qu'il n'y a pas eu d'oscillation ; si le détecteur compte toujours du rouge, c'est que l'oscillation est maximale ; si le détecteur compte parfois du rouge c'est que le mélange est partiel.
La question de la masse des neutrinos est fondamentale pour ouvrir la porte du modèle standard vers de nouvelles théories plus complètes. Comme nous allons le voir, le mécanisme d'oscillation va prouver non seulement que les neutrinos ont une masse, mais également qu'il est la clé de plusieurs énigmes astrophysiques.

3. Les neutrinos solaires

Depuis les années 20, on pressent que la source d'énergie du Soleil (et des étoiles) est d'origine nucléaire. Les neutrinos nous en ont apporté la preuve directe, à la suite de quarante années excitantes d'échanges passionnés entre les astrophysiciens qui construisent des modèles du Soleil, les expérimentateurs qui inventent et mettent en Suvre des détecteurs de plus en plus gros et de plus en plus sensibles, les théoriciens qui affinent notre compréhension du comportement des neutrinos.
Le Soleil est une gigantesque boule de gaz, essentiellement de l'hydrogène et de l'hélium. Au centre, la température est suffisamment élevée (15 millions de degrés) pour initier des réactions nucléaires de fusion entre deux protons (deux noyaux d'hydrogène). Cette fusion produit un noyau de deutérium, un positron et un ne. Il s'ensuit un cycle compliqué de réactions nucléaires où l'hydrogène va se transformer en hélium en libérant une minuscule quantité d'énergie (10-12W). Lorsque l'on connaît l'énergie produite par le Soleil (1360 W par m2 sur Terre), on calcule que l'on est bombardé en permanence par 65 milliards de neutrinos solaires par cm2 par seconde.
L'histoire commence en 1964 par des discussions entre deux scientifiques que rien ne destinait à collaborer. L'astrophysicien John Bahcall fait les premiers calculs du flux et du spectre en énergie des neutrinos solaires. Raymond Davis, un chimiste, reprend une de ses idées antérieures de détecter les ne avec du chlore grâce à la réaction ne + 37Cl ® e- + 37Ar qui fait intervenir un des isotopes du chlore. Cette méthode radiochimique nécessite de construire un détecteur contenant 600 tonnes de tétrachlorure de carbone C2Cl4, de le placer profondément sous terre dans la mine d'or de Homestake (Dakota du Sud), d'extraire régulièrement les atomes d'argon radioactif (37Ar) et de compter leur désintégration, témoignage direct du passage des neutrinos solaires. L'expérience est difficile car malgré le flux important de neutrinos qui traverse le détecteur, un par jour seulement transmute le chlore en argon. Les premiers résultats, en 1968, montreront que Davis compte trois fois moins d'argon que prévu. C'est le début de ce que l'on a appelé le problème ou l'énigme des neutrinos solaires.
Les astrophysiciens ont raffiné leurs modèles ; plusieurs équipes, dont des françaises, ont brillamment contribué à mieux connaître le fonctionnement du Soleil. L'expérience chlore a continué pendant 30 ans, perfectionnant sa méthode, traquant les inefficacités. D'autres expériences se sont construites : Kamiokande au Japon, à partir de 1986 avec 3000 tonnes d'eau ; les expériences gallium (GALLEX au laboratoire souterrain du Gran Sasso, Italie, et SAGE au laboratoire souterrain de Baksan, Caucase), à partir de 1990 rassemblant près de 100 tonnes de ce précieux métal ; SuperKamiokande au Japon à partir de 1996 et ses 50000 tonnes d'eau. Rien à faire : le flux mesuré est toujours resté inférieur au flux calculé, après toutes les vérifications expérimentales et les progrès théoriques.
Parallèlement, les physiciens des particules, dans leur tentative d'inclure les neutrinos dans leur modèle standard, étudiaient sérieusement cette possibilité que les neutrinos puissent osciller d'une espèce dans une autre. Ils mettaient en évidence un effet nouveau d'amplification possible de l'oscillation dans la matière du Soleil. A la fin des années 90, il était séduisant de penser que les neutrinos solaires n'avaient pas disparu, mais que les ne s'étaient transformés en nm ou nt (hypothèse confortée par la mise en évidence de l'oscillation des nm atmosphériques en 1998 comme nous le verrons dans le chapitre suivant). En effet, tous les détecteurs n'étaient sensibles qu'à ces ne et pas aux nm ou nt. Mais il manquait la preuve ! C'est alors que le détecteur SNO (Sudbury Neutrino Observatory) entre en scène. Utilisant une cible de 2000 tonnes d'eau lourde placée à 2000 m sous terre dans une mine de nickel au Canada, SNO a pu observer non seulement les interactions des ne (ne d ® e- p p) en mesurant l'électron, mais également les interactions de toutes les espèces (n d ® n p n) en mesurant le neutron. En juin 2001, les physiciens de SNO ont pu annoncer que les ne n'avaient pas vraiment disparu, mais qu'ils s'étaient transformés par le mécanisme d'oscillation. Ils montraient également que le flux total de neutrinos solaires était bien égal à celui calculé par les modèles. Ils continuent d'affiner leurs mesures, mais l'essentiel est là, fabuleux épilogue d'une belle histoire scientifique. Nous savons aujourd'hui que les neutrinos solaires se transforment en grande partie (mais pas totalement) en nm ou nt, sans savoir dans quel type en particulier.

4. Les neutrinos atmosphériques.

L'atmosphère est bombardée en permanence par le rayonnement cosmique, constitué pour l'essentiel de protons ou de noyaux plus lourds. Lorsque ces particules arrivent dans les hautes couches de l'atmosphère, elles interagissent avec l'air en produisant des pions. Ceux-ci vont se désintégrer en émettant un muon m et un neutrino nm. Après un parcours variable, le muon lui-même se désintègre en un électron, un antineutrino électronique et un nm. Un bilan rapide donne au niveau du sol deux fois plus de nm que de ne si on oublie la distinction particule-antiparticule, sans importance au premier ordre. Des modèles phénoménologiques calculent toutes les caractéristiques des neutrinos (nature, énergie, direction,...) avec la précision requise.
La mesure des neutrinos atmosphériques est intéressante en soi, mais n'était pas prioritaire pour les physiciens, car la source de ces neutrinos n'a que peu d'intérêt astrophysique. Ils y sont venus lorsqu'ils ont construit au début des années 80 des détecteurs pour observer la désintégration du proton, processus fondamental prédit par les théories de grande unification (fort heureusement avec une durée de vie supérieure à 1032 ans qui nous laisse le temps d'y penser). En effet, les interactions des neutrinos atmosphériques dans le détecteur constituaient un bruit de fond incontournable pour le signal attendu pour la mort du proton.
Le proton s'accrochant à la vie plus que prévu, les physiciens se sont concentrés sur les neutrinos atmosphériques, en essayant de comptabiliser séparément les ne des nm. Les premières expériences (Fréjus au laboratoire souterrain de Modane, Kamiokande au Japon, IMB dans l'Ohio) donnaient des résultats contradictoires. Avec quelques poignées d'événements, certaines observaient un rapport entre les deux types de neutrinos conforme aux prédictions, d'autres observaient un peu moins de nm que prévu. La difficulté de séparer les interactions des deux types de neutrinos (un électron dans un cas, un muon dans l'autre) et la faible statistique rendaient la communauté sceptique.
SuperKamiokande, dont nous avons déjà parlé pour les neutrinos solaires, arrive au printemps 1996. 50000 tonnes d'eau ultra-pure sont observées par plus de 10000 photomultiplicateurs, comme autant d'yeux. Ceux-ci sont sensibles à la lumière Tcherenkov émise dans l'ultra-violet par le passage des particules chargées. L'électron et le muon ont un comportement légèrement différent. Le muon produit un bel anneau de lumière, l'électron un anneau plus flou, plus large. En deux ans, la collaboration SuperKamiokande accumule plusieurs milliers d'interactions de neutrinos et raffine la séparation des deux types. En juin 1998, elle annonce qu'il y a bien un déficit de nm mais que les ne sont au rendez-vous avec le nombre attendu. Elle précise que le déficit de nm est associé à ceux venus des antipodes, c'est-à-dire ceux qui ont traversé la terre en parcourant une distance de plusieurs milliers de km. Comme nous avons appris que l'oscillation dépendait de la distance parcourue, l'interprétation en termes d'oscillation s'imposait naturellement. Depuis, tous les artefacts ont été traqués, les données se sont accumulées, et nous avons maintenant la certitude que non seulement les nm oscillent, mais qu'ils se transforment intégralement en nt.

5. Les neutrinos de supernova

Nous avons vu que les neutrinos étaient les témoins directs de la vie du Soleil : 8 minutes après avoir été produits au cSur de l'étoile, ces messagers nous informent que l'astre qui conditionne la vie sur Terre est en parfaite santé ; il est en plein âge mûr et a encore plus de 4 milliards d'années devant lui. Mais les neutrinos peuvent être également les messagers de la mort des étoiles lorsqu'elles explosent à la fin de leur vie, phénomène que l'on appelle supernova.
Le Grand Nuage de Magellan est une petite galaxie voisine de la Voie Lactée, notre Galaxie, à 150000 années-lumière, visible depuis l'hémisphère sud. A la fin de février 1987, un événement astronomique n'est pas passé inaperçu : nous avons reçu sur Terre le faire-part de décès d'une étoile de ce Nuage, Sanduleak -69°202, il y a justement 150000 ans. Et le message a été transmis par la lumière ... et par les neutrinos.
Dans la nuit du 23 au 24 février 1987, à l'observatoire chilien de Las Campanas, un astronome canadien et son assistant chilien observent par hasard une nouvelle étoile brillante dans le Grand Nuage de Magellan, une étoile qui va être visible pendant quelques dizaines de jour sans télescope. C'est la première supernova de l'année 1987 et elle sera baptisée SN1987A. Il y a des siècles qu'une supernova n'a pas été observée à l'Sil nu. Assez proche de la Terre (tout est relatif), elle n'intéresse pas que les astronomes. Depuis les années 40, on sait que les explosions de certaines supernovas sont des sources de neutrinos. Il devient urgent de le vérifier. Par chance, il y a deux ou trois détecteurs de neutrinos en fonctionnement, en particulier celui de Kamiokande au Japon, qui vient d'entrer en service il y a quelques semaines. Dès l'annonce du télégramme, les japonais se précipitent sur les données accumulées dans les dernières heures. Bienheureuse surprise lorsqu'ils découvrent que, le 23 février à 7h35 en temps universel, une dizaine de signaux caractéristiques se détachent du ronronnement du détecteur (qu'ils appellent le bruit de fond). Le phénomène a duré une poignée de secondes. Une dizaine de neutrinos voyageant depuis 150000 ans se sont laissés piéger par le détecteur souterrain. Mission accomplie pour ces témoins directs de la mort d'une étoile.
Les étoiles ne peuvent vivre qu'en consommant des quantités considérables de carburant. Plus elles sont massives, plus elles en consomment et moins elles vivent longtemps : le carburant s'épuise plus vite car la température centrale de l'étoile est plus élevée. L'histoire commence toujours par la transformation de l'hydrogène en hélium, comme dans le Soleil. Mais ensuite le cycle de réactions nucléaires fait intervenir le carbone, l'oxygène, le néon, puis le silicium, et enfin le fer, le noyau le plus stable. La structure de l'étoile est alors comparable à celle d'un oignon, avec les éléments les plus lourds au centre. Lorsque le cSur de fer a atteint une masse de 1,4 fois celle du Soleil, appelée masse de Chandrasekhar, il s'effondre violemment sur lui-même. La température monte brutalement, mais aucune réaction nucléaire ne peut plus avoir lieu car il n'y a plus de combustible approprié. La densité devient extrême. Les nombreux photons vont alors provoquer la photodésintégration du fer qui va retourner à l'état initial de protons et de neutrons. C'est alors que les électrons se font capturer par les protons dans une réaction (e- p ® n ne) qui est source de neutrinos, les premiers témoins de la mort de l'étoile. Des réactions d'annihilation entre les électrons et les positrons produisent des paires neutrino-antineutrino et ces malheureux restent quelques instants prisonniers tellement la densité est élevée. Soudain, alors que la partie centrale du cSur ne fait plus qu'une vingtaine de km de diamètre, elle se durcit brutalement et provoque le rebond des couches externes, qui tombent en chute libre, créant une formidable onde de choc. L'implosion, jusque là cachée aux yeux extérieurs se transforme en une gigantesque déflagration dévastatrice qui va se propager à travers les pelures de l'oignon. Les couches externes sont alors balayées vers l'extérieur. Au moment de l'explosion, l'étoile qui meurt devient brillante comme mille soleils et les neutrinos libérés se propagent dans tout l'espace.
Dans la réalité, les choses sont un peu plus complexes et les physiciens qui modélisent n'ont pas réussi à faire exploser l'étoile : l'énergie rejetée violemment vers l'extérieur ne serait pas suffisante pour traverser toutes les couches externes qui n'arrêtent pas de tomber vers le centre. Et pourtant l'étoile explose puisqu'on en voit le feu d'artifice. Les physiciens ont alors pensé que les neutrinos pourraient jouer un rôle dans cette explosion en venant à la rescousse de la déflagration. La situation s'améliore, mais l'explosion n'est pas assurée. S'il y a encore du travail, on pense aujourd'hui que les neutrinos sont bien des acteurs indispensables à l'explosion.
Une grande partie de l'énergie gravitationnelle de l'étoile se transforme en neutrinos de toutes les espèces et le nombre produit lors de l'explosion est fabuleux. Environ 1058 de ces particules ont été émises dans toutes les directions. 500 millions de milliards ont traversé le détecteur Kamiokande en moins de 10 secondes et une dizaine a laissé un signal.
Depuis 1987, d'autres détecteurs plus gros, plus performants ont été construits ou sont en projet. La veille est longue. La Nature ne nous a pas encore récompensé d'une nouvelle explosion. Mais nous sommes sûrs que les neutrinos messagers de la mort des étoiles sont déjà en route vers nous. A quand le prochain signal ? Dans un jour, dans un an ou dans dix ans ? Sachons être patients.

6. Les neutrinos extragalactiques

L'Univers est le siège de phénomènes particulièrement violents. Nous venons d'en voir un exemple avec les supernovas, mais il existe des astres dont la violence est permanente. Et si là encore les neutrinos pouvaient compléter les informations que nous donne la lumière reçue dans les télescopes, des ondes radio aux photons gamma en passant par la lumière visible.
Parmi les sources de lumière particulièrement intenses se trouvent les quasars. Il s'agit de trous noirs très massifs, en général au cSur d'une galaxie (on les appelle aussi noyaux actifs de galaxie), qui brillent à eux tout seuls beaucoup plus que le reste de la galaxie. Le trou noir attire la matière avant de l'engloutir, ce qui fournit une fabuleuse source d'énergie gravitationnelle (un ogre comme 3C273, à plus d'un milliard d'années-lumière de nous, se nourrit chaque année de l'équivalent de plusieurs soleils). Cette matière a la forme d'un disque, appelé disque d'accrétion. Perpendiculairement à ce disque, deux puissants jets de particules relativistes sont émis à des distances de plusieurs centaines de milliers d'années-lumière. Dans ces jets, il y a bien sûr des électrons, qui émettent en particulier des rayons gamma très énergiques, du keV au TeV, que l'on observe tous les jours avec les satellites comme INTEGRAL ou les détecteurs au sol comme HESS, en Namibie. Mais il y a aussi probablement des protons. Et ces protons, dans leurs interactions avec la matière environnante, vont produire des pions (rappelons nous les neutrinos atmosphériques) qui vont se désintégrer en gammas s'ils sont neutres ou en muons et neutrinos s'ils sont chargés. Pour nous aider à comprendre le fonctionnement de ces quasars ou d'autres objets astrophysiques comme les pulsars binaires ou les sursauts gamma, il est important de mesurer le flux de neutrinos qu'ils émettent.
Les neutrinos offrent bien des avantages : comme ils interagissent très faiblement, ils peuvent traverser des quantités importantes de matière alors que même les gammas peuvent être absorbés sur des distances cosmologiques ; comme ils n'ont pas de charge, ils ne sont pas déviés par les champs magnétiques galactiques ou intergalactique des régions traversées. Mais il n'y a pas que des avantages. L'inconvénient majeur est bien sûr leur minuscule probabilité d'interaction, même si celle-ci augmente proportionnellement à leur énergie. En outre, les flux prédits par les modèles, si importants soient-ils, sont des milliards de fois inférieurs à celui des neutrinos solaires. La tâche est herculéenne.
Depuis une trentaine d'années, des projets de détecter ces neutrinos venus de l'enfer des quasars ou des sursauts gamma sont à l'étude. Depuis une dizaine d'années, plusieurs sont en construction, que ce soit dans la glace du pôle sud (AMANDA) ou au fond de la Méditerranée (ANTARES). Le principe est toujours le même. Il faut s'affranchir des bruits de fond parasites en s'installant à quelques milliers de mètres de profondeur. Mais même à 2 ou 3 mille mètres, les neutrinos atmosphériques sont le signal dominant (de la même façon qu'on ne voit pas les étoiles durant le jour car la lumière du Soleil est beaucoup plus forte). L'astuce consiste à observer les neutrinos venus des antipodes et qui ont traversé la Terre, utilisée comme filtre au rayonnement parasite. AMANDA observe ainsi l'hémisphère nord du ciel et ANTARES plutôt l'hémisphère sud. Les prédictions, malgré leurs incertitudes, annoncent toutes que ces détecteurs doivent avoir des tailles gigantesques, de l'ordre du km3. Les neutrinos interagissent dans l'eau, la glace ou la roche au voisinage ou à l'intérieur du détecteur ; ils émettent alors un muon (s'il s'agit d'un nm, ou un électron s'il s'agit d'un ne) qui va parcourir plusieurs dizaines ou centaines de mètres à une énergie de plusieurs TeV (1015 eV). Ce muon garde la mémoire de la direction du neutrino incident à ces énergies élevées. Il émet du rayonnement Tcherenkov (cf. SuperKamiokande) observé par des centaines de photomultiplicateurs déployés sur des lignes verticales au fond de la mer ou de la glace.
AMANDA a montré que son détecteur fonctionnait bien, malgré les difficultés de l'implantation au pôle sud ; les physiciens déploient aujourd'hui ICECUBE, au rythme des courts étés antarctiques. ANTARES, une douzaine de lignes de photomultiplicateurs en cours d'installation au large de Toulon, servira de prototype pour un grand projet européen de détecteur kilométrique au fond de la Méditerranée. Au-delà de ces détecteurs pionniers, qui nous réserveront certainement des surprises, comme toujours avec les neutrinos, les physiciens imaginent d'utiliser la radio ou les ondes sonores pour détecter les neutrinos les plus énergiques venus des tréfonds de l'Univers.

7. Les neutrinos du big bang

Nous nous sommes éloignés de notre planète en observant « notre étoile », le Soleil, nous avons franchi les frontières de la galaxie, nous avons remonté l'espace (et le temps) dans le monde extragalactique et les neutrinos sont toujours là. Poursuivons notre voyage vers les origines, le fameux big bang. Les neutrinos y jouent-ils un rôle ?
L'histoire thermique de l'Univers présent commence il y a environ 13 milliards d'années par ce qu'on appelle aujourd'hui le big bang. Son origine reste aujourd'hui encore très spéculative car les lois de la physique ne s'appliquent plus vraiment dans les conditions de température et de densité extrêmes de la singularité initiale. Il y a probablement eu très tôt (vers 10-43 s) une période d'inflation (brusque augmentation de l'espace en quelques 10-40 s), suivie d'une période continue de refroidissement et d'expansion.
Lorsque le temps s'écoule, le fluide cosmique (appelé encore la soupe primordiale) se refroidit en raison de l'expansion et la température diminue très rapidement. Les forces qui régissent le comportement de la matière vont se singulariser l'une après l'autre, en commençant par l'interaction gravitationnelle, bientôt suivie par l'interaction forte. La soupe contient alors des quarks et des leptons. Il y a en particulier des électrons, des photons, et les trois espèces de neutrinos, qui s'annihilent joyeusement avec leurs antiparticules, en se transformant les uns dans les autres. Bien vite cependant l'interaction faible devient beaucoup plus faible que l'interaction électromagnétique et les neutrinos s'annihilent beaucoup moins souvent. Il y a aussi dans la soupe quelques quarks qui vont commencer à former les premiers protons et les premiers neutrons. Lorsque l'Univers continue de refroidir, les neutrinos deviennent si dilués qu'ils ne peuvent plus s'annihiler. Il ne s'est passé qu'une seconde depuis l'explosion primordiale (ou ce qu'on qualifie comme tel), la température est de 10 milliards de degrés et nous voilà en présence des premiers fossiles connus de l'Univers, condamnés à errer à jamais dans l'espace : les neutrinos du big bang. L'histoire continue et le refroidissement se poursuit inexorablement. Le découplage des photons correspond au moment où les électrons se combinent aux premiers noyaux (principalement au plus simple d'entre eux, le proton) pour former les atomes, électriquement neutres. L'Univers est alors âgé de 1 million d'années et la température est de 3000 K. Les photons fossiles vont continuer de se refroidir jusqu'à atteindre la valeur de 3K, température à laquelle ils ont été découverts par Penzias et Wilson en 1965. Les neutrinos eux se sont refroidis un peu plus ; leur température est de 2K, correspondant à une énergie de l'ordre du milli-électron-volt (meV).
Des quantités fabuleuses de neutrinos ont été produites, puisqu'on estime aujourd'hui leur nombre à 300 par cm3 dans tout l'Univers, toutes espèces confondues. Malheureusement, nous n'avons pas réussi à les observer et leur détection est extrêmement difficile, en particulier en raison de leur énergie ridiculement faible. Une telle quantité de neutrinos ne peut laisser indifférent. Ils pourraient être une contribution importante de la matière noire de l'Univers. Las ! Leur masse est trop faible (voir chapitre suivant) pour qu'ils puissent jouer un rôle important à cet égard. On estime aujourd'hui leur contribution quelques pour mille de la densité critique[2], ce qui est malgré tout autant que la masse visible de toutes les étoiles et galaxies. Mais leur rôle en cosmologie n'est pas limité pour autant. Ils interviennent tout d'abord dans la formation des structures de l'Univers, galaxies et amas de galaxies. L'effet est le suivant : tant que les neutrinos sont relativistes (et cette notion dépend de leur masse), ils voyagent librement des régions denses vers les régions moins denses et vont donc contribuer plus ou moins rapidement à la densité locale, définissant des échelles de structures plus ou moins grandes. L'analyse de ce qu'on appelle les grandes structures, avec des sondages profonds de l'Univers, permet aujourd'hui de contraindre la masse des neutrinos à moins de 0,5 eV, mieux que les mesures directes. Ensuite, les neutrinos, en particulier les ne sont indispensables à la nucléosynthèse primordiale ; ils sont nécessaires pour transformer les neutrons en protons et vice-versa à l'aide de plusieurs réactions : ne n « p e- ; p « n e+ ; n ® p e- . Sans ces réactions, nous resterions paralysés par le nombre de protons et de neutrons présents à l'origine, et nous n'aurions pas eu ce formidable réservoir d'hydrogène qui est la source d'énergie de départ de toutes les étoiles qui veulent vivre longtemps. La mesure de l'hélium primordial dans l'Univers a ainsi permis de contraindre le nombre de familles de neutrinos à une valeur de 3, la même que les expériences auprès du LEP.

8. En guise de conclusion.

Les neutrinos sont au cSur d'un processus dialectique fécond entre la physique des particules, l'astrophysique et la cosmologie, entre la théorie et l'expérience. Les progrès considérables de ces dernières années dans notre compréhension des neutrinos sont dûs principalement à l'observation de phénomènes astrophysiques où ils jouent un rôle-clé ; en retour, ils ont solutionné quelques vieilles énigmes. Quel bilan peut-on tirer ? Que nous réserve l'avenir ?
L'analyse simultanée des résultats des expériences de neutrinos solaires et de neutrinos atmosphériques (complétée avec les expériences auprès des réacteurs nucléaires comme Chooz ou KamLAND) donne accès aux paramètres de l'oscillation entre les trois espèces de neutrinos. Concernant la masse, les deux paramètres sont des différences de masses au carré Dm2, et pas la valeur absolue, et on obtient 2,3 10-3 eV2 et 8 10-5 eV2. On peut illustrer la petitesse des masses de neutrino correspondantes à l'aide de quelques hypothèses, et notamment celle d'une hiérarchie des masses de neutrinos analogue à celle des leptons chargés. On estime alors la masse du neutrino le plus lourd, le nt, à 0,05 eV, soit 10 millions de fois plus petite que celle de l'électron ; celle du nm à 0,008 eV, celle du ne encore moins. Cette même analyse nous informe également sur les angles de mélange. Elle dit : a) l'oscillation à la fréquence déterminée par les neutrinos atmosphériques (fonction de leur énergie et la longueur parcourue) est maximale et le nm se transforme intégralement en nt ; l'oscillation à la fréquence déterminée par les neutrinos solaires est grande mais pas maximale et le ne se transforme assez souvent en nm ou nt ; c) le troisième angle de mélange est encore inconnu et l'expérience auprès du réacteur de Chooz a permis de mettre une limite supérieure. Une nouvelle collaboration internationale, Double Chooz, se met en place pour traquer ce dernier paramètre, simultanément avec des expériences auprès des accélérateurs.
Il est une propriété des neutrinos dont nous n'avons pas parlé. Le neutrino pourrait être sa propre antiparticule ? Pour étudier cette possibilité, passionnante sur le plan théorique, des expériences dites de « double désintégration b sans émission de neutrinos » se construisent à travers le monde. Une belle expérience, NEMO3, fonctionne actuellement dans le laboratoire souterrain de Modane à la recherche de ces trop rares événements. En cas de découverte, le résultat donnerait simultanément une information précieuse sur la masse des ne.

En résumé, nous pouvons dire que les neutrinos sont des messagers incontournables de phénomènes fondamentaux dans l'Univers. Au-delà de sa masse, qu'avons-nous appris ? Tout d'abord le Soleil fonctionne comme prévu, sa source d'énergie étant la réaction nucléaire de fusion entre deux protons. Ensuite la mort des étoiles massives en supernova émet des quantités phénoménales de neutrinos, et ils sont probablement acteurs de l'explosion. Les neutrinos sont les plus vieux fossiles de l'Univers, mais contribuent marginalement à la matière noire. L'astronomie neutrino à haute énergie, prometteuse, en est encore à ses balbutiements.
Les neutrinos nous ont gâtés ces dernières années. Ils nous réservent encore bien des surprises. Il suffit d'être curieux et ... patient.



[1] Les physiciens expriment l'énergie en électronvolts (eV), un électronvolt valant 1,6 10-19 joule. La masse est exprimée en eV/c2 et souvent par simplification en eV lorsque l'on prend la convention c=1. Une masse de 1 eV correspond à environ 10-33 g.
[2] La densité de l'Univers s'exprime en fonction de la densité critique. Si la densité est inférieure, l'Univers est ouvert ; si elle est supérieure, il est fermé et son volume est fini. Les mesures des paramètres cosmologiques laissent à penser aujourd'hui que la densité de l'Univers est exactement égale à la densité critique.
COMMENTAIRES

AJOUTER UN COMMENTAIRE LIRE LES COMMENTAIRES
serge gamache 17/06/2013 03H59
La nature ne gaspille pas son énergie a fabriquer une particule sans qu'elle n’est un role utile a jouer et plus la dite particule est abondante,plus sont role doit etre important de plus, lorsque que la particule devient neutre on ne peut pas vraiement savoir si elle provient de matiere ou dantimatiere donc le neutrino est la particule unique pouvant etre transformer electriquement pour devenir soit un quark soit un electron soit un photon.

 

   VIDEO     canal U       LIEN  

 
 
 
 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

 

 

 

 

 

 

 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.


LES TROUS NOIRS ET LA FORME DE L'ESPACE


Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet

Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.
Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».

Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.

Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !
Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.
Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.

L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.

Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.

L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !

La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.

Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.

Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).

Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.

Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.
Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.
Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

ASTROPHYSIQUE, PHYSIQUE DES PARTICULES ET ASTROPARTICULES

 

 

 

 

 

 

 

Texte de la 185e conférence de l’Univerisité de tous les savoirs donnée le 3 juillet
2000.

Astrophysique, physique des particules et astroparticules
par François Vannucci


Introduction
L’astrophysique est la science qui étudie la nature à l’échelle de l’infiniment grand,
jusqu’aux dimensions de l’univers entier, c’est-à-dire quelques 1026 m. À l’opposé, la
physique des particules explore la matière à l’échelle de l’infiniment petit et permet
actuellement de sonder des distances jusqu’à 10-18 m. Astrophysique et physique des
particules représentent donc les deux frontières de la connaissance humaine.
La physique des astroparticules est une interface entre ces deux extrêmes. Alors que
les objets de l’astrophysique sont de tailles macroscopiques, planètes, étoiles, galaxies…, la
physique astroparticulaire étudie des objets microscopiques, les particules élémentaires ellesmêmes,

mais au lieu de se limiter aux particules produites auprès des accélérateurs, les
sources en sont maintenant astrophysiques. En pratique, cette discipline s’est récemment
développée grâce aux physiciens des particules qui, pour certains, se sentaient à l’étroit près
des accélérateurs, et qui ont transposé leurs techniques de détection pour l’observation des
phénomènes violents qui apparaissent dans le ciel.
L’astrophysique utilise comme intermédiaire de l’information, la lumière, c’est-à-dire
des photons appartenant à la gamme visible ou proche du visible, détectés grâce à des
instruments optiques, plaques photographiques, CCD. La physique astroparticulaire bénéficie
d’une panoplie plus large de messagers : photons d’énergies élevées, mais aussi protons ou
noyaux atomiques, électrons et neutrinos. Le but de cette physique est double, elle permet à la
fois de mieux comprendre les sources de ces rayonnements, c’est-à-dire les phénomènes à
l’origine d’accélérations gigantesques, mais aussi d’affiner la connaissance des propriétés des
particules elles-mêmes produites dans des conditions impossibles à égaler sur terre.

Deux exemples
Les gammas de hautes énergies
Seuls les photons visibles peuvent traverser l’atmosphère sans être absorbés. Pour
d’autres longueurs d’onde, l’étude se fait en satellite où les conditions d’observation sont
idéales. Mais les satellites ont des dimensions limitées, et les flux de photons de très hautes
énergies sont si faibles qu’il faut pouvoir disposer de surfaces de détection importantes pour
compter un nombre suffisant d’événements. Dans l’atmosphère, les photons énergiques se
multiplient en donnant une gerbe dite électromagnétique qui, à son maximum, peut atteindre
des millions de particules, essentiellement des électrons et des positrons. Ceux-ci disposent
encore d’une énergie suffisante pour donner le long de leur trajectoire de la lumière qu’on
peut détecter grâce à des capteurs couvrant de grande surface. Un dispositif de ce type, appelé
Cat, est en opération au pied des Pyrénées. Alors qu’en lumière visible on répertorie des
milliards de sources, et qu’en rayonnement X, il en reste quelques milliers, on n’a détecté à ce
jour que quatre sources certaines aux énergies allant jusqu’à 1014 eV, en particulier un pulsar,
le Crabe, et deux noyaux actifs de galaxies Mk 421 et 501 qui ont surpris par la très grande
variabilité de leur émission. Le spectre des photons arrivant sur terre renseigne d’autre part
sur le milieu traversé.
Les rayons cosmiques chargés
Les rayons cosmiques chargés ont été étudiés depuis le début du 20ième siècle, et si
beaucoup de physiciens se sont tournés vers les accélérateurs au milieu du siècle, certains
observent à nouveau le ciel qui permet des énergies qu’aucun accélérateur ne peut atteindre.
On détecte aujourd’hui des particules, probablement des protons atteignant des énergies de 50
J, l’énergie d’une balle de tennis lors d’un service ! La figure 1 montre le spectre de ce
rayonnement mesuré jusqu’à ces énergies macroscopiques. Quelques rayons cosmiques de
plus de 1020 eV ont été observés, et ils posent un problème, car ils ne peuvent provenir de
sources très lointaines du fait de l’absorption inhérente à la présence du fond cosmologique,
mais d’autre part on ne connaît pas de phénomènes d’accélération suffisamment puissants
dans les régions proches de nous. Certaines théories les expliquent comme témoins de
phénomènes liés au Big-Bang.
Figure 1 : Spectre des rayons cosmiques mesuré jusqu’aux énergies ultimes.
Pour espérer résoudre l’énigme présente, il faut accumuler des statistiques suffisantes,
or ces rayons sont très rares, puisqu’ils bombardent la terre à raison de 1 par km2 et par siècle.
Il faut donc disposer de très grandes surfaces de collection. L’observatoire Auger se donne
pour but d’instrumenter 3 000 km2 d’un plateau en Argentine. Un rayon cosmique ayant
l’énergie considérée ici, produit au total des milliards de particules secondaires, et arrose au
sol une surface de quelques 10 km2. Le détecteur consiste en un réseau de capteurs distants
les uns des autres de 1.5 km.

Le mystère des neutrinos
Les neutrinos peuvent être considérés comme les astroparticules « par excellence »,
car ils sont présents à toutes les échelles de l’univers, ce qui fait du neutrino la particule, hors
le photon, la plus abondante. Des sources très puissantes contribuent à cette présence
incontournable.
En premier lieu, le soleil. Il nous envoie chaque seconde 60 milliards
d’«hélioneutrinos ». sur chaque cm2 de notre terre. Ils proviennent de réactions de fusion à
l’origine de l’énergie qui fait briller notre astre, et les prédictions de flux reposent sur des
calculs très élaborés que les théoriciens affirment fiables à quelques pour cent près. Ce flux
nous traverse autant le jour que la nuit, car la terre est transparente aux neutrinos.
Une supernova de type IIa éjecte presque toute son énergie en libérant 1058
« galactoneutrinos » en quelques secondes. En février 1987 une telle explosion eut lieu à
150000 années-lumière de notre terre, dans le grand nuage de Magellan, et une vingtaine des
neutrinos ainsi produits fut interceptée dans de vastes détecteurs souterrains.

Les neutrinos atmosphériques, « géoneutrinos » proviennent du bombardement des
rayons cosmiques primaires dont il a été déjà question, sur les couches les plus hautes de
l’atmosphère. Les protons interagissent en donnant des pions qui se désintègrent rapidement,
ce qui résulte en un flux d’environ 1 neutrino par minute et par cm2.
Les neutrinos peuvent aussi provenir de sources extragalactiques encore mystérieuses,
telles que noyaux actifs de galaxie, trous noirs…, et ici l’expérimentation en est encore à ses
balbutiements.
N’oublions pas l’homme et ses « anthroponeutrinos ». Un réacteur nucléaire EdF
produit quelques 1020 (anti)-neutrinos par seconde, sans aucun danger pour l’environnement,
et les accélérateurs permettent de construire des faisceaux bien maîtrisés qui s’avèrent les
mieux adaptés pour les recherches les plus fines concernant les propriétés de ces particules.
Au-delà de toutes ces sources variées, le producteur le plus prolifique fut le Big Bang,
il y a 14 milliards d’années. Les astrophysiciens nous enseignent que la grande explosion
originelle a laissé 300 « cosmoneutrinos » dans chaque cm3 de l’Univers. Cette densité
semble faible, rapportée aux densités de particules dans la matière ordinaire, mais intégrée sur
tout le volume de l’univers, elle donne une population de neutrinos plusieurs milliards de fois
plus abondante que celle des protons, neutrons et électrons qui forment les atomes.
Comment s’y retrouver dans toutes ces catégories de neutrinos ? Par chance, les
différentes populations s’échelonnent en classes d’énergies bien distinctes. Ainsi, les
neutrinos cosmologiques possèdent les énergies les plus faibles, le milli-eV, tandis qu’on
attend des énergies atteignant l’Exa-eV pour les neutrinos extragalactiques. Entre ces
extrêmes, les neutrinos solaires se concentrent autour de 1 MeV et les atmosphériques autour
de 1 GeV. La figure 2 montre cette hiérarchie d’énergies.

Figure 2 : Distribution en énergies des sources variées de neutrinos.
C’est le paradoxe des neutrinos : ils nous entourent en bataillons innombrables, et
pourtant ils ne nous affectent aucunement. Car ils ne subissent que l’interaction dite faible et
un seul neutrino de 1 GeV sur 100000 est arrêté dans la traversée de la terre, d’où le
qualificatif de fantôme souvent attribué à cette évanescente particule. La probabilité
d’interaction est faible mais pas nulle, sinon, on ne saurait rien d’eux. Or, grâce à des flux
très intenses obtenus auprès d’accélérateurs puissants, et grâce à des détecteurs très massifs,
on dispose aujourd’hui de millions d’interactions de neutrinos enregistrées au cours de
plusieurs générations d’expériences qui ont analysé en détail les propriétés de leur couplage
avec la matière.
Parfois un neutrino produit, lors de son interaction, un électron identifié : c’est un
neutrino électronique νe. Parfois l’interaction donne un muon, c’est le neutrino muonique νμ
qui est ici responsable.
νe νμ, l’histoire s’arrête-t-elle là ? Le nombre de types de neutrinos existant dans la
nature a été mesuré précisément grâce à un accélérateur du CERN : le LEP. Le résultat est
sans appel: 2.990 ± 0.016. Cette mesure provient de l’étude du Z0, le boson intermédiaire des
interactions faibles neutres, produit lors de collisions e+ e- et qui se désintègre quasiinstantanément.
La figure 3 montre la courbe dite d’excitation du boson Z0. La largeur de
cette courbe en cloche dépend du nombre de neutrinos. Plus il en existe de types différents,
plus la courbe est aplatie, et son ajustement permet d’extraire le nombre total de neutrinos
cité plus haut. Ainsi, la nature se contente de 3 neutrinos différents et 3 seulement qu’on
appelle νe νμ et ντ.
Figure 3 : La courbe « d’excitation » de la résonance Z0 mesurée au LEP, qui prouve
l’existence de seulement trois neutrinos légers différents.
L’expérience SuperKamiokande et les oscillations
Puisqu’il est nécessaire de disposer de détecteurs énormes pour obtenir un nombre
suffisant d’interactions, décrivons l’ambitieuse expérience qui a donné les résultats les plus
probants dans le domaine des neutrinos solaires et atmosphériques : SuperKamiokande.
Construite dans une mine de zinc sous une montagne japonaise près de la petite ville de
Kamioka, elle a commencé à prendre des données en avril 1997. Le dispositif consiste en un
volume gigantesque, d'environ 35m*35m*40m rempli d'eau purifiée, constamment observé
par plus de 11000 tubes photomultiplicateurs, capteurs pouvant détecter la présence de
quelques photons visibles. C’est une véritable cathédrale souterraine que montre la figure 4
pendant la phase de remplissage. On y voit des techniciens sur un canoë effectuant les
derniers ajustements des photomultiplicateurs avant que l’eau ne les recouvre.

Figure 4 : Photographie du détecteur SuperKamiokande pendant la phase de
remplissage (cliché ICRR-Tokyo).
Un neutrino interagissant dans l'eau produit des particules chargées de différents types
qui, si elles ont suffisamment d'énergie, donnent dans la traversée de l'eau des photons
visibles produits par l'effet appelé Cerenkov. Cet effet s’apparente à l’émission d’une onde de
choc électromagnétique, et naît chaque fois qu’une particule se propage dans un milieu à une
vitesse supérieure à celle de la lumière. Or, dans l’eau, la lumière se propage à 220000 km/s,
et un électron d’énergie 1 MeV dépasse cette vitesse. Un cône lumineux est produit le long de
la trajectoire, ce qui résulte en un anneau de photons au niveau des photomultiplicateurs.
Ainsi on mesure le flux des neutrinos solaires au-dessus d’une énergie de 5 MeV, or
on ne compte que la moitié du flux prédit par les théoriciens.
Dans la gamme d’énergie entre 100 MeV et quelques GeV, on détecte un signal
venant des neutrinos atmosphériques. Dans ce dernier cas, les interactions des neutrinos νμ
produisent des muons, les interactions des neutrinos νe produisent des électrons. Or muons et
électrons donnent des anneaux suffisamment distincts pour qu'on puisse compter séparément
les νμ et les νe incidents. La direction de la particule détectée informe d’autre part sur la
direction du neutrino qui a donné lieu à l’interaction, du moins aux énergies suffisamment
élevées. À nouveau le résultat n’est pas conforme aux prédictions. SuperKamiokande détecte
bien les neutrinos électroniques au niveau attendu, mais semble mettre en évidence un
manque de neutrinos du type muonique. Et l’expérience avance un argument supplémentaire
décisif. Les neutrinos atmosphériques proviennent de toutes les directions, puisqu’ils sont
produits tout autour de la terre. Ceux reconstruits comme venant « d’en haut » naissent dans
l’atmosphère directement située au-dessus du site expérimental. Ils ont parcouru environ 10
km avant d’être détectés. Ceux provenant « d’en bas » sont produits aux antipodes et ont donc
parcouru de l’ordre de 10000 km avant d’atteindre le dispositif expérimental. Or le déficit se
manifeste pour les νμ « d’en bas », qui ont traversé toute la terre, c’est-à-dire les neutrinos
ayant parcouru de longues distances avant leur détection. La figure 5 explicite
quantitativement le résultat en montrant la distribution en angle zénithal. Le déficit est
apparent à cosθ = -1.

Figure 5 : Distribution en angle zénithal des interactions de neutrinos
atmosphériques montrant le déficit des νμ montant.
Neutrinos solaires et atmosphériques ont donc bien été mis en évidence, mais dans les
deux cas, le flux mesuré présente une anomalie en regard du flux attendu. Le fait de trouver
un accord à un facteur 2 près entre des mesures délicates et des prédictions difficiles est déjà
une grande réussite. Pourtant les physiciens ne s’en contentent pas et cherchent à comprendre
ce désaccord.
On mesure moins de neutrinos que prévu, une partie semble avoir disparu entre la
source de production et le point de détection. À moins que certains, au cours de leur voyage,
n’aient changé de type. En effet les détecteurs actuels de neutrinos solaires ne sont sensibles
qu’aux νe et il se pourrait que les νe produits à l’intérieur du soleil se soient convertis en νμ
avant d’atteindre la terre. De même, les indications de SuperKamiokande peuvent
s’interpréter comme une conversion de νμ en ντ qui échappe à la détection, sur des distances
de l’ordre du diamètre terrestre.
Ce phénomène dans lequel un type de neutrino se transforme spontanément en un type
différent est appelé oscillation. C’est un processus permis en mécanique quantique dès lors
que les neutrinos ont une masse. La probabilité du phénomène dépend de la différence des
masses carrées entre les neutrinos oscillants. Ce mécanisme revêt beaucoup d’importance, car
il permet de sonder des différences de masses très petites, inaccessibles par tout autre moyen.
Or la question qui se pose actuellement sur les neutrinos concerne précisément leur masse, et
on sait seulement que si masse il y a, elle doit être minuscule.
L’interprétation communément admise du déficit des νe solaires par le phénomène
d’oscillations amène à une relation entre les masses m1 et m2 des états propres correspondant
aux νe et νμ : m22 - m12 = 5.10-5 eV2. Pour les neutrinos atmosphériques, le déficit des
νμ observé suggère une seconde relation entre les masses des neutrinos oscillants: m’22 -
m’12 = 3.10-3 eV2. Elle s’applique a priori aux états propres correspondant au couple νμ et
ντ.
La recherche d'oscillations est un domaine très actif, et plusieurs générations
d’expériences en ont cherché les effets, soit auprès de réacteurs, soit auprès d’accélérateurs
sans les mettre en évidence. La situation actuelle n’est pas entièrement claire et une
confirmation du signal revendiqué par SuperKamiokande est attendue. Elle devrait venir de
programmes en cours de réalisation, au Japon d’abord, puis au CERN et aux Etats-Unis, et
qui nécessitent de grandes distances de vol pour être sensibles à de très petites masses. Ainsi,
en 2005, on enverra un faisceau produit à Genève vers le tunnel du Gran Sasso près de Rome,
laissant aux neutrinos 730 km pour osciller. Les détecteurs imaginés sont à la mesure du
problème.

La fin de la physique ?
Au cours des cent dernières années, les progrès de la connaissance scientifique ont été
spectaculaires. Tant aux confins de l’infiniment grand qu’à ceux de l’infiniment petit, environ
huit ordres de grandeur ont été gagnés. On discerne aujourd’hui des détails cent millions de
fois plus fins qu’il y a cent ans, et on se rapproche de l’instant même du Big-Bang. Les
frontières du connu semblent d’ores et déjà avoir atteint leurs limites. En effet, on ne peut
penser aller au-delà du Big Bang, et la quête de l’infiniment petit bute de plus en plus contre
le mur du gigantisme.
Indéniablement, le 20ième siècle aura été le siècle de la physique. Le 21ième siècle
débute avec le déchiffrage du génome humain, et certains annoncent le siècle de la biologie.
D’autant que la biologie est riche de promesse, certains esprits téméraires allant jusqu’à
envisager l’immortalité, alors que les retombées de la physique des astroparticules semblent
illusoires, et que le domaine apparaît comme un simple passe-temps de physiciens.
Pourtant la physique n’a pas révélé tous ses secrets. Nous sommes peut-être à l’aube
d’une nouvelle révolution copernicienne. En effet, l’univers est, semble-t-il, rempli à 95%
d’une matière sombre, détectée par les vitesses anormales de rotation d’objets célestes
(figure 6), et d’une énergie sombre résultant d’études de supernovae lointaines et qui
indiquent que l’expansion de l’univers est en accélération. Or matière et énergie sombres
n’ont, semble-t-il, rien à voir avec notre matière ordinaire. L’essence même de notre monde
étudié au cours des derniers siècles semble ne représenter qu’une toute petite partie de
l’univers.
Figure 6 : Évidence de matière sombre révélée par les vitesses de rotation d’objets
célestes en fonction de leur distance au centre galactique.
Pendant un temps on espérait que les neutrinos puissent expliquer la matière sombre.
En effet, le scénario du Big Bang prédisant une population de neutrinos plusieurs milliards de
fois plus abondante que celle des autres particules, une masse avoisinant quelques 10 eV,
suffisait pour que la masse totale des neutrinos dépasse celle de la matière visible et donc
influence le devenir de l’univers. Un tel scénario était privilégié avant le résultat de
SuperKamiokande. Aujourd’hui, l’expérience japonaise semble indiquer une contribution
marginale des neutrinos à la masse de l’Univers, quoique avoisinant la masse visible, celle
constituée par l'ensemble des étoiles.
La masse sombre est donc recherchée dans d’autres directions : particules
hypothétiques telles que axions ou particules supersymétriques. Quant à l’énergie sombre
c’est aujourd’hui un mystère complet.
Il reste donc de grandes énigmes que la physique peut et doit résoudre, mais pour
certains cette recherche apparaît comme trop ésotérique et coupée des préoccupations jugées
importantes. Pourtant, dévoiler les secrets de l’univers est pour l’homme aussi exaltant que
composer un poème ou une sonate. La justification d’une telle recherche est à trouver dans
l’enrichissement de l’aventure humaine. Il ne faut pas brider la curiosité intellectuelle. La
connaissance est un bien précieux, et on peut espérer qu’un jour, quand la science aura
répondu à tous les comment de la nature, le pourquoi en deviendra un peu plus clair, or c’est
bien là la question essentielle posée à l’homme.
Références :
Winter (K.) éditeur, Neutrino Physics. Cambridge University Press 1991.
Crozon (M.) et Vannucci (F.), Les particules élémentaires. « Que sais-je? » PUF 94
Vannucci (F.), Les neutrinos sur la balance, Images de la Physique/CNRS 1999.

 

 VIDEO     canal U       LIEN   

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon