ecole de musique piano
     
menu
 
 
 
 
 
 

LES NEUTRINOS DANS L'UNIVERS

 

 

 

 

 

 

 

LES NEUTRINOS DANS L'UNIVERS


Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies… Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes.

 

Texte de la 581 e conférence de l'Université de tous les savoirs prononcée le 24 juin
2005
Par Daniel Vignaud: « Les neutrinos dans l'Univers »

Introduction
Notre corps humain contient environ 20 millions de neutrinos issus du big bang et émet chaque seconde quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil et quelques millions d'antineutrinos cm2 par seconde venus de la Terre, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies... Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ?

Inventé par W. Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F. Reines et C. Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir.

En 1938, H. Bethe imaginait que des réactions nucléaires de fusion étaient au cSur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la conception de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre avec certitude que le déficit de neutrinos solaires observé (le célèbre « problème des neutrinos solaires ») était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle.

Nous ferons le point sur cette particule fascinante après les découvertes récentes.


1. Le neutrino, particule élémentaire

Le neutrino est né en 1930 pour répondre à un problème expérimental non résolu. A la fin des années 20, période charnière en physique s'il en est, les physiciens s'interrogent sur une difficulté liée à la désintégration b des noyaux radioactifs. L'énergie de l'électron émis devrait avoir une valeur unique et non la forme d'un spectre étendu comme il est observé. Niels Bohr va alors jusqu'à proposer de manière iconoclaste que l'énergie n'est pas conservée dans un tel processus. En décembre 1930, Wolfgang Pauli, dans une lettre restée célèbre « Chers messieurs et dames radioactifs ... », émet l'hypothèse qu'une particule inconnue emporte une partie de l'énergie pour rétablir l'équilibre. Il n'est pas trop sûr de son idée, pourtant géniale, et il faudra plusieurs mois pour qu'il l'élabore plus officiellement. Le déclic a lieu à Rome à l'automne 1933. Enrico Fermi, qui a baptisé la particule « neutrino » (le petit neutre), l'incorpore à la théorie de l'interaction faible qu'il construit magistralement.
Le neutrino restera longtemps à l'état de particule « virtuelle ». Plusieurs physiciens, et non des moindres comme Hans Bethe, écriront même qu'il est quasiment impossible de le mettre en évidence, tant est faible sa probabilité d'interaction. Il faudra attendre d'avoir des sources de neutrinos suffisamment puissantes.
Le neutrino sera découvert en 1956 par Frederick Reines et Clyde Cowan, auprès du réacteur de Savannah River (Caroline du Sud), après une première tentative en 1953. Il s'agit en réalité de l'antineutrino émis dans la fission de l'uranium. Lorsque cet antineutrino interagit avec un proton de la cible, il émet un positron (antiparticule de l'électron) et un neutron. La détection simultanée de ces deux particules est la signature non ambiguë de l'interaction de l'antineutrino. Ces neutrinos associés avec un électron sont appelés neutrinos électroniques ne.
En 1962 une équipe de physiciens mettra en évidence un deuxième type de neutrinos, le neutrino-muon nm, auprès de l'accélérateur du Brookhaven National Laboratory. Les nm sont issus de la désintégration des mésons p (ou pions) en association avec un muon m, le m étant un lepton plus lourd que l'électron. A la suite de la découverte d'un troisième lepton encore plus lourd, le tau t, en 1978, il était clair qu'il y avait un troisième type de neutrinos associé, le nt. Celui-ci ne sera découvert qu'en 2000.
Combien y a-t-il d'espèces de neutrinos ? La réponse est venue du collisionneur électron-positron du CERN, le LEP, en 1990. En mesurant avec précision la largeur de désintégration du boson Z, proportionnelle au nombre d'espèces, les physiciens ont déterminé qu'il n'y en avait que trois. Ces trois neutrinos et les trois leptons chargés qui leur sont associés sont les briques leptoniques de la matière, soumises à l'interaction faible. Les 6 quarks sont les briques hadroniques de la matière, soumises à l'interaction forte. Ils sont regroupés en trois doublets dont l'association aux 3 doublets leptoniques est fondamentale au modèle standard de la physique des particules. Toutes les particules chargées sont en outre soumises à l'interaction électromagnétique, dont l'intensité est intermédiaire entre la force faible et la force forte. Les neutrinos, sans charge électrique, ne sont soumis qu'à l'interaction faible : ils interagissent environ mille milliards de fois moins que l'électron, qui lui-même interagit environ cent fois moins qu'un proton. Quid de leur masse ? Attendons la suite.

2. L'oscillation des neutrinos

Dans le modèle standard dit « minimal » de la physique des particules, les neutrinos n'ont pas de masse. C'est à priori surprenant car toutes les autres briques de matière (quarks, électrons, muons, ...) en ont une. Les tentatives de mesurer directement cette masse sont restées vaines. Les physiciens les plus ingénieux n'ont pu mettre que des limites supérieures sur leur valeur. Et cette limite supérieure est bien inférieure à la masse des leptons chargés associés. Par exemple celle sur la masse du ne est 1 eV [1] alors que la masse de l'électron est de 511000 eV (et celle du proton un milliard d'eV). Si les mesures directes ne donnent rien pour l'instant, il faut faire appel à la ruse, en l'occurrence une propriété liée à la mécanique quantique.
La mécanique quantique nous dit que les neutrinos que l'on observe, les ne, nm ou nt ne coïncident pas nécessairement avec ce qu'on appelle les états propres de masse mais peuvent en être des superpositions. Si les neutrinos ont une masse, le calcul montre alors que lorsqu'ils se déplacent, ils peuvent se transformer (plus ou moins totalement) d'une espèce dans une autre. Le phénomène est périodique en fonction de la distance L parcourue entre la source et le détecteur et a pris le nom d'oscillation. La longueur d'oscillation est proportionnelle à l'énergie et inversement proportionnelle à la différence des carrés des masses des deux neutrinos considérés. Comme nous avons 3 familles de neutrinos, les paramètres de l'oscillation sont 3 angles de mélange qi et deux différences des carrés des masses Dm2ij. La mise en évidence de l'oscillation serait donc une preuve directe que les neutrinos sont massifs.
Si nous voulons illustrer de manière simple le mécanisme d'oscillation et ses conséquences, donnons une couleur à chaque espèce de neutrinos, par exemple bleu pour le ne, rouge pour le nm et vert pour le nt. Supposons une source de neutrinos bleus et un détecteur de neutrinos sensible uniquement aux neutrinos rouges. Si le détecteur ne compte rien, c'est qu'il n'y a pas eu d'oscillation ; si le détecteur compte toujours du rouge, c'est que l'oscillation est maximale ; si le détecteur compte parfois du rouge c'est que le mélange est partiel.
La question de la masse des neutrinos est fondamentale pour ouvrir la porte du modèle standard vers de nouvelles théories plus complètes. Comme nous allons le voir, le mécanisme d'oscillation va prouver non seulement que les neutrinos ont une masse, mais également qu'il est la clé de plusieurs énigmes astrophysiques.

3. Les neutrinos solaires

Depuis les années 20, on pressent que la source d'énergie du Soleil (et des étoiles) est d'origine nucléaire. Les neutrinos nous en ont apporté la preuve directe, à la suite de quarante années excitantes d'échanges passionnés entre les astrophysiciens qui construisent des modèles du Soleil, les expérimentateurs qui inventent et mettent en Suvre des détecteurs de plus en plus gros et de plus en plus sensibles, les théoriciens qui affinent notre compréhension du comportement des neutrinos.
Le Soleil est une gigantesque boule de gaz, essentiellement de l'hydrogène et de l'hélium. Au centre, la température est suffisamment élevée (15 millions de degrés) pour initier des réactions nucléaires de fusion entre deux protons (deux noyaux d'hydrogène). Cette fusion produit un noyau de deutérium, un positron et un ne. Il s'ensuit un cycle compliqué de réactions nucléaires où l'hydrogène va se transformer en hélium en libérant une minuscule quantité d'énergie (10-12W). Lorsque l'on connaît l'énergie produite par le Soleil (1360 W par m2 sur Terre), on calcule que l'on est bombardé en permanence par 65 milliards de neutrinos solaires par cm2 par seconde.
L'histoire commence en 1964 par des discussions entre deux scientifiques que rien ne destinait à collaborer. L'astrophysicien John Bahcall fait les premiers calculs du flux et du spectre en énergie des neutrinos solaires. Raymond Davis, un chimiste, reprend une de ses idées antérieures de détecter les ne avec du chlore grâce à la réaction ne + 37Cl ® e- + 37Ar qui fait intervenir un des isotopes du chlore. Cette méthode radiochimique nécessite de construire un détecteur contenant 600 tonnes de tétrachlorure de carbone C2Cl4, de le placer profondément sous terre dans la mine d'or de Homestake (Dakota du Sud), d'extraire régulièrement les atomes d'argon radioactif (37Ar) et de compter leur désintégration, témoignage direct du passage des neutrinos solaires. L'expérience est difficile car malgré le flux important de neutrinos qui traverse le détecteur, un par jour seulement transmute le chlore en argon. Les premiers résultats, en 1968, montreront que Davis compte trois fois moins d'argon que prévu. C'est le début de ce que l'on a appelé le problème ou l'énigme des neutrinos solaires.
Les astrophysiciens ont raffiné leurs modèles ; plusieurs équipes, dont des françaises, ont brillamment contribué à mieux connaître le fonctionnement du Soleil. L'expérience chlore a continué pendant 30 ans, perfectionnant sa méthode, traquant les inefficacités. D'autres expériences se sont construites : Kamiokande au Japon, à partir de 1986 avec 3000 tonnes d'eau ; les expériences gallium (GALLEX au laboratoire souterrain du Gran Sasso, Italie, et SAGE au laboratoire souterrain de Baksan, Caucase), à partir de 1990 rassemblant près de 100 tonnes de ce précieux métal ; SuperKamiokande au Japon à partir de 1996 et ses 50000 tonnes d'eau. Rien à faire : le flux mesuré est toujours resté inférieur au flux calculé, après toutes les vérifications expérimentales et les progrès théoriques.
Parallèlement, les physiciens des particules, dans leur tentative d'inclure les neutrinos dans leur modèle standard, étudiaient sérieusement cette possibilité que les neutrinos puissent osciller d'une espèce dans une autre. Ils mettaient en évidence un effet nouveau d'amplification possible de l'oscillation dans la matière du Soleil. A la fin des années 90, il était séduisant de penser que les neutrinos solaires n'avaient pas disparu, mais que les ne s'étaient transformés en nm ou nt (hypothèse confortée par la mise en évidence de l'oscillation des nm atmosphériques en 1998 comme nous le verrons dans le chapitre suivant). En effet, tous les détecteurs n'étaient sensibles qu'à ces ne et pas aux nm ou nt. Mais il manquait la preuve ! C'est alors que le détecteur SNO (Sudbury Neutrino Observatory) entre en scène. Utilisant une cible de 2000 tonnes d'eau lourde placée à 2000 m sous terre dans une mine de nickel au Canada, SNO a pu observer non seulement les interactions des ne (ne d ® e- p p) en mesurant l'électron, mais également les interactions de toutes les espèces (n d ® n p n) en mesurant le neutron. En juin 2001, les physiciens de SNO ont pu annoncer que les ne n'avaient pas vraiment disparu, mais qu'ils s'étaient transformés par le mécanisme d'oscillation. Ils montraient également que le flux total de neutrinos solaires était bien égal à celui calculé par les modèles. Ils continuent d'affiner leurs mesures, mais l'essentiel est là, fabuleux épilogue d'une belle histoire scientifique. Nous savons aujourd'hui que les neutrinos solaires se transforment en grande partie (mais pas totalement) en nm ou nt, sans savoir dans quel type en particulier.

4. Les neutrinos atmosphériques.

L'atmosphère est bombardée en permanence par le rayonnement cosmique, constitué pour l'essentiel de protons ou de noyaux plus lourds. Lorsque ces particules arrivent dans les hautes couches de l'atmosphère, elles interagissent avec l'air en produisant des pions. Ceux-ci vont se désintégrer en émettant un muon m et un neutrino nm. Après un parcours variable, le muon lui-même se désintègre en un électron, un antineutrino électronique et un nm. Un bilan rapide donne au niveau du sol deux fois plus de nm que de ne si on oublie la distinction particule-antiparticule, sans importance au premier ordre. Des modèles phénoménologiques calculent toutes les caractéristiques des neutrinos (nature, énergie, direction,...) avec la précision requise.
La mesure des neutrinos atmosphériques est intéressante en soi, mais n'était pas prioritaire pour les physiciens, car la source de ces neutrinos n'a que peu d'intérêt astrophysique. Ils y sont venus lorsqu'ils ont construit au début des années 80 des détecteurs pour observer la désintégration du proton, processus fondamental prédit par les théories de grande unification (fort heureusement avec une durée de vie supérieure à 1032 ans qui nous laisse le temps d'y penser). En effet, les interactions des neutrinos atmosphériques dans le détecteur constituaient un bruit de fond incontournable pour le signal attendu pour la mort du proton.
Le proton s'accrochant à la vie plus que prévu, les physiciens se sont concentrés sur les neutrinos atmosphériques, en essayant de comptabiliser séparément les ne des nm. Les premières expériences (Fréjus au laboratoire souterrain de Modane, Kamiokande au Japon, IMB dans l'Ohio) donnaient des résultats contradictoires. Avec quelques poignées d'événements, certaines observaient un rapport entre les deux types de neutrinos conforme aux prédictions, d'autres observaient un peu moins de nm que prévu. La difficulté de séparer les interactions des deux types de neutrinos (un électron dans un cas, un muon dans l'autre) et la faible statistique rendaient la communauté sceptique.
SuperKamiokande, dont nous avons déjà parlé pour les neutrinos solaires, arrive au printemps 1996. 50000 tonnes d'eau ultra-pure sont observées par plus de 10000 photomultiplicateurs, comme autant d'yeux. Ceux-ci sont sensibles à la lumière Tcherenkov émise dans l'ultra-violet par le passage des particules chargées. L'électron et le muon ont un comportement légèrement différent. Le muon produit un bel anneau de lumière, l'électron un anneau plus flou, plus large. En deux ans, la collaboration SuperKamiokande accumule plusieurs milliers d'interactions de neutrinos et raffine la séparation des deux types. En juin 1998, elle annonce qu'il y a bien un déficit de nm mais que les ne sont au rendez-vous avec le nombre attendu. Elle précise que le déficit de nm est associé à ceux venus des antipodes, c'est-à-dire ceux qui ont traversé la terre en parcourant une distance de plusieurs milliers de km. Comme nous avons appris que l'oscillation dépendait de la distance parcourue, l'interprétation en termes d'oscillation s'imposait naturellement. Depuis, tous les artefacts ont été traqués, les données se sont accumulées, et nous avons maintenant la certitude que non seulement les nm oscillent, mais qu'ils se transforment intégralement en nt.

5. Les neutrinos de supernova

Nous avons vu que les neutrinos étaient les témoins directs de la vie du Soleil : 8 minutes après avoir été produits au cSur de l'étoile, ces messagers nous informent que l'astre qui conditionne la vie sur Terre est en parfaite santé ; il est en plein âge mûr et a encore plus de 4 milliards d'années devant lui. Mais les neutrinos peuvent être également les messagers de la mort des étoiles lorsqu'elles explosent à la fin de leur vie, phénomène que l'on appelle supernova.
Le Grand Nuage de Magellan est une petite galaxie voisine de la Voie Lactée, notre Galaxie, à 150000 années-lumière, visible depuis l'hémisphère sud. A la fin de février 1987, un événement astronomique n'est pas passé inaperçu : nous avons reçu sur Terre le faire-part de décès d'une étoile de ce Nuage, Sanduleak -69°202, il y a justement 150000 ans. Et le message a été transmis par la lumière ... et par les neutrinos.
Dans la nuit du 23 au 24 février 1987, à l'observatoire chilien de Las Campanas, un astronome canadien et son assistant chilien observent par hasard une nouvelle étoile brillante dans le Grand Nuage de Magellan, une étoile qui va être visible pendant quelques dizaines de jour sans télescope. C'est la première supernova de l'année 1987 et elle sera baptisée SN1987A. Il y a des siècles qu'une supernova n'a pas été observée à l'Sil nu. Assez proche de la Terre (tout est relatif), elle n'intéresse pas que les astronomes. Depuis les années 40, on sait que les explosions de certaines supernovas sont des sources de neutrinos. Il devient urgent de le vérifier. Par chance, il y a deux ou trois détecteurs de neutrinos en fonctionnement, en particulier celui de Kamiokande au Japon, qui vient d'entrer en service il y a quelques semaines. Dès l'annonce du télégramme, les japonais se précipitent sur les données accumulées dans les dernières heures. Bienheureuse surprise lorsqu'ils découvrent que, le 23 février à 7h35 en temps universel, une dizaine de signaux caractéristiques se détachent du ronronnement du détecteur (qu'ils appellent le bruit de fond). Le phénomène a duré une poignée de secondes. Une dizaine de neutrinos voyageant depuis 150000 ans se sont laissés piéger par le détecteur souterrain. Mission accomplie pour ces témoins directs de la mort d'une étoile.
Les étoiles ne peuvent vivre qu'en consommant des quantités considérables de carburant. Plus elles sont massives, plus elles en consomment et moins elles vivent longtemps : le carburant s'épuise plus vite car la température centrale de l'étoile est plus élevée. L'histoire commence toujours par la transformation de l'hydrogène en hélium, comme dans le Soleil. Mais ensuite le cycle de réactions nucléaires fait intervenir le carbone, l'oxygène, le néon, puis le silicium, et enfin le fer, le noyau le plus stable. La structure de l'étoile est alors comparable à celle d'un oignon, avec les éléments les plus lourds au centre. Lorsque le cSur de fer a atteint une masse de 1,4 fois celle du Soleil, appelée masse de Chandrasekhar, il s'effondre violemment sur lui-même. La température monte brutalement, mais aucune réaction nucléaire ne peut plus avoir lieu car il n'y a plus de combustible approprié. La densité devient extrême. Les nombreux photons vont alors provoquer la photodésintégration du fer qui va retourner à l'état initial de protons et de neutrons. C'est alors que les électrons se font capturer par les protons dans une réaction (e- p ® n ne) qui est source de neutrinos, les premiers témoins de la mort de l'étoile. Des réactions d'annihilation entre les électrons et les positrons produisent des paires neutrino-antineutrino et ces malheureux restent quelques instants prisonniers tellement la densité est élevée. Soudain, alors que la partie centrale du cSur ne fait plus qu'une vingtaine de km de diamètre, elle se durcit brutalement et provoque le rebond des couches externes, qui tombent en chute libre, créant une formidable onde de choc. L'implosion, jusque là cachée aux yeux extérieurs se transforme en une gigantesque déflagration dévastatrice qui va se propager à travers les pelures de l'oignon. Les couches externes sont alors balayées vers l'extérieur. Au moment de l'explosion, l'étoile qui meurt devient brillante comme mille soleils et les neutrinos libérés se propagent dans tout l'espace.
Dans la réalité, les choses sont un peu plus complexes et les physiciens qui modélisent n'ont pas réussi à faire exploser l'étoile : l'énergie rejetée violemment vers l'extérieur ne serait pas suffisante pour traverser toutes les couches externes qui n'arrêtent pas de tomber vers le centre. Et pourtant l'étoile explose puisqu'on en voit le feu d'artifice. Les physiciens ont alors pensé que les neutrinos pourraient jouer un rôle dans cette explosion en venant à la rescousse de la déflagration. La situation s'améliore, mais l'explosion n'est pas assurée. S'il y a encore du travail, on pense aujourd'hui que les neutrinos sont bien des acteurs indispensables à l'explosion.
Une grande partie de l'énergie gravitationnelle de l'étoile se transforme en neutrinos de toutes les espèces et le nombre produit lors de l'explosion est fabuleux. Environ 1058 de ces particules ont été émises dans toutes les directions. 500 millions de milliards ont traversé le détecteur Kamiokande en moins de 10 secondes et une dizaine a laissé un signal.
Depuis 1987, d'autres détecteurs plus gros, plus performants ont été construits ou sont en projet. La veille est longue. La Nature ne nous a pas encore récompensé d'une nouvelle explosion. Mais nous sommes sûrs que les neutrinos messagers de la mort des étoiles sont déjà en route vers nous. A quand le prochain signal ? Dans un jour, dans un an ou dans dix ans ? Sachons être patients.

6. Les neutrinos extragalactiques

L'Univers est le siège de phénomènes particulièrement violents. Nous venons d'en voir un exemple avec les supernovas, mais il existe des astres dont la violence est permanente. Et si là encore les neutrinos pouvaient compléter les informations que nous donne la lumière reçue dans les télescopes, des ondes radio aux photons gamma en passant par la lumière visible.
Parmi les sources de lumière particulièrement intenses se trouvent les quasars. Il s'agit de trous noirs très massifs, en général au cSur d'une galaxie (on les appelle aussi noyaux actifs de galaxie), qui brillent à eux tout seuls beaucoup plus que le reste de la galaxie. Le trou noir attire la matière avant de l'engloutir, ce qui fournit une fabuleuse source d'énergie gravitationnelle (un ogre comme 3C273, à plus d'un milliard d'années-lumière de nous, se nourrit chaque année de l'équivalent de plusieurs soleils). Cette matière a la forme d'un disque, appelé disque d'accrétion. Perpendiculairement à ce disque, deux puissants jets de particules relativistes sont émis à des distances de plusieurs centaines de milliers d'années-lumière. Dans ces jets, il y a bien sûr des électrons, qui émettent en particulier des rayons gamma très énergiques, du keV au TeV, que l'on observe tous les jours avec les satellites comme INTEGRAL ou les détecteurs au sol comme HESS, en Namibie. Mais il y a aussi probablement des protons. Et ces protons, dans leurs interactions avec la matière environnante, vont produire des pions (rappelons nous les neutrinos atmosphériques) qui vont se désintégrer en gammas s'ils sont neutres ou en muons et neutrinos s'ils sont chargés. Pour nous aider à comprendre le fonctionnement de ces quasars ou d'autres objets astrophysiques comme les pulsars binaires ou les sursauts gamma, il est important de mesurer le flux de neutrinos qu'ils émettent.
Les neutrinos offrent bien des avantages : comme ils interagissent très faiblement, ils peuvent traverser des quantités importantes de matière alors que même les gammas peuvent être absorbés sur des distances cosmologiques ; comme ils n'ont pas de charge, ils ne sont pas déviés par les champs magnétiques galactiques ou intergalactique des régions traversées. Mais il n'y a pas que des avantages. L'inconvénient majeur est bien sûr leur minuscule probabilité d'interaction, même si celle-ci augmente proportionnellement à leur énergie. En outre, les flux prédits par les modèles, si importants soient-ils, sont des milliards de fois inférieurs à celui des neutrinos solaires. La tâche est herculéenne.
Depuis une trentaine d'années, des projets de détecter ces neutrinos venus de l'enfer des quasars ou des sursauts gamma sont à l'étude. Depuis une dizaine d'années, plusieurs sont en construction, que ce soit dans la glace du pôle sud (AMANDA) ou au fond de la Méditerranée (ANTARES). Le principe est toujours le même. Il faut s'affranchir des bruits de fond parasites en s'installant à quelques milliers de mètres de profondeur. Mais même à 2 ou 3 mille mètres, les neutrinos atmosphériques sont le signal dominant (de la même façon qu'on ne voit pas les étoiles durant le jour car la lumière du Soleil est beaucoup plus forte). L'astuce consiste à observer les neutrinos venus des antipodes et qui ont traversé la Terre, utilisée comme filtre au rayonnement parasite. AMANDA observe ainsi l'hémisphère nord du ciel et ANTARES plutôt l'hémisphère sud. Les prédictions, malgré leurs incertitudes, annoncent toutes que ces détecteurs doivent avoir des tailles gigantesques, de l'ordre du km3. Les neutrinos interagissent dans l'eau, la glace ou la roche au voisinage ou à l'intérieur du détecteur ; ils émettent alors un muon (s'il s'agit d'un nm, ou un électron s'il s'agit d'un ne) qui va parcourir plusieurs dizaines ou centaines de mètres à une énergie de plusieurs TeV (1015 eV). Ce muon garde la mémoire de la direction du neutrino incident à ces énergies élevées. Il émet du rayonnement Tcherenkov (cf. SuperKamiokande) observé par des centaines de photomultiplicateurs déployés sur des lignes verticales au fond de la mer ou de la glace.
AMANDA a montré que son détecteur fonctionnait bien, malgré les difficultés de l'implantation au pôle sud ; les physiciens déploient aujourd'hui ICECUBE, au rythme des courts étés antarctiques. ANTARES, une douzaine de lignes de photomultiplicateurs en cours d'installation au large de Toulon, servira de prototype pour un grand projet européen de détecteur kilométrique au fond de la Méditerranée. Au-delà de ces détecteurs pionniers, qui nous réserveront certainement des surprises, comme toujours avec les neutrinos, les physiciens imaginent d'utiliser la radio ou les ondes sonores pour détecter les neutrinos les plus énergiques venus des tréfonds de l'Univers.

7. Les neutrinos du big bang

Nous nous sommes éloignés de notre planète en observant « notre étoile », le Soleil, nous avons franchi les frontières de la galaxie, nous avons remonté l'espace (et le temps) dans le monde extragalactique et les neutrinos sont toujours là. Poursuivons notre voyage vers les origines, le fameux big bang. Les neutrinos y jouent-ils un rôle ?
L'histoire thermique de l'Univers présent commence il y a environ 13 milliards d'années par ce qu'on appelle aujourd'hui le big bang. Son origine reste aujourd'hui encore très spéculative car les lois de la physique ne s'appliquent plus vraiment dans les conditions de température et de densité extrêmes de la singularité initiale. Il y a probablement eu très tôt (vers 10-43 s) une période d'inflation (brusque augmentation de l'espace en quelques 10-40 s), suivie d'une période continue de refroidissement et d'expansion.
Lorsque le temps s'écoule, le fluide cosmique (appelé encore la soupe primordiale) se refroidit en raison de l'expansion et la température diminue très rapidement. Les forces qui régissent le comportement de la matière vont se singulariser l'une après l'autre, en commençant par l'interaction gravitationnelle, bientôt suivie par l'interaction forte. La soupe contient alors des quarks et des leptons. Il y a en particulier des électrons, des photons, et les trois espèces de neutrinos, qui s'annihilent joyeusement avec leurs antiparticules, en se transformant les uns dans les autres. Bien vite cependant l'interaction faible devient beaucoup plus faible que l'interaction électromagnétique et les neutrinos s'annihilent beaucoup moins souvent. Il y a aussi dans la soupe quelques quarks qui vont commencer à former les premiers protons et les premiers neutrons. Lorsque l'Univers continue de refroidir, les neutrinos deviennent si dilués qu'ils ne peuvent plus s'annihiler. Il ne s'est passé qu'une seconde depuis l'explosion primordiale (ou ce qu'on qualifie comme tel), la température est de 10 milliards de degrés et nous voilà en présence des premiers fossiles connus de l'Univers, condamnés à errer à jamais dans l'espace : les neutrinos du big bang. L'histoire continue et le refroidissement se poursuit inexorablement. Le découplage des photons correspond au moment où les électrons se combinent aux premiers noyaux (principalement au plus simple d'entre eux, le proton) pour former les atomes, électriquement neutres. L'Univers est alors âgé de 1 million d'années et la température est de 3000 K. Les photons fossiles vont continuer de se refroidir jusqu'à atteindre la valeur de 3K, température à laquelle ils ont été découverts par Penzias et Wilson en 1965. Les neutrinos eux se sont refroidis un peu plus ; leur température est de 2K, correspondant à une énergie de l'ordre du milli-électron-volt (meV).
Des quantités fabuleuses de neutrinos ont été produites, puisqu'on estime aujourd'hui leur nombre à 300 par cm3 dans tout l'Univers, toutes espèces confondues. Malheureusement, nous n'avons pas réussi à les observer et leur détection est extrêmement difficile, en particulier en raison de leur énergie ridiculement faible. Une telle quantité de neutrinos ne peut laisser indifférent. Ils pourraient être une contribution importante de la matière noire de l'Univers. Las ! Leur masse est trop faible (voir chapitre suivant) pour qu'ils puissent jouer un rôle important à cet égard. On estime aujourd'hui leur contribution quelques pour mille de la densité critique[2], ce qui est malgré tout autant que la masse visible de toutes les étoiles et galaxies. Mais leur rôle en cosmologie n'est pas limité pour autant. Ils interviennent tout d'abord dans la formation des structures de l'Univers, galaxies et amas de galaxies. L'effet est le suivant : tant que les neutrinos sont relativistes (et cette notion dépend de leur masse), ils voyagent librement des régions denses vers les régions moins denses et vont donc contribuer plus ou moins rapidement à la densité locale, définissant des échelles de structures plus ou moins grandes. L'analyse de ce qu'on appelle les grandes structures, avec des sondages profonds de l'Univers, permet aujourd'hui de contraindre la masse des neutrinos à moins de 0,5 eV, mieux que les mesures directes. Ensuite, les neutrinos, en particulier les ne sont indispensables à la nucléosynthèse primordiale ; ils sont nécessaires pour transformer les neutrons en protons et vice-versa à l'aide de plusieurs réactions : ne n « p e- ; p « n e+ ; n ® p e- . Sans ces réactions, nous resterions paralysés par le nombre de protons et de neutrons présents à l'origine, et nous n'aurions pas eu ce formidable réservoir d'hydrogène qui est la source d'énergie de départ de toutes les étoiles qui veulent vivre longtemps. La mesure de l'hélium primordial dans l'Univers a ainsi permis de contraindre le nombre de familles de neutrinos à une valeur de 3, la même que les expériences auprès du LEP.

8. En guise de conclusion.

Les neutrinos sont au cSur d'un processus dialectique fécond entre la physique des particules, l'astrophysique et la cosmologie, entre la théorie et l'expérience. Les progrès considérables de ces dernières années dans notre compréhension des neutrinos sont dûs principalement à l'observation de phénomènes astrophysiques où ils jouent un rôle-clé ; en retour, ils ont solutionné quelques vieilles énigmes. Quel bilan peut-on tirer ? Que nous réserve l'avenir ?
L'analyse simultanée des résultats des expériences de neutrinos solaires et de neutrinos atmosphériques (complétée avec les expériences auprès des réacteurs nucléaires comme Chooz ou KamLAND) donne accès aux paramètres de l'oscillation entre les trois espèces de neutrinos. Concernant la masse, les deux paramètres sont des différences de masses au carré Dm2, et pas la valeur absolue, et on obtient 2,3 10-3 eV2 et 8 10-5 eV2. On peut illustrer la petitesse des masses de neutrino correspondantes à l'aide de quelques hypothèses, et notamment celle d'une hiérarchie des masses de neutrinos analogue à celle des leptons chargés. On estime alors la masse du neutrino le plus lourd, le nt, à 0,05 eV, soit 10 millions de fois plus petite que celle de l'électron ; celle du nm à 0,008 eV, celle du ne encore moins. Cette même analyse nous informe également sur les angles de mélange. Elle dit : a) l'oscillation à la fréquence déterminée par les neutrinos atmosphériques (fonction de leur énergie et la longueur parcourue) est maximale et le nm se transforme intégralement en nt ; l'oscillation à la fréquence déterminée par les neutrinos solaires est grande mais pas maximale et le ne se transforme assez souvent en nm ou nt ; c) le troisième angle de mélange est encore inconnu et l'expérience auprès du réacteur de Chooz a permis de mettre une limite supérieure. Une nouvelle collaboration internationale, Double Chooz, se met en place pour traquer ce dernier paramètre, simultanément avec des expériences auprès des accélérateurs.
Il est une propriété des neutrinos dont nous n'avons pas parlé. Le neutrino pourrait être sa propre antiparticule ? Pour étudier cette possibilité, passionnante sur le plan théorique, des expériences dites de « double désintégration b sans émission de neutrinos » se construisent à travers le monde. Une belle expérience, NEMO3, fonctionne actuellement dans le laboratoire souterrain de Modane à la recherche de ces trop rares événements. En cas de découverte, le résultat donnerait simultanément une information précieuse sur la masse des ne.

En résumé, nous pouvons dire que les neutrinos sont des messagers incontournables de phénomènes fondamentaux dans l'Univers. Au-delà de sa masse, qu'avons-nous appris ? Tout d'abord le Soleil fonctionne comme prévu, sa source d'énergie étant la réaction nucléaire de fusion entre deux protons. Ensuite la mort des étoiles massives en supernova émet des quantités phénoménales de neutrinos, et ils sont probablement acteurs de l'explosion. Les neutrinos sont les plus vieux fossiles de l'Univers, mais contribuent marginalement à la matière noire. L'astronomie neutrino à haute énergie, prometteuse, en est encore à ses balbutiements.
Les neutrinos nous ont gâtés ces dernières années. Ils nous réservent encore bien des surprises. Il suffit d'être curieux et ... patient.



[1] Les physiciens expriment l'énergie en électronvolts (eV), un électronvolt valant 1,6 10-19 joule. La masse est exprimée en eV/c2 et souvent par simplification en eV lorsque l'on prend la convention c=1. Une masse de 1 eV correspond à environ 10-33 g.
[2] La densité de l'Univers s'exprime en fonction de la densité critique. Si la densité est inférieure, l'Univers est ouvert ; si elle est supérieure, il est fermé et son volume est fini. Les mesures des paramètres cosmologiques laissent à penser aujourd'hui que la densité de l'Univers est exactement égale à la densité critique.

 

 VIDEO     canal U       LIEN

 
 
 
 

Des machines enfin intelligentes ?

 

 

 

 

 

 

 

Des machines enfin intelligentes ?
26.12.2017, par Yaroslav Pigenet


Beaucoup y voient la promesse d’une nouvelle révolution industrielle qui bouleversera notre rapport au travail et à la connaissance, d’autres les prémisses d’une intelligence «super-humaine». Depuis une dizaine d’années, l’intelligence artificielle connaît une renaissance : quelles en sont les raisons, les acteurs et les limites ? Cet article publié dans le dernier numéro de «Carnets de science» nous donne quelques éléments de réponse.
En moins d’une décennie, les ordinateurs, qui s’étaient jusque-là contentés de se substituer à nos matériels de bureau, dispositifs de communication, outils graphiques, lecteurs/éditeurs de médias et appareils de loisirs, se sont mis à disputer au cerveau humain la capacité de battre des champions de poker, traduire correctement des textes, reconnaître des visages, conduire des voitures, tenir une conversation (presque) sensée, voire anticiper nos désirs. Des progrès réels et fulgurants qui pourraient annoncer l’âge d’or maintes fois reporté de l’intelligence artificielle (IA), une discipline dont les déceptions semblaient à la mesure des espoirs suscités. Les Gafam, dont la valorisation est intimement liée à ces progrès, investissent aujourd’hui massivement dans les laboratoires d’intelligence artificielle. Ils nous promettent pour bientôt des machines non seulement capables de trier, d’analyser et d’interpréter, mieux que nous le pouvons, les masses de données que nous produisons en continu, mais aussi de nous aider à prendre nos décisions quand il s’agit de choisir un partenaire ou une musique, voire d’agir pour nous comme robots ou véhicules autonomes.


Mais d’où vient au juste cette brusque, soudaine et parfois inquiétante bouffée d’intelligence des machines ? « Les problématiques pratiques de l’IA actuelle sont les mêmes que celles définies il y a soixante ans : il s’agit de simuler, d’articuler des tâches d’apprentissage, de perception/classification, de raisonnement, de décision et finalement d’action, tempère Sébastien Konieczny, chercheur au Centre de recherche en informatique de Lens.1 C’est essentiellement à l’essor récent des méthodes d’apprentissage et de classification associées au deep learning que l’on doit la plupart des résultats actuels. Il y a eu une rupture technique, dont les résultats sont incontestables et spectaculaires. Mais les algorithmes sur lesquels ces progrès s’appuient  – modélisation statistique, réseaux de neurones, apprentissage automatique, etc. – sont développés depuis une trentaine d’années. »

L’IA : des objectifs vieux de soixante ans
En effet, dès août 1955, à l’initiative de John McCarthy, un professeur de mathématiques spécialiste des machines de Turing, Claude Shannon, inventeur de la théorie de l’information, Marvin Minsky, futur cofondateur du laboratoire d’Intelligence artificielle du Massachussetts Institute of Technology (MIT), et Nathaniel Rochester, créateur de l’IBM 701 – le premier ordinateur commercial généraliste –, utilisaient pour la première fois les termes « intelligence artificielle » dans un appel à la communauté scientifique. Les principaux objectifs pratiques de l’IA étaient posés : robots autonomes, compréhension et traduction de l’écrit et de la parole, vision artificielle, aide à la décision et résolution de problèmes mathématiques.

Notre but est que des machines réalisent mieux que nous des tâches autrefois considérées comme intelligentes.
Dans les premiers temps, partant du constat que l’ordinateur est avant tout un système de manipulation de symboles, les chercheurs tentent de modéliser et d’émuler l’intelligence à partir des notions de symbole et de représentation interne du monde. Mobilisant les progrès de la logique mathématique et de la linguistique, cette approche symbolique reste dominante dans l’intelligence artificielle jusqu’aux années 2000.
 Elle aboutit notamment à la mise au point des premiers systèmes experts de diagnostic médical, des premiers joueurs électroniques – la victoire de Deep Blue sur le champion du monde d’échecs Gary Kasparov en est l’apothéose – ainsi qu’à quelques tentatives peu convaincantes de traitement automatique du langage naturel.

Des méthodes symboliques aux méthodes numériques
L’un des gros inconvénients des approches symboliques est qu’elles gèrent très mal les données bruitées : il ne faut pas d’erreur dans les données qu’on présente au système. En fait, ce problème de l’apprentissage a été abordé et en partie résolu par un autre courant de recherche de l’IA baptisé connexionnisme. Celui-ci prend pour modèle le cerveau biologique et tente de reproduire certaines de ses facultés, notamment visuelles, en simulant numériquement le comportement de réseaux de neurones formels  ; en s’inspirant également de la structure en couches hiérarchiques des neurones du cortex visuel humain, ce qui aboutira aux algorithmes de deep learning. Dès les années 1970, on savait comment entraîner un réseau de neurones à reconnaître les objets d’une image grâce l’algorithme de rétro-propagation d’erreur : une méthode numérique qui permettait d’améliorer le taux de bonnes reconnaissances du système en ajustant, à chaque erreur de classification, le poids des connexions entre chaque neurone du réseau.



Yann LeCun, aujourd’hui directeur du laboratoire d’intelligence artificielle de Facebook, l’avait démontré en développant dès 1989 un dispositif de reconnaissance des codes postaux manuscrits basé sur le deep learning : pour peu que l’on dispose d’un échantillon d’exemples suffisamment important à présenter à un réseau de neurones, celui-ci finit par égaler la performance d’un être humain, du moins en théorie…2

Le problème posé par ces dispositifs est qu’une fois entraînés, ils fonctionnent comme une boîte noire.
« On savait depuis les années 1980 que ces méthodes fonctionnaient, seulement elles réclamaient une puissance de calcul et une quantité de données considérables, qui sont restées longtemps hors de notre portée. Tout a changé au milieu des années 2000 : avec l’augmentation de la capacité des processeurs, il est devenu possible d’effectuer dans un temps raisonnable les calculs nécessités par les algorithmes de
deep learning, explique Jérôme Lang, directeur de recherche au Laboratoire d’analyse et modélisation des systèmes pour l’aide à la décision3 et médaille d’argent 2017 du CNRS. L’autre changement majeur, c’est Internet et l’accroissement exponentiel de la masse de données qu’il a rendue disponible. Par exemple, pour entraîner un système de reconnaissance visuelle, il faut lui présenter le plus grand nombre possible de photos annotées : tandis qu’il fallait se démener pour constituer des échantillons de quelques centaines de clichés indexés par des étudiants, on peut aujourd’hui assez facilement accéder à des centaines de millions de photographies annotées par les internautes via les captcha. »

L’irrationnelle efficacité des données
Les résultats les plus spectaculaires de l’intelligence artificielle, ceux qu’aucun spécialiste n’osait espérer au début des années 2000, ont été obtenus dans les domaines de la reconnaissance visuelle – de la reconnaissance de visage à l’analyse de scènes –, de la reconnaissance vocale ou musicale, et dans celui du traitement automatique des langues – de la traduction à l’extraction automatique de sens. Or le point commun de ces systèmes, c’est que leur « intelligence », ou du moins leur performance, croît avec la taille du corpus à partir duquel ils ont été entraînés. Le problème posé par ces dispositifs est qu’une fois entraînés, ils fonctionnent comme une boîte noire : ils donnent de bons résultats mais, contrairement à ce que permettent les systèmes symboliques, ne donnent aucune indication sur le « raisonnement » qu’ils ont suivi pour y arriver. Un phénomène que trois chercheurs employés par Google ont appelé dès 2009 « l’irrationnelle efficacité des données ».

Les algorithmes sur lesquels les progrès récents s’appuient  sont développés depuis une trentaine d’années.
Cela explique l’avantage décisif qu’ont pris les Gafam dans ces domaines, ainsi que la frénésie qu’ont ces derniers à nous soutirer des données contre des promesses d’intelligence. Certains gourous technologiques extrapolent même l’émergence imminente d’une conscience artificielle, d’une intelligence superhumaine faite de machines qui inventeront et créeront d’elles-mêmes, pour nous… et éventuellement contre nous.
 « Ces “prédictions” sont faites par des personnes éloignées de la recherche ou qui ont quelque chose à vendre, souligne Sébastien Konieczny. Les chercheurs en IA n’ont jamais prétendu recréer l’intelligence – dont il faudrait déjà qu’on donne une définition opérationnelle –, notre but est que des machines réalisent mieux que nous des tâches considérées comme intelligentes car nous seuls étions jusqu’alors capables de les réaliser, comme le classement de milliers de photos ou de morceaux de musique. Les seules choses que l’on maîtrise aujourd’hui, ce sont des tâches goal oriented ; une machine qui soit capable de définir ses buts, ça on ne sait pas faire. Alors la conscience… »  
 
Notes
*         1.
Unité CNRS/Université d’Artois.
*         2.
Y. LeCun et al., « Backpropagation applied to handwritten zip code recognition », Neural Computation, 1989, 1(4):541-551.
*         3.
Unité CNRS/Université Paris-Dauphine.

 

DOCUMENT       cnrs        LIEN
 

 
 
 
 

À LA SOURCE DES RAYONS COSMIQUES

 

 

 

 

 

 

 

À la source des rayons cosmiques
Antoine Letessier-Selvon dans mensuel 424
daté novembre 2008 -

On inaugure ce mois-ci l'observatoire Auger, le détecteur le plus vaste jamais conçu. Ses premières observations éclairent déjà l'une des grandes énigmes de l'astrophysique : l'origine des particules cosmiques de très haute énergie.
Ce sont les particules les plus puissantes de l'Univers : leur énergie extrême dépasse les 1020, soit des centaines de milliards de milliards, électronvolts * eV. En comparaison, les particules étudiées dans les plus grands accélérateurs, y compris celles attendues au tout nouveau LHC à Genève, sont dix millions de fois moins énergétiques. Pourtant, le mystère entourant la nature et l'origine des « rayons cosmiques de très haute énergie », c'est ainsi qu'on les nomme, constitue l'une des grandes énigmes en astrophysique. D'où viennent-ils ? Que sont-ils ? Des protons, des noyaux d'atomes lourds, des particules exotiques ? Comment atteignent-ils des énergies aussi extrêmes ? Autant de questions qui restent ouvertes.
Particules secondaires
C'est pour tenter d'y répondre que le plus vaste observatoire astronomique du monde, l'observatoire Pierre-Auger, a été déployé dans la Pampa argentine, par 35º de latitude sud et 65º de longitude ouest, au pied de la cordillère des Andes. Sa construction vient de s'achever. Au final, c'est un ensemble de 1 600 capteurs et 24 télescopes répartis sur 3 000 kilomètres carrés, soit un quart de l'Ile-de-France, que l'on inaugure ce mois-ci. Pas moins de 450 physiciens de 17 pays participent à ce défi tant scientifique que technologique.
C'est que les rayons cosmiques de très haute énergie sont très rares puisque à peine un par siècle et par kilomètre carré atteint la surface de la Terre. De plus on ne les détecte pas directement : arrivés au sommet de l'atmosphère, ils interagissent violemment avec celle-ci et produisent une cascade de milliards de particules. Et ce n'est qu'à travers cette cascade de particules secondaires qui bombardent le sol que l'on peut espérer découvrir la nature et la provenance du rayon cosmique qui l'a déclenchée, ainsi que la source de son énergie extrême.
Revenons un instant sur la découverte de ces mystérieux messagers qui traversent l'Univers. En 1912, à bord de son ballon à hydrogène et à 5 000 mètres d'altitude, l'Autrichien Victor Hess découvre qu'un flux de particules chargées venu de l'espace pénètre l'atmosphère terrestre. Ensuite, en 1938, grâce à des détecteurs installés dans les Alpes, le Français Pierre Auger enregistre l'arrivée de particules simultanément à différents endroits : c'est la première observation d'une cascade atmosphérique de particules secondaires, nées de la collision de la particule initiale avec les molécules de l'atmosphère. Il évalue à 1015 eV, l'énergie de l'événement. C'est à l'époque le rayon cosmique le plus puissant connu. Le seuil de 1020 eV est dépassé en 1962 : le premier rayon cosmique de très haute énergie est en effet détecté par les capteurs d'un réseau déployé au Nouveau Mexique [1] .
Mais plus leur énergie est élevée, plus les rayons cosmiques sont rares. Et ces nouvelles données ne dissipent guère le mystère de leur origine. De nombreuses hypothèses sont avancées, mais aucune n'est satisfaisante.
En revanche, en 1966, les rayons cosmiques font l'objet d'une prédiction théorique très intéressante. L'existence d'un fond diffus cosmologique, héritage du premier rayonnement émis par l'Univers 380 000 ans après le Big Bang, vient d'être prouvée un an plus tôt. L'Américain Kenneth Greisen d'un côté et les Russes Georgiy Zatsepin et Vadim Kuz'min, de l'autre, remarquent que les rayons cosmiques doivent forcément interagir avec les photons de ce fond diffus. Or une telle interaction devrait réduire considérablement leur énergie. Ainsi des rayons cosmiques voyageant sur des distances intergalactiques ne devraient jamais dépasser les 60 X 1018 eV. Un seuil connu aujourd'hui sous le nom de limite « GZK ». Si cette prédiction est juste, une particule qui atteint la Terre avec une énergie supérieure à 60 X 1018 eV proviendrait d'une région relativement proche, c'est-à-dire située à moins de 500 millions d'années-lumière. Quand cette prédiction a été énoncée, aucune expérience n'était capable de la tester de manière fiable, et cela jusqu'au début des années 1990. Au milieu de cette décennie, deux expériences, très différentes dans leur principe, Fly's Eye aux États-Unis et Agasa au Japon, y parvinrent enfin. Mais leurs résultats étaient contradictoires. D'un côté Fly's Eye n'avait enregistré que quelques événements au-delà de 100 X 1018 eV dont un, record, dépassant les 300 X 1018 eV, ce qui est cohérent avec la limite GZK, étant donné que les sources susceptibles d'accélérer des particules à un tel niveau dans notre voisinage sont très rares. De l'autre, selon l'expérience Agasa, le spectre des rayons cosmiques semblait se prolonger sans changement notable, y compris aux énergies les plus hautes. Cette contradiction a provoqué un intense débat.
3 000 kilomètres carrés
D'autant plus qu'un autre point de désaccord existait entre les deux expériences. Agasa observait plusieurs agrégats de deux ou trois rayons cosmiques de 40 X 1018 eV provenant de la même direction, alors que Fly's Eye ne voyait rien de tel. Mais elles s'accordaient au moins sur une chose : aucune source astrophysique au voisinage de notre galaxie n'était visible dans la direction d'arrivée des rayons. Avec seulement une grosse dizaine d'événements détectés au-delà de 100.1018 eV, les chances d'avancer sur ces questions restaient cependant très minces. Seule une forte augmentation des mesures, et donc un dispositif bien plus étendu pouvaient donner l'espoir de lever ces contradictions. Jim Cronin, Prix Nobel de physique, et Alan Watson, de l'université de Leeds, ont alors entrepris d'explorer les moyens d'y parvenir.
En 1992, au cours d'une réunion à Paris sur le campus de Jussieu, les deux chercheurs présentent leur projet, le futur observatoire Auger. Les grandes lignes y sont édifiées. L'année suivante le concept hybride, qui associe les deux techniques de détection utilisées par Fly's Eye et Agasa au sein du même capteur, est mis au point. Et, en 1995, un document de 250 pages précise les objectifs scientifiques et les choix techniques pour la construction. Il décrit un observatoire constitué de deux dispositifs expérimentaux : un réseau de 1 600 capteurs Cherenkov lire « Des cuves par milliers », ci-dessous, répartis sur un maillage de triangles de 1,5 kilomètre de côté, couvre un total de 3 000 kilomètres carrés. Ce déploiement est nécessaire pour maximiser les chances d'enregistrer les particules d'une même cascade réparties sur de très grandes surfaces et remonter ainsi jusqu'au rayon cosmique initial. Ce réseau fonctionne en permanence. Un ensemble de 24 télescopes à fluorescence lire « Lumière fluorescente » ci-contre, installés sur 4 sites du maillage triangulaire, dont les mesures sont plus précises, permet de mieux calibrer l'ensemble des mesures. De plus mesurer le même phénomène par deux instruments différents aide à mieux comprendre les éventuels biais expérimentaux. Tel est le projet sur le papier.
Restait à le mettre en oeuvre, et pour cela satisfaire des critères exigeants et parfois contradictoires : par exemple, couvrir la plus grande surface possible sans pour autant effrayer nos agences de financement ; trouver un site au ciel pur, en altitude, loin de toute pollution, et néanmoins facile d'accès et riche en infrastructures ; et bien sûr convaincre une communauté scientifique internationale aussi large que possible sur un projet très risqué [2] .
Cette même année 1995, Ken Gibbs, de l'université de Chicago, et moi-même sommes partis à la recherche du site idéal avec un cahier des charges très précis. En novembre, l'Argentine est choisie pour accueillir l'observatoire lors d'une réunion fondatrice au siège de l'Unesco à Paris. Et le document final est remis aux agences de financement fin 1996 : le prix à payer s'élève à 50 millions de dollars.
27 événements
Trois ans plus tard, en 1999, le financement en grande partie assuré, la construction commence. Et après quatre ans d'installation, de tests et de validation de nos prototypes, une centaine de cuves sont opérationnelles. L'observatoire enregistre ses premières données exploitables début 2004. Il nous a donc fallu un peu plus de dix ans pour passer de l'idée d'un détecteur grand comme un département à sa réalisation. Mais nos efforts sont vite récompensés. Dès juillet 2005, les analyses préliminaires des premières données, présentées à la Conférence internationale sur les rayons cosmiques de Pune en Inde, prouvent la pertinence de l'observatoire Auger, avec un rythme de détection trente fois plus élevé que les expériences précédentes. Et, en novembre 2007, alors que l'installation du réseau de surface n'est pas encore achevée, les données accumulées suffisent déjà à publier dans le magazine Science des résultats remarquables [3] .
L'observatoire a alors détecté 27 événements d'énergie supérieure à 60 1018 eV, c'est-à-dire dépassant la limite GZK. Ces données et les plusieurs milliers d'enregistrements de rayons cosmiques de moindre énergie, mais tout de même au-dessus de 3 X 1018 eV, ont conduit à des observations fondamentales. En premier lieu, les 27 événements ne sont pas répartis au hasard sur le ciel : pour 20 d'entre eux, il existe dans un rayon de 3 degrés autour de leur direction d'arrivée une galaxie active située à moins de 300 millions d'années-lumière de la Terre, ce qui, à l'échelle de l'Univers, correspond à notre proche banlieue. Une galaxie dite « active » possède un noyau central extrêmement brillant - on parle d'un noyau actif de galaxie. Or, ces objets sont les sources de lumière stables les plus puissantes de l'Univers et le siège de phénomènes mettant en jeu des énergies gigantesques.
Cette découverte a des conséquences. Tout d'abord, elle démontre que l'origine des rayons cosmiques les plus énergétiques, bien que proche, se situe hors de notre galaxie. Ensuite, elle conforte l'une des hypothèses avancées quant au mécanisme qui leur confère une telle énergie. Celle selon laquelle les rayons cosmiques correspondraient à des particules chargées et au repos, accélérées par les champs électriques et magnétiques colossaux entourant certains objets ou phénomènes astrophysiques comme les trous noirs avaleurs de galaxies, les jeunes étoiles à neutrons ou les collisions de galaxies. Dans ces environnements, les particules en question seraient vraisemblablement des protons ou des noyaux de fer. La plupart des rayons cosmiques de très haute énergie seraient donc issus de sources astrophysiques dites proches, probablement des galaxies actives, ou, tout au moins, des objets ayant une distribution similaire dans le ciel. Un rayon angulaire de 3 degrés sur le ciel est en effet très vaste - pour fixer les idées, le diamètre de la pleine lune mesure 0,5 degré. De nombreux objets peuvent s'y trouver, et la proximité des galaxies actives ne suffit pas à les désigner comme les sources certaines des rayons cosmiques.
EN DEUX MOTS D'où viennent les rayons cosmiques, les particules les plus énergétiques qui nous parviennent de l'Univers ? Un observatoire a été déployé depuis 1999 dans la Pampa argentine pour les détecter. À peine achevé, il a déjà enregistré 27 rayons cosmiques dont l'énergie dépasse 60 X 1018 eV. Et ces rayons ne sont pas répartis au hasard. Au voisinage de chacun d'entre se trouve une galaxie active.
Prédiction vérifiée
La mesure du flux de rayons cosmiques en fonction de l'énergie apporte aussi un nouvel éclairage. Elle montre une chute brusque au-delà de 60 X 1018 eV, qui coïncide avec la limite GZK. Ainsi, avant même l'inauguration officielle de l'observatoire, la première collection d'événements commence non seulement à lever le voile sur l'origine de ces fameuses particules, mais apporte la première observation indiscutable de la limite GZK.
Une nouvelle fenêtre sur l'Univers vient de s'ouvrir. À l'instar de la lumière en astronomie classique, les rayons cosmiques très énergétiques pourraient faire figure de nouveaux messagers pour une astronomie alternative. La construction d'un observatoire encore plus grand dans l'hémisphère Nord pour couvrir l'ensemble du ciel, et l'extension de l'observatoire Auger dans le sud pour multiplier les événements détectés devraient nous y aider dans les cinq prochaines années.
[1] J. Linsley, Phys. Rev. Lett., 10, 146, 1963.
[2] M. Boratav, « Des scientifiques dans la pampa », La Recherche, novembre 1999, p. 46.
[3] The Pierre Auger Collaboration, Science, 318, 938, 2007.
NOTES
* Un électronvolt est l'unité d'énergie. Elle équivaut à 1,6 X 10-19 joule, soit l'énergie d'un électron soumis à une différence de potentiel de 1 volt.
CAPTEURS : DES CUVES PAR MILLIERS
LES CAPTEURS CHERENKOV sont des cuves de plastique, de 1,2 mètre de haut et 3 mètres de diamètre, remplies d'eau ultrapure . Les particules de la cascade atmosphérique provoquée par les rayons cosmiques produisent au contact de l'eau un rayonnement lumineux, appelé rayonnement Cherenkov. Ce rayonnement, très faible, est détecté par un ensemble de 3 photomultiplicateurs, sorte de tube cathodique fonctionnant à l'envers, qui transforme la lumière en électricité. Le signal électrique est alors daté grâce à une horloge synchronisée sur les horloges atomiques des satellites du Global Positioning System GPS, au dix milliardième de seconde près et numérisé. Chaque seconde, des milliers de particules traversent les cuves et laissent un petit signal. Seuls les enregistrements pertinents, c'est-à-dire ceux qui comptabilisent le plus de particules, sont stockés localement. Et, pour les vingt qui semblent les plus intéressants, l'heure d'occurrence est envoyée par radio au système central, situé à plusieurs dizaines de kilomètres. Après analyse et comparaison avec les autres enregistrements effectués sur le réseau au même instant, le système central demandera éventuellement l'enregistrement complet stocké par les cuves. C'est cette centralisation qui permet de découvrir a posteriori d'éventuelles corrélations à très grandes distances sur le réseau, et donc de reconstituer les cascades de particules.
OBSERVATION : LUMIÈRE FLUORESCENTE
LES TÉLESCOPES À FLUORESCENCE sont des instruments optiques de très haute sensibilité . Ils permettraient de détecter, à plus de 40 kilomètres, une ampoule de quelques dizaines de watts traversant le ciel à la vitesse de la lumière. Lors du développement de la cascade de particules dans l'atmosphère, les atomes d'azote sont ionisés, et leur désexcitation produit une lumière de fluorescence que détectent nos télescopes. Naturellement, de tels instruments ne peuvent pas fonctionner en plein jour, ni même lorsque la Lune est visible. Alors que le réseau de surface fonctionne 24 heures sur 24 et 365 jours par an, les télescopes ne recueillent des données que 10 % du temps. Mais ils donnent un accès plus direct à l'énergie de la particule incidente et sont donc indispensables pour étalonner l'ensemble du dispositif.
SAVOIR
Le site de l'observatoire Auger.
www.auger.org


 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LA THEORIE QUANTIQUE

 

 

 

 

 

 

 

théorie quantique

Théorie physique qui traite du comportement des objets physiques au niveau microscopique (atome, noyau, particules).

PHYSIQUE
La théorie quantique a été élaborée pour résoudre une crise de la physique classique : certains phénomènes ne semblent pas de nature continue (comme l'est, par exemple, la relation de proportionnalité entre la force et l'accélération) ; ils sont « quantifiés ». Malgré des interrogations latentes, cette théorie a connu des succès éclatants : notre compréhension de la structure de la matière est quantique de part en part, notre société technologique repose sur la validité de la théorie quantique.

Les fondements de la théorie quantique

Max Planck
       

On considère que la théorie quantique a une triple origine : l'étude, par M. Planck, en 1900, du « rayonnement du corps noir », sur la base d'une hypothèse de quantification de l'énergie lumineuse ; l'article d'Einstein sur l'effet photoélectrique, paru en 1905, où, reprenant l'hypothèse de Planck, Einstein invente le « grain » de lumière ; le modèle d'atome de N. Bohr (1913), dans lequel le spectre de raies des atomes est expliqué en supposant que l'énergie des électrons à l'intérieur de l'atome est quantifiée. Mais c'est l'article d'Einstein qui fixe réellement les débuts de la théorie quantique car il marque l'émergence d'un « objet » de type nouveau, le quanton. Ainsi, le « grain » de lumière, appelé « photon » en 1929, ne se réduit à aucun des deux « objets » de la physique classique (onde ou particule).

Le « quantum d'action »
La discontinuité entre théories classique et quantique s'inscrit dans la nature « aberrante » (du point de vue de la physique classique) de la relation proposée par Planck. Dans cette relation de définition de la théorie quantique : E = hν, un concept de nature corpusculaire (l'énergie E) se trouve lié à un concept ondulatoire (la fréquence ν) via une nouvelle constante fondamentale (la constante de Planck h). La valeur numérique de h, qui a les dimensions d'une action (produit d'une énergie par un intervalle de temps), délimite le domaine quantique. Les théories classiques apparaissent comme des approximations de la théorie quantique, valables dans le cas où les grandeurs physiques du type « action » sont très grandes par rapport au « quantum d'action » h ; si tel n'est pas le cas, le recours à la théorie quantique est inévitable, ainsi pour l'effet photoélectrique.

Les relations de Heisenberg
ΔE.Δt≥h et Δp.Δl≥h traduisent les limitations fondamentales impliquées par le quantum d'action. Ces relations montrent aussi qu'un phénomène quantique de durée Δt ne peut être caractérisé par une valeur unique de son énergie E et qu'un phénomène d'extension spatiale Δl ne peut l'être par une valeur unique de sa quantité de mouvement p. De tels phénomènes sont au contraire caractérisés par des spectres de valeurs ΔE et Δp, ce qui a mené à attribuer à la théorie quantique une nature indéterministe. En fait, le formalisme quantique (la représentation mathématique de la théorie) permet, à partir de l'état d'un système à un instant donné, de prédire son état à un instant ultérieur. En ce sens, la théorie quantique est parfaitement déterministe.

Le domaine quantique
Pourtant, l'irruption du discontinu dans les actions (ou interactions) pose des problèmes théoriques. Par exemple, tout acte de mesure est une interaction. S'il existe un quantum d'action, toute mesure doit logiquement impliquer, pour donner un résultat, la mise en œuvre d'au moins un tel quantum. Ainsi, h se présente comme une « borne », limite inférieure de toute action envisageable, tout comme c, la vitesse de la lumière, est la limite supérieure de toute vitesse. Le domaine quantique ne coïncide cependant pas vraiment avec l'échelle microscopique : la stabilité de la matière est un phénomène macroscopique inexplicable en dehors de la théorie quantique. La compréhension d'un phénomène aussi « simple » que la couleur des corps n'est pas concevable en dehors de cette théorie. La fabrication et l'utilisation des transistors, des lasers, des montres à quartz, des microscopes électroniques, etc., en relèvent également. Pourtant, le monde à l'échelle quantique est fort différent du monde à notre échelle. La question, qui reste ouverte, est celle du lien entre la théorie quantique et son approximation classique, lien entre le comportement (quantique) des électrons et des noyaux et le comportement (classique) des objets usuels constitués de ces mêmes électrons et noyaux.

Les objets quantiques et le monde physique
Les bosons et les fermions
On démontre que les objets quantiques peuvent être classés en deux grandes catégories, se distinguant l'une de l'autre par la manière dont ces objets se comportent lorsqu'ils sont en très grand nombre (on parle alors de comportement statistique). D'un côté, on a les bosons, qui tendent à s'agglutiner et qui, même, ont d'autant plus tendance à se regrouper dans un certain état qu'ils sont déjà plus nombreux à y être. Le photon appartient à la classe des bosons. De l'autre côté, il y a les fermions, qui, au contraire, ne peuvent se trouver à plus d'un dans un même état. Parmi les fermions figurent les électrons, les protons, les neutrons, etc. À ce niveau de description, l'atome apparaît comme un ensemble de fermions liés entre eux par l'échange de bosons.

Deux conséquences
Cette différence est essentielle, comme le montrent les exemples suivants.

La taille des atomes
Ils auraient tous la même taille si les électrons n'étaient pas des fermions. Comme il faut réserver à chaque électron un certain espace, les atomes augmentent de taille, en même temps que de masse, contrairement à ce qui se passerait si les électrons n'étaient pas des fermions : les électrons seraient empilés les uns sur les autres (ils seraient tous dans le même état quantique) et tous les atomes auraient la même taille. Ainsi s'explique le fait qu'on ne passe pas à travers la matière ! S'il était possible de réduire la distance entre les électrons, la pression exercée sur eux par notre poids suffirait à les tasser… Il est surprenant de noter qu'il ait fallu attendre l'invention de la théorie quantique pour comprendre un phénomène aussi trivial.

Le laser
Un laser est une source de lumière dans laquelle on a exploité le fait que les photons sont des bosons. Une des propriétés du rayonnement laser est d'être extrêmement « directif » : les photons ne se perdent pas en route, si bien qu'on les retrouve presque tous à l'arrivée. Cela se comprend si l'on considère que les photons sont des bosons ; c'est dans leur nature même de rester groupés.

La réalité quantique
La théorie quantique n'est pas déterministe au sens de la mécanique classique. À la question « Où trouver un électron dans un certain état ? », elle répond en donnant une probabilité de présence, variable d'un point de l'espace à l'autre, mais elle ne désigne jamais un lieu précis, contrairement à la mécanique galiléo-newtonienne, que pratiquent, par exemple, les astronomes. Ce débat sur le déterminisme quantique, fort vif dans les années 1930, en particulier entre Bohr et Einstein, semble à présent sans objet, dès lors que le formalisme mathématique donne une description complète du système.

La théorie quantique introduit aussi une non-localité fondamentale, au sens où des phénomènes sans relation causale – c'est-à-dire tels qu'aucun signal ne puisse passer de l'un à l'autre – sont pourtant corrélés. Ainsi, une expérience fondamentale réalisée en 1982 à l'Institut d'optique d'Orsay a apporté une vérification directe des aspects les plus contre-intuitifs de la théorie : elle a mis en évidence, à l'échelle quantique, ce que l'on considérerait, à l'échelle macroscopique, comme une action immédiate à distance (alors que toute action connaît une borne supérieure de vitesse, celle de la lumière). Les résultats de cette expérience vérifient complètement les prédictions quantiques, en particulier le fait que deux quantons ayant interagi à un moment donné restent « liés », même après s'être séparés. (→ particule.)

 

DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon