ecole de musique piano
     
menu
 
 
 
 
 
 

À LA SOURCE DES RAYONS COSMIQUES

 

 

 

 

 

 

 

À la source des rayons cosmiques
Antoine Letessier-Selvon dans mensuel 424
daté novembre 2008 -

On inaugure ce mois-ci l'observatoire Auger, le détecteur le plus vaste jamais conçu. Ses premières observations éclairent déjà l'une des grandes énigmes de l'astrophysique : l'origine des particules cosmiques de très haute énergie.
Ce sont les particules les plus puissantes de l'Univers : leur énergie extrême dépasse les 1020, soit des centaines de milliards de milliards, électronvolts * eV. En comparaison, les particules étudiées dans les plus grands accélérateurs, y compris celles attendues au tout nouveau LHC à Genève, sont dix millions de fois moins énergétiques. Pourtant, le mystère entourant la nature et l'origine des « rayons cosmiques de très haute énergie », c'est ainsi qu'on les nomme, constitue l'une des grandes énigmes en astrophysique. D'où viennent-ils ? Que sont-ils ? Des protons, des noyaux d'atomes lourds, des particules exotiques ? Comment atteignent-ils des énergies aussi extrêmes ? Autant de questions qui restent ouvertes.
Particules secondaires
C'est pour tenter d'y répondre que le plus vaste observatoire astronomique du monde, l'observatoire Pierre-Auger, a été déployé dans la Pampa argentine, par 35º de latitude sud et 65º de longitude ouest, au pied de la cordillère des Andes. Sa construction vient de s'achever. Au final, c'est un ensemble de 1 600 capteurs et 24 télescopes répartis sur 3 000 kilomètres carrés, soit un quart de l'Ile-de-France, que l'on inaugure ce mois-ci. Pas moins de 450 physiciens de 17 pays participent à ce défi tant scientifique que technologique.
C'est que les rayons cosmiques de très haute énergie sont très rares puisque à peine un par siècle et par kilomètre carré atteint la surface de la Terre. De plus on ne les détecte pas directement : arrivés au sommet de l'atmosphère, ils interagissent violemment avec celle-ci et produisent une cascade de milliards de particules. Et ce n'est qu'à travers cette cascade de particules secondaires qui bombardent le sol que l'on peut espérer découvrir la nature et la provenance du rayon cosmique qui l'a déclenchée, ainsi que la source de son énergie extrême.
Revenons un instant sur la découverte de ces mystérieux messagers qui traversent l'Univers. En 1912, à bord de son ballon à hydrogène et à 5 000 mètres d'altitude, l'Autrichien Victor Hess découvre qu'un flux de particules chargées venu de l'espace pénètre l'atmosphère terrestre. Ensuite, en 1938, grâce à des détecteurs installés dans les Alpes, le Français Pierre Auger enregistre l'arrivée de particules simultanément à différents endroits : c'est la première observation d'une cascade atmosphérique de particules secondaires, nées de la collision de la particule initiale avec les molécules de l'atmosphère. Il évalue à 1015 eV, l'énergie de l'événement. C'est à l'époque le rayon cosmique le plus puissant connu. Le seuil de 1020 eV est dépassé en 1962 : le premier rayon cosmique de très haute énergie est en effet détecté par les capteurs d'un réseau déployé au Nouveau Mexique [1] .
Mais plus leur énergie est élevée, plus les rayons cosmiques sont rares. Et ces nouvelles données ne dissipent guère le mystère de leur origine. De nombreuses hypothèses sont avancées, mais aucune n'est satisfaisante.
En revanche, en 1966, les rayons cosmiques font l'objet d'une prédiction théorique très intéressante. L'existence d'un fond diffus cosmologique, héritage du premier rayonnement émis par l'Univers 380 000 ans après le Big Bang, vient d'être prouvée un an plus tôt. L'Américain Kenneth Greisen d'un côté et les Russes Georgiy Zatsepin et Vadim Kuz'min, de l'autre, remarquent que les rayons cosmiques doivent forcément interagir avec les photons de ce fond diffus. Or une telle interaction devrait réduire considérablement leur énergie. Ainsi des rayons cosmiques voyageant sur des distances intergalactiques ne devraient jamais dépasser les 60 X 1018 eV. Un seuil connu aujourd'hui sous le nom de limite « GZK ». Si cette prédiction est juste, une particule qui atteint la Terre avec une énergie supérieure à 60 X 1018 eV proviendrait d'une région relativement proche, c'est-à-dire située à moins de 500 millions d'années-lumière. Quand cette prédiction a été énoncée, aucune expérience n'était capable de la tester de manière fiable, et cela jusqu'au début des années 1990. Au milieu de cette décennie, deux expériences, très différentes dans leur principe, Fly's Eye aux États-Unis et Agasa au Japon, y parvinrent enfin. Mais leurs résultats étaient contradictoires. D'un côté Fly's Eye n'avait enregistré que quelques événements au-delà de 100 X 1018 eV dont un, record, dépassant les 300 X 1018 eV, ce qui est cohérent avec la limite GZK, étant donné que les sources susceptibles d'accélérer des particules à un tel niveau dans notre voisinage sont très rares. De l'autre, selon l'expérience Agasa, le spectre des rayons cosmiques semblait se prolonger sans changement notable, y compris aux énergies les plus hautes. Cette contradiction a provoqué un intense débat.
3 000 kilomètres carrés
D'autant plus qu'un autre point de désaccord existait entre les deux expériences. Agasa observait plusieurs agrégats de deux ou trois rayons cosmiques de 40 X 1018 eV provenant de la même direction, alors que Fly's Eye ne voyait rien de tel. Mais elles s'accordaient au moins sur une chose : aucune source astrophysique au voisinage de notre galaxie n'était visible dans la direction d'arrivée des rayons. Avec seulement une grosse dizaine d'événements détectés au-delà de 100.1018 eV, les chances d'avancer sur ces questions restaient cependant très minces. Seule une forte augmentation des mesures, et donc un dispositif bien plus étendu pouvaient donner l'espoir de lever ces contradictions. Jim Cronin, Prix Nobel de physique, et Alan Watson, de l'université de Leeds, ont alors entrepris d'explorer les moyens d'y parvenir.
En 1992, au cours d'une réunion à Paris sur le campus de Jussieu, les deux chercheurs présentent leur projet, le futur observatoire Auger. Les grandes lignes y sont édifiées. L'année suivante le concept hybride, qui associe les deux techniques de détection utilisées par Fly's Eye et Agasa au sein du même capteur, est mis au point. Et, en 1995, un document de 250 pages précise les objectifs scientifiques et les choix techniques pour la construction. Il décrit un observatoire constitué de deux dispositifs expérimentaux : un réseau de 1 600 capteurs Cherenkov lire « Des cuves par milliers », ci-dessous, répartis sur un maillage de triangles de 1,5 kilomètre de côté, couvre un total de 3 000 kilomètres carrés. Ce déploiement est nécessaire pour maximiser les chances d'enregistrer les particules d'une même cascade réparties sur de très grandes surfaces et remonter ainsi jusqu'au rayon cosmique initial. Ce réseau fonctionne en permanence. Un ensemble de 24 télescopes à fluorescence lire « Lumière fluorescente » ci-contre, installés sur 4 sites du maillage triangulaire, dont les mesures sont plus précises, permet de mieux calibrer l'ensemble des mesures. De plus mesurer le même phénomène par deux instruments différents aide à mieux comprendre les éventuels biais expérimentaux. Tel est le projet sur le papier.
Restait à le mettre en oeuvre, et pour cela satisfaire des critères exigeants et parfois contradictoires : par exemple, couvrir la plus grande surface possible sans pour autant effrayer nos agences de financement ; trouver un site au ciel pur, en altitude, loin de toute pollution, et néanmoins facile d'accès et riche en infrastructures ; et bien sûr convaincre une communauté scientifique internationale aussi large que possible sur un projet très risqué [2] .
Cette même année 1995, Ken Gibbs, de l'université de Chicago, et moi-même sommes partis à la recherche du site idéal avec un cahier des charges très précis. En novembre, l'Argentine est choisie pour accueillir l'observatoire lors d'une réunion fondatrice au siège de l'Unesco à Paris. Et le document final est remis aux agences de financement fin 1996 : le prix à payer s'élève à 50 millions de dollars.
27 événements
Trois ans plus tard, en 1999, le financement en grande partie assuré, la construction commence. Et après quatre ans d'installation, de tests et de validation de nos prototypes, une centaine de cuves sont opérationnelles. L'observatoire enregistre ses premières données exploitables début 2004. Il nous a donc fallu un peu plus de dix ans pour passer de l'idée d'un détecteur grand comme un département à sa réalisation. Mais nos efforts sont vite récompensés. Dès juillet 2005, les analyses préliminaires des premières données, présentées à la Conférence internationale sur les rayons cosmiques de Pune en Inde, prouvent la pertinence de l'observatoire Auger, avec un rythme de détection trente fois plus élevé que les expériences précédentes. Et, en novembre 2007, alors que l'installation du réseau de surface n'est pas encore achevée, les données accumulées suffisent déjà à publier dans le magazine Science des résultats remarquables [3] .
L'observatoire a alors détecté 27 événements d'énergie supérieure à 60 1018 eV, c'est-à-dire dépassant la limite GZK. Ces données et les plusieurs milliers d'enregistrements de rayons cosmiques de moindre énergie, mais tout de même au-dessus de 3 X 1018 eV, ont conduit à des observations fondamentales. En premier lieu, les 27 événements ne sont pas répartis au hasard sur le ciel : pour 20 d'entre eux, il existe dans un rayon de 3 degrés autour de leur direction d'arrivée une galaxie active située à moins de 300 millions d'années-lumière de la Terre, ce qui, à l'échelle de l'Univers, correspond à notre proche banlieue. Une galaxie dite « active » possède un noyau central extrêmement brillant - on parle d'un noyau actif de galaxie. Or, ces objets sont les sources de lumière stables les plus puissantes de l'Univers et le siège de phénomènes mettant en jeu des énergies gigantesques.
Cette découverte a des conséquences. Tout d'abord, elle démontre que l'origine des rayons cosmiques les plus énergétiques, bien que proche, se situe hors de notre galaxie. Ensuite, elle conforte l'une des hypothèses avancées quant au mécanisme qui leur confère une telle énergie. Celle selon laquelle les rayons cosmiques correspondraient à des particules chargées et au repos, accélérées par les champs électriques et magnétiques colossaux entourant certains objets ou phénomènes astrophysiques comme les trous noirs avaleurs de galaxies, les jeunes étoiles à neutrons ou les collisions de galaxies. Dans ces environnements, les particules en question seraient vraisemblablement des protons ou des noyaux de fer. La plupart des rayons cosmiques de très haute énergie seraient donc issus de sources astrophysiques dites proches, probablement des galaxies actives, ou, tout au moins, des objets ayant une distribution similaire dans le ciel. Un rayon angulaire de 3 degrés sur le ciel est en effet très vaste - pour fixer les idées, le diamètre de la pleine lune mesure 0,5 degré. De nombreux objets peuvent s'y trouver, et la proximité des galaxies actives ne suffit pas à les désigner comme les sources certaines des rayons cosmiques.
EN DEUX MOTS D'où viennent les rayons cosmiques, les particules les plus énergétiques qui nous parviennent de l'Univers ? Un observatoire a été déployé depuis 1999 dans la Pampa argentine pour les détecter. À peine achevé, il a déjà enregistré 27 rayons cosmiques dont l'énergie dépasse 60 X 1018 eV. Et ces rayons ne sont pas répartis au hasard. Au voisinage de chacun d'entre se trouve une galaxie active.
Prédiction vérifiée
La mesure du flux de rayons cosmiques en fonction de l'énergie apporte aussi un nouvel éclairage. Elle montre une chute brusque au-delà de 60 X 1018 eV, qui coïncide avec la limite GZK. Ainsi, avant même l'inauguration officielle de l'observatoire, la première collection d'événements commence non seulement à lever le voile sur l'origine de ces fameuses particules, mais apporte la première observation indiscutable de la limite GZK.
Une nouvelle fenêtre sur l'Univers vient de s'ouvrir. À l'instar de la lumière en astronomie classique, les rayons cosmiques très énergétiques pourraient faire figure de nouveaux messagers pour une astronomie alternative. La construction d'un observatoire encore plus grand dans l'hémisphère Nord pour couvrir l'ensemble du ciel, et l'extension de l'observatoire Auger dans le sud pour multiplier les événements détectés devraient nous y aider dans les cinq prochaines années.
[1] J. Linsley, Phys. Rev. Lett., 10, 146, 1963.
[2] M. Boratav, « Des scientifiques dans la pampa », La Recherche, novembre 1999, p. 46.
[3] The Pierre Auger Collaboration, Science, 318, 938, 2007.
NOTES
* Un électronvolt est l'unité d'énergie. Elle équivaut à 1,6 X 10-19 joule, soit l'énergie d'un électron soumis à une différence de potentiel de 1 volt.
CAPTEURS : DES CUVES PAR MILLIERS
LES CAPTEURS CHERENKOV sont des cuves de plastique, de 1,2 mètre de haut et 3 mètres de diamètre, remplies d'eau ultrapure . Les particules de la cascade atmosphérique provoquée par les rayons cosmiques produisent au contact de l'eau un rayonnement lumineux, appelé rayonnement Cherenkov. Ce rayonnement, très faible, est détecté par un ensemble de 3 photomultiplicateurs, sorte de tube cathodique fonctionnant à l'envers, qui transforme la lumière en électricité. Le signal électrique est alors daté grâce à une horloge synchronisée sur les horloges atomiques des satellites du Global Positioning System GPS, au dix milliardième de seconde près et numérisé. Chaque seconde, des milliers de particules traversent les cuves et laissent un petit signal. Seuls les enregistrements pertinents, c'est-à-dire ceux qui comptabilisent le plus de particules, sont stockés localement. Et, pour les vingt qui semblent les plus intéressants, l'heure d'occurrence est envoyée par radio au système central, situé à plusieurs dizaines de kilomètres. Après analyse et comparaison avec les autres enregistrements effectués sur le réseau au même instant, le système central demandera éventuellement l'enregistrement complet stocké par les cuves. C'est cette centralisation qui permet de découvrir a posteriori d'éventuelles corrélations à très grandes distances sur le réseau, et donc de reconstituer les cascades de particules.
OBSERVATION : LUMIÈRE FLUORESCENTE
LES TÉLESCOPES À FLUORESCENCE sont des instruments optiques de très haute sensibilité . Ils permettraient de détecter, à plus de 40 kilomètres, une ampoule de quelques dizaines de watts traversant le ciel à la vitesse de la lumière. Lors du développement de la cascade de particules dans l'atmosphère, les atomes d'azote sont ionisés, et leur désexcitation produit une lumière de fluorescence que détectent nos télescopes. Naturellement, de tels instruments ne peuvent pas fonctionner en plein jour, ni même lorsque la Lune est visible. Alors que le réseau de surface fonctionne 24 heures sur 24 et 365 jours par an, les télescopes ne recueillent des données que 10 % du temps. Mais ils donnent un accès plus direct à l'énergie de la particule incidente et sont donc indispensables pour étalonner l'ensemble du dispositif.
SAVOIR
Le site de l'observatoire Auger.
www.auger.org


 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LA THEORIE QUANTIQUE

 

 

 

 

 

 

 

théorie quantique

Théorie physique qui traite du comportement des objets physiques au niveau microscopique (atome, noyau, particules).

PHYSIQUE
La théorie quantique a été élaborée pour résoudre une crise de la physique classique : certains phénomènes ne semblent pas de nature continue (comme l'est, par exemple, la relation de proportionnalité entre la force et l'accélération) ; ils sont « quantifiés ». Malgré des interrogations latentes, cette théorie a connu des succès éclatants : notre compréhension de la structure de la matière est quantique de part en part, notre société technologique repose sur la validité de la théorie quantique.

Les fondements de la théorie quantique

Max Planck
       

On considère que la théorie quantique a une triple origine : l'étude, par M. Planck, en 1900, du « rayonnement du corps noir », sur la base d'une hypothèse de quantification de l'énergie lumineuse ; l'article d'Einstein sur l'effet photoélectrique, paru en 1905, où, reprenant l'hypothèse de Planck, Einstein invente le « grain » de lumière ; le modèle d'atome de N. Bohr (1913), dans lequel le spectre de raies des atomes est expliqué en supposant que l'énergie des électrons à l'intérieur de l'atome est quantifiée. Mais c'est l'article d'Einstein qui fixe réellement les débuts de la théorie quantique car il marque l'émergence d'un « objet » de type nouveau, le quanton. Ainsi, le « grain » de lumière, appelé « photon » en 1929, ne se réduit à aucun des deux « objets » de la physique classique (onde ou particule).

Le « quantum d'action »
La discontinuité entre théories classique et quantique s'inscrit dans la nature « aberrante » (du point de vue de la physique classique) de la relation proposée par Planck. Dans cette relation de définition de la théorie quantique : E = hν, un concept de nature corpusculaire (l'énergie E) se trouve lié à un concept ondulatoire (la fréquence ν) via une nouvelle constante fondamentale (la constante de Planck h). La valeur numérique de h, qui a les dimensions d'une action (produit d'une énergie par un intervalle de temps), délimite le domaine quantique. Les théories classiques apparaissent comme des approximations de la théorie quantique, valables dans le cas où les grandeurs physiques du type « action » sont très grandes par rapport au « quantum d'action » h ; si tel n'est pas le cas, le recours à la théorie quantique est inévitable, ainsi pour l'effet photoélectrique.

Les relations de Heisenberg
ΔE.Δt≥h et Δp.Δl≥h traduisent les limitations fondamentales impliquées par le quantum d'action. Ces relations montrent aussi qu'un phénomène quantique de durée Δt ne peut être caractérisé par une valeur unique de son énergie E et qu'un phénomène d'extension spatiale Δl ne peut l'être par une valeur unique de sa quantité de mouvement p. De tels phénomènes sont au contraire caractérisés par des spectres de valeurs ΔE et Δp, ce qui a mené à attribuer à la théorie quantique une nature indéterministe. En fait, le formalisme quantique (la représentation mathématique de la théorie) permet, à partir de l'état d'un système à un instant donné, de prédire son état à un instant ultérieur. En ce sens, la théorie quantique est parfaitement déterministe.

Le domaine quantique
Pourtant, l'irruption du discontinu dans les actions (ou interactions) pose des problèmes théoriques. Par exemple, tout acte de mesure est une interaction. S'il existe un quantum d'action, toute mesure doit logiquement impliquer, pour donner un résultat, la mise en œuvre d'au moins un tel quantum. Ainsi, h se présente comme une « borne », limite inférieure de toute action envisageable, tout comme c, la vitesse de la lumière, est la limite supérieure de toute vitesse. Le domaine quantique ne coïncide cependant pas vraiment avec l'échelle microscopique : la stabilité de la matière est un phénomène macroscopique inexplicable en dehors de la théorie quantique. La compréhension d'un phénomène aussi « simple » que la couleur des corps n'est pas concevable en dehors de cette théorie. La fabrication et l'utilisation des transistors, des lasers, des montres à quartz, des microscopes électroniques, etc., en relèvent également. Pourtant, le monde à l'échelle quantique est fort différent du monde à notre échelle. La question, qui reste ouverte, est celle du lien entre la théorie quantique et son approximation classique, lien entre le comportement (quantique) des électrons et des noyaux et le comportement (classique) des objets usuels constitués de ces mêmes électrons et noyaux.

Les objets quantiques et le monde physique
Les bosons et les fermions
On démontre que les objets quantiques peuvent être classés en deux grandes catégories, se distinguant l'une de l'autre par la manière dont ces objets se comportent lorsqu'ils sont en très grand nombre (on parle alors de comportement statistique). D'un côté, on a les bosons, qui tendent à s'agglutiner et qui, même, ont d'autant plus tendance à se regrouper dans un certain état qu'ils sont déjà plus nombreux à y être. Le photon appartient à la classe des bosons. De l'autre côté, il y a les fermions, qui, au contraire, ne peuvent se trouver à plus d'un dans un même état. Parmi les fermions figurent les électrons, les protons, les neutrons, etc. À ce niveau de description, l'atome apparaît comme un ensemble de fermions liés entre eux par l'échange de bosons.

Deux conséquences
Cette différence est essentielle, comme le montrent les exemples suivants.

La taille des atomes
Ils auraient tous la même taille si les électrons n'étaient pas des fermions. Comme il faut réserver à chaque électron un certain espace, les atomes augmentent de taille, en même temps que de masse, contrairement à ce qui se passerait si les électrons n'étaient pas des fermions : les électrons seraient empilés les uns sur les autres (ils seraient tous dans le même état quantique) et tous les atomes auraient la même taille. Ainsi s'explique le fait qu'on ne passe pas à travers la matière ! S'il était possible de réduire la distance entre les électrons, la pression exercée sur eux par notre poids suffirait à les tasser… Il est surprenant de noter qu'il ait fallu attendre l'invention de la théorie quantique pour comprendre un phénomène aussi trivial.

Le laser
Un laser est une source de lumière dans laquelle on a exploité le fait que les photons sont des bosons. Une des propriétés du rayonnement laser est d'être extrêmement « directif » : les photons ne se perdent pas en route, si bien qu'on les retrouve presque tous à l'arrivée. Cela se comprend si l'on considère que les photons sont des bosons ; c'est dans leur nature même de rester groupés.

La réalité quantique
La théorie quantique n'est pas déterministe au sens de la mécanique classique. À la question « Où trouver un électron dans un certain état ? », elle répond en donnant une probabilité de présence, variable d'un point de l'espace à l'autre, mais elle ne désigne jamais un lieu précis, contrairement à la mécanique galiléo-newtonienne, que pratiquent, par exemple, les astronomes. Ce débat sur le déterminisme quantique, fort vif dans les années 1930, en particulier entre Bohr et Einstein, semble à présent sans objet, dès lors que le formalisme mathématique donne une description complète du système.

La théorie quantique introduit aussi une non-localité fondamentale, au sens où des phénomènes sans relation causale – c'est-à-dire tels qu'aucun signal ne puisse passer de l'un à l'autre – sont pourtant corrélés. Ainsi, une expérience fondamentale réalisée en 1982 à l'Institut d'optique d'Orsay a apporté une vérification directe des aspects les plus contre-intuitifs de la théorie : elle a mis en évidence, à l'échelle quantique, ce que l'on considérerait, à l'échelle macroscopique, comme une action immédiate à distance (alors que toute action connaît une borne supérieure de vitesse, celle de la lumière). Les résultats de cette expérience vérifient complètement les prédictions quantiques, en particulier le fait que deux quantons ayant interagi à un moment donné restent « liés », même après s'être séparés. (→ particule.)

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

ALAN TURING

 

ALAN  TURING

 

DOCUMENT     wikipedia         LIEN

 
 
 
 

MACHINE DE TURING

 

MACHINE  DE  TURING

 

  DOCUMENT     wikipedia         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon