ecole de musique piano
     
menu
 
 
 
 
 
 

L'origine des éléments légers dans l'univers

 

 

 

 

 

 

L'origine des éléments légers dans l'univers texte intégral
Hubert Reeves, equipe du Dr Bernas, en particulier les Drs Epherre, Gradsztajn, Seide et Yiou dans mensuel 99


On aurait pu intituler cet article « Etudes astronomiques à l'aide d'un spectromètre de masse ». Au lecteur non familiarisé avec l'astronomie physique, un tel titre pourrait paraître assez inattendu. En fait, il représente une réalité bien précise : il recouvre une histoire que l'auteur raconte ici : cette histoire constitue maintenant un chapitre du développement de l'astrophysique nucléaire ; il traite de l'origine des éléments lithium, béryllium et bore dans l'univers. Voici d'abord l'histoire en peu de mots : l'interprétation physique et astrophysique des observations relatives à l'abondance de ces éléments dans le système solaire et dans les étoiles dépend d'une façon essentielle de la mesure des probabilités sections efficaces de formation de ces éléments dans certains types de réactions nucléaires réactions de spallation. Ces réactions nucléaires peuvent être reproduites au laboratoire, et les sections efficaces mesurées expérimentalement. Depuis une dizaine d'années, des équipes de recherche se sont attachées à ces problèmes, et les résultats obtenus ont eu pour l'astrophysique un retentissement considérable : par elles, nos connaissances et notre compréhension de phénomènes aussi divers que l'évolution des étoiles, la formation du système solaire et les propriétés du rayonnement cosmique galactique ont progressé d'une façon tangible.
Dans l'univers, les étoiles sont le siège de réactions thermonucléaires dont l'existence est relativement bien établie par un ensemble de données observationnelles. Ces réactions jouent pour l'étoile un double rôle : d'une part elles libèrent l'énergie qui assure à l'étoile sa stabilité pendant des périodes de milliards d'années ; d'autre part, elles engendrent par composition des éléments plus lourds à partir d'éléments moins lourds : c'est la nucléosynthèse. La très grande majorité des étoiles que nous voyons dans le ciel sont des étoiles dites de la « séquence principale » : elles tirent leur énergie de la fusion de quatre noyaux d'hydrogène en un noyau d'hélium phase de fusion de l'hydrogène à des températures internes de quelques dizaines de millions de degrés. Le Soleil en est un bon exemple. Dans une phase ultérieure, l'hélium ainsi formé se transforme lui-même en carbone et en oxygène phase de fusion de l'hélium à quelques centaines de millions de degrés. On peut citer en exemple l'étoile Capella de la famille des « géantes rouges ».

Puis de nouvelles réactions thermonucléaires transformeront ces éléments en d'autres plus lourds encore, tels le magnésium ou le silicium, et ainsi jusqu'au groupe des métaux fer, cuivre, nickel, à des températures de plusieurs milliards de degrés. On connaît encore mal la famille d'étoiles correspondant à ces types de fusions thermonucléaires. Au cours de ces réactions, des neutrons sont émis qui, par captures successives sur les noyaux du gaz stellaire, vont engendrer tous les noyaux lourds jusqu'à l'uranium.

L'origine des éléments lithium, béryllium et bore

Ces diverses phases ont fait l'objet d'études quantitatives qui ont permis une compréhension assez bonne de l'ensemble du processus nucléosynthétique. Cependant, il reste en particulier, une région obscure : celle des éléments dits « légers » ou « L » : lithium, béryllium et bore. D'une part, ces éléments représentés par cinq isotopes stables : lithium-6 et lithium-7, béryllium-9, bore-10 et bore-11 ont un très faible taux de formation au cours des réactions thermonucléaires responsables de la luminosité stellaire : en fait, un seul de ces isotopes, le lithium-7, apparaît dans le réseau complexe des réactions qui catalysent la fusion de l'hydrogène en hélium.

D'autre part, à cause de leur très faible stabilité nucléaire, ces isotopes sont extrêmement sensibles à la température des fournaises stellaires. A quelques millions de degrés, ils brûlent en des temps très courts à l'échelle stellaire. De sorte que même s'ils étaient formés en abondance, ils ne survivraient pas à leur passage dans les étoiles. Au total, bien que l'abondance naturelle de ces éléments soit très faible moins du milliardième de l'hydrogène, elle est encore beaucoup trop grande pour être explicable en termes d'évolution stellaire classique exception faite encore une fois, pour le lithium-7.

En 1955, Greenstein et Hayakawa ont émis indépendamment l'hypothèse suivante : ces éléments sont engendrés par des réactions nucléaires à haute énergie, par des protons rapides accélérés dans des «éruptions» violentes ayant lieu à la surface des étoiles. L'existence de telles éruptions était naturellement inférée à partir de phénomènes analogues observés à la surface de notre Soleil. Pendant ces éruptions solaires, dont la présence se manifeste par des perturbations optiques, radio et X, des processus d'accélération se déploient et engendrent une activité très importante : des particules d'énergie allant jusqu'au milliard d'électron-volts sont observées au voisinage de la Terre. Ces particules, dans leur passage au travers de l'atmosphère solaire, produisent sans doute des réactions de spallation du type voulu.

Le terme « réactions de spallation » groupe l'ensemble des réactions nucléaires dans lesquelles un noyau cible s'appauvrit d'un ou plusieurs nucléons, c'est-à-dire change d'identité nucléaire et, peut-être aussi, d'identité chimique si un ou plusieurs de ces nucléons sont des protons. Par exemple, on citera la transformation d'un noyau de carbone 11C en un noyau de béryllium 9Be par bombardement d'un proton amenant à l'éjection d'un neutron et de trois protons, dont le proton initial.

L'hypothèse présentée plus haut a deux facettes distinctes. L'une se rapporte à l'aspect nucléaire du problème : il s'agirait de phénomènes à haute énergie spallation plutôt que de phénomènes à très basse énergie réactions thermonucléaires. L'autre facette se rapporte à l'aspect astrophysique du problème : le siège des réactions est identifié aux éruptions stellaires.

Pour étudier la question en détail, il est indispensable, comme je l'ai mentionné plus tôt, de connaître quantitativement les données nucléaires du problème incidemment, ce point illustre bien le caractère pluridisciplinaire de l'astrophysique moderne ; en 1960, il était déjà clair que l'interprétation des observations astronomiques était complètement paralysée par l'absence de ces données. A ce moment-là, j'ai visité plusieurs laboratoires américains pour demander si ces mesures étaient techniquement possibles et si l'on était prêt à les effectuer, m'efforçant de mettre en évidence leur très grand intérêt astronomique. J'ai reçu à peu près partout la même réponse : bien que techniquement possibles, de telles expériences seraient très difficiles et surtout très longues ; les problèmes de contamination exigerait un soin extrême. Les promesses vagues que j'ai recueillies n'ont naturellement jamais été exécutées. C'est en 1964 que j'ai eu connaissance des travaux du groupe Bernas à Orsay ; non seulement ces physiciens avaient entrepris de réaliser ces expériences, mais déjà les premiers résultats étaient disponibles et leur impact sur les théories astrophysiques avait été mis en évidence.

Un aspect nucléaire du problème

Pour mesurer les probabilités des réactions nucléaires qui vont nous intéresser ici, on utilise à la fois un accélérateur de particules et un spectromètre de masse. Par exemple, si l'on veut déterminer la probabilité de formation d'un atome de lithium par la collision d'un proton de haute énergie avec un atome de carbone, on commence par soumettre une cible de graphite à un flux de protons d'énergie voulue dans un accélérateur approprié. Après un certain temps d'irradiation, une petite quantité d'atomes de lithium se trouve dispersée à l'intérieur de la cible ; on aura typiquement un atome de lithium pour environ 1011 atomes de carbone. Le nombre d'atomes de lithium ainsi formé est évidemment proportionnel à la section efficace, qu'on détermine maintenant par l'analyse quantitative de cette contamination artificielle. La très petite valeur de cette contamination pose un double problème : celui de la détection et de la mesure de quantités aussi faibles, et celui de la contamination naturelle. Le premier problème est résolu au moyen du spectromètre de masse que je décrirai dans un instant; le second problème exige la mise sur pied d'une technique de très haute purification préalable des cibles ; il faut débarrasser la cible des impuretés qui s'y trouvent naturellement et atteindre un degré de pureté allant jusqu'à 10-12 g/g ! On a obtenu ces résultats au moyen d'une technologie très raffinée, développée au cours de plusieurs années. C'est à ce prix que l'astrophysique a pu progresser.

Le spectromètre de masse est un instrument qui nous permet de déterminer quelle fraction d'un échantillon de matière est composée de particules d'une masse donnée. Par exemple, on peut analyser le contenu d'une bonbonne de néon et savoir qu'il contient 90,5 % de l'isotope de masse 20 20Ne, 0,3% de l'isotope de masse 21 21Ne et 9,2 % de l'isotope de masse 22 22Ne ces trois isotopes sont les trois formes nucléaires sous lesquelles on trouve le néon dans la nature. Le principe de l'instrument est le suivant : dans un champ magnétique d'entensité H, une particule de charge e, de masse A et de vitesse v décrit une trajectoire circulaire dont le rayon de courbure est donné par : R = Av/eH. Si des isotopes d'un élément donné même charge a, mais A d iff érent sont « injectés » gràce à l'accélérateur des particules dans le champ magnétique avec des vitesses égales, ils se placeront sur des orbites appropriées dont les rayons de courbure seront proportionnels aux masses A de chacun des isotopes, et le nombre de particules sur chaque orbite sera proportionnel à la fraction d'isotopes de masse A introduite au départ. On intercepte les faisceaux ainsi constitués au moyen de détecteurs-compteurs qui nous permettront d'estimer les abondances relatives.

Les implications astrophysiques du problème exigent qu'on mesure ces probabilités nucléaires pratiquement à toutes les énergies possibles : dans la nature, les faisceaux de particules rapides à la surface des étoiles ou dans lespace interstellaire présentent des spectres d'énergie très variés, allent des plus basses aux plus hautes. Fort heureusement, les probabilités de spallation varient peu avec l'énergie, de sorte qu'on peut se contenter de quelques « points » bien choisis. Ainsi l'équipe française du Centre de spectrométrie de masse1 a utilisé successivement le synchrocyclotron d'Orsay, le cyclotron de Saclay, les accélérateurs du CERN et divers accélérateurs d'Angleterre, d'Allemagne et d'Italie et s'est déplacée avec tout le matériel requis pour élaborer les «fonctions d'excitation » c'est le nom qu'on donne à l'ensemble de ces mesures en fonction de l'énergie. ...

L'aspect nucléaire de l'hypothèse Greenstein-Hayakawa a trouvé dans ces expériences une confirmation éclatante : les rapports d'abondance des isotopes de lithium, béryllium et bore dans la nature sont bien ceux auxquels on doit s'attendre, si ces éléments sont produits par des réactions de spallation induite sur des gaz stellaires ou galactiques, par des protons et des alphas de haute énergie, et si aucun processus ultérieur n'est venu altérer la situation.

L'effet du rayonnement cosmique sur les gaz interstellaires

Mais, par contre, l'aspect astrophysique de l'hypothèse est moins justifié. Une analyse plus détaillée a montré des difficultés quasi insurmontables vis-à-vis de l'efficacité requise pour les mécanismes d'accélération stellaires : pour qu'une étoile puisse engendrer elle-même dans son jeune âge les isotopes de lithium qu'on voit à sa surface, il faut qu'elle puisse transformer en particules rapides pratiquement toute l'énergie qu'elle extrait de ses réserves gravitationnelles. Par analogie, il faudrait imaginer un accélérateur qui déploierait autant de puissance dans son faisceau de particules accélérées qu'il en perd sous forme de chaleur dans le système de refroidissement de ses générateurs ! La question s'est donc reposée : où, quand et dans quel contexte astronomique ces réactions de spallation ont-elles lieu ? A la lumière de certaines observations astronomiques, on peut maintenant admettre qu'elles sont induites par le rayonnement cosmique galactique.

La découverte du rayonnement cosmique galactique remonte à plus de quarante ans. Nous savons aujourd'hui que l'espace interstellaire est constamment parcouru par des particules rapides jusqu'à 1019 électrons-volts ! parmi lesquelles essentiellement tous les éléments sont représentés. Bien que le flux soit faible quelques particules par centimètre carré et par seconde, ces particules rencontrent occasionnellement des atomes du gaz interstellaire environ un atome par centimètre cube avec lesquels elles peuvent réagir et engendrer entre autres choses les isotopes de lithium, de béryllium et de bore auxquels nous nous intéressons. Tout au long de la vie de la galaxie, le gaz s'enrichit progressivement en ces éléments. Et quand une masse de gaz se sépare, se contracte sur elle-même et devient une étoile, l'émission de lumière révèle à la surface de l'étoile la présence des éléments ainsi accumulés. Un calcul simple montre que le taux de formation intégré sur la période allant de la naissance de la galaxie à la naissance du Soleil est en gros suffisant pour expliquer la présence et l'abondance du béryllium à la surface du Soleil ou dans les météorites. On a choisi ici le béryllium plutôt que le lithium parce que ce dernier élément est lentement brûlé par des réactions thermonucléaires dans les zones superficielles des étoiles..

L'évolution des étoiles et le système solaire

On admettra donc que chaque étoile possède au moment de sa naissance les atomes de lithium, de béryllium et de bore qu'elle a trouvés dans la gaz dont elle s'est formée. On admettra aussi que, pendant la plus grande partie de sa vie, elle ne peut pas apporter une contribution personnelle à ces abondances. Dans les stades avancés d'évolution, le problème se reposera autrement. Par contre, puisqu'au long de son évolution l'étoile se réchauffe et devient le siège de réactions thermonucléaires et puisque l'effet net de ces réactions thermonucléaires est de détruire ces éléments, on peut s'attendre à une diminution de certains de ces isotopes. Et comme les taux de destruction ne sont pas les mêmes pour les différents isotopes en question, on prévoit des variations de leur abondance relative à la surface des étoiles, en fonction de l'âge et de la température des masses stellaires impliquées. De telles variations sont en effet observées et nous renseignent sur les conditions physiques dans les surfaces stellaires. Ces renseignements jouent à leur tour un rôle important dans l'élaboration des modèles stellaires.

La figure 6 illustre bien ce point : on a mis en ordonnées ici l'abondance du lithium dans les couches superficielles de certaines étoiles en fonction de la classe spectrale de ces étoiles c'est-à-dire en fonction de la température à la surface. Pour comprendre le raisonnement il suffit de savoir que ces étoiles possèdent des zones convectives superficielles, c'est~à-dire que le gaz atmosphérique est constamment mélangé avec la matière des couches inférieures et que dans le diagramme la température moyenne de ces zones s'accroit de la gauche vers la droite. En d'autres mots les atomes de lithium d'une étoile K ont été soumis à des températures plus élevées que ceux des étoiles F. Il est donc naturel d'observer une destruction relativement plus avancée du lithium dans les étoiles K que dans les étoiles G.

N fait, ce diagramme montre deux groupes d'étoiles d'âges bien différents, le premier groupe représente l'amas des Pléiades 50 millions d'années et le second l'amas des Hyades 500 millions d'années. Et comme on peut s'y attendre, la destruction est plus avancée pour le groupe le plus âgé.

Dans ce contexte, le Soleil et le système solaire ne forment qu'un cas particulier de l'ensemble décrit précédemment. Cependant les moyens d'études mis à notre disposition sont beaucoup plus considérables puisque nous pouvons en étudier la matière au laboratoire sous forme de pierres terrestres, météoritiques et lunaires. En particulier, la présence d'isotopes radioactifs et surtout de radioactivités fossiles nous permet de reconstituer l'historique la cosmochronologie de la matière du système solaire et d'analyser la contribution de l'amas stellaire dans lequel le Soleil est né.

Là encore, la mesure des sections efficaces nous vient en aide puisqu'elle met en évidence un excès de lithium-7 météoritique dont l'origine doit probablement être assignée à l'activité nucléosynthétique de cet amas stellaire avant la naissance du Soleil. La valeur quantitative de cet excès peut ensuite être reliée à certaines propriétés de cet amas dont l'importance commence tout juste à nous apparaître.

Ce bref résumé montre assez bien la riche moisson de connaissances astrophysiques que des mesures au spectromètre de masse de certaines sections efficaces de spallation ont apportée. Ces mesures ont déjà fait l'objet de plusieurs thèses de doctorat présentées à la faculté des sciences d'Orsay. D'autres sont en préparation. A l'étranger ces données expérimentales sont connues sous la nom « d'Orsay cross sections ». Elles sont citées régulièrement par les différents groupes d'astrophysiciens qui les utilisent. Depuis deux ans, une équipe américaine le Dr Davids en particulier a également contribué à leur élaboration. Ce résumé ilIustre aussi, en passant, un point auquel j'attache beaucoup d'importance : on peut encore aujourd'hui faire de la bonne physique de niveau international avec des moyens relativement réduits. Dans son livre Of Men and Galaxies , Hoyle fait remarquer que deux des plus fructueuses découvertes des trente dernières années, l'effet Mössbauer et la découverte de la non-conservation de la parité dans les interactions faibles, ont été obtenues à très peu de frais. Dans ce contexte, les mesures du groupe d'Orsay figurent en bonne place.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

Simulations numériques des chocs de galaxies

 


Simulations numériques des chocs de galaxies
Julien Bourdet dans mensuel 507
daté janvier 2016 -


Grâce à des simulations numériques à haute résolution, des astronomes expliquent pour la première fois pourquoi les collisions entre galaxies donnent lieu à des flambées d'étoiles.
Ce sont des événements violents et extrêmement prolifiques. Dans l'Univers, lorsque deux galaxies entrent en collision, elles se mettent à produire des étoiles à un rythme effréné : à partir du gaz qu'elles contiennent, elles créent l'équivalent de 100 soleils par an pendant plusieurs dizaines de millions d'années - notre galaxie, la Voie lactée, en produit 100 fois moins. Jusqu'à aujourd'hui, l'origine de ces soudaines flambées d'étoiles observées par les télescopes restait mystérieuse. Grâce à des simulations informatiques d'une résolution sans précédent, une équipe d'astrophysiciens français a enfin expliqué le phénomène : durant les collisions, le gaz est fortement comprimé, ce qui favorise la formation brutale de nombreuses étoiles (1).

Au sein d'une galaxie, les étoiles naissent à partir d'immenses nuages de gaz composés essentiellement d'hydrogène, qui se concentrent sous l'effet de la gravitation. Lorsque la densité du gaz devient suffisamment élevée au centre du nuage, des réactions de fusion thermonucléaire démarrent et donnent naissance à un soleil. Mais lors d'une collision entre deux galaxies, le phénomène est tellement violent qu'il agite le gaz en tous sens, le rendant turbulent. On s'attendrait donc à ce que cette turbulence du gaz, qui gêne sa condensation, freine la formation de nouvelles étoiles. Or, c'est l'inverse qui est observé.

Pour tenter de résoudre ce paradoxe, les astronomes ont commencé, dès les années 1970, à simuler sur ordinateur les chocs entre galaxies. De la sorte, ils cherchaient à reproduire toute la complexité des processus physiques en jeu.

PREMIÈRES TENTATIVES LACUNAIRES
Ces simulations ont pointé du doigt un premier mécanisme responsable des flambées d'étoiles : au moment où les deux galaxies se percutent, leur gaz se met à s'écouler vers leur centre respectif où il s'accumule, et forme ainsi plus d'étoiles. Mais restait un problème de taille. « Contrairement aux simulations, les observations montrent que la flambée stellaire ne se déroule pas uniquement au centre, mais dans l'ensemble de la galaxie. Cela signifie qu'il existe un phénomène plus global et beaucoup plus efficace pour former des étoiles au cours d'une collision galactique », note Florent Renaud, à la tête de l'équipe à l'origine de la découverte, aujourd'hui à l'université de Surrey en Angleterre.

LES EFFETS INATTENDUS DU GAZ
Pour identifier la clé des flambées d'étoiles, le chercheur français, à l'époque de ce travail au service d'astrophysique du CEA, à Saclay, et ses collègues du CEA (Frédéric Bournaud, Katarina Kraljic et Pierre-Alain Duc) décident de réaliser de nouvelles simulations numériques avec une résolution inédite. Objectif de l'équipe : prendre en compte simultanément toutes les échelles en jeu, de la galaxie dans son ensemble jusqu'à des structures ne mesurant que quelques années-lumière - la distance caractéristique entre deux étoiles dans une galaxie. Cette échelle minimale est dix fois plus petite que celle atteinte lors des précédentes modélisations. En gagnant en précision, les astrophysiciens espèrent suivre le mouvement du gaz dans ses moindres détails et ainsi comprendre pourquoi la formation stellaire s'emballe.

Mais la tâche est ardue. Pour parvenir à modéliser des galaxies avec toute la matière qu'elles contiennent - le gaz, les étoiles mais aussi la matière noire, une composante énigmatique qui constituerait l'essentiel de la masse des galaxies -, l'équipe doit faire appel aux supercalculateurs les plus puissants d'Europe.

D'autant que les chercheurs ne veulent pas se contenter de simuler une collision entre deux galaxies. Ils souhaitent également modéliser l'évolution d'une galaxie isolée comme la Voie lactée. « C'est une sorte d'échantillon témoin qui nous permet de bien décrire comment la formation stellaire a lieu en temps normal et comment elle est perturbée par une collision », explique Florent Renaud. Une première simulation est ainsi lancée sur le supercalculateur français Curie. Au total, 12 millions d'heures de calcul réparties sur un an seront nécessaires pour reproduire les conditions régnant sur les 300 000 années-lumière sur lesquelles s'étend la Voie lactée, et ce avec une résolution atteignant un dixième d'année-lumière. La simulation permet de reproduire 1 milliard d'années d'évolution, mais les périodes « intéressantes » sont plus courtes (quelques centaines de millions d'années).

Une seconde simulation est ensuite menée sur le supercalculateur SuperMuc installé en Allemagne. Objectif : modéliser, sur 600 000 années-lumière et pendant 1 milliard d'années, une collision galactique similaire à celle qui a donné naissance à la paire de galaxies baptisée Les Antennes. Située à 45 millions d'années-lumière de la Terre, c'est la rencontre galactique la plus proche de nous et la plus étudiée par les astronomes. Cette fois, la simulation, dotée d'une résolution de 3 années-lumière, nécessite 8 millions d'heures de calcul réparties sur huit mois. Cette simulation s'est terminée au printemps 2014.

En comparant les deux simulations, les astronomes mettent alors en évidence un comportement inattendu du gaz dans le cas de la collision des deux galaxies. « Dans la Voie lactée, la

rotation du disque engendre de la turbulence dans le gaz, explique David Elbaz, lui aussi au service d'astrophysique du CEA. Les tourbillons ainsi créés éparpillent la matière, ce qui ralentit fortement la formation stellaire. Dans les Antennes, cet effet existe toujours mais un autre prend rapidement le pas : au lieu d'être éparpillé, le gaz est fortement comprimé. C'est cet effet de compression qui produit un excès de gaz dense et donc une flambée de formation stellaire dans des régions couvrant un important volume des galaxies, et non pas seulement dans leurs régions centrales. »

Mais comment naissent ces compressions dans le gaz ? Pour bien comprendre le phénomène, il faut se placer à l'échelle d'une galaxie tout entière. De par sa masse, celle-ci crée un intense champ de gravitation. Lorsque deux mastodontes de la taille de la Voie lactée commencent à se rapprocher, ils s'attirent alors très fortement, au point de se déformer (lire ci-dessus). Exactement comme la Lune déforme les océans sur Terre créant les marées. Dans le cas des galaxies, l'étirement est tellement intense qu'il finit par arracher des étoiles et du gaz aux deux protagonistes. De spectaculaires extensions de matière se forment au fil du temps entre les deux galaxies et à l'arrière de chacune d'elles.

QUANTIFIER L'IMPACT DES COLLISIONS
Mais cet étirement de la matière n'est pas le seul effet provoqué par la gravitation. « Lorsque les deux galaxies commencent à pénétrer l'une dans l'autre, l'effet s'inverse, précise Florent Renaud. Au lieu d'étirer la matière, le champ gravitationnel la comprime dans certaines zones. Et cette compression se propage ensuite dans le gaz jusqu'aux plus petites échelles, créant ainsi les flambées d'étoiles au sein des galaxies. » Comme l'attestent les simulations, qui prennent à la fois en compte le champ gravitationnel à grande échelle et les mouvements du gaz à petite échelle, ce mécanisme apparaît désormais comme essentiel pour déclencher la formation des étoiles.

Pour s'en convaincre totalement, le groupe d'astrophysiciens a même introduit dans ses simulations des processus physiques extrêmement subtils : l'effet sur le gaz interstellaire des explosions d'étoiles et des vents stellaires - une première à une telle résolution. On sait en effet que parmi les étoiles formées au cours d'une flambée, les plus grosses d'entre elles explosent en supernovae en quelques millions d'années. Au cours de cette courte vie - à l'échelle des étoiles -, elles émettent d'intenses vents stellaires (des émissions de particules). Or, ces deux phénomènes violents peuvent balayer le gaz environnant et ainsi stopper la formation stellaire. « Mais ce que montrent les simulations, note David Elbaz, c'est que la compression du gaz est suffisamment forte pour s'opposer à ces effets antagonistes et ainsi préserver les flambées d'étoiles. »

Avec ces travaux, les astronomes disposent désormais d'une représentation réaliste des flambées d'étoiles au sein des galaxies en collision. Ils peuvent ainsi mieux évaluer l'influence de ces événements violents sur l'histoire de la formation stellaire dans ces galaxies. Dans le cas des Antennes, les simulations numériques permettent d'estimer qu'en 200 millions

d'années - depuis leur premier contact qui a eu lieu il y a 150 millions d'années jusqu'à leur fusion en une seule galaxie qui se produira dans 40 millions d'années -, le couple de galaxies devrait avoir engendré 20 fois plus d'étoiles que si elles étaient restées isolées pendant toute cette période.

Reste que les collisions galactiques ne sont pas toutes aussi efficaces. « Les observations montrent que les flambées sont beaucoup moins intenses quand les deux galaxies n'ont pas des masses voisines ou qu'elles ne tournent pas toutes les deux dans le même sens, note Françoise Combes, de l'Observatoire de Paris et titulaire de la chaire « Galaxies et cosmologie » au Collège de France. Pour bien quantifier l'impact des collisions sur le taux de formation stellaire, il ne faudra pas se contenter de simuler le cas particulier des Antennes, mais encore bien d'autres collisions galactiques. »

C'est précisément à cette tâche que s'attellent actuellement Florent Renaud et ses collègues. Sur leurs supercalculateurs, ils multiplient les scénarios de collisions en changeant la vitesse relative des galaxies, leur masse, leur angle d'approche et d'autres paramètres encore. Ils tentent de déterminer dans quels cas les flambées d'étoiles sont à leur apogée ou au contraire sont quasiment à l'arrêt.

UNE NOUVELLE QUESTION SE POSE
Un travail de fourmi d'une importance cruciale, car il devrait faire avancer un débat qui fait rage actuellement dans la communauté scientifique : quel rôle ont joué les collisions de galaxies pour former des étoiles dans toute l'histoire de l'Univers ? Si aujourd'hui les collisions sont des événements rares, elles devaient être beaucoup plus fréquentes dans un passé reculé. En effet, l'Univers étant en expansion, les galaxies étaient autrefois plus proches les unes des autres et avaient donc plus de chance de se rencontrer. C'est ce qui fait dire à certains que la majorité des étoiles seraient nées à l'occasion d'un choc cosmique.

Mais des observations récentes ont remis en question cette idée. En 2011, les satellites Spitzer et Herschel montrent en effet que dans l'Univers lointain, les flambées d'étoiles dues à des collisions galactiques étaient plus l'exception que la règle (2). Au contraire, l'immense majorité des galaxies forme des étoiles de manière tranquille et régulière. « Ces observations tendent à dire qu'on a surestimé l'effet des collisions sur la création de nouvelles étoiles, juge David Elbaz. Par le passé, ces chocs étaient moins efficaces que ce qu'on imaginait. »

Pourquoi ? C'est à cette question que tentent aujourd'hui de répondre les astronomes. Dans cette quête, les nouvelles simulations mises au point par l'équipe française permettront sûrement de lever un grand coin du voile.
REPÈRES
- Jusqu'à présent, on ne comprenait pas le regain de formation d'étoiles résultant d'une collision entre deux galaxies.

- Une simulation détaillée a mis en avant le mécanisme déclencheur des flambées stellaires : la compression turbulente du gaz.

- De nouvelles simulations sont en cours pour déterminer dans quelles conditions de collision cette formation stellaire est la plus efficace.
DES GALAXIES MÉTAMORPHOSÉES
Lorsque deux galaxies de même gabarit se rencontrent, non seulement elles forment plus d'étoiles, mais c'est toute leur structure qui est transformée. Si les étoiles elles-mêmes n'entrent pas en collision, les distances entre elles étant trop grandes, leur position est chamboulée. Pourquoi ? Parce que de la même façon que la Lune déforme les océans sur Terre, l'attraction gravitationnelle d'une galaxie déforme sa voisine. Dans les régions externes, cet étirement est tellement intense qu'il finit par arracher les étoiles et le gaz : des ponts de matière se créent entre les deux galaxies et de longues traînées apparaissent à l'arrière. Et lorsque les deux galaxies se percutent de plein fouet, de la matière est même éjectée tout autour d'elles, formant des structures en anneaux. Au bout de quelques centaines de millions d'années, toutes ces traces de la collision ont disparu et les deux galaxies ont fusionné : à la place de deux galaxies spirales se trouve désormais une galaxie elliptique.
3 RAISONS DE RÉCOMPENSER CETTE PUBLICATION
Pour la rédaction

- Ces travaux permettent d'identifier pour la première fois le mécanisme à l'origine des flambées d'étoiles. Ce regain de formation stellaire, qu'on observe dans l'Univers proche comme dans l'Univers lointain, se déclenche lorsque deux galaxies entrent en collision.

- Avec une résolution de 3 années-lumière, c'est la simulation numérique la plus précise d'une collision entre deux galaxies : les détails sont dix fois plus fins que dans les simulations précédentes.

- Les auteurs de cette simulation ont pris en compte la physique du milieu interstellaire. De nombreux ingrédients ont été modélisés, y compris le rayonnement émis par les étoiles et leur explosion en supernovae.

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
 

LA SONDE JUNO...

 

Jupiter : en attendant Juno
Joël IgnassePar Joël Ignasse
Voir tous ses articles
Publié le 28-06-2016 à 15h56

En prévision de l'arrivée imminente de la sonde Juno de la NASA, les astronomes ont acquis, au moyen du Très grand télescope, de nouvelles images spectaculaires de Jupiter dans l'infrarouge.
Les deux faces de Jupiter photographiées par le VLT. ESO/L.N. FletcherLes deux faces de Jupiter photographiées par le VLT. ESO/L.N. Fletcher

5 juillet 2016 : la sonde de la NASA Juno arrive aux abords de Jupiter
La sonde Juno entre dans l'influence gravitationnelle de Jupiter
Gigantesques aurores boréales sur Jupiter
COMPTE A REBOURS. Le 4 juillet 2016 (pour les Etats-Unis, le 5 pour la France), la sonde Juno de la NASA s'insérera en orbite autour de Jupiter. C'est la destination finale pour cet engin lancé le 5 août 2011. Pour préparer cette arrivée imminente, une équipe emmenée par Leigh Fletcher de l'Université de Leicester au Royaume-Uni a utilisé l'instrument VISIR sur le Très grand télescope de l'ESO au Chili, pour obtenir de nouvelles images de la géante du système solaire. Grâce à elles, les astronomes ont établi de nouvelles cartes de Jupiter qui révèlent également les mouvements ainsi que les changements intervenus au sein de l'atmosphère de Jupiter au cours des mois précédant l'arrivée de Juno. "Ces cartes guideront les observations de Juno au cours des prochains mois. Des images acquises à différentes longueurs d'onde du spectre infrarouge nous permettent de reconstituer, en trois dimensions, les mouvements d'énergie et de matière au travers d'une colonne d'atmosphère" explique Leigh Fletcher.

Cette image en fausses couleurs a été constituée en sélectionnant puis en combinant les meilleurs clichés générés par VISIR à la longueur d'onde de 5 micromètres. Crédit : L.Fletcher.

La sonde Juno qui entrera en orbite autour de Jupiter complètera ces observations menées au sol par des images prises in-situ. Elle effectuera 37 révolutions autour de Jupiter, pendant une vingtaine de mois, avant d'être précipitée vers la planète où elle se désintègrera. Juno usera de ses huit instruments durant ses 37 orbites pour en apprendre davantage sur la formation de Jupiter, sa structure, son atmosphère et sa magnétosphère. Et elle tentera également de résoudre une question qui hante les astronomes :  au cœur de cette géante gazeuse se niche-t-il un noyau planétaire solide ?



PANNEAUX. La sonde, d'une masse de 3.625 kg, sera principalement alimentée par des panneaux solaires, contrairement aux autres engins à destination des planètes externes qui sont équipés de générateurs thermiques à radio-isotopes (RTG). Pour répondre aux besoins générés par les instruments scientifiques, les télécommunications et le maintien en fonctionnement de la sonde dans l'environnement froid de Jupiter, Juno dispose de 45 m2 de cellules solaires. Celles-ci sont réparties sur 3 ailes de 8,86 mètres de long formées chacune d'un petit panneau et de 3 panneaux plus importants articulés entre eux. Pourquoi tant d’intérêt pour Jupiter ? Parce que c’est "la pierre de Rosette de notre système solaire" expliquait Scott Bolton, astronome en charge de Juno, lors de son lancement. "Elle est de loin la plus ancienne planète, contient plus de matière que toutes les autres planètes, les astéroïdes et les comètes réunis, et porte au fond d’elle l'histoire non seulement du système solaire, mais aussi la nôtre". Avec quatre grandes lunes et de nombreux autres petits satellites, Jupiter forme son propre système solaire en miniature. Sa composition ressemble à celle d'une étoile, et si elle avait été environ 80 fois plus massive, la planète aurait pu enclencher les processus de fusion atomique qui permettent aux étoiles de briller.

 

DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
 

NEUTRINOS ET BIG BANG ...

 

 Invisible témoin du Big Bang


et aussi - par Julien Lesgourgues dans mensuel n°402 daté novembre 2006 à la page 43 (1693 mots) | Gratuit
Vivons-nous dans un flux de neutrinos vieux de 13,7 milliards d'années ? Ces particules primordiales demeurent encore insaisissables, mais les preuves indirectes de leur présence s'accumulent.

Les neutrinos ont-ils joué un rôle crucial dans l'histoire de l'Univers ? Sont-ils assez nombreux pour en modifier l'évolution globale ? Il y a là un paradoxe : comment les particules les plus légères que nous connaissons pourraient-elles influencer les plus grandes structures cosmologiques ? Pourtant, depuis l'hypothèse de l'existence des neutrinos, les physiciens n'ont cessé de s'interroger sur ce lien.

En 1953, avant même la première détection de ces particules, Ralph Alpher, James Follin et Robert Herman, de l'université John Hopkins du Maryland, proposèrent l'existence d'un « fond cosmologique de neutrinos » issu de la période chaude et dense ayant suivi le Big Bang [1] . Ce flux de neutrinos primordiaux remplirait tout l'Univers à l'instar du « fond cosmologique micro-onde » proposé sept ans plus tôt par George Gamow. Ce dernier avait en effet prédit la présence d'un flux de photons dans l'Univers, connu également sous le nom de « rayonnement fossile du Big Bang ».

Équilibre primordial
Selon les trois chercheurs du Maryland, l'Univers devrait au total contenir un nombre comparable de photons et de neutrinos, produits il y a 13,7 milliards d'années. Le scénario est le suivant : d'une infime fraction de seconde après le Big Bang jusqu'à 380 000 ans, l'Univers était rempli d'un gaz chaud et dense appelé « plasma primordial », dans lequel les particules élémentaires étaient maintenues en équilibre par un ensemble de réactions de désintégration et de chocs. C'est la période dite d'« équilibre thermique ».

Connaissant les propriétés élémentaires des neutrinos, photons, protons, neutrons, électrons et autres constituants du plasma primordial, on peut donc calculer exactement leur abondance relative pendant cette période, et l'extrapoler jusqu'à des époques bien plus récentes. Alpher et ses collègues trouvèrent ainsi que, dans les premières dizaines de milliers d'années de l'Univers, l'énergie totale devait se répartir entre les photons pour environ deux tiers et les neutrinos pour environ un tiers. L'énergie des autres constituants protons, neutrons, électrons, etc. étant alors totalement négligeable.

Puis, au moment dit de l'« égalité entre radiation et matière », que l'on date actuellement à 60 000 ans après le Big Bang, d'autres formes de matière prirent le dessus dans ce plasma primordial [2] . L'énergie des photons et des neutrinos devint progressivement négligeable par rapport à celle de la matière visible ordinaire, composée d'atomes, et à celle de la matière noire, responsable de la masse cachée de l'Univers. Enfin, pour rendre compte de la phase d'accélération de l'expansion mise en évidence par différents types d'observation à la fin des années 1990, une mystérieuse énergie noire de nature inexpliquée a été invoquée : quelques milliards d'années après le Big Bang, c'est elle qui semble avoir dominé [3] .

La contribution des neutrinos primordiaux à l'énergie totale de l'Univers serait donc aujourd'hui réduite à pas grand-chose. Les prédictions du « modèle cosmologique standard » combinées aux mesures de la température du fond cosmologique micro-onde, du taux d'expansion et de la platitude de l'Univers ont d'abord fixé une valeur minimale à 0,003 % de l'énergie totale. En incluant les informations les plus récentes sur la masse des neutrinos, obtenues en étudiant leurs oscillations ainsi que le processus de désintégration du tritium, on peut affiner cette prédiction : la contribution doit se situer entre 0,1 % et 4 %. Enfin, d'après l'observation des grandes structures dans l'Univers lire « Peser les neutrinos en observant le ciel », p. 46, il n'est guère vraisemblable que plus de 1 % de l'énergie totale de l'Univers puisse être imputée aux neutrinos primordiaux. En revanche, le nombre actuel de neutrinos primordiaux resterait significatif et conforme aux prédictions d'Alpher et de ses collègues, soit en moyenne 339 neutrinos par centimètre cube, contre 412 photons.

Interaction trop faible
Théories fantaisistes que celles-là ? Le modèle résiste-t-il à l'observation ? Le fond cosmologique micro-onde a été observé en 1965 par Arno Penzias et Robert Wilson grâce à un radiotélescope, donnant au modèle du Big Bang sa preuve la plus éclatante. Mais les neutrinos primordiaux restent inaccessibles. Contrairement aux photons, ils ont une probabilité dérisoire d'interagir avec leur environnement et donc de se manifester. Aujourd'hui encore, leur détection directe relève de la science-fiction. Sans charge électrique et peu énergétiques, les neutrinos primordiaux sont sensibles aux interactions faibles * et gravitationnelles, mais à des niveaux toujours hors de portée. La masse des neutrinos est en effet si petite que leur passage à proximité d'un détecteur correspond à une force gravitationnelle totalement négligeable et impossible à mettre en évidence. Quant aux détecteurs sensibles aux interactions faibles, plongés dans le fond cosmologique de neutrinos, ils doivent théoriquement vibrer, mais avec des accélérations de 10-26 centimètre par seconde carrée tout au plus [4] . Or la plus petite accélération détectable est aujourd'hui de l'ordre de 10-13 centimètre par seconde carrée.

Les détecteurs de neutrinos actuels traquent les fruits de la collision entre un neutrino et une autre particule élémentaire électron, muon, voire un autre neutrino, qui peut produire, grâce aux interactions faibles, d'autres particules bien plus faciles à repérer. Mais là encore ces réactions n'ont lieu que si l'énergie totale des deux particules initiales dépasse un certain seuil. Ce n'est pas le cas des neutrinos cosmologiques, dont l'énergie cinétique est beaucoup trop faible.

Des méthodes de détection directe ont toutefois été envisagées : par exemple, l'étude de la collision entre des neutrinos cosmologiques et des particules ultra-énergétiques produites dans un accélérateur. Malheureusement, même les particules qui seront produites par le LHC, le plus grand accélérateur du monde, en voie d'achèvement au CERN à Genève, auront une énergie insuffisante : la probabilité d'obtenir au moins une collision en un an serait de l'ordre de un pour dix mille [4] . La piste qui paraît peut-être la moins irréaliste est la détection de collisions entre des neutrinos primordiaux et des neutrinos ultra-énergétiques appartenant aux rayons cosmiques [5] . En principe, ce type de collision devrait se produire de temps en temps, n'importe où dans le cosmos. À cet égard, une observation extrêmement précise des rayons cosmiques arrivant sur Terre pourrait à très long terme se révéler payante.

Éléments légers
Ces quinze dernières années ont donc été consacrées à la détection indirecte : peut-on mettre en évidence une signature indiscutable du fond cosmologique de neutrinos en étudiant l'évolution globale de l'Univers ? Puisque leur contribution énergétique devait atteindre environ un tiers dans l'Univers primordial, c'est dans l'Univers jeune, moins de 60 000 ans après le Big Bang, qu'il faut chercher la trace des neutrinos primordiaux.

La première piste d'investigation est liée aux réactions nucléaires qui se sont produites entre une et deux cents secondes après le Big Bang et ont créé les premiers éléments légers hydrogène, deutérium, hélium, lithium, etc.. Depuis la fin de cet épisode, appelé nucléosynthèse primordiale, l'Univers est trop froid pour que d'autres réactions nucléaires aient lieu, si ce n'est au coeur des étoiles. Dans les structures vierges de toutes particules produites dans les étoiles, la proportion de ces différents éléments est donc restée figée. Or la cinétique des réactions primordiales dépend du taux d'expansion de l'Univers, lui-même relié à la densité d'énergie. Un surplus d'énergie sous forme de neutrinos devrait donc avoir des conséquences sur l'abondance relative de ces éléments légers. L'analyse spectroscopique de structures telles que les nuages de gaz intergalactiques donne accès à ces quantités. Et depuis les années 1990 l'ensemble de ces résultats correspond aux modèles qui intègrent les neutrinos dans les proportions prédites dès 1953 [6] . La présence du fond cosmologique de neutrinos est donc prouvée.

La deuxième preuve indirecte nous vient de l'étude des fluctuations du « fond cosmologique micro-onde ». Selon la direction observée, ce flux de photons présente de très petites variations d'énergie, et donc de température : une mine d'informations sur la composition et l'évolution de l'Univers, en particulier sur la période qui va de quelques milliers d'années à 380 000 ans après le Big Bang. Depuis une quinzaine d'années, des instruments embarqués sur des ballons-sondes, ou même des satellites sont dédiés à leur cartographie systématique. Mais c'est surtout depuis février 2003, grâce au satellite américain WMAP, que des cartes précises ont été obtenues [7] . L'analyse statistique de ces cartes fournit une mesure de la densité d'énergie dans l'Univers primordial. Le résultat confirme la prédiction théorique : la densité du fond de photons ne suffit pas. Un autre fond de particules sans interactions devait être présent après le Big Bang dans des proportions d'environ deux tiers, un tiers [8] .

Sans preuve directe, les plus sceptiques peuvent encore douter de l'existence du fond cosmologique de neutrinos. Mais il leur faut alors expliquer l'absence de ces particules dans le plasma primordial, les données de la nucléosynthèse primordiale et les fluctuations du fond micro-onde. Et pour cela invoquer un autre constituant mystérieux, qui aurait les propriétés élémentaires des neutrinos et remplirait l'Univers dans les mêmes proportions.

Succès cosmologique
Ainsi, même indirecte, la confirmation de l'existence des neutrinos primordiaux est considérée comme l'un des grands succès de la cosmologie moderne. Née des premières spéculations sur le modèle de Big Bang, l'hypothèse formulée en 1953 pourrait avoir des retombées pour les physiciens. Aujourd'hui ces derniers butent encore sur la masse absolue des neutrinos puisque les expériences sur les oscillations de neutrinos n'indiquent que des masses relatives. Or une mesure absolue pourrait bel et bien être tirée de l'observation du ciel dans les dix prochaines années lire « Peser les neutrinos en observant le ciel », ci-dessous ! La cartographie de l'Univers aux plus grandes échelles possibles nous renseignerait donc sur des particules légères... d'à peine un vingtième d'électronvolt. À moins, évidemment, que les prévisions ne soient trop optimistes, et que des difficultés imprévues ne surgissent dans les futures campagnes d'observations. La chasse aux neutrinos primordiaux est encore pleine de promesses.

EN DEUX MOTS Juste après le Big Bang, deux types de particules, neutrinos et photons, se seraient côtoyées à mesure pratiquement égale. Les neutrinos n'interagissent quasiment pas avec leur environnement : ils seraient donc parvenus jusqu'à nous sans encombre. Vestiges des tout premiers instants de l'Univers, ils auraient depuis perdu de leur énergie mais seraient toujours très nombreux. Et malgré leur légèreté, ils auraient joué un rôle important dans l'évolution de l'Univers.

Par Julien Lesgourgues

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon