ecole de musique piano
     
menu
 
 
 
 
 
 

LE BOSON DE HIGGS

 

Le boson de Higgs enfin dévoilé


l'événement - par Pascaline Minet dans mensuel n°467 daté septembre 2012 à la page 8 (1773 mots) | Gratuit
Le 4 juillet 2012, les physiciens du CERN annonçaient la découverte d'une particule dont l'existence est indispensable à notre compréhension du monde. Retour sur cette journée qui restera inscrite dans l'histoire de la physique des particules.

Ce matin du 4 juillet 2012, c'est l'effervescence dans la banlieue de Genève. Au Laboratoire européen de physique des particules, plus connu sous le nom de CERN, des centaines de physiciens sont venus assister à un séminaire scientifique. De l'autre côté de la Terre, à Melbourne, leurs collègues qui participent au Colloque international de physique des hautes énergies, qui se déroule tous les deux ans (ICHEP, selon son acronyme anglais), se sont eux aussi rassemblés dans un amphithéâtre pour assister en direct à l'événement.

L'événement ? Le séminaire accueille deux communications qui feront le point sur la recherche du boson de Higgs, dans le Grand collisionneur de hadrons (LHC). Cette particule, dont l'existence a été prédite il y a plus de quarante ans, est devenue au fil du temps l'un des éléments essentiels du « modèle standard », qui décrit les particules élémentaires et leurs interactions.

Seuls quelques centaines de physiciens, parmi les milliers qui ont participé aux expériences, ont pu prendre place dans l'amphithéâtre où ont lieu les exposés. Des dizaines de journalistes se sont massés dans une salle attenante afin de suivre, eux aussi, les échanges. L'excitation est à son comble : depuis quelque temps déjà, des blogs spécialisés annoncent que le boson a été découvert. Que vont donc annoncer les porte-parole des deux expériences installées sur le LHC ?

En attendant les orateurs, les regards convergent vers deux physiciens aux cheveux blancs : l'Écossais Peter Higgs, 83 ans, et le Belge François Englert, bientôt 80 ans. S'ils sont présents, n'est-ce pas parce que le modèle qu'ils ont proposé indépendamment en 1964 va enfin être confirmé ? Une troisième équipe, américaine, était arrivée la même année, mais un peu plus tard, à des conclusions semblables.

Ces théoriciens cherchaient alors à expliquer pourquoi le photon, qui transmet la force électromagnétique, ne possède pas de masse, tandis que d'autres particules, les bosons W et Z, responsables d'une autre interaction fondamentale appelée force électrofaible, en possèdent une. Le postulat de ces physiciens : notre Univers baigne dans un champ qui donne leur masse aux particules. Ces physiciens ont ultérieurement fait l'hypothèse que ce champ devait être incarné par une particule... qui restera connue sous le nom de « boson de Higgs », bien que l'Écossais n'en soit pas le seul inventeur. Plus l'interaction entre une particule donnée et le champ porté par ce boson est forte, plus la masse de cette particule est importante.

Les physiciens cherchent à confirmer expérimentalement l'existence de cette particule depuis la fin des années 1980. Mais ils ne savaient pas, au départ, où la chercher précisément. Le modèle standard ne permet pas, en effet, de calculer a priori la masse d'une particule : on ne la connaît que parce qu'on la mesure !

En aveugle
Ainsi, les premières expériences, menées grâce au Grand collisionneur électron-positron du CERN (le LEP), ou grâce au Tevatron, installé au laboratoire Fermilab, près de Chicago, aux États-Unis, ont démarré en aveugle. Dans ces expériences, comme dans celles du LHC aujourd'hui, deux faisceaux de particules sont accélérés et envoyés l'un contre l'autre. Leurs collisions à haute énergie génèrent des particules plus lourdes, parmi lesquelles, espère-t-on, le boson de Higgs. Le LEP et le Tevatron ont tous deux été arrêtés sans avoir mis en évidence la formation de celui-ci. En revanche, ils ont permis d'exclure expérimentalement certaines gammes de masse, confirmant ainsi qu'un collisionneur de plus grande énergie serait nécessaire pour le trouver, s'il existait.

C'est dans cet objectif que le LHC a été mis en service en 2008. Dans cet anneau de 27 kilomètres de circonférence, installé à 100 mètres sous terre à la frontière franco-suisse, deux faisceaux de protons sont accélérés à très haute énergie : actuellement de 8 téraélectronvolts(ou TeV, l'unité d'énergie égale à 1 000 milliards d'électronvolts), cette énergie sera presque doublée d'ici deux ans, à l'issue d'améliorations techniques.

Pas question, toutefois, d'observer directement la fameuse particule : le boson de Higgs est trop instable. Aussitôt formé, il se désintègre en d'autres particules, plus légères et plus stables. Cette désintégration peut suivre différents chemins : un Higgs peut ainsi donner naissance à 2 photons* ; il peut aussi se transformer en 2 bosons Z*, qui eux-mêmes donnent ensuite chacun 2 électrons ou 2 muons*. Détecter le boson de Higgs revient donc à repérer, dans le chaos des particules formées par les collisions des faisceaux, un surplus d'événements qui pourraient lui être attribués.

Deux expériences sont consacrées à la recherche du boson de Higgs : CMS (acronyme anglais pour « Solénoïde compact à muons ») et Atlas (acronyme anglais pour « un appareil toroïdal pour le LHC »). Ces détecteurs géants, auprès de chacun desquels travaillent environ 3 000 personnes, ont été conçus pour analyser à la fois la masse, l'énergie et la trajectoire des particules apparues lors des collisions. Les corrélations réalisées entre ces informations permettent de reconstituer ce qui s'est produit.

À la fin de l'année 2011, ces expériences avaient permis de préciser que, si le boson de Higgs existait effectivement, alors sa masse probable était quelque part entre 122 et 129 gigaélectronvolts (GeV) (Lire « Comment les détecteurs Atlas et CMS ont trouvé le boson de Higgs », ci-contre). Les physiciens avaient repéré un léger excès d'événements correspondant à une particule située dans cet intervalle de masse. Mais ils ne pouvaient pas exclure qu'il s'agisse d'une simple variation dans le « bruit de fond » constitué par l'ensemble des événements qui se produisent lors des collisions de particules.

Car, selon les critères de la revue de référence Physical Review Letters, les physiciens des particules doivent présenter leurs résultats avec une marge d'erreur extrêmement faible, dite « à 5 sigma », pour pouvoir parler de découverte. Cette mesure correspond à une possibilité d'erreur... sur 3 millions ! Or, les résultats obtenus en décembre n'étaient qu'à 3 sigma, soit environ une possibilité d'erreur sur 350. Pour améliorer leur précision, les expérimentateurs du CERN ont donc multiplié leurs données : grâce au bon fonctionnement du LHC, ils ont accumulé autant de résultats entre mars et juin 2012 qu'au cours de l'ensemble de l'année 2011.

Suspense
Lors du séminaire du 4 juillet, les physiciens qui travaillent directement sur Atlas ou CMS connaissent les résultats de leur expérience, mais pas ceux de l'expérience « concurrente ». Le suspense règne ! À 9 heures, Joe Incandela, de l'université de Californie, à Santa Barbara, commence la présentation des résultats de CMS, dont il est le porte-parole. CMS a analysé cinq voies possibles de désintégration du boson de Higgs. Celles qui donnent les meilleurs résultats sont celles où il se transforme en 2 photons ou en 2 bosons Z.

À 9 h 50, Joe Incandela parvient à sa conclusion : en combinant l'ensemble de ses données, l'expérience CMS a bel et bien décelé un excès d'événements, qui suggèrent l'existence d'un boson inconnu, d'une masse de 125,3 GeV. Ce résultat est significatif à 4,9 sigma. Les applaudissements fusent : on peut presque parler de découverte !

C'est ensuite au tour de la porte-parole d'Atlas, Fabiola Gianotti, du CERN, de s'exprimer. Elle présente les résultats de son expérience, mis à jour en 2012 uniquement dans deux voies de désintégration : celle à 2 photons et celle à 2 bosons Z. À 10 h 30, le résultat majeur tombe : la combinaison de toutes les mesures suggère l'existence d'un boson de Higgs d'une masse de 126,5 GeV, cette fois avec une significativité de 5 sigma !

Une clameur retentit dans l'amphithéâtre. « Nous l'avons ! » s'exclame Rolf Heuer, directeur général du CERN.

Peter Higgs essuie une larme : « Je n'aurais jamais cru assister à un tel événement de mon vivant ! » Les premiers mots de François Englert sont pour regretter que son compagnon de recherche Robert Brout, décédé l'année dernière, ne soit pas là pour partager cet instant.

Prudence
Les deux expériences Atlas et CMS, menées indépendamment, ont toutes deux conclu à l'existence d'une particule inconnue, plus de cent fois plus lourde que le proton. Et celle-ci a toutes les chances d'être le fameux boson de Higgs : « Jusqu'à maintenant, toutes les caractéristiques que nous avons observées pour cette nouvelle particule, la manière dont elle se désintègre par exemple, sont compatibles avec la description du Higgs », explique Yves Sirois, responsable de l'expérience CMS pour le CNRS. Prudents, les expérimentateurs du CERN insistent néanmoins sur le fait que davantage de résultats seront nécessaires pour préciser la nature de la nouvelle venue.

Car même si c'est bien un boson de Higgs, il s'agit encore de déterminer lequel ! Cette particule est-elle celle du modèle standard de la physique des particules ? Ou alors est-elle d'une nature plus « exotique » ? Elle pourrait notamment trouver sa place dans une extension du modèle standard, par exemple la « supersymétrie ». Cette théorie, qui associe à chaque particule connue une particule « miroir », prévoit l'existence de pas moins de 5 bosons de Higgs. « Avec une masse située autour de 125 à 126 GeV, la particule que nous avons mise en évidence pourrait être l'un des plus légers bosons de la supersymétrie », suggère Rolf Heuer.

Les expérimentateurs du CERN vont donc se remettre au travail : c'est en analysant de plus grandes quantités de données qu'ils préciseront les propriétés de cette particule. Un de leurs objectifs sera de déterminer son « spin », propriété quantique associée à chaque particule, qui ne peut prendre que des valeurs entières ou demi-entières ; dans le cas du boson de Higgs du modèle standard, il devrait être nul. Les physiciens vérifieront aussi que « leur » particule se désintègre bien selon toutes les voies de désintégration prévues par la théorie. Ils devront enfin s'assurer qu'elle interagit avec les autres particules, de manière proportionnelle à leur masse, ce qui correspond à la définition même du boson de Higgs.

Les physiciens ont peu de temps devant eux : le LHC doit normalement être arrêté à la fin de l'année, pour deux ans. Des travaux seront alors entrepris pour porter à 14 TeV l'énergie de collision des protons. Afin d'accumuler le maximum de données avant cette fermeture, les responsables du CERN décideront très probablement de la reporter au mois de mars 2013. « Compte tenu du temps nécessaire pour analyser les données, on peut s'attendre à de nouveaux résultats dans la compréhension de la nature de ce boson jusqu'à l'été 2013 », estime Sandro de Cecco, du laboratoire de physique nucléaire et des hautes énergies du CNRS, à Paris, et membre de l'expérience Atlas. Avant, évidemment, que le LHC ne reprenne des mesures à partir de 2015.

Par Pascaline Minet

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES ÉMERAUDES

 

Comment se forment les émeraudes


 

 

 

- par Gaston Giuliani, Alain Cheilletz dans mensuel n°303 daté novembre 1997 à la page 48
Admirée et recherchée depuis l'Antiquité, l'émeraude n'en demeurait pas moins jusqu'à ces dernières années une énigme pour les géologues. Pourquoi est-elle si rare ? Et ses couleurs si changeantes ? Où et comment se forme-t-elle ? Pour la première fois, un modèle général est proposé pour les deux grands types de gisements identifiés à ce jour. On s'achemine progressivement vers la création d'une véritable carte d'identité des émeraudes.

LesforêtstropicalesdeColombie ou d'Afrique de l'Est, les interminables étendues semi-désertiques du Sertão brésilien ou du Rajasthan indien ou encore les sommets himalayens du Pakistan et d'Afghanistan ont en commun d'abriter les plus grands gisements d'émeraudes . A première vue identiques, surtout lorsqu'elles ont été taillées, les émeraudes naissent pourtant dans des gisements que tout oppose âge, genèse. Et c'est à une échelle très fine qu'il faut rechercher la marque indélébile de leurs origines.

L'émeraude est la variété verte et très rarement transparente d'un minéral somme toute assez banal, le béryl, un silicate d'aluminium et de béryllium voir l'encadré « La structure cristallochimique de l'émeraude ». Sa couleur est due à la présence d'infimes quantités de chrome et de vanadium.

Les traces de fer et d'alcalins contribuent pour leur part à accroître la gamme des variétés et tonalités de cette gemme. L'émeraude est un minéral rare car le chrome, le vanadium et le fer d'une part, le béryllium et les alcalins d'autre part, ont des comportements diamétralement opposés au cours de l'évolution du globe terrestre : les premiers ont une affinité marquée pour le manteau ; les seconds pour la croûte continentale. La formation d'un gisement d'émeraudes résulte donc d'un concours de circonstances exceptionnel permettant dans le temps et dans l'espace la réunion et l'assemblage de ces éléments chimiques. Dès lors, l'étude du contexte géologique revêt une importance fondamentale. D'autant que les gemmologues ont toujours considéré cette pierre précieuse sous le seul angle minéralogique1.

Dans l'état actuel de nos connaissances, on distingue deux grands types de gisements - les brésiliens et les colombiens - qui témoignent d'autant de processus géologiques. Les datations faites sur les gisements brésiliens grâce aux méthodes radiochronologiques potassium-argon et argon 40-argon 39I montrent qu'ils se sont formés au cours de deux épisodes, les uns voici 2 milliards d'années, les autres entre 760 et 510 millions d'années2. Les émeraudes ont cristallisé dans des roches constituées uniquement de phlogopite, un silicate très riche en magnésium, de la famille des micas noirs ; d'où leur appellation familière « d'émeraudes de micas ». Ces roches particulières dites « phlogopitites » résultent de la transformation à l'état solide, sous l'effet d'un fluide alcalin chaud 400 à 600 °C, de roches basiques voire ultrabasiques. On désigne ainsi des roches pauvres en silice et riches en magnésium et fer : la péridotite composée majoritairement de deux silicates de magnésium et de fer : l'olivine et pyroxène, leur équivalent altéré serpentinite et métamorphisé amphibolite-pyroxénite ou encore certains schistes et grauwakes* que l'on regroupe en raison de leur couleur sous le terme de « roches vertes ».

Prenons l'exemple des gisements de Carnaíba, à 400 kilomètres au nord-ouest de Salvador de Bahia qui, jusqu'en 1978, ont assuré la totalité de la production d'émeraude brésilienne. Il y a environ 2 milliards d'années, une chaîne de montagnes comparable à nos Pyrénées centrales traversait cette partie du Brésil. Une bulle de liquide magmatique riche en silice et en alumine en provenance des zones profondes de la croûte continentale s'est alors frayée un chemin jusqu'aux vieilles roches vertes de la ceinture de la Serra de Jacobina 2,7 à 2 milliards d'années fig. 23,4. En bordure, ce magma granitique cristallise sous forme de pegmatites*. Et c'est là qu'a lieu une réaction chimique très spectaculaire. Les écarts de composition et de température entre les deux familles de roches mises brutalement en contact sont tels qu'ils entraînent une mobilisation générale des éléments chimiques : ceux-ci sont libérés et transportés par les fluides hydrothermaux issus du dégazage des magmas et de l'infiltration d'eaux de l'environnement. A l'instar des ions qui se déplacent d'une électrode à une autre sous l'effet d'une différence de potentiel, les éléments chimiques vont ainsi migrer sur quelques mètres de part et d'autre de la zone de réaction. Et se reconcentrer plus loin. Au terme de ce processus, qui constitue la « métasomatose » du grec meta , « au-delà de » et sôma , « corps », les roches situées en bordure du granite sont totalement transformées et de nouveaux assemblages minéralogiques se forment, en général de grosse taille supérieure au centimètre fig. 2. La durée de ce processus, bien que difficile à estimer, est probablement de l'ordre de plusieurs centaines d'années. On comprend mieux dès lors les particularités chimiques de l'émeraude évoquées précédemment : granite, pegmatite et fluides chauds introduisent le potassium, l'aluminium et le béryllium dans un milieu où abondent le fer, le magnésium et le chrome, permettant du même coup la cristallisation synchrone de nouvelles espèces silicatées dont la phlogopite et l'émeraude.

Dans certains gisements brésiliens cependant, l'existence du couple émeraude-phlogopite n'est pas liée à la mise en place d'un granite ou d'une pegmatite5. C'est la présence de cisaillements dans la croûte continentale qui permet aux fluides alcalins circulant dans les parties profondes de la croûte de communiquer avec les roches vertes hôtes de la minéralisation. Tel est le cas du site de Santa Terezinha dans l'Etat de Goiás. Découvert en 1981, ce gisement est aujourd'hui le plus important du Brésil et peut-être du monde si l'on considère la quantité d'émeraude extraite - quelque 155 tonnes entre 1981 et 1988. Malheureusement les cristaux ne sont pas de très bonne qualité et moins de 1 % sont de qualité gemme.

Le contexte géologique des gisements colombiens est tout autre. D'abord, ils sont plus récents : 65 millions d'années à la limite du Crétacé et du Tertiaire pour les uns6 ; et entre 38 et 32 millions d'années limite Eocène-Oligocène pour les autres7. Ils sont regroupés sur les deux versants sylvestres de la Cordillère orientale, entre 500 et 2 000 mètres d'altitude, le long de deux bandes parallèles, à proximité des champs pétrolifères des Llanos et de la Magdalena moyenne. Les émeraudes sont parmi les plus belles : contrairement à leurs cousines brésiliennes, les prismes sont limpides et pauvres en inclusions minérales. La proportion de qualité gemme est d'ailleurs nettement plus importante bien que très variable d'un chantier à l'autre de quelques pour cent à plus de 50 %. Et les pièces parfois impressionnantes : « La Emilia », un cristal d'environ 6 000 carats soit 1,2 kilogramme, a été exhumée en 1969. La raison de cette qualité exceptionnelle ? Une croissance sans contraintes. Les émeraudes se sont en effet développées dans des cavités, sortes de petites géodes, à l'intérieur de veines de carbonates elles-mêmes incluses dans des roches argileuses, les shales noirs* du Crétacé inférieur.

La genèse des émeraudes colombiennes a toujours posé problème. En 1994, l' Engineering and Mining Journal constatait encore que « des générations de géologues avaient été incapables de produire un modèle génétique efficace ». Par analogie avec les autres gisements du monde, les granites furent longtemps suspectés d'être à l'origine de ces fabuleux trésors colombiens. Il n'en est rien. Une dizaine d'années d'expéditions et d'analyses, nous ont permis de proposer un autre scénario8. Il s'appuie sur plusieurs faits, certains originaux, d'autres connus depuis longtemps mais mal interprétés du fait d'une connaissance rudimentaire du cadre géologique. Parmi ces faits : l'existence dans les cristaux d'émeraude de microscopiques cavités à l'intérieur desquelles sont piégés des cristaux de sel NaCl ou halite, dont les particularités isotopiques indiquent qu'ils proviennent d'évaporites, c'est-à-dire de dépôts salifères9,10,11.

Comment interpréter cette observation fig. 3 ? Faisons un bref retour sur les événements qui se sont déroulés depuis 65 millions d'années. A cette époque, la Cordillère orientale n'existait pas encore. A la place, il y avait un vaste bassin où s'étaient accumulés plusieurs milliers de mètres de sédiments continentaux et marins dont quelques niveaux d'évaporites. A partir de 65 millions d'années, la Cordillère orientale va subir plusieurs épisodes de déformation et de compression en rapport avec l'ouverture de l'Atlantique poussant l'Amérique du Sud vers l'ouest. Deux de ces épisodes vers 65 millions et 38-32 millions d'années sont responsables de la formation des gisements d'émeraudes.

Les niveaux de moindre résistance mécanique, comme les shales noirs du Crétacé inférieur, se désolidarisent : d'immenses pans de roches sédimentai-res se chevauchent et s'empilent12. Les fluides hydrothermaux, qui proviennent pour l'essentiel de l'infiltration des eaux superficielles, vont alors migrer à la faveur de ces discontinuités vers les profondeurs du bassin et se réchauffer leur température peut atteindre 300 °C. Ils dissolvent progressivement l'anhydrite CaSO4 et le sel gemme NaCl qu'ils rencontrent çà et là dans les niveaux d'évaporite. Lorsque ces saumures alcalines entrent en contact avec les shales noirs du Crétacé inférieur c'est le choc.

Et ce pour deux raisons. Primo , ces shales contiennent jusqu'à 3 % de matière organique d'où leurs très fortes propriétés réductrices. Secundo ,ces shales sont des roches « poubelles » où sont concentrés de nombreux éléments chimiques : le fer entre 4 et 8 %, le calcium sous forme d'intercalations carbonatées et aussi des éléments présents à l'état de traces tels que le béryllium entre 3 et 4 ppm*, le chrome, entre 100 et 170 ppm, le vanadium entre 140 et 300 ppm et les terres rares. Au moment du contact, les sulfates d'origine évaporitique sont réduits en hydrogène sulfuré tandis que la matière organique des shales noirs est oxydée en gaz carbonique.

Cette réaction chimique, connue sous le nom de thermoréduction des sulfates, produit d'importantes quantités d'hydrogène sulfuré mais aussi d'ions hydrogénocarbonates HCO3-, lesquels interagissent avec le fer et le calcium extraits des shales noirs, provoquant la précipitation des carbonates calcite et d'un sulfure de fer, la pyrite. La matière organique reprécipite dans les veines sous forme de graphite désordonné. Béryllium, chrome, vanadium, sont extraits des shales noirs au cours de la thermoréduction des sulfates, et précipitent sous forme d'émeraude et d'un carbonate de terres rares, la parisite. Les minéralisations colombiennes sont donc issues en partie du cycle général d'évolution de la matière organique du bassin sédimentaire de la Cordillère orientale, d'où leur association spatiale avec les champs pétrolifères.

On a longtemps cru que les émeraudes colombiennes étaient uniques. Mais lors du dernier congrès de l'Industrie minérale canadienne qui s'est déroulé à Vancouver au printemps dernier, des chercheurs américains ont annoncé avoir découvert une magnifique émeraude de trente carats dans des shales noirs vieux de 950 millions d'années des monts Uinta dans l'Utah Etats-Unis.

Ce type de gisements est tout de même exceptionnel. Du moins en comparaison des gisements de type brésilien que l'on retrouve en Inde, en Zambie, au Zimbabwe, en Tanzanie, à Madagascar, en Australie ou encore dans l'Oural, pour ne citer que les principaux pays producteurs d'émeraudes : à Madagascar par exemple, un énorme groupe de 127 émeraudes agglomérées pesant 76 kg a récemment été mis au jour. Le petit gisement de Franqueira en Galice Espagne associé à des pegmatites vieilles de 300 millions d'années appartient également à ce type. De même que ceux du Pakistan.

Dans ce cas précis, on retrouve, comme au Brésil, des gisements associés à la mise en place de granite et de pegmatites Khaltaro dans le massif de Nanga Parbat-Hamarosh13, et au fonctionnement d'immenses cisaillements gisements de Swat dans la région de Mingora au nord-ouest du pays14.

La genèse des émeraudes afghanes de la vallée du Panjshir est encore énigmatique en raison du contexte géopolitique de cette région15. Redécouvertes lors de l'occupation soviétique, elles font aujourd'hui l'objet d'une exploitation artisanale lorsque les bombes le permettent et d'une commercialisation assez active : la production a été estimée à 10 millions de dollars en 1990, certaines émeraudes de très belle qualité pouvant atteindre une valeur de 100 000 dollars le carat. Leur étude géologique et géochimique est actuellement en cours et devrait permettre en particulier d'apporter une réponse concernant l'origine de certains des magnifiques joyaux ornant les couronnes des maharadjahs indiens.

Une fièvre nouvelle s'est emparée du monde des « esmeralderos ». De nouveaux gisements sont découverts, d'autres sont mis en exploitation, notamment en Afrique de l'Est et à Madagascar, les études des gisements indiens reprennent en collaboration entre le Geological survey of India et le bureau de recherches géologiques et minières en France, de nouveaux investisseurs étrangers s'intéressent aux gisements colombiens. Mais cette fièvre a aussi gagné les faussaires.

Les « fausses » émeraudes, souvent magnifiques, sont de plus en plus difficiles à identifier tant les nouveaux procédés de synthèse artificielle sont sophistiqués. Et il est temps pour les scientifiques d'établir une véritable carte d'identité des émeraudes permettant aux vendeurs de valoriser au mieux leur produit par la certification, et aux acheteurs d'assouvir leur légitime souci d'authenticité.

Cette tâche, à laquelle nous nous sommes attelés depuis quelques années, vise ainsi à déterminer aussi précisément que possible les milieux de dépôt et les conditions de formation de ces pierres précieuses dans les différents sites mondiaux. L'objectif : établir une banque de données intégrant des informations sur le gisement, son âge, etc., qui viendrait compléter les catalogues actuels des principaux organismes de certification comme la chambre de commerce et d'industrie de Paris, l'institut Gübelin en Suisse ou encore le Gemological Institute of America, aux Etats-Unis.

Les premières mesures d'isotopes stables oxygène et hydrogène effectuées sur les fluides piégés dans les structures cristallines autorisent les plus grands espoirs16 : elles pourraient, en complément d'autres analyses d'éléments en traces, permettre une caractérisation encore plus fine des différentes familles d'émeraudes en rapport avec leur contexte géologique. Ces études se font actuellement dans les laboratoires nancéiens. Les bénéfices d'une telle démarche sont évidents. Tout d'abord pour valoriser le produit : des mélanges de pierres d'origines différentes et quelquefois de synthèse sont en effet introduits dans les lots aux différents stades de la commercialisation. Ensuite, pour rationaliser et moderniser les exploitations actuelles. Les gisements de Colombie par exemple, exploités intensivement depuis une quinzaine d'années, sont actuellement en cours d'épuisement.

Par Gaston Giuliani, Alain Cheilletz

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES MUONS

 

Paris, 22 juillet 2004
Les muons : de l'exotisme dans la chimie des particules

Dans la matière, les liaisons entre les atomes sont assurées par les électrons. En remplaçant ces derniers par des particules élémentaires plus lourdes, comme le muon, on crée des atomes dits “exotiques“ si proches les uns des autres que leurs noyaux peuvent fusionner. Ces réactions de fusion sont cependant perturbées par des réactions de transfert des muons de l'hydrogène vers des atomes plus lourds. Le laboratoire Collisions Agrégats Réactivité (CAR) du CNRS et de l'Université Paul Sabatier à Toulouse publie dans la revue Physical Review Letters (PRL) du 20 juillet 2004 un modèle théorique de réactions chimiques " exotiques " impliquant des muons. Ce modèle permet de mieux comprendre les réactions de transfert qui parasitent les réactions de fusion. C'est une avancée importante dans la compréhension et l'amélioration de la fusion nucléaire catalysée par muons, étudiée depuis longtemps comme une source possible d'énergie.
Les muons sont des particules élémentaires. Ils sont relativement abondants dans le rayonnement cosmique qui pénètre l'atmosphère jusqu'à la surface de la Terre. Ainsi, chacun d'entre nous est traversé par environ 100 muons par seconde. Dans la matière, ce sont les électrons qui créent des liaisons chimiques entre atomes et assurent la cohésion de l'ensemble. En substituant artificiellement des muons négatifs aux électrons, on élabore des systèmes beaucoup plus compacts dotés de propriétés nouvelles. Le muon étant environ deux cent fois plus lourd que l'électron, il crée des liaisons entre atomes deux cent fois plus courtes (un milliardième de millimètre au lieu d'un dix millionième de millimètre pour une liaison atomique standard). Ainsi des atomes liés par une liaison muonique sont si proches les uns des autres que leur noyaux peuvent fusionner.
 
Pour créer artificiellement des faisceaux de muons, des particules chargées sont manipulées et accélérées sur des cibles dans des accélérateurs de particules. Ces collisions engendrent diverses particules secondaires, dont les muons. Cette particule vit de l'ordre de 2x10-6 seconde (deux millionièmes de seconde) avant de se désintégrer en un électron ou un positron et des neutrinos. Cette durée de vie est largement suffisante pour manipuler les muons et les utiliser pour la fabrication d'atomes et de molécules “exotiques“.  Au cours de ce type d'expérience, on observe des réactions de fusions atomiques mais aussi d'autres réactions comme des réactions de transferts de muons de l'hydrogène vers des atomes plus lourds comme l'azote, l'oxygène ou le néon.
 
C'est à ces réactions « parasites » et à leur modélisation que s'est intéressé Arnaud Dupays, du laboratoire CAR (CNRS-Université Paul Sabatier, Toulouse). Grâce à un nouveau système de paramétrisation des particules, le nouveau modèle permet de comprendre pour la première fois des résultats accumulés au cours des dix dernières années sur la cinétique de réactions "exotiques" obtenues dans des accélérateurs de particules et restées jusqu'alors sans explication satisfaisante. C'est une avancée importante vers l'amélioration de la fusion nucléaire catalysée par muons pour la production d'énergie, mais aussi pour une meilleure compréhension des propriétés fondamentales de la matière.

 

DOCUMENT         cnrs        LIEN 

 
 
 
 

LES NEUTRINOS DÉFIENT LES PHYSICIENS

 


Les neutrinos défient les physiciens


LA PHYSIQUE du XXIe siècle - par Gilles Cohen-Tannoudji, Étienne Klein dans mensuel n°466 daté juin 2012 à la page 38 (2255 mots) | Gratuit
Les neutrinos, infimes particules, n'en finissent pas d'intriguer. De nouvelles expériences cherchent à mettre à l'épreuve des théories divergentes quant à leur nature et à ouvrir la voie à une « nouvelle physique ».

Le 23 septembre 2011, des chercheurs de l'expérience Opera, installée dans le laboratoire souterrain du Gran Sasso, en Italie, présentaient un résultat intrigant : les neutrinos semblaient pouvoir aller plus vite que la lumière !

Cette annonce, qui laissa les physiciens plutôt sceptiques, déclencha un enthousiasme médiatique considérable : Einstein se serait donc trompé ?

Opera est une expérience internationale, destinée à observer le phénomène d'« oscillation de neutrinos » dont on attend qu'il nous renseigne sur la masse encore inconnue de ces particules. Elle utilise un faisceau de neutrinos de haute énergie produit par l'un des accélérateurs du CERN, à Genève, dirigé vers un détecteur installé à Gran Sasso, à environ 730 kilomètres de distance. L'avance de 60 nanosecondes affichée par les neutrinos, révélée par ses mesures, était donc sans rapport direct avec son objectif principal.

Depuis, à l'issue d'un long travail de détective, deux sources d'erreur expérimentale ont été découvertes : une mauvaise connexion entre un GPS et un ordinateur avait réduit le temps de vol des neutrinos de 75 nanosecondes, tandis qu'une horloge vibrant plus vite que prévu l'avait augmenté de 15 nanosecondes... La somme des deux effets explique les 60 nanosecondes d'avance, indûment constatées.

Icarus, une autre expérience installée au Gran Sasso, et ayant des objectifs voisins de ceux d'Opera, n'avait d'ailleurs pas confirmé l'anomalie détectée par sa consoeur. Quelques mois auront donc suffi pour que les choses « rentrent dans le rang », c'est-à-dire pour qu'on ait l'assurance que les neutrinos, comme toutes les autres particules, respectent le droit canon mis en place en 1905 par la théorie de la relativité restreinte. En d'autres termes, la vitesse de la lumière demeure toujours cohérente avec son anagramme : elle « limite les rêves au-delà ».

Le rôle de l'anomalie
Cet épisode n'est pas dénué d'enseignements. D'abord, il rappelle, s'il en était encore besoin, que les erreurs sont possibles en science, notamment lorsque les expériences sont d'une très grande complexité. Il montre également qu'il peut toujours arriver que des données nouvelles obligent les chercheurs à réexaminer leurs connaissances les mieux établies. Même lorsqu'il ne s'agit finalement que d'une fausse alerte, cet exercice n'est jamais inutile.

L'annonce des résultats d'Opera a suscité de nombreux échanges entre physiciens de différentes spécialités. Les uns ont expliqué que ces résultats ne pouvaient être pris au sérieux. Soit pour des raisons théoriques, comme les physiciens américains Andrew Cohen et Sheldon Glashow, qui ont très vite montré que de tels neutrinos supraluminiques auraient de toute façon perdu la quasi-totalité de leur énergie, par une sorte de rayonnement de freinage, avant d'atteindre le détecteur d'Opera [1]. Soit parce que ces résultats étaient en contradiction flagrante avec d'autres observations, notamment celles faites lors de l'explosion d'une supernova nommée 1987A [2].

D'autres chercheurs ont traqué les failles possibles ou les biais éventuels de l'expérience, concernant par exemple la synchronisation des horloges, la prise en compte des erreurs statistiques, les incertitudes sur les instants d'émission des neutrinos... D'autres ont proposé des interprétations alternatives du résultat, s'interrogeant en particulier sur la notion de temps de vol en théorie de la relativité générale.

D'autres encore ont tenté de « recycler » d'anciennes théories, notamment celle des « tachyons », particules hypothétiques supraluminiques satisfaisant malgré tout aux postulats de la relativité restreinte [3], ou bien ont réexaminé le statut du principe de causalité dans un cadre relativiste. D'autres enfin ont cherché à rendre compte des résultats d'Opera, soit à partir d'une nouvelle physique impliquant des neutrinos authentiquement supraluminiques, soit à partir de théories physiques encore à l'ébauche, comme la théorie des supercordes qui envisage des dimensions supplémentaires d'espace-temps que les neutrinos auraient pu emprunter entre Genève et l'Italie...

Ces diverses réactions, mises ensemble, sont venues enrichir une sorte de leçon d'épistémologie que l'histoire de la physique nous a déjà largement enseignée : d'une façon générale, lorsque le résultat d'une expérience ou d'une observation constitue une « anomalie » au sens où il contredit les prédictions d'une théorie par ailleurs solidement éprouvée, trois sortes d'hypothèse peuvent être simultanément envisagées :

1 - Le résultat expérimental tient à une erreur de mesure, ou à une mauvaise interprétation des données, comme cela fut le cas pour Opera.

2 - Il existe une « entité » ou une « substance » non encore découverte dont l'existence permettrait d'annuler le désaccord entre la théorie et l'expérience. La solution consiste alors à compléter le mobilier ontologique de l'Univers au nom de l'universalité de lois physiques bien établies par ailleurs. C'est ainsi qu'a été formulée l'hypothèse de la « matière noire » (lire « L'insaisissable nature de la matière noire », p. 48), censée expliquer que les galaxies subissent l'effet gravitationnel de masses plus importantes que les seules masses visibles. Et comme nous allons le voir - ironie de l'histoire -, c'est précisément ce type d'hypothèse qui a permis la prédiction de l'existence du neutrino en 1930.

3 - Les lois physiques sur lesquelles s'étaient appuyées les prédictions théoriques ne sont pas aussi exactes qu'on l'avait cru. Dans ce cas, la solution du problème est de nature législative : il faut corriger les lois physiques, peut-être même bâtir une nouvelle théorie, radicalement différente de la précédente. Ainsi, l'anomalie de l'avance du périhélie de Mercure constatée au XIXe siècle n'a été résolue que grâce à l'élaboration, en 1915, d'une nouvelle théorie de la gravitation, la relativité générale d'Einstein. Aujourd'hui, certains physiciens tentent d'ailleurs de corriger cette théorie afin de rendre compte du mouvement des galaxies sans faire l'hypothèse qu'une matière noire existe.

Aucun de ces trois types d'hypothèse ne peut être écarté a priori. L'histoire de la physique montre en effet qu'il n'existe pas de recette systématique permettant de prévoir laquelle se révélera finalement être la bonne : des crises ont été résolues de façon législative, d'autres par des ajouts ontologiques, d'autres enfin se sont évanouies lorsqu'il a été constaté qu'elles provenaient d'erreur de mesure ou d'interprétation.

Reste que les mésaventures d'Opera - qui sont en réalité l'aventure même de la recherche - ne retirent rien au parfum de mystère qui continue d'entourer les neutrinos, ni aux enjeux fondamentaux qui leur sont aujourd'hui associés et qui ont trait, pour la plupart d'entre eux, à des questions liées à leur masse, que l'on cherche toujours à déterminer. Il faut dire que, depuis qu'ils sont entrés dans le champ de la physique, les neutrinos ont toujours eu le statut de particules un peu « à part ».

Le petit du neutron
Tout commença avec l'épineux problème que constituait à la fin des années 1920 l'un des trois types de radioactivité, celle dite « ß » : lorsqu'un noyau contient trop de neutrons pour être stable, il se transforme en un autre noyau en émettant un électron. Au cours de l'année 1930, cette transformation nucléaire semblait encore très énigmatique. Les mesures indiquaient que l'énergie de l'électron émis n'est pas chaque fois la même.Elle peut prendre une valeur quelconque, tantôt grande, tantôt petite, alors qu'on s'attendait à ce qu'elle ait une valeur bien précise, toujours la même, celle qui correspond précisément à la différence d'énergie entre le noyau initial et le noyau final.

Ces résultats semblaient violer la loi de conservation de l'énergie qui, dans une telle situation, indique que l'énergie de l'électron doit être parfaitement déterminée. Pour sauver cette loi essentielle de la physique, Wolfgang Pauli fit une hypothèse audacieuse : contrairement aux apparences, le noyau ne se désintègre pas en deux corps (un autre noyau et un électron), mais en trois. Une troisième particule, pensa-t-il, est émise simultanément, qui emporte l'énergie manquante.

Le premier physicien à prendre cette idée au sérieux fut Enrico Fermi, qui baptisa « neutrino » la particule de Pauli, ce qui signifie en italien quelque chose comme « petit du neutron ». En 1933, quelques mois après la découverte du neutron par James Chadwick, il mit à profit ces deux nouvelles particules - le neutron et l'hypothétique neutrino - pour élaborer l'une de ses plus belles oeuvres, la théorie de la désintégration ß, qui s'appuie sur deux hypothèses : le proton et le neutron sont deux états différents d'un même objet fondamental ; quant à l'électron expulsé, il ne préexiste pas dans le noyau mais il est créé en même temps que le neutrino, lors du processus de transformation d'un neutron du noyau en un proton. Ce « modèle de Fermi » ouvrira un chapitre très important de la physique de l'interaction nucléaire « faible », cette force responsable de la désintégration ß et de bien d'autres phénomènes qui ont cours dans le monde de l'infiniment petit. Il est le précurseur de ce que l'on appelle aujourd'hui le « modèle standard » de la physique des particules.

Peu à peu, au gré des discussions entre physiciens, les caractéristiques du neutrino s'affinèrent : il s'agit d'abord d'une particule de masse très faible, peut-être nulle, de même spin* que l'électron ; elle interagit, en outre, à peine avec la matière, ce qui la rend très difficilement détectable. De fait, l'existence de cette particule presque insaisissable ne sera confirmée que vingt-cinq ans plus tard, en 1956, par deux Américains, Frederick Reines et Clyde Cowan, qui sauront profiter du très haut flux de neutrinos émis par le coeur d'un des premiers réacteurs nucléaires américains, à Savannah River, en Caroline du Sud, pour en capturer quelques-uns.

Masse exacte
Et aujourd'hui encore, les neutrinos (car il y en a de plusieurs espèces, capables d'osciller de l'une à l'autre dès lors que leur masse est non nulle) continuent de défier les physiciens. Certaines de leurs propriétés nous échappent encore. Quelle est leur masse exacte ? Sont-ils leurs propres antiparticules ? Cette dernière énigme, vieille de quatre-vingts ans, attend toujours sa réponse, avec une impatience grandissante

Neutrino et antineutrino ?
Dans les années 1930, un jeune prodige de la physique, Ettore Majorana, a proposé une alternative séduisante à la théorie de l'antimatière que Paul Dirac avait formulée en 1931. Sa « théorie symétrique de l'électron et du positron » demeure au coeur de certaines études expérimentales menées aujourd'hui sur les neutrinos, qui pourraient déboucher sur des résultats révolutionnaires. Pour Paul Dirac, à chaque particule de matière, même dépourvue de charge électrique, est associée une antiparticule qui ne lui est pas identique. Majorana, lui, envisage les choses autrement : il propose une équation, différente de celle de Dirac, pour laquelle les particules neutres, sans charge électrique donc, sont nécessairement identiques à leurs propres antiparticules.

À ce jour, personne ne sait lequel de ces deux génies avait vu juste. Mais le neutrino, parce qu'il est la seule particule de matière qui soit à la fois élémentaire et électriquement neutre, pourrait trancher le débat. S'il avait une masse nulle, comme le supposait Pauli, le fait qu'il soit « de Dirac » ou « de Majorana » importerait peu, car cela ne conduirait à aucune différence de comportement. Mais on sait depuis 2001 que ce n'est pas le cas : Raymond Davis et Masatoshi Koshiba ont reçu en 2002 le prix Nobel pour avoir établi que les neutrinos sont bel et bien massifs, sans pouvoir toutefois préciser la valeur exacte de leur masse. Il n'est donc plus indifférent de savoir si les neutrinos sont identiques ou non à leur propre antiparticule, dès lors qu'on peut imaginer des expériences qui conduiraient à des résultats différents dans l'un et l'autre cas.

Mais comment faire ? Il arrive que des paires de neutrinos soient produites lors d'événements extrêmement rares, comme la « double désintégration ß » où, au lieu d'un électron et un neutrino comme dans la désintégration ß classique, ce sont simultanément deux électrons et deux neutrinos (en fait deux antineutrinos) qui sont émis par un noyau atomique [fig.1]. Cette désintégration, spécifique de certains noyaux tels le calcium 48, le germanium 76, le sélénium 82 et quelques autres, ne survient que très rarement (les demi-vies* radioactives de ces noyaux sont de l'ordre de 1020 ans ). Mais des physiciens essaient aujourd'hui de détecter des événements encore plus rares où seuls deux électrons seraient émis, c'est-à-dire sans émission d'aucun neutrino. Leur idée est que, si le neutrino était identique à sa propre antiparticule, il devrait pouvoir s'annihiler dès qu'il rencontre l'un de ses congénères, neutrino ou antineutrino, de sorte que les deux neutrinos émis par désintégration ß pourraient disparaître de l'état final.

Plusieurs expériences internationales sont actuellement sur les rangs pour traquer cette « double désintégration ß sans émission de neutrino ». Le premier démonstrateur de Supernemo devrait être installé au laboratoire de Modane dans le tunnel du Fréjus à la fin 2014. Gerda est déjà en développement dans le souterrain du Gran Sasso qui doit aussi héberger sa consoeur Cuore. D'autres expériences, Exo et Majorana, devraient démarrer aux États-Unis... Le principe est de rassembler la plus grande quantité d'atomes candidats, par exemple du sélénium 82 pour Supernemo, ou du germanium 76 pour Gerda, de les protéger du rayonnement cosmique dans un souterrain, et d'attendre patiemment qu'un tel phénomène se produise et se laisse détecter.

Cette nouvelle génération d'expériences vise à atteindre la centaine de kilogrammes de l'élément choisi, soit un ordre de grandeur de plus que la génération précédente. Selon la théorie de Dirac, cette nouvelle forme de radioactivité est rigoureusement impossible, alors qu'elle doit pouvoir être observée, selon la théorie de Majorana. Sans aucun doute, sa mise en évidence serait une découverte cruciale puisqu'elle obligerait à modifier le statut des neutrinos dans l'actuel modèle standard de la physique des particules et ouvrirait la voie à une « nouvelle physique ».

Par Gilles Cohen-Tannoudji, Étienne Klein

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon