|
|
|
|
 |
|
Pluie de mercure sur l'Arctique |
|
|
|
|
|
Pluie de mercure sur l'Arctique
Christophe Ferrari dans mensuel 381
daté décembre 2004 - Réservé aux abonnés du site
Les populations des contrées polaires sont-elles menacées par une pollution au mercure ? Sa présence de plus en plus forte dans la chaîne alimentaire des écosystèmes de haute latitude inquiète. En surveillant l'évolution de concentrations de ce polluant au-dessus des régions arctiques, les spécialistes de la chimie de l'atmosphère ont découvert un nouveau phénomène.
Depuis une vingtaine d'années, les concentrations en mercure, plus précisément de sa forme la plus toxique, le méthylmercure, n'ont cessé d'augmenter dans les écosystèmes arctiques, des poissons aux ours polaires en passant par les mammifères marins [1]. Dans les lacs canadiens, l'ensemble des espèces piscicoles ont dépassé les valeurs jugées limites* pour une consommation régulière. Et récemment, en Norvège, la viande de baleine a, pour la même raison, été interdite aux femmes enceintes.
Dès que l'on parle de pollution au mercure, surgit immédiatement le spectre de la contamination catastrophique de Minamata au Japon qui fit plus d'un millier de morts dans les années cinquante lire « Le spectre de Minamata », p. 40. On est heureusement bien loin d'une telle situation dans les régions de hautes latitudes. Mais pour fixer les idées une étude menée entre 1970 et 1992 sur 38 000 Canadiens nés et vivant sur l'ensemble du territoire a montré que 9 000 d'entre eux avaient des concentrations de méthylmercure dans le sang supérieures à 20 microgrammes par litre µg/l. Ces concentrations dépassaient les 100 µg/l chez 610 personnes, le seuil au-dessus duquel il existe un risque pour la santé selon les critères de l'Organisation mondiale de la santé au-delà de 330 µg/l, les dommages sont considérés irréversibles.
Cette situation préoccupante a conduit les spécialistes de la chimie de l'atmosphère polaire à s'interroger sur les causes de cette accumulation. En effet, si, dans le cas de l'intoxication de Minamata, l'origine de la pollution était connue, les raisons d'une augmentation des niveaux de ce polluant dans les écosystèmes arctiques restaient floues. Les écosystèmes de haute latitude, éloignés des sources d'émissions, tant naturelles qu'anthropiques lire « D'où vient le mercure ? », p. 38, ne doivent donc a priori leur mercure qu'aux seules retombées de la pollution atmosphérique globale.
Du ciel aux poissons
Dans l'atmosphère, le mercure se trouve essentiellement sous la forme de mercure élémentaire gazeux Hg°. Sa durée de vie est en moyenne d'un an, un laps de temps suffisant pour assurer une concentration quasi homogène, dans toute la troposphère*, d'environ 1,5 nanogramme par mètre cube ng/m3. Ce mercure élémentaire peut être oxydé et donner la forme divalente* et réactive du métal, qui se concentre facilement dans l'eau ou se fixe sur des particules. Celle-ci se dépose donc beaucoup plus facilement. Et ensuite, dans les eaux, les sols ou les sédiments, elle peut à son tour être transformée par des processus biologiques en méthylmercure. C'est cette forme toxique qui est ingérée par les organismes vivants. Elle s'accumule tout au long de la chaîne alimentaire et peut ainsi atteindre, en bout de chaîne, des concentrations un million de fois plus fortes que celles mesurées dans l'eau de surface.
C'était donc aux spécialistes de l'atmosphère polaire qu'il revenait de comprendre pourquoi ces retombées étaient aussi fortes dans les régions polaires. Une première voie s'est dessinée avec la découverte, en 1998, d'un phénomène atmosphérique très particulier, les « pluWIies de mercure ». Au printemps de cette année-là, William Schroeder, Alexandra Steffen et leurs collègues de l'agence gouvernementale « Environnement Canada », à Toronto, mesuraient simultanément les concentrations de mercure élémentaire et de l'ozone dans l'atmosphère à Alert, dans le Grand Nord du Canada [fig. 1]. Ce faisant, ils ont observé pour la première fois des chutes brutales de teneurs en mercure élémentaire gazeux [2]. En une dizaine de minutes, ces concentrations pouvaient passer de 1,5 ng/m3 à moins de 0,1 ng/m3, comme si l'atmosphère se vidait de son mercure élémentaire. Depuis ces premières observations, plusieurs équipes ont détecté et enregistré en différents sites de l'Arctique de telles pluies de mercure pouvant durer de quelques heures à quelques jours [fig. 1]. Elles font aujourd'hui l'objet d'un suivi régulier chaque année au printemps, de mars à juin, en différentes stations de mesure à Barrow en Alaska, à Station Nord au Groenland, à Kuujjuarapik au Québec et enfin à Ny-Älesund, au Spitzberg. Plus récemment, des collègues allemands, Ralf Ebinghaus et Christian Temme du GKSS de Hambourg en ont même observé en Antarctique, à la base de Nuymayer située près de la côte atlantique [3].
Tous ces enregistrements ont montré que les chutes de mercure élémentaire s'accompagnent toujours d'une forte diminution de l'ozone atmosphérique [fig. 2]. Ces fortes corrélations entre les concentrations de mercure élémentaire gazeux et d'ozone suggéraient une piste quant à l'origine de ces « pluies » : les mécanismes chimiques en jeu doivent impliquer ces deux molécules. En suivant cette piste, Steve Lindberg, du laboratoire américain d'Oak Ridge, a proposé un premier scénario au début des années 2000 : selon lui, le mercure élémentaire gazeux serait oxydé par des formes réactives du brome produites par les sels marins contenus dans la neige [4]. En effet, le bromure de sodium NaBr, un sel marin présent dans les embruns émis par les océans, peut être transformé chimiquement sur une surface gelée, les cristaux de glace par exemple, en molécules de brome Br2. Ce gaz est donc plus abondant au printemps quand l'eau, libérée des glaces, dégage plus d'embruns. De plus, dans les conditions d'insolation polaires printanières, les molécules de brome peuvent être facilement cassées par le rayonnement solaire. Or, les atomes de brome ainsi dissociés Br sont extrêmement réactifs vis-à-vis de l'ozone et du mercure. Ce serait donc eux qui oxyderaient le mercure élémentaire et détruiraient l'ozone, provoquant les pluies de mercure au cours du printemps arctique. Le mercure ainsi converti en sa forme divalente, qui, on l'a vu, se dépose plus rapidement, se déverserait sur les surfaces neigeuses et dans les premiers centimètres de neige. Et au moment de la fonte du manteau neigeux il passerait dans l'eau et pourrait alors être transformé en méthylmercure.
Les premières mesures de mercure divalent dans la neige attestent bien d'une accumulation soudaine, les quantités pouvant y être multipliées jusqu'à cinquante fois dans certains cas. Ce scénario a aussi été très vite conforté par les observations du satellite ERS-2 de l'Agence spatiale européenne, qui cartographie la distribution des composés chimiques dans la troposphère. Elles ont en effet révélé la présence de brome réactif, sous forme d'atomes isolés ou associés à de l'oxygène au moment des pluies de mercure. Si l'on considère l'épisode du 10 avril 2002 enregistré à Kuujjuarapik par exemple, la carte de l'hémisphère nord exhibe des concentrations de cette forme de brome particulièrement fortes ce jour-là, notamment dans la baie de Hudson, où se situe le site de mesure.
Influence océanique
Les pluies de mercure ont certes toujours été enregistrées en zone côtière, près des sources de brome. Cependant, la proximité de l'océan ne suffit pas à les déclencher. En effet, nos collègues allemands du GKSS de Hambourg, Ralf Ebinghaus en particulier, qui mesurent depuis une dizaine d'années maintenant le mercure élémentaire gazeux et l'ozone à Mace Head sur la côte ouest de l'Irlande, n'ont jamais enregistré ce type d'événements. Quelles sont alors les conditions qui président à ce type de réactions très particulières ?
Depuis la découverte des pluies de mercure en 1998 par William Schroeder, les spécialistes avaient uniquement porté leur attention sur l'atmosphère, négligeant un autre compartiment important dans ces régions, le manteau neigeux saisonnier. Dans le scénario de Steve Lindberg, la couche de neige ne joue qu'un rôle passif, libérant en fondant le métal dans les sols et les rivières. Mais est-elle si passive ?
En 2001, avec Aurélien Dommergue au laboratoire de glaciologie et géophysique de l'environnement à Grenoble, nous avons entrepris d'étudier de plus près ce manteau neigeux, non seulement pour cerner son rôle dans le déclenchement des pluies toxiques mais aussi pour évaluer ses capacités à stocker du mercure. Nous avons ainsi mis au point un système portable de prélèvement et d'analyse de la neige elle-même, et également de l'air piégé entre les cristaux appelé « air interstitiel » de manière à y suivre l'évolution du mercure [5].
Au printemps 2002, nous avons réalisé les deux premières campagnes de mesure en Arctique avec le soutien de l'institut Paul-Émile-Victor. L'une à Station Nord au Groenland et l'autre à Kuujjuarapik au Canada. Sur les deux sites, nous avons mesuré les concentrations de mercure élémentaire dans un manteau neigeux saisonnier de 100 à 120 centimètres d'épaisseur. Résultat : elles diminuent de manière exponentielle avec la profondeur, passant de 1,6 ng/m3 en surface à environ 0,1 ng/m3 à la base de la couche.
Une telle diminution peut s'expliquer uniquement par une transformation chimique du mercure gazeux sous l'effet des composés bromés dans l'air interstitiel de la neige [6]. Ce mercure divalent, produit par le manteau neigeux lui-même, s'ajoute ainsi à celui déposé par les pluies et renforce le rôle de puits de mercure de la neige. Même si ce deuxième apport joue à la marge en termes de flux, il représente environ 0,01 nanogramme par mètre carré par heure ng/m2/h.
Mais le rôle du manteau ne s'arrête pas là. Sur chacun de ces deux sites, nous avons aussi observé un autre phénomène dans l'air piégé. La concentration de mercure élémentaire gazeux y augmente au cours de la journée. Et ce, dès l'apparition des premiers rayons du soleil. Elle y dépasse même la concentration extérieure : il y a donc forcément aussi production de mercure élémentaire gazeux [7]. Cette production suit parfaitement le taux d'insolation et est beaucoup plus forte dans les premiers centimètres de la neige qu'en profondeur. Elle est donc très probablement liée à des phénomènes photochimiques. Ce gaz fabriqué dans l'air piégé s'échappe-t-il de la neige ? Nous avons évalué le flux qui repart vers l'atmosphère entre 1,6 et 6,5 ng/m2/h selon les conditions d'insolation qui varient d'un jour à l'autre en fonction de la couverture nuageuse, etc.
Comme nous ne pouvons pas encore établir un bilan des quantités échangées sur l'année ou la saison, il reste cependant difficile d'estimer le bilan global de ces deux phénomènes, imprégnation et réémission qui se produisent à l'intérieur du manteau neigeux.Cependant, au final, lors de la fonte de ce dernier au printemps, les mesures montrent que seulement 15 à 20 % du mercure est émis sous forme de gaz élémentaire vers l'atmosphère, alors que dans la neige la concentration en mercure réactif décroît de plus de 60 à 80 % [8].
Poumon de neigeLe manteau neigeux polaire est donc loin d'être inerte vis-à-vis du mercure et serait aussi un véritable réservoir tampon, le libérant sur une période courte au moment de la fonte de la neige. Qui plus est, capable d'être à la fois le siège d'une transformation chimique du mercure gazeux présent dans l'air interstitiel et celui d'une production de ce même mercure élémentaire, ce réservoir jouerait un double rôle. L'image qui vient à l'esprit est celle du poumon, un poumon qui d'une part respire et incorpore le mercure, et d'autre part expire et rejette du mercure.
Mais à quel rythme et en quelles proportions fait-il l'un ou l'autre ? À y regarder de plus près il apparaît qu'au moment des mesures sur le site groenlandais, le manteau neigeux se comportait plutôt comme un puits de mercure, oxydant plus de mercure élémentaire qu'il n'en réémettait. En revanche, sur le site canadien, c'est l'émission du mercure élémentaire qui dominait, sauf la nuit. Or, la principale distinction entre ces deux campagnes de mesures tenait aux conditions de température et d'insolation. Celle du Groenland s'est déroulée de la fin février à la fin mars, au tout début du lever de soleil polaire. Les températures de l'air oscillaient entre - 30 et - 45 °C, la neige atteignant quant à elle - 10 °C à 1 mètre de profondeur et - 25 °C à 20 centimètres. Au Canada, la campagne à Kuujjuarapik a eu lieu début avril, quand le soleil est déjà haut. L'air ambiant y avoisinait les - 5° à - 10 °C et le manteau - 8 °C à - 2 °C .
Plus encore que la présence de neige, la température et l'insolation seraient-elles les paramètres déterminants ? Nos dernières campagnes de mesures, menées avec Pierre-Alexis Gauchard et Olivier Magand, vont dans ce sens [9]. La plus récente, réalisée à bord du navire Polarstern dans l'océan Arctique au cours de l'été 2004, avait essentiellement pour but d'identifier les paramètres clés dans le déclenchement des pluies. Pendant plus d'un mois, du 14 juillet au 31 août, nous avons mesuré en continu le mercure élémentaire gazeux et l'ozone atmosphériques. Toutes les conditions étaient réunies pour que du brome gazeux soit émis, soit par l'eau de mer, libre entre les blocs de glace, soit par la neige déposée à la surface de ces blocs. Pourtant, nous n'avons observé aucune pluie ! Il y a bien eu émissions de brome, mais pas les conditions nécessaires pour transformer le brome gazeux en atomes réactifs.
Température décisive
Là encore, la différence essentielle par rapport à nos campagnes printanières tenait à la température, comprise entre - 5 °C et + 2 °C ; alors qu'il faisait moins de - 10 °C à - 15 °C lors des pluies de mercure enregistrées au Groenland et au Canada.
Nous sommes donc convaincus aujourd'hui que, pour activer la production de brome gazeux qui déclenche les pluies de mercure, le thermomètre doit descendre au-dessous de - 10 à - 15 °C degrés au printemps. Pour nous, la température et l'insolation sont donc bien les paramètres déterminants. De plus, une fois le mercure lessivé de l'atmosphère, ce seraient encore ces paramètres qui réguleraient le comportement du manteau neigeux : tantôt puits, tantôt source. Pour garder l'image du poumon, ces deux paramètres imposeraient un double rythme d'inspiration et d'expiration, au cours de la journée d'une part et saisonnier de l'autre, car au tout début du printemps l'irradiation solaire est plus faible qu'en pleine saison. Mais sur ce point, nous n'en sommes qu'au stade des hypothèses.
Quoi qu'il en soit, toutes ces avancées montrent que les conditions requises pour vider l'atmosphère de son mercure et le concentrer dans la neige sont très particulières. En découlent de nouvelles questions. On peut ainsi se demander si ce phénomène, que l'on croyait au départ assez courant aux hautes latitudes, n'est pas beaucoup plus restreint et local. Dans ce cas, il ne serait peut-être pas la bonne explication à la hausse de méthylmercure relevée dans ces écosystèmes. On peut aussi s'interroger sur l'ancienneté de ces phénomènes : ont-ils toujours existé ou au contraire sont-ils récents ? Nous travaillons actuellement sur ce point à Grenoble, notamment Xavier Faïn, en cherchant à détecter et à analyser les pluies de mercure du passé, un peu comme la paléoclimatologie reconstitue les anciens événements climatiques. Nous commençons également à étudier les accumulations de mercure dans les écosystèmes alpins, car pour l'instant les travaux étaient surtout focalisés sur les régions polaires. Par ailleurs, et c'est rassurant, les derniers inventaires des émissions de mercure à l'échelle globale montrent qu'elles seraient en légère diminution depuis 1990, en percevrons-nous bientôt les conséquences ?
EN DEUX MOTS
L'augmentation des teneurs en mercure observées ces dernières années dans les écosystèmes arctiques serait-elle liée à un phénomène atmosphérique propre à ces régions ? Cette hypothèse a été avancée récemment, après la découverte d'événements très particulier, « les pluies de mercure », qui, au cours du printemps arctique, déverseraient ce polluant sur la neige. En fondant, celle-ci libérerait le mercure dans les sols et rivières qui entrerait ainsi dans la chaîne alimentaire. De nouvelles études mettent l'accent sur le rôle actif du manteau neigeux : il pourrait concentrer et stocker le mercure avant de le relâcher en fondant, cela en fonction des conditions de température et d'insolation.
[1] R. Wagemann et al., The Science of the Total Environment, 186, 41, 1996.
[2] W.H. Schroeder et al., Nature, 394, 331, 1998.
[3] R. Ebinghaus et al., Environmental Science and Technology, 36, 1238, 2002.
[4] S.E. Lindberg et al., Environmental Science and Technology, 36, 1245, 2002.
[5] A. Dommergue et al., Analytical and Bioanalytical Chemistry, 375, 106, 2003.
[6] C.P. Ferrari et al., Geophys. Res. Lett., 31, L03401, 2004.
[7] A. Dommergue et al., Environmental Science and Technology, 37, doi: 10.1021/es026242b, 2003.
[8] A. Dommergue et al., Geophys. Res. Lett., 30 12, 1621, 2003.
[9] P.A. Gauchard et al., The Science of the Total Environment, sous presse.
NOTES
* Les valeurs limites des teneurs en mercure dans les poissons varient, selon les espèces et les pays, de 0,3 µg/g à 1 µg/g.
* La troposphère est la partie la plus basse de l'atmosphère. Elle s'étend en moyenne jusqu'à 12 kilomètres d'altitude.
* Le mercure divalent correspond à la forme oxydée au degré +II, c'est-à-dire qui a cédé deux électrons, d'où l'appellation HgII.
SAVOIR
Le site du laboratoire de glaciologie et géophysique de l'environnement où Christophe Ferrari travaille avec Claude Boutron : http://lgge.obs.ujf-grenoble.fr/
Institut Paul-Émile-Victor : www.ifremer.fr/ifrtp/
Cartes satellitaires G.O.M.E. : www-iup.physik.uni-bremen.de/gome/
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
ce que n'explique pas la physique |
|
|
|
|
|
J.-M. Lévy-Leblond : ce que n'explique pas la physique
Propos recueillis par Olivier Postel-Vinay dans mensuel 349
daté janvier 2002 - Réservé aux abonnés du site
Beaucoup de physiciens ont besoin de la conviction que le progrès scientifique nous conduira un jour sinon à l'explication totale des phénomènes, du moins à leur explication finale. La physique quantique nous rapprocherait du but. Mais conviction ne vaut pas preuve. Réflexion sur les pièges des mots.
La Recherche : Weinberg lire p. 25 espère que nous saurons un jour comprendre toutes les régularités de la nature. Pour lui, toutes ces régularités pourront être déduites de quelques principes. Nous allons, pense-t-il, vers une « explication finale ». Et vous ?
Jean-Marc Lévy-Leblond : Cette position m'intéresse d'un point de vue historique et psychologique, mais je n'y adhère pas. La conviction de Weinberg est partagée par beaucoup de physiciens et joue probablement un rôle moteur pour la physique. Il est possible que les grands « trouveurs » - dont Weinberg fait partie - aient besoin de se rassurer ainsi pour croire à la vérité et à la force de ce qu'ils découvrent. Mais cette conviction est aussi ancienne que la physique et elle a été déçue à répétition. Quand Newton parle de la gravitation « universelle », ce n'est pas seulement au sens où deux corps quelconques s'attirent universellement, c'est aussi, et plus profondément, on l'a un peu oublié, avec l'idée que c'est La loi universelle de la nature, qui va expliquer - moyennant éventuellement quelques modifications - l'ensemble de ses manifestations. Rappelons-nous aussi Lord Kelvin au début du siècle quand il affirmait qu'il n'y avait plus rien à découvrir en physique et qu'il ne restait qu'à ajouter quelques décimales aux constantes fondamentales. Il conseillait aux plus brillants jeunes gens de ne pas s'engager dans la carrière de physicien. Ce genre de conviction, à mon avis, n'est étayé sur rien d'autre qu'un acte de foi, un sentiment presque d'ordre religieux.
Votre scepticisme est-il surtout fondé sur l'argument historique, ou y a-t-il autre chose ?
Cela va plus loin. La position de Weinberg n'est rien d'autre qu'une conviction, il n'en propose aucune démonstration. Je ne peux donc lui opposer que ma propre conviction : à savoir, que le monde est beaucoup plus riche et compliqué que ne le pensent les physiciens et les hommes en général. Croire à la possibilité d'en toucher le fond du fond est peu crédible et présomptueux.
Voyez-vous quelque chose de spécifiquement américain dans la façon dont Weinberg aborde cette question ?
Pas à ce niveau-là. Ce qui me paraît assez spécifiquement américain, c'est la façon qu'a Weinberg d'évoquer le rapport entre les principes fondamentaux de la physique - sous-entendu de la science - et ceux de l'action humaine, y compris de la morale. Weinberg affirme bien qu'on ne peut pas étayer la morale sur la physique, on est heureux de l'entendre dire, mais le fait même qu'il éprouve le besoin de le préciser est assez typique d'un certain contexte culturel, qui a sans doute à voir avec le fondamentalisme biblique. Il me semble qu'en France et dans le monde latin en général personne n'aurait besoin d'affirmer une telle évidence !
Dans sa réflexion sur la possibilité d'une explication finale, Weinberg apporte malgré tout d'autres bémols. Il fait, par exemple, observer que si la chimie demeure une discipline à part entière, c'est que la mécanique quantique et le principe de l'attraction électrostatique ne suffisent pas à expliquer entièrement les phénomènes chimiques. Vous êtes bien sûr d'accord avec ce point de vue ?
Oui, mais j'irais plus loin. Si l'on en reste à la chimie, on voit bien que l'explication physique ne nous satisfait plus dès qu'une molécule est un peu compliquée. Dans le meilleur des cas, le physicien va pouvoir rendre compte du comportement de cette molécule à l'aide de calculs extrêmement lourds sur ordinateur. Mais ces calculs ne nous donneront pas une vraie compréhension du problème. Comprendre, c'est avoir le sentiment intime de saisir les mécanismes en jeu. Eugene Wigner* disait, un jour où on lui montrait effectivement de tels calculs informatiques qui décrivaient le comportement d'un système chimique : « Bon,d'accord, l'ordinateur a compris, mais moi j'aimerais bien comprendre aussi ! » La chimie dégage des concepts spécifiques, autonomes, comme celui de valence, qui à leur niveau rendent compte de façon beaucoup plus convaincante de la réalité.
Mais c'est vrai aussi de la physique elle-même, au niveau macroscopique. Pourquoi la thermodynamique reste-t-elle pertinente ? Parce qu'il ne suffit pas de savoir que la notion de température caractérise l'agitation thermique moyenne des milliards et des milliards de molécules qui remplissent la pièce où nous discutons pour disqualifier cette notion. Elle garde toute sa valeur conceptuelle comme facteur explicatif d'une situation macroscopique. Et on peut en dire autant de descriptions d'objets microscopiques mais non élémentaires, comme le noyau de l'atome. Les interactions élémentaires entre les constituants du noyau n'expliquent son comportement que grossièrement. Malgré les succès considérables de la physique des particules fondamentales ou considérées comme telles, il reste nécessaire d'attaquer les différents niveaux de la matière pour ce qu'ils sont. Il nous faut respecter cette autonomie des divers aspects de la réalité. Bien entendu, c'est encore plus vrai si l'on considère les rapports entre la physique et les sciences du vivant. Sans parler des sciences de la société.
Weinberg fait à cet égard une distinction qui remonte à Aristote et qui lui paraît essentielle, entre ce qui relève du principe et ce qui relève de l'accident. Quelle est selon vous la valeur explicative de cette distinction ?
Elle n'est pertinente que dans certaines limites. Nous ne disposons pas de critères nous permettant d'affirmer que tel principe n'est pas lui-même le résultat d'un accident. Et réciproquement, des lois qui peuvent nous sembler accidentelles, comme celles de la géologie ou encore le code génétique, que Weinberg évoque, ont aussi, à leur niveau, une valeur de principe. La notion d'accident appelle un regard critique au même titre que celle de principe. Je ne suis pas sûr que l'on puisse séparer de façon absolue, d'un côté l'élémentaire, qui relèverait des principes, et de l'autre le composite, le compliqué, qui - lui - relèverait de l'accidentel.
En faveur de cette distinction, Weinberg évoque malgré tout une idée non négligeable, c'est ce qu'il appelle « les brumes du temps ». A propos du code génétique, il dit qu'on ne saura peut-être jamais pourquoi il est ce qu'il est, car son origine se perd dans les brumes du temps. Donc dans un accidentel auquel nous n'aurons peut-être jamais accès. Qu'en pensez-vous ?
Que cet argument peut se retourner contre sa thèse maîtresse. Richard Feynman* avait avancé une fois l'idée, en plaisantant à moitié comme il le faisait souvent, que les régularités au niveau subatomique, en physique des particules, pouvaient être elles-mêmes non pas initiales et constitutives, mais le résultat d'une évolution primitive, dans un passé inaccessible. Il disait : « On a découvert de superbes symétries dans ce monde des particules - fort bien ! Mais il a fallu attendre Kepler pour que les belles symétries circulaires des orbites planétaires apparaissent comme approximatives et contingentes ; qu'est-ce qui nous prouve que les symétries du monde des particules sont constitutives ? » Apparemment personne n'a rien fait de cette idée pour l'instant, mais elle est intéressante, serait-ce au titre de contre argument : ce que Weinberg considère comme le plus fondamental pourrait n'être qu'accidentel, et se perdre dans « les brumes du temps ».
L'accident par excellence n'est-ce pas l'apparition de l'Univers ? Weinberg, Davies et la plupart des physiciens pensent que la physique quantique est capable de rendre compte de cet accident. Et vous ?
Je voudrais d'abord remarquer qu'il n'est pas besoin de la physique quantique pour disqualifier l'idée même d'origine de l'Univers. Ni les temps imaginaires de Hawking ni la super inflation ne sont nécessaires à cet égard. C'est déjà le fait de la cosmologie la plus traditionnelle, celle qui remonte aux équations de Friedmann-Lemaître, dans les années 1920. Ces équations décrivent l'évolution de l'Univers en fonction du temps. Elles peuvent être utilisées pour remonter du présent jusqu'à un instant que l'on peut appeler « origine » si l'on veut, mais où justement les- dites équations cessent d'être valables. Il s'agit d'une singularité mathématique. C'est dire que ce premier instant n'en est pas un ; il n'appartient pas à la gamme des temps. A cet égard, je suis toujours surpris que la comparaison ne soit pas devenue banale avec le zéro absolu de la température. Tous les physiciens sont d'accord pour dire que ce zéro n'est pas une température. C'est un zéro qui n'existe pas, qu'on peut approcher asymptotiquement d'aussi près qu'on veut mais sans jamais l'atteindre. Ce zéro absolu est par convention un nombre fini mais conceptuellement un infini. Pourquoi en irait-il différemment du temps zéro de l'Univers ? De fait, la théorie de l'expansion de l'Univers implique cette idée que l'instant premier n'en est pas un ; d'où il ressort inévitablement qu'il n'y a pas d'« avant »- Big Bang. Vous pouvez rembobiner le film autant que vous voulez, vous n'atteindrez jamais le Big Bang. La question de l'origine est une mauvaise question, due au fait que nous plaquons une représentation du temps liée à notre expérience quotidienne sur un domaine où elle est probablement inapplicable.
Est-ce à dire que le Big Bang échappe à toute forme de représentation ?
Non, je crois qu'on peut construire des représentations, mais après être passé par le détour du formalisme mathématique. Et il restera de toute manière cette ambiguïté irréductible liée à la notion d'origine. J'invite souvent mes étudiants à faire une expérience de pensée : imaginez que le monde dans lequel vous vivez soit un plan infini et que vous soyez isolé dans une tour, dans une cellule dont la fenêtre est grillagée. Les lointains sont perdus dans la brume, mais vous voyez ce qui se passe près de la tour. Une route y arrive, sur laquelle il y a des gens, des voitures qui vont et viennent. Votre seul instrument de mesure, ce sont les barreaux verticaux et horizontaux de votre fenêtre. Et vous observez sur ce carroyage que la route rétrécit à mesure qu'elle s'éloigne. Au début la route fait une largeur de carreau, puis une demi-largeur, et ainsi de suite mais à la fin vous ne savez plus parce qu'elle est noyée dans la brume. Et puis un jour la brume se dégage et vous constatez que la route, à l'horizon, devient un point. Ce point est parfaitement repérable à l'aide des coordonnées fournies par la grille, et rien ne vous empêche de le considérer comme l'origine de la route. Mais vous pouvez aussi comprendre que ce « point » se situe à l'horizon, à l'infini. Cette image montre qu'une échelle de mesure finie peut parfaitement rendre compte d'une grandeur infinie. Il n'est pas besoin de la physique quantique pour discuter cette aporie.
Je reviens à ma question : la physique peut-elle rendre compte de cet accident qu'est l'apparition de l'Univers, du temps, de l'espace, de la matière... ?
Tout dépend de ce que vous entendez par « rendre compte ». On peut imaginer que la physique puisse éventuellement donner un sens, dans un nouveau cadre théorique, à ce qu'il y a sous l'espace tel que nous le connaissons, avant le temps tel que nous le connaissons. Le physicien pourra peut-être créer des concepts appropriés et leur donner un nom : l'infra-espace, le pré-temps, que sais-je ? Mais en quoi cette réponse de physicien changera-t-elle quoi que ce soit à la question d'ordre méta physique que vous posez en réalité ? La physique ne peut répondre qu'en tant que physique.
Ne sommes-nous pas terriblement prisonniers des mots que nous utilisons ? Nous, à la fois les profanes et les scientifiques ?
C'est évident, et j'aurais tendance, à cet égard, à être assez sévère avec la physique et toute la science du XXe siècle. Je pense qu'elle s'est montrée quelque peu désinvolte dans son usage des mots, qu'elle ne les a pas pris assez au sérieux, qu'elle ne les a pas soumis à un regard suffisamment critique.
Les physiciens du XIXe siècle étaient beaucoup plus attentifs à ce problème. On peut lire dans les oeuvres de Maxwell le soin avec lequel il choisit les mots qu'il emploie, surtout quand il les emprunte à la langue courante. Maxwell est éminemment conscient du piège que peuvent représenter les mots. Pour revenir à la question de l'origine, les physiciens continuent, comme nous venons de le faire, à utiliser l'expression « Big Bang », alors qu'elle a été inventée par Fred Hoyle pour ridiculiser cette théorie, et que ces mots sont effectivement d'une absurdité totale. Du coup, les physiciens sont obligés de courir après ces mots et de les corriger : « M ais attention, ils ne veulent pas du tout dire ce que vous avez compris, ce n'est pas une explosion, ça n'a pas eu lieu en un point donné de l'espace, ni d'ailleurs à un moment donné... » . L'usage essentiellement publicitaire de tels vocables finit par occulter leur signification. Je ne crois pas qu'on puisse éviter le dilemme de base : soit on forme des néologismes sans écho dans la langue courante, soit on utilise des mots usuels qui sèment des malentendus. Mais il faut affronter ce dilemme de façon consciente et délibérée.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
SUPRACONDUCTEURS |
|
|
|
|
|
Des vibrations dans les supraconducteurs
Alain Sacuto, Maximilien Cazayous dans mensuel 404
daté janvier 2007 - Réservé aux abonnés du site
Vingt ans après sa découverte, le phénomène de « supraconductivité à haute température » reste l'une des grandes énigmes de la physique. Peut-être plus pour longtemps, grâce à plusieurs techniques expérimentales qui commencent à porter leurs fruits.
EN DEUX MOTS À une température proche du zéro absolu, la plupart des métaux conduisent le courant sans perte d'énergie. Dans certains oxydes de cuivre, la « supraconductivité » se produit à des températures plus grandes, jusqu'à 165 kelvins environ. Les physiciens pensaient que ces deux types de supraconductivité étaient de nature différente, mais une série de résultats dessinent un nouveau scénario.
Il y a tout juste vingt ans, les travaux de Georg Bednorz et d'Alex Müller, des laboratoires d'IBM, à Zurich, faisaient sensation dans la communauté des physiciens. Le matériau dont ils étudiaient les propriétés, un oxyde de cuivre de la famille des « cuprates », propageait le courant électrique sans perte d'énergie à 34 kelvins. Appelé « supraconductivité », ce phénomène était connu depuis le début du XXe siècle, mais il n'avait été observé que sur des alliages métalliques au-dessous d'une vingtaine de kelvins.
Quelques mois plus tard, un cuprate supraconducteur jusqu'à 90 kelvins était identifié. Les physiciens se mirent alors à espérer la découverte prochaine de matériaux supraconducteurs à température ambiante 300 kelvins environ. Eu égard aux économies d'énergie que ceux-ci pourraient permettre, les physiciens n'étaient pas les seuls à s'enthousiasmer.
Encore fallait-il comprendre la nature physique de la supraconductivité à « haute température ». Très vite, en effet, celle-ci était apparue comme fondamentalement différente de la supraconductivité « classique ». Or, après vingt ans de recherches intensives on estime à plus de 100 000 le nombre de publications sur le sujet !, elle résiste toujours à la compréhension des physiciens. Toutefois, une série de résultats publiés en 2006 montrent que ce domaine de recherche arrive enfin à maturité. En particulier, les deux types de supraconductivité auraient finalement plus de points communs qu'on ne le pensait : certains concepts théoriques expliquant le phénomène « classique » conservent leur pertinence.
Paires de Cooper
La supraconductivité a été découverte en 1911, mais il fallut attendre 1957 pour qu'une interprétation microscopique soit établie : c'est la théorie « BCS », selon les initiales de ses inventeurs, les Américains John Bardeen, Leon Cooper et Robert Schrieffer [1] . Ils montraient que la supraconductivité appelée aujourd'hui « classique » résulte de l'appariement des électrons du matériau, qui forment des « paires de Cooper ».
Leur idée est la suivante. Un métal peut être représenté comme un réseau d'ions positifs immergés dans un bain d'électrons chargés négativement. Les ions sont entraînés par le passage d'un électron. Le réseau se déforme, ce qui crée localement un excès de charges positives. Un second électron est attiré par cet excès, qu'il entretient à son tour lors de son passage : les deux électrons se retrouvent ainsi appariés. L'énergie de liaison de cet appariement est appelée « gap supraconducteur ».
Au-delà d'une température dite « critique », l'énergie thermique responsable des déformations du réseau devient trop importante et perturbe ce mécanisme : les paires de Cooper sont brisées et l'état supraconducteur disparaît. Par conséquent, plus le gap supraconducteur est grand, plus l'énergie thermique nécessaire pour briser les paires est importante, et plus la température critique est élevée. Il existe ainsi une relation de proportionnalité directe entre le gap supraconducteur et la température critique.
Une implication directe est l'« effet isotopique » : lorsqu'un ion est remplacé par l'un de ses isotopes atomes de même charge mais de masse différente, la température critique est modifiée, car celle-ci dépend de la mobilité des ions du réseau, et donc de leur masse.
Au milieu des années 1980, la fabrication d'alliages métalliques permettant d'accroître la température critique en jouant sur la force du couplage entre les électrons et le réseau semble aboutir avec le germanate de triniobium, supraconducteur jusqu'à 23,3 kelvins. Une limite infranchissable, estiment les physiciens de l'époque... Mais en septembre 1986 Bednorz et Müller observent de la supraconductivité là où personne ne l'attend : une céramique composée d'oxygène, de cuivre, de baryum et de lanthane, qui possède un ordre magnétique microscopique et ne conduit pas le courant électrique ce que les physiciens nomment « isolant magnétique », mais qui devient supraconducteur au-dessous de 34 kelvins après un processus d'oxygénation [2] . Dès lors, les physiciens et les chimistes se mettent à tester la gamme des oxydes métalliques afin d'atteindre une température critique de plus en plus élevée [fig. 1] . Ces efforts culminent en 1994 avec la synthèse d'un matériau composé d'oxygène, de cuivre et de mercure, supraconducteur jusqu'à 165 kelvins - 108 °C.
Théorie inconnue
Quelle est la température critique limite ? Pourra-t-on synthétiser des supraconducteurs efficaces à température ambiante, ce qui entraînerait des économies d'énergie substantielles ? Personne ne le sait. Aucun modèle n'est jusqu'à présent parvenu à expliquer l'origine physique de la supraconductivité à haute température.
Comme dans la supraconductivité « classique », celle-ci se caractérise par l'existence de paires de Cooper et d'un gap supraconducteur. Mais l'analogie semble s'arrêter là, suggèrent des observations expérimentales réalisées dès la fin des années 1980. En particulier, l'appariement des électrons ne proviendrait pas des interactions avec le réseau. Premièrement, les tests d'effets isotopiques ne sont pas concluants. Deuxièmement, le gap ne semble pas suivre la température critique ; c'est même l'inverse qui est observé.
Troisièmement, des interactions magnétiques sont détectées entre les électrons. Particules chargées, les électrons possèdent aussi un moment magnétique intrinsèque dû au mouvement des électrons sur eux-mêmes : cette propriété leur permet d'interagir « magnétiquement » avec leur environnement proche. En outre, dans les supraconducteurs « classiques », l'énergie des paires de Cooper est la même dans toutes les directions de l'espace. Pour les cuprates, elle varie selon les directions considérées. On peut ainsi dessiner un diagramme représentant l'amplitude de cette énergie en fonction des coordonnées spatiales. Il a la forme d'une fleur à quatre pétales : nulle dans certaines directions appelées « nodales », l'énergie est très forte dans d'autres « antinodales ».
Quatrièmement, enfin, les cuprates sont des matériaux dont le comportement se révèle plus complexe que celui des supraconducteurs « classiques ». Ils peuvent se retrouver dans cinq états différents, décrits par un diagramme de « phase » [fig. 2] . Ces états sont obtenus en faisant varier la température et le nombre de particules portant le courant électrons et « trous d'électrons » * . Ce nombre augmente ou diminue lorsque l'on ajoute ou retire des atomes d'oxygène dans le matériau.
Dôme supraconducteur
Pour une large gamme de températures et un faible nombre de porteurs, on se trouve dans la phase isolante magnétique. Lorsque le nombre de porteurs augmente et pour des températures relativement basses, on rejoint la phase supraconductrice. Celle-ci a la forme d'un dôme, dont le contour décrit l'évolution de la température critique, et dont le sommet correspond à la température critique maximale du cuprate.
Au-dessus du dôme au-delà de la température critique, donc, on observe trois phases, dont l'apparition dépend du nombre de porteurs. Lorsque ce nombre est élevé, le matériau se comporte comme un bon métal, tels l'aluminium ou le cuivre. En le diminuant, on passe dans une phase dite de « métal étrange », qui s'écarte des lois régissant le comportement des métaux normaux. Enfin, pour un nombre de porteurs encore plus faible, une phase dite de « pseudo-gap » apparaît, où les interactions magnétiques de la phase isolante s'exercent encore sur les porteurs.
Ces observations concourent à forger un sentiment chez les physiciens : la supraconductivité « classique » et celle à haute température sont deux phénomènes fondamentalement différents. Des années durant, les propositions théoriques foisonnent... toutes sans succès ! Il faut dire que les oxydes métalliques sont des matériaux complexes, ce qui rend leur étude particulièrement difficile.
Cependant, ces trois dernières années ont apporté de nouveaux résultats expérimentaux, qui suscitent actuellement un revirement important : certains concepts de la théorie BCS auraient été trop vite rejetés. Ces résultats sont le fruit des progrès dans les techniques d'analyse spectroscopique. La fabrication des cuprates est également mieux contrôlée, ce qui permet de comparer, de manière fiable, les résultats obtenus par différentes techniques. Les groupes de recherche sont certes bien moins nombreux qu'au début des années 1990, mais ils sont plus expérimentés et disposent d'instruments mieux adaptés.
L'année 2006 a été particulièrement féconde. En mai, tout d'abord, des études conduites au CEA, à Saclay, sur la diffusion des neutrons dans les cuprates, montrent, dans la phase de pseudo-gap, la présence d'interactions magnétiques à l'échelle de la maille cristalline [3] . Celles que l'on observe dans l'état supraconducteur seraient alors un « résidu » des interactions du pseudo-gap. Ce résultat suggère l'existence d'une compétition entre les phénomènes physiques qui se manifestent dans le pseudo-gap et l'état supraconducteur.
Puis en août dernier, à l'université Cornell, aux États-Unis, des mesures réalisées par spectroscopie à effet tunnel révèlent les traces d'un couplage entre les électrons et le réseau dans l'état supraconducteur d'un cuprate [4] .
Ce couplage semble sensible à l'effet isotopique : les déformations du réseau d'ions joueraient ainsi encore un rôle dans le mécanisme de formation des paires de Cooper.
Au même moment, notre équipe de l'université
Paris-VII publie ses résultats de recherche [5] . Grâce à la spectroscopie Raman, qui permet de différencier le comportement des électrons dans différentes régions de l'espace en les excitant par un laser, nous observons une relation de proportionnalité directe entre le gap supraconducteur et la température critique, comme c'est le cas dans la théorie BCS.
Pourquoi n'avait-elle jamais été observée auparavant ? Parce que la forme, dans l'espace, de l'énergie caractéristique du pseudo-gap ressemble à s'y tromper à celle du gap supraconducteur. Nous avons contourné cette difficulté en étudiant le « bout » du gap qui est proche de la région nodale, zone qui n'est pas masquée par le pseudo-gap.
Les concepts de la théorie BCS refont ainsi surface dans le cadre d'un nouveau scénario où deux états de la matière, le pseudo-gap et l'état supraconducteur, coexisteraient et interagiraient. Ce dernier reste par ailleurs singulier, car il « jaillit » d'un isolant magnétique, ce qui questionne toujours les théoriciens. Quelle « colle » est responsable de la formation des paires de Cooper ? Est-ce une interaction magnétique, un couplage des électrons avec le réseau, ou une combinaison de deux ? Cette question suscite actuellement un débat passionné chez les physiciens.
Au vu des progrès récents, gageons que l'énigme de la supraconductivité à haute température sera bientôt résolue.
[1] J. Bardeen et al., Phys. Rev., 108, 1175, 1957.
[2] J. Bednorz et A. Müller, Z. Phys. B, 64, 189, 1986.
[3] B. Fauqué et al., Phys. Rev. Lett., 96, 197001, 2006.
[4] J. Lee et al., Nature, 442, 546, 2006.
[5] M. Le Tacon et al., Nature Physics, 8, 537, 2006.
NOTES
* Un trou d'électrons correspond à l'absence d'électrons impliqués dans la cohésion d'un réseau cristallin.
SAVOIR
N. Bontemps et C. Simon, Image de la physique, 98, 2005.
A. Bouzdine, « L'héritage de Lev Landau », La Recherche, janvier 2004, p. 60.
D. Roditchev et al., « Le premier supraconducteur double », La Recherche, novembre 2003, p. 40.
X. Grison et al., « De l'ordre dans les supraconducteurs », La Recherche, janvier 2001, p. 44.
DOCUMENT la recherche.fr LIEN |
|
|
|
|
 |
|
LES MATÉRIAUX MAGNÉTIQUES : DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN |
|
|
|
|
|
Texte de la 230e conférence de l’Université de tous les savoirs donnée le 17 août 2000.
Les matériaux magnétiques : de la boussole à l'électronique de spinpar Michel Piecuch Les matériaux magnétiques sont omniprésents dans notre environnement. Une voiture moderne, par exemple, peut contenir jusqu'à 70 dispositifs différents utilisant ces matériaux comme des moteurs électriques, des actionneurs ou transmetteurs de mouvement, des capteurs... Leur présence cachée au sein d'innombrables objets technologiques reste cependant mystérieuse comme le mot lui même. Nous essayerons, dans la suite, d'éclairer le fonctionnement de ces matériaux et les concepts scientifiques qui les sous tendent. Un peu d'histoire L'histoire des matériaux magnétiques remonte à une époque très ancienne, à peu près contemporaine à la découverte du fer. Les premières mentions de l'existence des aimants écrites par les Grecs, datent d'environ 800 avant Jésus-Christ*, le nom de « magnétés » est rapporté par plusieurs philosophes. L'origine de ce nom est controversée, ma version préférée est celle de William Gilbert, médecin de la reine Élisabeth I qui dit la tenir de Pline, le nom de magnétite viendrait du nom du berger Magnés : « Les clous de ses sandales et le bout ferré de son bâton pastoral se sont collés à une pierre magnétique quand il gardait son troupeau ». Parallèlement aux grecs, les chinois découvrirent également les aimants, mais ils remarquèrent, découverte décisive, la directivité des pierres d'aimants dans le champ magnétique terrestre. Un instrument directif constitué d'une cuillère posée sur un plateau est représenté dans une peinture datant d'environ 50 après Jésus-Christ. Une boussole chinoise classique est constituée d'un poisson en fine tôle de fer porté au rouge puis trempé dans l'eau froide et mis au dessus d'un bol d'eau; il indique le nord magnétique (vers l'an 1000). En Europe, le premier livre sérieux sur le sujet De Magnete fut publié par Pierre Pèlerin de Maricourt en 1269. Il fut celui qui parla le premier de pôle magnétique. La science moderne du magnétisme est plus tardive et date des découvertes de Charles Augustin Coulomb. En utilisant une balance de torsion, il établit la loi de variation de la force magnétique en fonction de la distance (1785). Une expérience très importante fut faite en avril 1820 par le physicien danois Hans Christian Oersted. Il montra qu'un fil parcouru par un courant électrique produit un champ magnétique : « une boussole placée à proximité de ce fil est déviée quand le fil est parcouru par un courant électrique ». Cette découverte est à l'origine de tous les moteurs électriques : l'interaction d'un matériau magnétique avec un courant électrique produit du mouvement. Michael Faraday découvrit, l'année suivante (1821), le phénomène d'induction : un champ magnétique variable placé à proximité d'une spire crée un courant électrique dans cette spire. C'est la découverte du processus qui produit de l'électricité dans les dynamos et les alternateurs. Avec les découvertes d'Oersted et de Faraday s'ouvrait l'ère de la deuxième révolution industrielle, on avait les moyens de produire de l'électricité et on savait l'utiliser pour faire des moteurs. La physique du magnétisme CONCEPTS DE BASE Les deux concepts centraux dans la physique du magnétisme sont les concepts de champ et de moment magnétique. L'objet magnétique le plus simple est un aimant permanent. Cet aimant exerce une force sur un autre aimant ou sur des matériaux magnétiques comme le fer. Si on observe deux aimants en train d'interagir, ils s'attirent ou se repoussent, il y a une action à distance, c'est le champ magnétique produit par l'un des aimants qui interagit avec l'autre aimant. Si l'un des deux aimants est libre, il tourne si il est dans le « mauvais sens », on dit que l'aimant a deux pôles. Deux pôles identiques se repoussent, deux pôles différents s'attirent. Pour préciser cette notion de pôles, on définit le moment magnétique, qui est un vecteur allant du pôle sud au pôle nord. Un aimant possède donc un moment magnétique et ce moment produit un champ magnétique. Le plus simple des circuits électriques est une boucle de courant. Elle est équivalente à un aimant permanent (fig. 1). Le moment magnétique de la boucle est un vecteur perpendiculaire au plan de la boucle et dont l'intensité est donnée par le produit de l'intensité du courant électrique passant dans la boucle par sa surface. Le champ magnétique produit par la boucle est alors donné par les mêmes formules que le champ électrique produit par un dipôle électrique (deux charges de signe contraire). Figure 1 Une boucle de courant (un circuit) et un aimant sont des sources de champ magnétique équivalentes, on les représente par un vecteur, le moment magnétique. La force exercée par un champ magnétique sur un moment magnétique (par un aimant sur un autre aimant par exemple), repose sur un principe très simple : elle est fondée sur la recherche de l'énergie minimum. L'énergie d'interaction entre un champ magnétique et un moment magnétique est donnée par le produit scalaire des deux vecteurs : Où q est l'angle entre les deux vecteurs. Le moment magnétique d'un aimant va donc vouloir s'aligner avec le champ magnétique (pour rendre l'angle plus petit ou le cosinus plus grand), il va tourner, et ensuite l'aimant va aller vers le champ maximum, comme le champ croit quand on s'approche d'un aimant, c'est ce qui explique l'attraction de deux aimants. L'ORIGINE MICROSCOPIQUE La mécanique quantique décrit le mouvement des électrons dans les atomes. Classiquement, on peut imaginer, un électron en train de décrire une orbite autour du noyau de l'atome. Cette charge électrique en train de tourner est équivalente à une boucle de courant et produit donc un champ magnétique, le moment magnétique correspondant est appelé moment magnétique orbital. L'électron a un autre moment magnétique, que l'on peut imaginer comme correspondant au mouvement de rotation propre de l'électron (l'électron comme la terre tourne autour du noyau (le soleil) et sur lui même), mais qui, en fait, ne peut être compris qu'avec la mécanique quantique. Ce moment magnétique est proportionnel à un vecteur décrivant cet état de rotation propre que l'on appelle « le spin ». Une telle description tend à faire croire que tous les atomes portent un moment magnétique (somme des moments orbitaux et de spin de tous les électrons présents dans l'atome). Cependant, le principe de remplissage des différents états électroniques de l'atome, le principe d'exclusion de Pauli (les électrons sont d'incorrigibles individualistes et on ne peut avoir deux électrons dans le même état) et la construction par couches successives font que les moments magnétiques se compensent. Dans une couche complète, par exemple, deux électrons ne peuvent avoir le même état orbital que si leurs spins sont différents c'est à dire opposés (un des électrons tourne dans un sens, l'autre dans l'autre). Malgré tout, pour des couches atomiques incomplètes, il reste un moment magnétique atomique et donc presque tous les atomes portent un moment, l'unité de moment magnétique des atomes est le magnéton de Bohr qui correspond au moment de spin d'un électron indépendant. Quand on construit des molécules, les mécanismes qui régissent les liaisons chimiques sont fondés sur la construction de couches complètes (deux atomes, dont l'un a N électrons de valence (les électrons de sa couche incomplète) et l'autre M, forment une liaison chimique si M+N=8, c'est à dire si le nombre total d'électrons de valence correspond à une couche complète) et donc les molécules ne portent pas de moments magnétiques (dans une couche complète il y a autant d'électrons de spin dans un sens que dans l'autre et autant d'électrons tournent autour du noyau dans un sens que dans l'autre). Ces composés acquièrent cependant un moment sous l'action d'un champ magnétique, ce moment tend à créer une réaction au champ appliqué : il lui est opposé, ces matériaux dit diamagnétiques sont donc repoussés par un champ. Quand les atomes possèdent des couches qui n'interviennent pas ou peu dans la liaison chimique, comme les électrons dit « d » des métaux de transition dont la première série va du scandium au cuivre en passant par le fer, le cobalt et le nickel, ou comme les électrons « f » des terres rares (série qui va du lanthane au lutécium en passant par le gadolinium), les atomes conservent un moment magnétique dans l'état solide. L'état le plus simple de ces solides est l'état paramagnétique où les moments magnétiques des différents atomes sont désordonnés, un paramagnétique a un moment global qui est donc la somme vectorielle de moments désordonnés, ce moment global est nul sous champ nul. Quand on applique un champ, il lui est proportionnel et est dans le même sens que lui. LE COMPORTEMENT COLLECTIF DES MOMENTS MAGNÉTIQUES ATOMIQUES Les moments magnétiques d'atomes différents interagissent entre eux, de façon directe par ce qu'on appelle l'interaction dipolaire (le champ magnétique créé par un moment magnétique interagit avec un autre moment pour l'aligner dans le champ produit), mais aussi et surtout par des effets plus subtils que l'on appelle interaction d'échange, produisant une énergie d'interaction entre les moments magnétiques de deux atomes. Il existe deux types d'interactions : l'interaction ferromagnétique qui favorise la configuration où les deux moments magnétiques sont parallèles et l'interaction antiferromagnétique qui favorise l'état où les deux moments sont antiparallèles. Un matériau ferromagnétique est un matériau où toutes les interactions sont ferromagnétiques. Il a donc un moment permanent macroscopique qui est la somme de tous les moments magnétiques de ses atomes (qui sont tous parallèle). Un matériau antiferromagnétique a ses moments alternativement dans un sens puis dans l'autre, il se comporte globalement comme un paramagnétique puisque son moment global (la somme des moments magnétiques atomiques ou aimantation) est également nul en l'absence de champ appliqué. La théorie du ferromagnétisme fut faite par Pierre Weiss au début de ce siècle, la théorie de l'antiferromagnétisme par Louis Néel en 1932 ( Prix Nobel 1970). Cette description de l'ordre est valable au zéro absolu, si on augmente la température, deux mécanismes sont en compétition, la température, d'une part, tend à favoriser l'agitation thermique et donc le désordre des moments et l'énergie d'interaction, d'autre part, tend à aligner ces moments. Il y a donc, une température dite température de Curie (dans un ferromagnétique) au dessous de laquelle les spins de tous les atomes sont rangés (au dessus de la température de Curie le désordre l'emporte sur l'ordre et le solide devient paramagnétique). LES MATÉRIAUX FERROMAGNETIQUES La plupart des matériaux magnétiques utilisés dans des applications sont ferromagnétiques. Le comportement d'un ferromagnétique sous champ appliqué est décrit par ce qu'on appelle le cycle d'hystérésis (fig. 2). Si on part d'une situation où le corps ferromagnétique a un moment global nul et l'on applique un champ, le moment magnétique mesuré va croître assez rapidement jusqu'à une situation où tous les moments magnétiques atomiques sont alignés avec le champ extérieur, c'est la saturation qui correspond pour du fer métallique, par exemple, à 2,2 magnétons de Bohr par atomes. Ensuite, si on abaisse le champ pour l'annuler, la courbe n'est pas réversible, en champ nul il reste un moment magnétique global ou aimantation rémanente, et il faut appliquer un champ magnétique négatif (le champ coercitif) pour supprimer ce moment. Figure 2 Cycle d'hystérésis. Après saturation, la baisse du champ magnétique appliqué conduit à l'aimantation rémanente MR et il faut appliquer un champ magnétique négatif suffisant, le champ coercitif HC pour annuler à nouveau l'aimantation. Ce cycle d'hystérésis est essentiellement expliqué par la théorie des domaines. Quand Pierre Weiss proposa sa théorie des matériaux ferromagnétiques : l'alignement spontané des moments magnétiques atomiques, une objection lui vint naturellement, pourquoi existe t-il des états de ferromagnétiques où l'aimantation est nulle? Il trouva la réponse, un matériau ferromagnétique dans son état totalement ordonné crée un champ magnétique considérable à l'extérieur mais aussi à l'intérieur de lui même, ce champ dit champ démagnétisant est opposé à l'aimantation et donc son interaction avec les moments magnétiques coûte de l'énergie. Pour minimiser cet effet Pierre Weiss a proposé que, sous champ nul, une substance ferromagnétique soit constituée de nombreux domaines d'aimantations opposées, qui fassent que le champ démagnétisant soit diminué ou supprimé, c'est effectivement ce qu'on observe. On comprend alors la courbe d'hystérésis décrite plus haut : l'échantillon avait au départ une structure en domaines et une aimantation nulle. Le champ magnétique a déplacé les parois de domaines jusqu'à les supprimer pour atteindre la saturation. Quand on abaisse le champ, on peut créer des domaines, mais cela coûte de l'énergie (énergie de paroi) et il reste donc une aimantation rémanente. Les applications LES AIMANTS PERMANENTS OU MATÉRIAUX DURS On classe les matériaux ferromagnétiques suivant la valeur de leurs champs coercitifs, les matériaux dits durs sont les matériaux qui ont un grand champ coercitif, les matériaux doux sont les matériaux qui ont un champ coercitif faible (historiquement, les aciers mécaniquement doux avaient le champ coercitif le plus faible). Les matériaux magnétiques les plus spectaculaires sont les aimants permanents, un aimant permanent est un matériau ferromagnétique à fort champ coercitif, c'est un matériau dur. Il est aimanté à saturation, puis on annule le champ appliqué et comme il a un champ coercitif très élevé, il garde une aimantation forte, les aimants permanents modernes sont des alliages de métaux de terre rare et de fer ou de cobalt. L'utilisation la plus courante de ces aimants permanents est la construction des moteurs électriques. Mais ils sont aussi utilisés dans de multiples capteurs. LES MATÉRIAUX DOUX Les matériaux doux dont le prototype est l'acier au silicium sont utilisés dans les transformateurs. Un transformateur est une boucle d'aimant, un enroulement électrique fait N tours autour de la boucle et aimante le matériau, les variations de flux produites (si le courant est alternatif) sont transmise à travers l'aimant à un autre enroulement de n spires et produisent dans ces spires une force électromotrice, le rapport des tensions est donné par le rapport n/N du nombre de spires. Un électroaimant fonctionne sur le même principe mais avec un seul circuit excitateur et une coupure dans le matériau magnétique l'entrefer où l'on peut utiliser le champ magnétique produit. Les matériaux doux sont aussi utilisés dans les alternateurs et dans de nombreux dispositifs de l'électrotechnique. L'ENREGISTREMENT MAGNÉTIQUE Une autre application courante est l'enregistrement magnétique. Le principe de l'enregistrement magnétique est extrêmement simple, on utilise l'hystérésis des matériaux magnétiques pour stocker des informations, un signal d'entrée aimante le média (disque ou bande) et le média conserve ensuite un moment magnétique proportionnel au signal (dans le cas analogique) ou un moment dans un sens (le 1) ou dans l'autre (le 0) dans le cas digital. Ensuite, en lecture, la tête passe devant le média et détecte des changements de flux en présence ou en absence de moment magnétique. Les médias sont en général des matériaux ferromagnétiques, les bandes magnétiques sont constitués de petits grains de divers matériaux (oxydes de fer, de chrome, fer métal...) dispersés dans une matrice plastique. Les disques durs d'ordinateurs comportent une couche mince de matériau magnétique déposée par les techniques modernes et gravée en pistes. Les recherches actuelles Les recherches actuelles sur les matériaux magnétiques ont été stimulées par une découverte faite à Orsay en 1998. Il s'agit de la magnétorésistance géante. La résistance d'un métal magnétique ordinaire dépend du champ magnétique extérieur appliqué mais cet effet est très faible, aussi le monde du magnétisme fut très surpris par la découverte du groupe d'Albert Fert à Orsay en 1988. Ces chercheurs ont mesuré la résistance sous champ magnétique d'une multicouche fer/chrome (empilement de quelques dizaines de couches identiques de fer et de chrome d'épaisseurs de l'ordre du nanomètre (milliardième de mètre)) et ont trouvé une variation de résistance très importante (plusieurs dizaines de %) sous des champs appliqués relativement modestes. Albert Fert expliqua l'effet observé. Il était bien connu depuis les années 60 que les électrons des deux types de spin dans un métal ferromagnétique ont une résistivité différente, les électrons dont le spin est antiparallèle à l'aimantation conduisent mieux que ceux qui ont un spin parallèle à cette aimantation (ou l'inverse suivant les métaux). Dans les multicouches fer/chrome, deux couches de fer voisines subissent une interaction antiferromagnétique à travers le chrome, leurs moments magnétiques sont donc opposés en champ nul, un champ élevé détruit cet ordre antiferromagnétique en mettant tous les moments parallèles. En champ nul, un électron a donc un spin parallèle à l'aimantation dans une couche et antiparallèle dans la couche adjacente, la résistance est la moyenne de la résistance des deux spins. En champ élevé, un électron a, soit son spin toujours parallèle à l'aimantation et une grande résistance, soit toujours antiparallèle et donc une résistance très faible. C'est cet effet de court circuit pour une partie des électrons qui produit la magnétorésistance géante (un électron très bien portant vaut mieux que deux électrons a moitié malades). Cette découverte encouragea la recherche technologique sur de nouveaux capteurs de champs magnétiques, on utilisa les techniques de gravure et de dépôts qui avaient été développées dans le domaine des semi-conducteurs durant les années 80 pour construire des dispositifs gravés en couches très minces. Les applications de ces capteurs sont multiples (par exemple dans le freinage ABS des voitures) mais ils sont principalement utilisés dans les têtes de lecture des disques durs d'ordinateurs. Une tête magnétoresistive typique est séparée en deux parties, une tête d'écriture qui est une spire génératrice de champ et une tête de lecture qui est magnétoresistive. Depuis l'introduction des têtes magnétoresistives, la capacité des disques durs croit deux fois plus vite, on approche actuellement de 1gigabit/cm2 (un disque standard actuel a une capacité de 2 gigabits mais une surface beaucoup plus grande que 2 cm2). Les premières têtes magnétorésistances, tout en utilisant les techniques de gravure et de films minces, reposaient sur la magnétorésistance classique, la deuxième génération utilise l'effet découvert par Albert Fert. Enfin la troisième reposera sur un nouvel effet, la magnétorésistance tunnel. Au début des années 90 des chercheurs du MIT à Boston ont redécouvert l'effet tunnel polarisé en spin qui avait été mis en évidence dans les années 70 à Rennes par Jullière. Cet effet est depuis lors l'objet d'une compétition acharnée de part et d'autre de l'Atlantique pour préparer les capteurs de demain. La physique de base est extrêmement simple, on élabore un objet où deux couches ferromagnétiques sont séparées par une couche isolante très mince (quelques nanomètres), on trouve un moyen pour que les deux couches magnétiques aient la possibilité d'avoir leurs aimantations parallèles puis antiparallèles, enfin, on mesure le courant transmis à travers l'isolant dans les deux cas. Le courant peut varier énormément entre les deux configurations magnétiques. La possibilité de faire passer du courant à travers un isolant très mince est un effet purement quantique et est dû au caractère ondulatoire des électrons, les électrons passent à travers l'isolant qui devrait les arrêter comme la lumière passe à travers une couche très mince de métal alors qu'elle devrait être totalement réfléchie. L'intérêt par rapport aux couches à magnétorésistance géante est que la résistance du dispositif est relativement grande, ce qui permet de le rendre très petit. L'existence de deux types d'électrons dans un ferromagnétique (ceux de spin parallèle à l'aimantation et ceux de spin antiparallèle) ayant des comportements de transport différent a amené les physiciens du magnétisme à faire l'analogie avec les semi-conducteurs où deux types de charges, les électrons et les trous, produisent des propriétés qui sont à la base de l'électronique moderne. On proposa donc le transistor magnétique : un transistor magnétique typique est constitué de trois couches avec une électrode de commande, la grille, qui contrôle le passage du courant entre les deux autres. Plusieurs applications de ces transistors magnétiques sont envisagées comme les capteurs, les magnétomètres, l'enregistrement, l'électronique proprement dite (remplacement des transistors à semi-conducteurs) mais surtout les mémoires non volatiles. Actuellement, la mémoire centrale d'un ordinateur est une mémoire à semi-conducteur qui nécessite un rafraîchissement constant et surtout qui perd toutes ses informations quand on coupe le courant. Dans le dispositif à mémoire magnétique, l'élément de mémoire individuel est une tricouche comme celle décrite ci dessus et les deux états 0 et 1 sont les états d'aimantation antiparallèle et parallèle, les temps d'accès de ces mémoires sont du même ordre de grandeur que celles à semi-conducteurs mais elles ont l'avantage considérable d'être permanentes, elles ne sont pas effacées quand on coupe le courant. Ces mémoires sont appelées MRAM ( magnetic random access memory). Petite conclusion Les matériaux magnétiques ont constamment accompagné l'histoire du progrès technique depuis le début de l'age du fer. L'utilisation de la boussole a permis l'essor du commerce maritime qui est à l'origine de la première révolution industrielle. Les découvertes d'Oersted et de Faraday au siècle dernier ont permis le développement des moteurs électriques et des alternateurs et ont conduit à la deuxième révolution industrielle. De multiples dispositifs de mémoire magnétique sont utilisés et seront utilisés dans les ordinateurs et les machines d'enregistrement qui permettent la troisième révolution industrielle celle de l'information et de la communication. La recherche actuelle sur les matériaux magnétiques est toujours très féconde et développe de nouvelles voies comme l'électronique de spin qui sera peut être la technique dominante pour les machines intelligentes au début du siècle prochain.
* Des références historiques plus détaillées peuvent être trouvées dans "Magnétisme", volume 1 Fondements. Sous la direction d'Etienne du Trémolet de Lachaisserie Presses universitaire de Grenoble 1999.
DOCUMENT canal-u.tv LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|