ecole de musique piano
     
menu
 
 
 
 
 
 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

 

 

 

 

 

 

 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

Il y a plus de cent ans, les chimistes ont commencé à exploiter des modèles pour visualiser les molécules qu'ils manipulaient dans leurs tubes à essais. Les modèles physiques permettent de mieux comprendre la forme et la flexibilité des molécules, mais ils sont longs à construire, souvent chers, et ils ne donnent qu'une vue très approximative des molécules. De surcroît, ils sont peu adaptés à la représentation des grandes molécules qui caractérisent la vie et qui contiennent des milliers, voire des centaines de milliers, d'atomes. Depuis environ quarante ans, les ordinateurs offrent une alternative aux modèles physiques. Ils permettent de décrire les molécules (et les macromolécules) d'une façon beaucoup plus réaliste en tenant compte de l'ensemble des interactions qui peuvent avoir lieu entre ces espèces. Ils permettent non seulement de visualiser les molécules, mais aussi d'étudier leur dynamique et leurs interactions. La modélisation ne remplace pas l'expérimentation, mais elle aide à analyser des résultats et surtout à formuler de nouvelles hypothèses. J'illustrerai ces développements avec des exemples portant sur les acides nucléiques, et, en particulier, la double hélice d'ADN, sur les protéines et sur les complexes formés entre ces macromolécules. Je montrerai comment on peut approcher les molécules avec l'oeil de l'ingénieur civil, et comment les molécules sondent leurs propres propriétés mécaniques pour se reconnaître. Je parlerai aussi de la modélisation au service des physiciens qui ont appris à manipuler les molécules une à une, ou au service du biologiste "seigneur des anneaux". Je terminerai en parlant de l'avenir de la modélisation: est-ce que nous pouvons commencer déjà à simuler non seulement une ou deux molécules, mais plutôt les systèmes moléculaires organisés qui animent nos cellules ?

Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006
Richard Lavery : « La modélisation des molécules de la vie »
Le besoin de modèles
Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].
C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.

L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.
Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].
La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.

L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.
En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.

Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.
D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.

Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].
Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.
Partir des ponts pour arriver aux protéines
Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.
Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.

Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.

L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.

Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.
Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.

Quelques sites Internet
Charles Babbage et ses merveilleuses machines à calculer :
www.charlesbabbage.net
www.fourmilab.ch/babbage/sketch.html
L'histoire des ordinateurs :
www.hitmill.com/computers/computerhx1.html#BB
L'histoire de la visualisation des molécules sur ordinateur :
www.umass.edu/microbio/rasmol/history.htm
Le logiciel ORTEP :
http://www.ornl.gov/sci/ortep/ortep.html
Les impressionnantes images de David Goodsell :
www.scripps.edu/mb/goodsell/
Les calculs à très grand échelle pour lutter contre le cancer "Screensaver Lifesaver" : www.chem.ox.ac.uk/curecancer.html
"Imprimer" en trois dimensions :
3dmoleculardesigns.com/
La RCSB : les structures des protéines accessibles à tous:
www.rcsb.org
Visualiser les macromolécules chez vous avec VMD :
www.ks.uiuc.edu/Research/vmd/
Références
1. Pullman, B. (1998). The atom in the history of human thought (Oxford: Oxford University Press).
2. Pauling, L., and Corey, R.B. (1953). Structure of the nucleic acids. Nature 171, 346.
3. Watson, J.D., and Crick, F.H. (1953). Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid. Nature 171, 737-738.
4. Swade, D. (2001). The cogwheel brain (London: Abacus).
5. Levinthal, C. (1966). Molecular model building by computer. Scientific American 214, 42-52.
6. Humphrey, W., Dalke, A., and Schulten, K. (1996). VMD: visual molecular dynamics. J Mol Graph 14, 33-38, 27-38.
7. Lavery, R., Lebrun, A., Allemand, J.-F., Bensimon, D., and Croquette, V. (2002). Structure and mechanics of single biomolecules: experiment and simulation. J Phys (Cond. Mat.) 14, R383-R414.
8. Bensimon, D., Simon, A.J., Croquette, V.V., and Bensimon, A. (1995). Stretching DNA with a receding meniscus: Experiments and models. Physical Review Letters 74, 4754-4757.
9. Cluzel, P., Lebrun, A., Heller, C., Lavery, R., Viovy, J.L., Chatenay, D., and Caron, F. (1996). DNA: an extensible molecule. Science 271, 792-794.
10. Lebrun, A., and Lavery, R. (1996). Modelling extreme stretching of DNA. Nucleic Acids Res 24, 2260-2267.
11. Strick, T.R., Allemand, J.F., Bensimon, D., and Croquette, V. (1998). Behavior of supercoiled DNA. Biophys J 74, 2016-2028.
12. Allemand, J.F., Bensimon, D., Lavery, R., and Croquette, V. (1998). Stretched and overwound DNA forms a Pauling-like structure with exposed bases. Proc Natl Acad Sci U S A 95, 14152-14157.
13. Navizet, I., Cailliez, F., and Lavery, R. (2004). Probing protein mechanics: residue-level properties and their use in defining domains. Biophys J 87, 1426-1435.
14. Sacquin-Mora, S., and Lavery, R. (2006). Investigating the local flexibility of functional residues in hemoproteins. Biophys J 90, 2706-2717.

 

   VIDEO       CANAL  U         LIEN

 
 
 
 

LA CHIMIE QUANTIQUE

 

 

 

 

 

 

 

LA CHIMIE QUANTIQUE

En évoquant d'abord les différentes périodes qui ont marqué le développement de cette discipline théorique, située à la charnière de la Physique et de la Chimie, on essayera de faire comprendre quels sont ses objets, et la spécificité de sa pratique. De fait, la Chimie Quantique a fourni à la fois des concepts cruciaux pour l'intelligibilité de phénomènes à l'échelle moléculaire, aidant même parfois les chimistes dans leur invention d'édifices nouveaux, et des outils de prédiction quantitative fiables des énergies et des structures de ces édifices. On essayera de montrer les défis qu'elle affronte aujourd'hui dans sa recherche de puissance (l'efficience simulatrice tuera-t-elle la théorie ?), sa synergie possible avec la Physique dans l'étude des matériaux, sa participation au design d'architectures moléculaires à propriétés électroniques remarquables, le développement des aspects temporels. On ne se privera pas de formuler quelques remarques d'ordres épistémologique, esthétique et sociologique.

Texte de la 233e conférence de l'Université de tous les savoirs donnée le 20 août 2000.
Entre physique et chimie, une discipline métisse : la chimie quantique

par Jean-Paul Malrieu

La Chimie Quantique est installée entre deux sciences majeures, à la charnière entre la Physique, plus particulièrement la Physique Moléculaire et la Physique du Solide, et la Chimie. Elle fait partie de ce qu'en France on appelle la Chimie-Physique, où le tiret signifie le rapprochement de deux substantifs, tandis que les Anglo-saxons distinguent Chemical Physics et Physical Chemistry, selon la pondération des intérêts et les outils mis en oeuvre. La Chimie quantique n'est qu'une partie de la Chimie-Physique. Il existe en effet une Chimie-Physique qui s'intéresse aux propriétés macroscopiques de la matière, et qui mobilise essentiellement des représentations classiques. La Chimie quantique peut être vue comme une discipline qui s'intéresse d'abord à des propriétés et des phénomènes qui concernent l'univers des molécules, à des échelles microscopiques, celles de la molécule ou de l'atome, et qui ne peuvent être compris qu'à l'aide de la Physique Quantique. Il s'agit des propriétés des assemblées d'électrons que les atomes partagent pour construire les édifices moléculaires, et des propriétés caractérisant le mouvement des noyaux dans la molécule.
Quelques questions élémentaires caractérisent ce domaine :
- Comment, par quelles forces, tiennent ces édifices à longue durée de vie que sont les molécules ? Quels sont les différents types de liaisons chimiques entre les atomes, quelle est leur nature, leur solidité ?
- Comment les molécules répondent-elles à la lumière, à quelles longueurs d'onde répondent-elles, que se passe-t-il quand elles absorbent un ou plusieurs photons ?
- Quelles interactions existe-t-il entre des molécules, quels compromis passent-elles, quels édifices d'édifices peuvent-elles construire dans les liquides, les membranes, les organisations supra-moléculaires dont vous parlait J. M. Lehn ?
- En quoi consiste la réaction chimique qui, de la rencontre de A avec B, construit la molécule AB, ou de celle entre AB et CD nous donne les molécules AC et BD ? Par quels chemins, à quelles conditions, doit passer le super-système des deux molécules qui entrent en collision ou s'approchent pour que se négocie le nouvel assemblage, produit de la réaction chimique ?
Mais à ces questions il peut être apporté deux types de réponses, les unes théoriques, par la Chimie quantique, et d'autres expérimentales, qui mobilisent les ressources très diversifiées des spectroscopies. La Chimie-Physique microscopique expérimentale est difficilement discernable de la Physique moléculaire, si ce n'est par des frontières qui tiennent plus de la tradition que de la raison. Elle interpelle très subtilement, en augmentant sans cesse la résolution temporelle ou énergétique de ses interpellations, ou en croisant ces interpellations, les objets sur lesquels travaillent les Chimistes Quanticiens. Ceux-là mobilisent les postulats et les théorèmes de la Physique Quantique, énoncés dès les années vingt du vingtième siècle, pour interpréter et/ou prédire, par des voies purement abstraites ou numériques, les propriétés des molécules. La Chimie Quantique est donc une discipline théorique, bien qu'on puisse la dire, j'y reviendrai, plus calculatoire que théorique.

Une scansion temporelle
D'abord un peu d'histoire sur les étapes par lesquelles est passée cette discipline, qui nous permettra d'en mieux cerner les enjeux.
Au début se trouvent d'une part un corpus théorique, celui de la Mécanique Quantique, avec ses concepts fondamentaux, ses équations maîtresses, ses théorèmes, ses méthodes rigoureuses et ses approximations raisonnées, et d'autre part un legs, la somme des informations préliminaires et des expériences préalables apportées par la Physique Atomique, qui a joué un rôle essentiel dans la naissance de la Mécanique Quantique, et qui concerne les entités à partir desquelles se construisent les molécules.
Je n'écrirai pas d'équation, pas même l'équation maîtresse qui fixe les états stationnaires d'un système quantique, l'équation de Schrödinger, je procéderai par images et par métaphores abusives, forcément abusives. Je dois par exemple dire que les électrons sont des particules chargées indiscernables, mais qu'ils ont une caractéristique, leur spin, qui ne peut prendre que deux valeurs et qu'on peut voir comme un sexe, si on veut une analogie facile.
Le legs de la Physique Atomique
La Physique Atomique lègue d'abord une bonne simplification, en nous disant, avec Born et Oppenheimer, que les noyaux, qui sont aussi des particules quantiques, ont une masse tellement plus lourde que les électrons qu'on peut considérer leurs mouvements comme lents par rapport à ceux des électrons, ceux-ci adaptant instantanément leur répartition à la position des noyaux. Cette approximation, dans laquelle se placent 99,9 % des travaux, découple les problèmes électronique et nucléaire et nous laisse avec une population homogène d'électrons, se déplaçant dans le champ électrique attractif exercé sur eux par les noyaux. Autre leçon, qualitative, l'idée que l'état du système résulte d'une sorte de compromis entre trois composantes de l'énergie, l'attraction nucléaire d'une part, qui est négative (stabilisante), et grande quand les électrons orbitent très près des noyaux, ensuite la répulsion entre électrons, particules de même charge, qui les fait se fuir, et enfin l'énergie cinétique, positive, qui n'est faible que si les électrons se promènent tranquillement dans de vastes espaces. Le compromis se joue donc entre des forces qui confinent les électrons près des noyaux et d'autres qui tendent à les éloigner, à les faire se mouvoir sur de plus vastes orbites.

La Physique Atomique introduit très tôt une vision hiérarchisée des populations d'électrons dans l'atome, un modèle en couches et sous-couches. Ces couches caractérisent des niveaux d'énergie et des extensions spatiales, il y a des couches internes d'énergie très profonde, dont les électrons orbitent près du noyau, et des couches externes, dites de valence, d'énergies plus hautes et dont les électrons orbitent plus loin du noyau. Alors que les premières ne participeront pas aux liaisons chimiques, se contenteront en quelque sorte de s'y adapter par de petites modifications, ce seront les secondes qui participeront à la construction des liaisons entre atomes.
Les sous-couches peuvent être vues comme caractérisant des formes d'orbites des électrons, dans une image classique. C'est pourquoi on les appelle orbitales. Je les appellerai boîtes, ici atomiques. Disons qu'elles ont une forme et une extension spatiale, qui caractérisent par leur volume le domaine où l'électron qui l'occupe aime à se promener et par leur forme, le type de trajectoire qu'il y adopte. On a donc des boîtes sphériques, les orbitales e type « s », des boîtes allongées selon un axe avec deux lobes, de signes différents, les orbitales « p », etc.
Bref une petite zoologie de base que la Chimie quantique va manipuler. Cette construction du modèle atomique, dans laquelle les électrons vont remplir gentiment, deux par deux de spins opposés, les couches et sous-couches d'énergies les plus basses, rationalise le tableau périodique de Mendeleïev, proposé cinquante ans plus tôt. C'est aussi à la Physique Atomique que la Chimie Quantique devra un certain nombre de ses outils, par exemple l'approximation dite de « champ moyen », et la conscience des difficultés du problème à N-corps, dont je reparlerai plus en détail.
Premier temps, comprendre la liaison chimique (les années trente)
Dès les années trente les quanticiens cherchent à comprendre la nature des différentes liaisons chimiques que postulaient les chimistes depuis presque cent ans. Ils appliquent donc, moyennant force simplifications, leurs outils à la compréhension des molécules les plus élémentaires, la molécule H2+, à un seul électron, et la molécule H2, à deux électrons. L'idée clef est la suivante : à ne pas rester dans la boîte de l'atome dans lequel il est arrivé, et à se mouvoir près de l'autre noyau, un électron peut gagner en énergie cinétique puisqu'il orbite dans un volume plus large sans perdre en énergie potentielle, la liaison est liée à une délocalisation des électrons dans la liaison chimique. Cela va sans problème s'il n'y a qu'un électron dans la liaison ; s'ils sont deux, il faut qu'ils soient de sexes opposés, pour que l'électron de spin « up » apporté par l'atome A puisse aller se promener dans la boîte apportée par l'atome B, occupée par un électron de spin « down » et réciproquement.
On a donc un modèle, dit de la Liaison de Valence (Valence-Bond), qui manipule les boîtes atomiques de valence des atomes et construit des liaisons à 2 électrons de spins opposés, se déplaçant entre les deux boîtes apportées à la liaison par les deux atomes partenaires.
Une solution alternative consiste à déchirer la frontière entre les deux boîtes atomiques, à faire une seule boîte plus grande sur la liaison et à y mettre les deux électrons, c'est une orbitale moléculaire de liaison. Les électrons qui n'entrent pas dans des paires de liaison restent dans des boîtes atoniques, un peu déformées par les liaisons engagées, qu'on appelle « paires libres ».
Si les deux atomes sont de nature différente, les électrons peuvent préférer orbiter plutôt, voire seulement près de l'un d'eux, on aura alors une liaison partiellement ionique, comme dans LiH, ou très ionique comme dans NaCl.
En tout cas la théorie quantique naissante vient rationaliser d'emblée le jeu de Lego moléculaire avec lequel les chimistes jouaient et pensaient depuis plus d'un demi-siècle, en écrivant leurs formules chimiques avec des lettres, les atomes, et des traits, les liaisons, supposées porter deux électrons. Cette conciliation de la Chimie constructiviste intuitive avec la théorie abstraite qui venait de naître est un événement épistémologique majeur trop occulté dans l'enseignement.

Un autre domaine de la chimie, la chimie organométallique, va bénéficier très vite de la Physique atomique ; on comprendra en effet comment les ions métalliques, qui sont entourés de ligands moléculaires ou d'ions non métalliques, sont perturbés par cet environnement, des sous couches cessent d'avoir la même énergie, les plus basses acceptent les électrons qui sont sur le métal, et la spectroscopie de celui-ci est très différente de ce qu'elle était sans les ligands. C'est la théorie du Champ Cristallin, complétée ensuite par la prise en compte des délocalisations qui peuvent intervenir entre les orbitales et les électrons des ligands et du métal, pour devenir théorie du Champ des Ligands, un instrument conceptuel de base incontournable dans ce domaine, dépassant le modèle classique intuitif des paires électroniques de liaison.
Cette période voit aussi s'établir la compréhension du mouvement des noyaux, mouvements de rotation et de vibration, donnant lieu à des spectroscopies spécifiques, riches d'informations.
Dernier apport de cette époque pionnière, la compréhension de ce qui se passe entre les molécules quand elles s'approchent sans faire une réaction chimique, les forces qui les attirent, dont certaines sont d'ordre électrostatique mais d'autres, les forces dites de dispersion, ne peuvent être comprises que dans le cadre de la théorie quantique, et les forces qui les repoussent, elles aussi d'origine quantique.
Ainsi s'est immédiatement construite une théorisation qualitative, interprétative, qui a mis de l'ordre dans des variétés d'édifices d'apparence disparate et fourni de nouveaux concepts, ce qui était énorme. Jusque là pas d'ordinateur, des simplifications drastiques mais raisonnées permettant la rationalisation.
L'ère de la délocalisation électronique (les années 45-60)
Tout ne pouvait coller aussi simplement avec le petit Lego des chimistes. S'il en avait été ainsi, la Mécanique Quantique n'aurait servi qu'à justifier une vision classique dans laquelle des noyaux sont liés par des ressorts de longueurs et rigidités différentes. Une Mécanique Moléculaire de type classique sera de fait développée après les années soixante-dix pour l'étude des conformations de grosses molécules, en particulier les biomolécules.
Deux types de problèmes vont donner à l'approche quantique un rôle irremplaçable. Le premier concerne les molécules où certains électrons ne forment pas des paires assignables à un couple d'atomes, ce sont les hydrocarbures conjugués, les polyènes le benzène, le naphtalène, leurs innombrables analogues, molécules dont les atomes sont dans un plan, dans lequel s'engagent des liaisons bien locales, porteuses de deux électrons, mais dont une partie des électrons se déplace dans des bottes atomiques orientées perpendiculairement au plan de la molécule. Le second problème concernait la réponse de toutes les molécules, même les plus compatibles avec le Lego moléculaire, à la lumière, en particulier l'émission d'électrons (spectroscopie photo-électronique). Si vous considérez par exemple la famille des hydrocarbures saturés, méthane, éthane, propane, etc. vous avez la série la plus compatible avec le jeu de Lego moléculaire, l'énergie est très bien donnée par des additions d'énergies de liaisons, caractéristiques de la liaison CC et de la liaison CH respectivement. Et pourtant vous ne comprendrez rien à l'évolution des potentiels d'ionisation (énergie nécessaire à l'arrachement d'un électron) dans cette série, ni à leur dépendance à la structure moléculaire, à ses branchements.

Là s'ouvre le règne de la délocalisation électronique et s'installe une représentation en terme d'orbitales moléculaires délocalisées, aujourd'hui largement enseignée aux chimistes. Dans cette représentation les atomes apportent à l'édifice moléculaire leurs électrons de valence et les boîtes correspondantes, sans préjugé de partenariat, et les électrons vont se promener dans l'ensemble de ces boîtes atomiques. Mais plutôt que de considérer une théorie Valence-Bond généralisée, ce qui est possible mais ne conduit qu'à un traitement numérique, difficile et sans concept, on va construire à partir des boîtes atoniques des boîtes ou orbitales moléculaires, qui s'étendent sur l'ensemble du squelette moléculaire mais qui jouent sur les signes qu'on affecte aux bottes atomiques dans les boîtes moléculaires. Par exemple si on considère un ensemble de quatre atomes alignés apportant chacun un électron et une boîte, on peut prendre quatre combinaisons totalement distinctes (on dit orthogonales), qui seront respectivement ++++, ++--, +--+ et +-+-. Si l'on calcule l'énergie d'un électron posé dans une de ces orbitales moléculaires on verra qu'elle dépend fortement de ces jeux sur les signes, plus il y a de changements de signes, plus l'énergie est élevée. Si on veut donc affecter la population électronique à cet ensemble d'orbitales moléculaires, on mettra deux électrons, toujours de spins opposés, dans les orbitales d'énergie les plus basses. Nous avons ainsi une vision de la population électronique selon laquelle les électrons vont encore par paires mais occupent des sortes d'appartements étendus sur l'ensemble de l'espace moléculaire, d'altitude énergétique différente, qui présentent de plus en plus de changements de signes, de cloisons si vous restez dans cette image immobilière, quand on monte dans les étages (en énergie). Quand on a mis tous les électrons ainsi dans les étages les plus bas, restent des appartements vides de haute énergie. Ioniser une molécule c'est arracher un électron d'un des niveaux occupés, ce qui coûte une énergie donnée, quantifiée, caractérisant ce niveau, et exciter une molécule c'est envoyer un électron d'un niveau occupé à un niveau vide, ce qui implique à nouveau une énergie déterminée.

En fait le jeu selon lequel on combine les orbitales atomiques pour construire les orbitales moléculaires ne manipule pas que les signes, il est plus quantitatif, réglé par l'opérateur quantique associé à l'énergie, le Hamiltonien. Une forme très simplifiée de celui-ci, pratiquement topologique (l'Hamiltonien de Hückel), a permis à la fois des calculs numériques sur les calculateurs mécaniques de l'époque, et de très jolies analyses algébriques. De 1945 à 1960 ce modèle, populaire aussi en Physique du Solide, multiplie les succès. La Chimie Quantique aura néanmoins ses martyrs dans l'URSS de Staline, où les chimistes quanticiens sont envoyés au Goulag comme apôtres d'une idéologie bourgeoise indéterministe. Si l'on songe que les Physiciens soviétiques donnent à cette même période et à ce même pouvoir, à partir des mêmes outils conceptuels, les armes de la fission et de la fusion nucléaires, on mesurera que la Chimie Quantique n'est pas encore une technique très prédictive.

L'ère du comput (1960-75)
L'informatique va permettre à la discipline de se prendre au sérieux, elle va revenir de formes très simplifiées de l'Hamiltonien à son expression exacte. Certes on n'obtiendra pas les solutions exactes de l'équation maîtresse, on travaillera dans le cadre de deux approximations :
- La première, encore indépassée aujourd'hui sauf cas exceptionnels, consiste à travailler dans un espace vectoriel fini, c'est-à-dire avec un nombre fini de boîtes atomiques. Mais on en prendra un nombre de plus en plus grand, afin de donner plus de degrés de liberté dans la distribution spatiale et la forme des orbitales moléculaires.
- La seconde, provisoire, consiste à remplir les niveaux électroniques les plus bas avec deux électrons et à minimiser l'énergie totale. Dans cette approximation les électrons se meuvent dans un champ moyen, créé par les noyaux et les autres électrons.
Cette étape de la discipline bouleverse son visage, sa pratique et son impact. On veut reproduire l'expérience de façon quantitative, la dimension technique explose, il faut calculer, stocker et gérer des dizaines de milliers d'intégrales, penser stratégie computationnelle, taille-mémoire, rapidité des algorithmes. Un autre profil de compétence apparaît, passablement technique, proche de l'informatique dont il faut connaître les outils en rapide évolution. La discipline se fait numériste, elle perd en charme ce qu'elle gagne en précision. Mais elle vit avec exaltation la course à la prédictivité quantitative.

L'ère de la rigueur : le défi de la corrélation électronique (1975-90)
Heureusement pour l'intelligence de la discipline, la recherche de la solution exacte de l'équation maîtresse est une tâche plus que difficile, impossible. L'approximation qui consiste à poser les paires d'électrons dans des orbitales optimisées est grossière. Dans la réalité, ou dans la solution exacte, les électrons ne se déplacent pas dans un champ moyen fixe. Si deux électrons vont à la rencontre l'un de l'autre ils infléchiront leur trajectoire pour diminuer leur répulsion, leurs mouvements seront corrélés et non plus indépendants. Ce problème de la corrélation entre électrons s'appelle « problème à N-corps quantique », il a exigé dans diverses disciplines de beaux efforts conceptuels et méthodologiques. Notons que sur ce terrain la Chimie Quantique s'est trouvée plus proche de la Physique Nucléaire que de la Physique du Solide, qui manipule pourtant elle aussi des électrons dans le champ de noyaux.
Ce problème de la corrélation a deux aspects, formel et physique. L'aspect formel concerne la distribution des électrons dans les boîtes mises à leur disposition, qu'elles soient locales (atomiques) ou étalées sur l'espace moléculaire. U nombre possible de ces distributions de n électrons dans p boîtes, même sous contrainte de ne pas mettre plus de deux électrons par boîte, est trop grand et certaines distributions sont très défavorables. De très jolis formalismes ont été conçus, qui essayent de combiner rigueur formelle et praticabilité. Certains outils, très généraux, peuvent être exportés de la Chimie Quantique vers d'autres champs.


L'aspect physique concerne l'évitement des électrons dans l'espace. Si 2 électrons ont même spin, la probabilité de les trouver dans un même point de l'espace est nulle, c'est une autre version de l'homophobie à l'Suvre dans la constitution des couples d'électrons, qu'on visualise par le « trou de Fermi ». Les électrons de spins opposés font meilleur ménage, on peut en trouver deux au même endroit, mais ils préfèrent garder quelque distance, du fait de leur répulsion électrostatique, et c'est une propriété très subtile de la fonction d'onde exacte que de présenter en tout point cette singularité qu'on appelle « trou de Coulomb ». Il est impossible de rendre compte de cette propriété en tout point de l'espace physique à l'aide d'un ensemble fini d'orbitales. Heureusement cet effet d'évitement à courte portée ou de dernière seconde n'a pas des effets énergétiques cruciaux et les calculs effectués avec un nombre fini d'orbitales, par exemple en donnant 10 orbitales, judicieusement choisies, par électron, donnent des énergies suffisamment correctes pour la précision souhaitée par les chimistes. Néanmoins les méthodologistes s'efforcent de calculer l'effet du trou de Coulomb, avec un succès convaincant.
L'ère de l'efficience simulatrice (1990- ?)
Aujourd'hui donc les chimistes quanticiens sont capables de calculer de façon très précise les énergies et les géométries de molécules de moins de dix atomes dans leur état fondamental, sans introduire d'autre information empirique que la forme analytique des orbitales atomiques utilisées. C'est ce qu'on appelle la méthodologie ab initio, pour l'opposer aux simplifications semi-empiriques utilisées auparavant. Cette approche est aujourd'hui battue en brèche, parce qu'une alternative beaucoup moins coûteuse a été proposée.

Les calculs ab initié nécessitent en effet un temps de calcul qui croît comme une puissance du nombre N d'électrons, la puissance quatrième dans la méthode de champ moyen, une puissance sixième ou septième si on traite la corrélation entre électrons. L'étude de grosses molécules qui intéressent les expérimentateurs, les biochimistes, les inventeurs de matériaux nouveaux, les spécialistes de la catalyse, semblait impossible. Ce coût prohibitif tient en principe à ce que la fonction d'onde manipule les trois coordonnées des N électrons et travaille dans un espace de dimension 3N.
Or un théorème, dû à Hohenberg et Kohn, établit qu'il doit exister une correspondance biunivoque entre la densité électronique dans l'espace physique, de dimension 3, et la fonction d'onde, donc l'énergie. Correspondance qu'on ne connaît que dans le cas idéal du gaz homogène d'électrons. D'où le rêve d'un formalisme qui travaillerait avec la seule densité électronique. Partant donc du cas idéal et de quelques sophistications destinées à tenir compte de l'inhomogénéité de densité, une « théorie fonctionnelle de la densité » (DFT) a été proposée, beaucoup plus économique que les méthodes principielles que j'ai décrites plus haut. Les fonctionnelles utilisées aujourd'hui ont des formes complexes, elles introduisent de nombreux paramètres, et donnent des résultats comparables à ceux des meilleurs calculs ab initio, à bien moindre coût. Bien sûr les valeurs données à ces paramètres ne découlent pas des principes, elles ont été ajustées par essais et erreurs sur un ensemble d'expériences numériques. Si bien que la méthode DFT est encore à ce jour une méthode semi-empirique. J'ai même soutenu qu'on pouvait à la limite lui donner le statut de réseau neuronal, c'est-à-dire d'une machine apprentissante. Si un réseau neuronal, câblé à partir d'un ensemble d'expériences, ne donne pas une réponse satisfaisante dans un cas nouveau, on doit incorporer ce cas à l'ensemble d'apprentissage et réviser les câblages. C'est un peu ce que font les praticiens de la DFT à ce jour, bien que des recherches théoriques fondamentales soient aussi menées pour produire des fonctionnelles formellement fondées. Le rapport qualité des résultats obtenus/coût des calculs est en tout cas très attractif et balaie les scrupules éventuels d'une majorité d'utilisateurs. Et il n'y a pas lieu de faire la fine bouche si ce que l'on demande c'est une réponse très probable à une question précise concernant un système particulier.
Quelques beaux succès d'une discipline austère
Les succès de la Chimie Quantique sont d'ordres différents.

Elle donne d'abord une représentation qualitative de la population électronique. Elle est à la fois un traité des passions, une anthropologie et une sociologie. Elle dit les attirances et les exclusions, elle catégorise les liens, leur nature, elle pense les hiérarchies énergétiques, les partages, les complicités, les lois de la parenté et les compromis économiques. La théorie des orbitales moléculaires est désormais largement enseignée aux chimistes, ce qui leur a demandé de louables efforts, car on n'entre pas facilement dans le paradigme quantique. A ce stade, et dans la mesure où elle est manipulable analytiquement, ou avec les mains, la chimie quantique est parfois très esthétique. En particulier quand elle traite des électrons délocalisés des molécules conjuguées, le culmen dans ce domaine étant sans doute atteint par la formulation des règles qui gouvernent la stéréo-spécificité des réactions électrocycliques, question qu'on peut formuler ainsi : quand une molécule en forme de ruban se referme par ses deux extrémités, se ferme-t-elle en cylindre ou comme un ruban de Moebius ? Ces règles rationalisées par une démonstration simple ont valu à Woodward et Hoffmann un prix Nobel mérité. Ce qu'on peut par contre regretter c'est que l'approche des orbitales moléculaires délocalisées soit aussi hégémonique dans l'enseignement et que les approches alternatives en termes d'orbitales de liaisons, parfaitement équivalentes aux précédentes pour la description de l'état fondamental de la quasi-totalité des molécules, ne soient pas enseignées, alors qu'elles valident la représentation intuitive qu'utilisent les chimistes dans la vie quotidienne.
Un usage qualitatif spectaculaire concerne les édifices magnétiques, ceux où quelques électrons restent seuls dans leur boîte, la question étant de savoir si les électrons célibataires préfèrent avoir le même sexe ou des sexes opposés. Là les effets quantiques sont déterminants. Je voudrais saluer ici la façon dont des chimistes extrêmement créatifs, comme Olivier Kahn, mort prématurément cet hiver, ou Michel Verdaguer, savent mobiliser une vision théorique simple dans leur design de composés nouveaux aux propriétés remarquables. Ceux là font mentir la fatalité qui divise expérimentateurs et théoriciens. Pour les théoriciens « purs » comme moi la rencontre de ces partenaires et des beaux problèmes qu'ils nous soumettent est un plaisir stimulant.

Semi-quantitatives sont les informations qui concernent la spectroscopie. La symétrie des états impliqués dans les excitations, l'intensité des absorptions de photons, l'ordre énergétique des états de la molécule, leurs natures parfois qualitativement différentes, autant de questions dont les réponses exigent la maîtrise de concepts quantiques et la manipulation des fonctions d'onde.
Puis viennent les succès quantitatifs, la spectaculaire précision des calculs les plus rigoureux, effectués sur des molécules de taille moyenne, vérifiables par confrontation avec les informations expérimentales. Les géométries d'équilibre, les longueurs des liaisons, les angles qu'elles forment entre elles, les énergies de dissociation, nécessaires à la rupture des liaisons, sont, sauf rares exceptions, reproduits au pour cent près. Longtemps les théoriciens ne se donnaient pour objectif que de reproduire aussi bien que possible les résultats de l'expérience, et à une époque ils prêtaient le flanc à l'ironie, quand par exemple ils s'échinaient à reproduire avec un ou deux ans de retard l'orientation du moment dipolaire de la misérable molécule CO, que les expérimentateurs révisaient périodiquement. Cette époque est bien révolue. La Chimie Quantique affirme et prédit. Elle a permis d'identifier des composés instables, présents dans l'espace interstellaire, responsables de raies en spectroscopie hertzienne, apparaissant dans des forêts de raies. Ces composés y existent du fait de l'extrême vide qui y règne, qui rend très rares les collisions qui les détruiraient, comme elles le font en laboratoire. Nous sommes capables de déterminer des architectures élusives, de calculer les intermédiaires très instables de réactions chimiques. Tout composé stable correspond à une conformation du squelette moléculaire, et s'en écarter, déplacer les noyaux, coûte de l'énergie. Une configuration d'équilibre est comme un lac entre des montagnes. Passer d'une configuration d'équilibre à une autre, donc faire une réaction chimique, c'est passer d'un lac à un autre, ou d'un lac à une vallée. La route doit franchir une crête, au mieux passer par un col. Et les chimistes quanticiens sont capables de dire la position du col, c'est-à-dire la position relative des noyaux, et son altitude. Ils peuvent même dire si la route qui y mène est directe ou tortueuse.

Ils peuvent aussi désormais explorer, avant les expérimentateurs et à bien moindre coût, des chimies utopiques susceptibles d'être réalisées. Par exemple : la Chimie la plus pratiquée est celle des atomes légers, l'hydrogène, le carbone, l'azote et l'oxygène, et leurs analogues de la seconde ligne longue du tableau périodique. Que se passe-t-il si l'on remplace le carbone par un atome lourd, ayant le même nombre d'électrons externes, comme le germanium ou l'étain ? Conséquence indirecte de la relativité, ces atomes sont plus réticents que le carbone à engager leurs 4 électrons externes dans des liaisons, ils hésitent à se comporter comme le plomb, qui préfère n'en engager que deux, et ils construisent une chimie très versatile, avec des liaisons d'un type nouveau, à un seul ou à trois électrons, ce que l'expérience confirme peu à peu.
Autre utopie : des édifices assez stables mais qui pourraient stocker beaucoup d'énergie, libérable par dissociation. Par exemple le cube N8 peut exister, il serait stable à température ordinaire, mais sa dissociation en quatre molécules N2 dégagerait une énergie considérable. Les chemins de sa synthèse sont par contre ardus, car c'est un lac de montagne encore inaccessible, pour reprendre ma métaphore géographique.
Autre domaine où la Chimie Quantique s'est avérée utile, celui des petits agrégats d'atomes. Si vous considérez par exemple l'élément Sodium, vous trouverez à un extrême le cristal de sodium, métal où les électrons sont très délocalisés, et à l'autre extrême la molécule diatomique Na2, avec une liaison plutôt covalente. Entre ces deux extrêmes, dans des édifices à 4, 10 ou 100 atomes, que se passe-t-il ? Comment se passe la transition vers le métal et son organisation ? Pour les petits agrégats au moins la Chimie Quantique apporte des réponses sûres ; pour les plus gros d'autres modèles, plus proches du gaz d'électrons, apportent les informations les plus pertinentes.
Autre forme de la matière, les liquides moléculaires. Là, les molécules glissent, tournent et vibrent les unes par rapport aux autres. On est ici dans un univers dynamique. Comprendre les propriétés d'un liquide exige de bien connaître les interactions entre deux molécules, dont on peut ensuite faire un potentiel à deux corps, à utiliser dans une mécanique statistique classique pour déterminer les propriétés macroscopiques du liquide. Parfois les termes à deux corps ne suffisent pas, des effets non additifs à trois, quatre ou six corps sont non négligeables. À cet égard l'eau est particulièrement difficile à traiter. Mais on en sait désormais assez par les simulations temporelles sur la dynamique de l'eau pour savoir la labilité extrême des associations intermoléculaires locales et vous ne trouverez pas un chimiste quanticien pour parier un kopek sur la supposée « mémoire de l'eau » de Benvéniste.

Perspectives et paris
P. G. de Gennes disait récemment de la Chimie Quantique qu'il faudrait, je cite, « en hâter l'agonie ». On doit ajouter qu'il la jetait dans une fosse commune en bonne compagnie, avec la Physique du Solide et la Physique Nucléaire. Mort du Quantique ? Non, notre discipline, comme, et je dirai avec, la Physique du Solide, a du pain sur la planche et de belles ambitions.
Sur le plan conceptuel et méthodologique, le traitement des états excités est l'enjeu de gros efforts, parce que la définition d'une description d'ordre zéro, sur laquelle s'appuyer pour élaborer la fonction d'onde est difficile.

Sur le plan de la puissance et de la capacité à s'attaquer au traitement de grandes molécules une percée remarquable est en cours. Elle consiste à concevoir des algorithmes dont le temps d'exécution croisse linéairement avec la taille du système traité. Cette offensive s'appuie sur une remarque de bon sens : pour la quasi-totalité des molécules, et pour autant qu'on s'intéresse à leur état fondamental, il n'y pas d'effet physique à longue portée, il est toujours possible de construire soit la densité soit la fonction d'onde à partir de briques locales d'extension finie, en interaction avec un nombre fini de briques voisines. Il s'agit là d'un retour aux descriptions localisées que les visions mettant l'accent sur la délocalisation avaient refoulées. L'idée s'applique à tous les Hamiltoniens et Scuselia dans un article récent rapportait un calcul concernant un footballène géant de 8 640 atomes de carbone, dont la géométrie avait été optimisée. Mais l'idée est pertinente aussi dans le cadre des méthodes ab initio dont certains pensaient il y a 5 ans que la révolution pragmatique de la DFT allait les envoyer au Musée des Arts et Métiers sinon aux poubelles de l'Histoire. Mais la corrélation électronique, si difficile à traiter correctement, est à courte portée. Il est possible de déterminer directement des orbitales moléculaires locales et d'effectuer dans cette base des calculs élaborés de la corrélation électronique avec des temps de calcul qui ne croissent que proportionnellement au nombre des atomes. Le match qui oppose rigueur et efficacité pragmatique n'est pas définitivement joué. Ces approches ouvrent d'ailleurs la voie au traitement des solides périodiques par les techniques ab initié.

Autre perspective d'avenir, apporter à la physique des matériaux des connaissances cruciales sur la nature et l'amplitude des interactions locales, qui commandent les propriétés collectives de ces matériaux. Pour comprendre quand un empilement d'unités composées de deux donneurs plus un accepteur devient conducteur, il faut connaître les interactions entre les donneurs, leur dépendance aux changements de géométrie, la structure chimique est cruciale, ainsi que ces données que sont les énergies et les formes des orbitales moléculaires en jeu, leur position spatiale relative. De même pour les édifices magnétiques, les composés à magnétorésistance colossale ou les supraconducteurs à haute température critique, leurs propriétés spectaculaires ne peuvent être comprises qu'à l'aide non du Hamiltonien exact, trop compliqué, mais d'Hamiltoniens modèles réduisant le nombre des électrons impliqués et simplifiant leurs interactions. Mais telle ou telle simplification n'est elle pas abusive ? Et quelle est la valeur de telle interaction ? Comment change-t-elle dans les déformations du réseau ? Autant de questions auxquelles l'expérience ne peut en général pas apporter de réponse univoque, et qui relèvent potentiellement des compétences de la Chimie Quantique. Je suis persuadé qu'il y a là un avenir très fructueux pour notre discipline. Lorsqu'il en est ainsi, lorsque nous apportons de telles informations à la Physique, la Chimie Quantique, science de transfert, science hybride, n'est plus seulement la passerelle par laquelle une science plus scientifique, la Physique, déverse sur une science moins noble, inférieure, le bienfait de ses connaissances. Par cette passerelle passent en sens inverse des connaissances indispensables à la Physique.

Encore faut-il savoir ce dont on est capable. Dès le début des années 80 les Chimistes quanticiens se sont engouffrés en masse vers un problème d'envergure et d'une grande importance économique, la catalyse hétérogène, processus par lequel une réaction chimique impossible en phase gazeuse ou liquide devient possible à la surface d'un métal. Mais cette question est celle de toutes les difficultés, car il s'agit d'un métal de transition, déjà difficile à traiter théoriquement, de sa surface, encore plus difficile, voire d'un défaut sur cette surface, et d'une réaction chimique sur celle-ci ! Les années hommes et les années computers englouties dans ce problème prématuré n'ont pas apporté de lumières convaincantes.
Par contre l'assistance théorique au design moléculaire, à la conception de nouvelles architectures, doit prendre son essor. Il faut des théoriciens imaginatifs qui conçoivent et mettent à l'épreuve de leurs calculs des composés doués par exemple de bistabilité, donc susceptibles de stocker de l'information à l'échelle de la molécule, ce qui représenterait un bond prodigieux dans la compacité du stockage. Et l'utopie d'une électronique moléculaire, avec ses fils, ses diodes, ses commutateurs, est déjà en marche, sous l'impulsion d'esprits hardis.

Questions impertinentes
Pour terminer et prendre un peu de champ je voudrais poser quelques questions qui débordent le cadre d'un exposé scientifique usuel, fut-il adressé à des non-spécialistes.
D'abord pourquoi des Chimistes Quanticiens ? La division Expérience/Théorie ne prend pas en Physique la forme institutionnelle qu'elle a prise en Chimie, où existent des laboratoires de Chimie Quantique. La réponse à cette question est à la fois pratique et culturelle. La distance est plus grande entre l'inactivité du chimiste de synthèse et celle du chimiste quanticien qu'entre celle du physicien expérimentateur, qui manipule des spectroscopies compliquées, déjà prises dans le paradigme quantique, et son collègue théoricien. A quoi s'ajoute le fait que la plupart des chimistes n'ont ni le goût ni les bases qui leur permettent de s'approprier des concepts abstraits et des outils formels non-intuitifs. Mais ce fossé est peut-être imputable en partie au faible effort de transmission de leur savoir par les théoriciens.
Quelque chose est cependant en train de changer. Des logiciels sont désormais disponibles, moyennant finances, que des chimistes non-spécialistes peuvent utiliser comme des bottes noires ou un autre type de spectromètre. Ils n'ont besoin que de recettes simples concernant la saisie de leur problème et la lecture des résultats. Cette révolution changera peut-être les rapports théorie/expérience. Elle pourrait en tout cas amener à reconsidérer le mode d'enseignement de la Chimie Quantique, qui suit jusqu'à ce jour les voies ardues de la déduction et laisse dans les premiers lacets de la route, entre formalismes obscurs et exercices dérisoires, des étudiants démotivés. Peut-être faudrait-il mettre cet enseignement cul par dessus tête, et convaincre d'abord les étudiants, grâce à l'usage de ces boîtes noires performantes, de la pertinence et de l'efficience de la Chimie Quantique, pour accrocher leur curiosité et les faire remonter, par les chemins du doute, vers le contenu des formalismes utilisés.

La théorie est-elle dirigée par une logique interne ou par une demande, une sorte d'effet de marché ? J'ai en effet mentionné ces codes boîtes noires, produits et vendus par des sociétés privées réunissant théoriciens et informaticiens. La Chimie quantique, complexée de sa longue inutilité, a voulu faire ses preuves et certains ont cru nécessaire ou rentable de créer ces petites sociétés privées de quelques dizaines de personnes. Il s'agissait moins d'un marché déjà là que d'une anticipation sur une demande potentielle, celle des compagnies industrielles chimiques, pharmaceutiques et biochimiques. Il est certain que la cible escomptée, celle des « grosses molécules », a infléchi la pratique de la discipline, accentué la conversion rapide de l'approche ab initio à la DFT. J. Pople fut un des participants actifs à la conception de la méthodologie ab initio en même temps qu'il fondait la première de ces sociétés privées. En Juillet 91 il ferraillait durement contre W. Kohn et la DFT, avant de se convertir en six mois à cette nouvelle approche, évidemment plus prometteuse pour le marché. Bien lui en a pris puisqu'il a partagé avec Kohn voici deux ans le prix Nobel de Chimie.

La Chimie Quantique est-elle une science ou une technique ? Il est certain que cette discipline mobilise beaucoup de technologie. Dans la mesure où elle fonctionne largement, certains diraient exclusivement, à l'aide d'ordinateurs, l'attention aux ressources informatiques et leur évolution est essentielle. Je vois effectivement deux périls à une technicisation excessive de la discipline.
Le premier péril, c'est le culte du nombre, qui à la limite peut devenir dangereux pour la théorie elle-même. Lévy-Leblond a dit avec raison que la simulation numérique n'est pas de la théorie. La simulation peut être basée sur la mise en comput de la théorie, laquelle est faite de concepts, de lois et de déductions. Le calcul ne déduit pas, il s'effectue sans la participation de notre logique. Si elle dérive vers le réseau neuronal efficace, la simulation peut perdre le contact avec la théorie. Ne pourrait-elle alors tuer la théorie ?
L'autre péril est celui de la perte de séduction. À n'exalter que l'efficience, la puissance, on pose un idéal très besogneux, un profil d'informaticien appliqué, figure dont on peut craindre qu'elle n'attire pas les esprits les plus créatifs. Et de fait l'informatique capte, c'est une esclave asservissante. Mes jeunes collègues passent l'essentiel de leur temps devant leur écran, où ils lisent le verdict de leurs dernière tentative et lancent la suivante. Ils n'ont plus le temps, ou le laissent à des privilégiés-négriers de mon genre, de ces batailles logiques avec la structure d'un problème formel, ou de ces longues recherches du « passage du Nord-Ouest » qui caractérisent la théorie.

Même l'exploitation des résultats numériques souffre du numérisme. Vous travaillez sur un composé bizarre, hypothétique, et vos calculs confirment son existence donnent son énergie, sa structure, ses fréquences vibrationnelles. Mais ces résultats appelleraient d'autres analyses plus qualitatives : où sont les électrons, quelles liaisons chimiques tiennent cet édifice, s'agit-il d'un prototype nouveau, d'une pièce nouvelle à ajouter au Lego moléculaire des chimistes ? En campant dans le pré étroit du positivisme numérique, en affichant une telle répugnance au qualitatif, à la traduction imagée, en s'enfermant dans le puritanisme du fait, non seulement on manque à une des fonctions du théoricien, sa fonction langagière, de fournisseuse d'une représentation du monde, mais on se prive du plaisir esthétique.
Quelle place tient en effet l'esthétique dans cette science ?
Présentée souvent comme austère, cette discipline réserve pourtant de grands plaisirs. D'abord par le jeu de ses trois langages, la jonglerie des traductions entre le langage Valence-Bond (en terme de bottes atomiques), celui des orbitales moléculaires de liaison, et celui des orbitales moléculaires délocalisées. Un effet physique peut être obscur dans une représentation et devenir limpide dans une autre.
Le plaisir du dévoilement ensuite. La Chimie, à la différence de la Physique, ne fonctionne pas par formulation de lois, elle est connaissance du spécifique. Mais elle connaît des « effets » assez universels, qu'on prend plaisir à identifier et comprendre.

Pour le théoricien formaliste, le plaisir est celui des défis logiques, qui sont branchés sur des problèmes universaux, dépassant le cadre étroit de la discipline. Il est aussi un plaisir d'ingénieur de concevoir une approche nouvelle, plus élégante et/ou plus rigoureuse que celles déjà disponibles.
Pour l'imaginatif c'est le bonheur des inventions d'architectures, le double plaisir de concevoir des utopies chimiques et de pouvoir en vérifier très vite la cohérence.

La Chimie quantique, science hybride entre Physique et Chimie, science inconfortable qui fait des siens des chauves-souris, physiciens abscons aux yeux des chimistes, pauvres chimistes aux yeux des physiciens ? Elle est autre chose qu'une passerelle ou une science de transfert,' elle a produit une culture spécifique dans la tension où elle vit entre les trois pôles qui la stimulent et la déchirent :
- La fonction interprétative, de compréhension, de fournisseuse de représentations,
- le souci de grande rigueur formelle, en particulier de manipuler l'Hamiltonien exact,
- et le souci acharné de la précision de ses prédictions.
Je suis persuadé que cette science, métisse donc, mais originale, a un bel avenir et dispose de suffisamment de ressources et d'assez d'énigmes devant elle pour attirer de jeunes esprits exigeants.

 

 VIDEO       CANAL  U         LIEN 

 
 
 
 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

 

 

 

 

 

 

 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE



Le texte de Bernard Cabane et Rodolphe Vuilleumier ci-dessous est similaire aux principaux points développés lors de la 593 ème conférence de lUniversité de tous les savoirs donnée le 15 juillet 2005 1
Par Bernard Cabane, Rodolphe Vuilleumier : « La physique de leau liquide »
L'eau est le liquide le plus abondant à la surface de la terre. C'est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. L'eau est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Ainsi, l'eau reste liquide à pression atmosphérique jusqu'à 100 °C, alors que l'extrapolation de la série H2S, H2Se, H2Te donnerait une température d'ébullition de - 80°C. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie, avec les alcools et les amines, d'un petit groupe de liquides qu'on appelle liquides associés (Figure 1). Parmi ces liquides, la cohésion de l'eau est remarquable. Par exemple, l'eau a des températures de fusion et d'ébullition très supérieures à celles de l'ammoniac et de l'acide fluorhydrique, qui font des liaisons H plus faibles ou spatialement moins développées.

Figure 1. Densités électroniques du dimère, obtenues par calcul des orbitales localisées via la mécanique quantique. Le "pont" de densité électronique qui joint les deux molécules est la « signature » de la liaison H.
La cohésion de l'eau se traduit aussi par une chaleur spécifique énorme : il faut 3 fois plus d'énergie pour réchauffer l'eau que pour la même masse de pentane, et 10 fois plus que pour la même masse de fer. Cette chaleur spécifique est aussi beaucoup plus élevée que celle du solide (plus de 2 fois supérieure à celle de la glace), alors que la plupart des liquides ont des chaleurs spécifiques proches de celles des solides correspondants. Elle est due à l'absorption de chaleur par la rupture de liaisons hydrogène : la chaleur absorbée par ces processus n'est pas disponible pour augmenter l'énergie cinétique des molécules, ce qui réduit l'élévation de température. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat.
L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait pour un liquide non associé sur la base du moment dipolaire de la molécule isolée. Qualitativement, cette réponse très forte aux champs électriques est due à l'enchaînement des molécules par les liaisons hydrogène, car les molécules liées par des liaisons hydrogène se polarisent mutuellement (Figure 2).

Figure 2. Variations de densité électronique causées par les interactions des deux molécules du dimère, par rapport aux densités électroniques de molécules isolées. Les régions où la densité électronique du dimère est excédentaire sont ombrées en gris, celles qui ont perdu de la densité électronique en blanc. L'alternance régulière de régions contenant un excès et un défaut de densité électronique crée une polarisation des molécules, qui augmente le moment dipolaire du dimère.

C'est grâce à cette constante diélectrique exceptionnelle que la vie a pu se développer dans l'eau (Figure 3). La plupart des molécules biologiques sont en effet ioniques, et les processus biochimiques requièrent la dissociation des paires d'ions et l'écrantage des charges électriques. C'est la polarisation des molécules d'eau autour d'un ion qui compense le champ électrique créé par l'ion, et permet ainsi la dissociation des paires d'ions et la dissolution des cristaux ioniques. L'exemple le plus courant de solution ionique est, bien sur, l'eau de mer, qui ne contient que 9 molécules d'eau par paire d'ions.

Figure 3. Constantes diélectriques relatives des liquides polaires usuels (variation parabolique en fonction du moment dipolaire de la molécule isolée) et de liquides associés points situés très au dessus). La valeur anormalement élevée de la constante diélectrique de l'eau est due à la polarisation mutuelle des molécules dans le liquide
L'eau est, dans les conditions usuelles de température et de pression, un liquide peu dense. Sa masse volumique est relativement peu élevée pour un liquide aussi cohésif (les huiles ont des densités comparables, mais sont beaucoup moins cohésives). Cette faible masse volumique exprime le fait que le volume occupé par les atomes est faible par rapport au volume total : les atomes de la molécule d'eau n'occupent que 49 % du volume disponible par molécule. Une grande partie du volume de l'eau liquide est donc formée de cavités.
L'eau présente toute une série d'anomalies liées aux variations de son volume. Tout d'abord, la variation en température de sa masse volumique est anormale à basse température. Pour presque tous les liquides, le volume occupé diminue régulièrement lorsqu'on abaisse la température, par suite de la réduction du désordre et surtout du nombre de lacunes excitées thermiquement. Au contraire, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité (TMD H + 4 °C pour H2O). L'eau liquide à basse température est un liquide peu dense par rapport à ce qu'on attendrait d'après sa densité à haute température.
Figure 4 Variation de la masse volumique de l'eau liquide avec la température. Pour les liquides « normaux », la masse volumique décroit de manière monotone. La température du maximum de densité de l'eau vaut 4 °C dans H2O, 11.2 °C dans D2O et 13,4 °C dans T2O. La décroissance de la densité à basse température résulte d'un changement de la structure du liquide, qui crée systématiquement des liaisons et des cavités.

Pour presque tous les liquides, le volume occupé se réduit d'environ 10 % lors de la cristallisation, car les atomes ou les molécules sont empilés de manière plus efficace dans le cristal. Au contraire, l'eau se dilate d'environ 9 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans.

Les propriétés de l'eau confinée dans des pores ou des films nanométriques diffèrent aussi de celles des autres liquides. La plupart des liquides se stratifient lorsqu'ils sont confinés entre deux surfaces planes, et ils résistent comme des solides lorsqu'on essaie de les faire s'écouler. Au contraire, l'eau reste fluide même dans des géométries extrêmement confinées. Cette résistance à la solidification semble être due aux anomalies volumiques de l'eau, qui devient plus fluide lorsqu'elle est soumise à une pression. La persistance de l'état fluide de l'eau est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules. De même le passage des ions à travers les canaux qui traversent les membranes n'est possible grâce à la fluidité de cette eau confinée.
Les propriétés de l'eau comme solvant sont aussi très surprenantes. On comprend bien que les molécules polaires ou ioniques se dissolvent facilement dans l'eau, tandis que les molécules apolaires se dissolvent beaucoup plus difficilement. Cette préférence est à l'origine de phénomènes physico-chimiques comme la micellisation des molécules de tensioactifs, la formation des membranes biologiques, et le repliement ou la dénaturation des protéines. Cependant le passage dans l'eau de ces molécules hydrophobes ou amphiphiles se fait de manière tout à fait anormale : alors que la dissolution dans n'importe quel solvant est un processus défavorable du point de vue des énergies, mais favorisé par l'entropie, c'est l'inverse qui se produit pour la dissolution des molécules apolaires dans l'eau. Ces effets varient fortement avec la température, et on trouve que les solubilités augmentent aussi bien quand on va vers les basses températures (c'est bien pour les poissons, qui respirent l'oxygène dissous) que lorsqu'on va vers les températures élevées (l'eau super-critique est un bon solvant, utilisé, par exemple, pour extraire la caféine). Le minimum de solubilité coïncide à peu près avec le minimum de densité de l'eau pure, ce qui suggère que ces solubilités anormales sont liées à l'équation d'état (anormale elle aussi) de l'eau liquide.
Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, formamide etc). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ - bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette explication n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant.

Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.
On ne compte plus les théories proposées pour expliquer telle ou telle anomalie de l'eau, et abandonnées parce qu'elles n'expliquent que certaines anomalies, mais pas l'ensemble des propriétés de l'eau. On peut ainsi citer la théorie des « icebergs », dans sa version liquide pur (l'eau liquide serait formée de petits groupes de molécules ayant la structure de la glace, séparées par un liquide désordonné) et dans sa version solvant (les molécules d'eau se réorganiseraient autour d'un soluté apolaire pour former plus de liaisons hydrogène que l'eau pure, ce qui expliquerait le coût entropique de l'introduction du soluté). De nombreuses théories ont aussi postulé des structures particulières, comme des structures de type « clathrates », semblables aux cages que forment les molécules d'eau dans les hydrates de gaz cristallins. On discute actuellement une série de modèles qui postulent que l'eau serait formée de deux liquides mélangés dans des proportions qui changeraient avec la température et la pression, mais ne se sépareraient que dans des conditions de température inaccessibles aux expériences.

Il peut sembler paradoxal qu'une civilisation qui comprend la physique de l'infiniment grand et de l'infiniment petit, et qui est capable de prouesses technologiques considérables, n'arrive pas à décrire le liquide dans lequel tous les systèmes vivants fonctionnent. En fait, il s'agit d'un problème dur. Les verrous tiennent, pour une part, à une limitation des informations expérimentales. En effet, nous ne savons pas mesurer, dans un liquide, les fonctions de corrélation qui décrivent les arrangements de petits groupes de molécules (3 ou plus) : depuis un demi-siècle, nous sommes limités aux fonctions de corrélation de paires. Ils sont aussi dus à notre incapacité à simplifier correctement la description d'un liquide dans lequel les molécules forment des liaisons ayant un fort caractère orientationnel. Nous savons, bien sur, décrire ces liaisons, et nous pouvons simuler numériquement les mouvements des molécules soumises à ces interactions et à l'agitation thermique : nous pouvons ainsi reproduire certaines propriétés du liquide (mais pas toutes à la fois !) Par contre, nous ne savons pas, actuellement, construire une théorie de l'eau en utilisant les outils de la physique statistique.

Pour en savoir plus :
« The physics of liquid water »
B. Cabane, R. Vuilleumier
C. R. Geosciences. 337 (2005) 159
Liquides : solutions, dispersions, émulsions, gels
B. Cabane et S. Hénon
Livre publié par Belin (2003)

 

 VIDEO       CANAL  U         LIEN 

 
 
 
 

ÉLECTRON

 

 

 

 

 

 

 

électron
(anglais electron, de electric et anion)

Cet article fait partie du dossier consacré à la matière.
Particule fondamentale portant l'unité naturelle de charge électrique et appartenant à la classe des leptons.

Pour la physique, l'électron est l'objet théorique par excellence. C'est à son propos qu'ont été élaborées la plupart des théories importantes du xxe s., à commencer par la physique quantique. La physique atomique et moléculaire est essentiellement une physique des électrons. La chimie étudie la formation et la transformation des molécules, c'est-à-dire les transferts d'électrons d'un atome à un autre. La physique de l'état solide s'intéresse à la cohésion de la matière, assurée par les électrons. Plusieurs technologies ont spécifiquement l'électron pour matériau : électronique, informatique, applications médicales des faisceaux d'électrons, etc.
L'électron est l'un des plus importants constituants universels de la matière, dont toutes les propriétés macroscopiques sont, d'une façon ou d'une autre, liées à ses caractéristiques.
*         Fiche d'identité de l'électron
*         • masse : me = 9,1093897 × 10−31 kg ;
*         • charge électrique élémentaire : e = −1,60217733 × 10−19 C ;
*         • spin : ½ ;
*         • moment magnétique : 0,92740155 × 10−23 A·m2.
*         Son antiparticule est le positron : également appelé positon, il est de même masse que l’électron mais de charge opposée.
*
1. La découverte de l'électron

L'étude de l'électrolyse apporta la première preuve expérimentale de l'hypothèse l’existence de grains matériels composant le « fluide électrique ». Diverses mesures effectuées vers les années 1880 montrèrent que la quantité d'électricité nécessaire pour dissocier une mole de n'importe quel corps est un multiple entier d'une même quantité. Le mot « électron » fut inventé en 1891 par l’Irlandais George Stoney pour désigner d'abord la quantité élémentaire d'électricité, puis la particule porteuse de cette quantité elle-même.
Pour en savoir plus, voir l'article électricité.

L'étude des décharges électriques dans des gaz raréfiés (à basse pression) imposa définitivement l'existence de l'électron. Celles-ci s'accompagnent de l'émission de « rayons » (les rayons cathodiques) qui rendent fluorescent le verre de l'ampoule. Jean Perrin en 1895 puis Joseph John Thomson en 1897 réussirent à isoler ces rayons et à montrer, d'abord, qu'ils étaient porteurs d'une charge négative, puis qu'ils étaient effectivement constitués de particules matérielles chargées, dont Thomson mesura la vitesse et le rapport ee /me de leur charge e à leur masse me. Quant à la détermination de la charge élémentaire e elle-même, ce fut l'œuvre des vingt années qui suivirent ; en 1910, Robert Millikan, au terme d'une expérience particulièrement délicate, établit la valeur de e avec une précision extraordinaire pour l'époque.

2. L’électron, constituant fondamental de l’atome

L'idée d'une structure complexe de l'atome était tellement révolutionnaire au début du xxe s. que, pour l'imaginer, on fit appel à des « modèles classiques » de la physique. Une fois les caractères des ions positifs et de l'électron maîtrisés, la question de leur coexistence dans l'atome intrigua les physiciens.

2.1. Les premières tentatives de modélisation de l'atome
Comme il n'était pas possible d'observer la structure atomique, il fallait concevoir un « modèle » qui permît de comprendre des phénomènes physiques que l'on pensait être corrélés à une telle structure. Pour Hantaro Nagaoka (1904), le critère principal, emprunté aux phénomènes chimiques, devait expliquer la formation des molécules à partir des atomes. Il imaginait l'atome comme une structure stable, semblable à la planète Saturne : il plaçait les électrons sur les anneaux et assimilait la planète au noyau. Tout en acceptant que le critère de comparaison devait être fourni par la chimie, J. J. Thomson pensait, au contraire, que les électrons circulaient à l'intérieur d'une sphère dont la surface était chargée positivement.

Ce modèle n'était plus viable dès qu'on prenait en compte un autre phénomène : la diffusion des particules α, émises par désintégration radioactive du polonium, à travers une feuille de platine, qu'Ernest Rutherford avait observée, laissait penser que la charge atomique positive était concentrée en un point car quelques particules α étaient fortement déviées. Pour que les résultats expérimentaux soient compatibles avec le modèle planétaire, il fallait considérer que la charge positive était concentrée au centre de l'atome. Vers 1911, ce modèle semble satisfaire et la chimie et la physique, même s'il est toujours impossible de montrer sa compatibilité avec l'ensemble des lois de cette dernière. L'atome ressemble au Système solaire : le noyau positif est au centre, et les électrons se déplacent sur des orbites à l'extérieur du noyau. Cependant, les électrons, en tournant, doivent émettre de l'énergie. Selon un tel modèle, encore grossier, ils s'approcheraient du noyau jusqu'à être détruits par combinaison des charges positive et négative, rendant l'atome fortement instable. Après une dizaine d'années de recherches, malgré cette objection de fond, des certitudes étaient partagées par les chercheurs : la concentration de la masse et de la charge positive dans le noyau, les électrons étant situés à l'extérieur du noyau ; autre certitude : la stabilité du modèle supposé, dit de Rutherford. Mais, pour comprendre la structure de l'atome, il fallait une clé supplémentaire.

2.2. Structure atomique et spectroscopie

Ce fut la grande intuition du Danois Niels Bohr que de corréler, en 1913, la structure des atomes avec leurs spectres. Un spectre est l'enregistrement de l'énergie absorbée ou émise par les atomes. Bien que différents pour chaque élément, les spectres ont un aspect semblable : des lignes espacées différemment entre elles, correspondant aux valeurs d'énergie absorbée ou émise. Cette structure régulière se prête bien à la traduction en formules du type « la différence d'énergie entre deux lignes est égale à un multiple entier d'une même quantité ». Or une nouvelle conception s'affirmait en physique depuis le début du siècle : l'énergie est aussi concevable comme constituée de petits grains, unités appelées au début « quanta de lumière » (Einstein, 1905), et depuis 1924 « photons ».
L'énergie des spectres correspondait-elle également à des multiples entiers du quantum ? Pouvait-on corréler l'absorption ou l'émission d'énergie avec le déplacement des électrons à l'intérieur des atomes ? Y parvenir pouvait permettre d'évaluer l'énergie correspondant à un électron dans un atome. Le modèle de l'atome calqué sur la structure planétaire paraissait donc se préciser : les électrons évoluent, de manière stable, sur des orbites qui sont les seules positions possibles. Un électron peut passer d'une orbite à une autre par absorption ou émission d'énergie, cette énergie étant toujours un multiple entier du quantum.
Pour calculer les différentes orbites possibles, on fit appel aux théorèmes de la mécanique. On imagina ainsi des orbites elliptiques ; celles-ci pouvaient être inclinées différemment par rapport à un axe. Il était dès lors possible de distinguer les électrons en leur attribuant des paramètres : les deux premiers correspondaient aux deux axes de l'ellipse et le troisième, à l'inclinaison par rapport à l'axe perpendiculaire à la première orbite et passant par le noyau. Cette construction avait été rendue possible par la confrontation entre données spectroscopiques et déductions théoriques à partir des modèles mécaniques. Cette méthodologie allait pourtant achopper bientôt sur une difficulté majeure.

2.3. Le modèle quantique de l’électron

La diversité des éléments chimiques, dans le cadre du modèle des atomes planétaires, était expliquée par le fait que chaque élément est caractérisé par un nombre donné d'électrons (correspondant au numéro atomique), ceux-ci se disposant sur les orbites possibles du point de vue énergétique. Ainsi, chaque électron a d'abord été caractérisé par trois nombres entiers, dits nombres quantiques, obtenus par l'étude géométrique des orbites. On établissait aussi de cette manière l'interdépendance de ces nombres entre eux.
Le premier, le nombre quantique principal, généralement indiqué par n, est relié au niveau énergétique et indique l'axe principal de l'ellipse ; le deuxième, le nombre quantique azimutal, indiqué par l, peut assumer les valeurs 0 à (n − 1), et indique l'excentricité de l'orbite ; le troisième, le nombre quantique magnétique, indiqué par m, peut avoir les valeurs de −l à +l et représente l'inclinaison spatiale de l'orbite.
Or Wolfgang Pauli, à partir d'une analyse pointilleuse des données spectroscopiques, montra en 1924-1925 que la seule manière d'établir une correspondance entre l'ensemble des lignes observées pour un atome et les nombres quantiques était d'ajouter un quatrième nombre quantique (le spin s) en lui imposant uniquement deux valeurs : +1/2 ou −1/2. Certes, peu de temps après, George E. Uhlenbeck et Samuel A. Goudsmit réussirent à montrer, pour l'hydrogène, que ce nombre supplémentaire pouvait correspondre au moment cinétique propre de rotation de l'électron, appelé spin. Cette représentation mécanique constitue le dernier effort pour rester dans le cadre des anciens modèles. En effet, face à la multiplicité des modèles et en l'absence de critères physiques pour les départager, les physiciens furent convaincus que la structure des atomes allait devoir être repensée entièrement.

2.4. Le modèle ondulatoire de l’électron
Deux voies furent suivies en même temps : des chercheurs, abandonnant l'image trop réaliste du modèle planétaire, raisonnèrent sur les seules grandeurs observables et mesurables, d'origine mécanique comme la position et la quantité de mouvement ; d'autres mirent l'accent sur la nature ondulatoire de l'électron.

2.4.1. L’électron selon Louis de Broglie

En 1924, Louis de Broglie montrait que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire avec, comme relation fondamentale, la longueur d'onde λ = h /p, où h est la constante de Planck et p la quantité de mouvement de l'électron. On savait depuis les travaux de Hamilton, au milieu du xixe s., qu'un ensemble de corpuscules pouvait être représenté, mathématiquement, comme une onde. Cependant, s'agissait-il d'une pure possibilité mathématique ou d'une réelle capacité de l'électron à produire des phénomènes typiques de la théorie ondulatoire ? L'un de ceux-ci, le plus caractéristique même, correspond aux figures de diffraction. Ainsi, les expériences de Davisson et Germer, qui enregistrèrent en 1927 la figure de diffraction d'un faisceau d'électrons sur un mince cristal de zinc, furent considérées comme la preuve irréfutable de la double nature de l'électron : ondulatoire et corpusculaire.
L'électron présentait alors une analogie parfaite avec la lumière, qui peut être définie comme composée de photons, de spin nul, et comme une onde. Seule la valeur du spin – entier pour le photon et demi-entier pour l'électron – les départage ; ainsi, la réalité corpusculaire subatomique a comme grandeur typique le spin.
Cette conception de l'électron comme onde eut des prolongements techniques extrêmement importants. Par analogie avec le microscope optique, il a été possible de concevoir un microscope électronique (mettant en œuvre une source d'électrons, un réseau de diffraction, un système d'enregistrement – plaque photographique ou écran fluorescent – sur lequel est enregistré l'objet agrandi) dont la capacité d'agrandissement dépasse les 100 000 fois.

2.4.2. L’électron selon Erwin Schrödinger

Erwin Schrödinger décrivit l'électron comme une suite de fonctions ondulatoires. De plus, il obtenait les mêmes valeurs de l'énergie que celles que l'on calculait avec le modèle corpusculaire. Enfin, il était possible de passer de l'une à l'autre description car, du point de vue mathématique, elles sont équivalentes.
De ce fait, les physiciens se trouvaient confrontés à un problème supplémentaire : faut-il penser qu'à chaque corpuscule est étroitement associée une onde, ou que les descriptions ondulatoire et corpusculaire sont deux manières, complémentaires, de décrire une même réalité qui nous échappe ? Pour résumer, fallait-il accentuer l'analogie de ce problème avec ceux qui se posent dans d'autres domaines de la physique, comme l'optique ou l'acoustique, où cohabitent plusieurs points de vue, ou tenir ces résultats pour provisoires, en attendant une nouvelle théorie qui éliminerait le caractère de complémentarité associé à la nécessité de faire appel à deux visions ? Le débat est encore ouvert en physique, et pour l'instant il n'existe pas de théorie de remplacement.
La seule certitude des physiciens est que l'électron se situe à l'intérieur de l'atome, et qu'on ne peut indiquer que sa probabilité de présence dans ce confinement. Pour connaître la position de l'électron, il faut expérimenter ; or toute expérience perturbe le système de telle sorte qu'on ne sait plus où se situe l'électron après l'expérience. De plus, certaines grandeurs physiques mesurables sont liées entre elles de telle façon que, si l'on augmente la précision de la mesure de l'une, on réduit d'autant la précision de l'autre : il y a une indétermination fondamentale dans notre connaissance expérimentale de ces grandeurs. L'étude de l'électron aboutit donc à ces conclusions :
– toute description théorique revient à se donner des probabilités d'événements ;
– l'expérimentation perturbe tout système soumis à mesure ;
– si, au cours d'une même expérience, on veut évaluer en même temps des grandeurs liées, la précision de chaque mesure ne peut pas être arbitrairement élevée : plus on soigne l'un des paramètres, moins on obtient de précision sur l'autre ; la précision est donc toujours limitée.

3. L'électron dans les solides

Qu'apportait cette nouvelle vision à la connaissance des métaux ? D'énormes progrès avaient été réalisés dans la connaissance de leur structure. Les rayons X étant caractérisés par une faible longueur d'onde, la structure atomique d'un métal constitue un réseau naturel de diffraction pour cette « lumière », qui traverse la matière. Ainsi, en observant les réseaux de diffraction, on pouvait, par des calculs numériques extrêmement complexes, parvenir à déterminer la structure atomique. La cristallographie avait déjà habitué les savants à reconnaître dans les cristaux la présence de structures géométriques régulières ; cette connaissance fut étendue aux métaux, qui révèlent à l'échelle atomique une régularité non perceptible au niveau macroscopique. De plus, la diffraction des rayons X permettait d'apprécier la distance entre les lignes du réseau, et donc de mesurer la distance entre atomes. Ces valeurs, confrontées aux dimensions que l'on pouvait calculer à partir des modèles atomiques, montraient que la distance entre atomes d'un métal est telle qu'il faut supposer que les couches électroniques les plus externes sont en contact. La structure d'un métal est donc bien plus compacte qu'on ne l'imaginait. On conclut que les électrons de valence se déplacent dans un champ électrique intense, fort complexe, créé par les noyaux et les autres électrons atomiques. L'hypothèse des électrons libres relevait donc de la fiction. Mais comment oublier que, qualitativement au moins, un accord remarquable existait entre ce modèle et les données de l'expérience ?

3.1. L'approche chimique

La clé de cette énigme va être fournie par la compréhension de la liaison chimique. Les couches électroniques externes étant très proches, au point de se toucher, on suppose qu'il se produit un phénomène analogue à la formation d'une molécule à partir des atomes. L'analogie est presque parfaite : comme les molécules, les atomes gardent leur individualité tout en formant un nouveau composé dont l'action est spécifique ; dans le métal, les atomes gardent aussi leur individualité, et leur assemblage manifeste des caractères physico-chimiques propres.

3.1.1. Les électrons dans la liaison ionique
La cohésion moléculaire est considérée comme le résultat de l'attraction électrostatique entre ions de charge opposée. C'est le cas de la plupart des sels qui, en solution, se dissocient en ions. En général, ces molécules sont composées d'atomes de structure électronique fort dissemblable – on dit aussi qu'ils sont situés dans les cases extrêmes du tableau de Mendeleïev. L'un d'entre eux tend à se séparer de son ou de ses électrons externes pour atteindre une configuration électronique stable (huit électrons sur la couche externe), l'autre tend à s'annexer le ou les autres électrons, pour la même raison.

3.1.2. Les électrons dans la liaison covalente
Pour atteindre une configuration électronique stable, les atomes adoptent une solution de compromis : ils mettent en commun les électrons externes. C'est, par exemple, le cas de la liaison entre deux atomes de carbone, courante dans les composés organiques. Il faut l'imaginer comme un nuage électronique entourant les deux noyaux, qui se placent à une distance telle qu'elle correspond à un minimum de l'énergie pour l'ensemble du système.

3.2. Électrons et nuage électronique
Transposée au niveau des solides, l'image du nuage électronique implique le partage des électrons entre tous les atomes ; or cette image est fort semblable à l'hypothèse « ancienne » des électrons libres dans un métal, son réalisme naïf en moins. Pour la tester, il fallait faire appel aux méthodes de calcul de la mécanique quantique. Le point crucial est donc de résoudre ce problème du point de vue mathématique : il s'agit d'écrire une équation pour N corps en mouvement, N étant une valeur très grande correspondant aux électrons qui font partie de la liaison. Ce problème est soluble uniquement par des méthodes mathématiques approchées et il faut faire des hypothèses physiques « raisonnables » pour en simplifier la résolution.
L'hypothèse suivante s'est révélée féconde : les électrons gardant leur individualité, on va les considérer isolément. Il s'agit donc d'écrire l'équation du mouvement de l'un d'entre eux en présence d'un champ électrique issu des noyaux disposés selon les nœuds du réseau cristallin, champ auquel font écran les autres électrons. La nature symétrique de ce champ complexe permet d'introduire des simplifications ; il s'agit ensuite de l'évaluer raisonnablement. Si un composé ou un métal est stable, cela veut dire que son énergie est inférieure à la somme de l'énergie des atomes le composant. Transférée sur le plan de la description mathématique, cette idée revient à considérer que les fonctions atomiques qui décrivent l'électron seront sans doute changées, mais pas totalement ; elles peuvent donc constituer un point de départ raisonnable pour résoudre l'équation. Une fois trouvée une première solution, il faut modifier et le champ et les fonctions, puis répéter ce calcul tant que les petits changements apportés ne modifient pas les données importantes que sont les valeurs de l'énergie pour chaque électron dans le métal. Cette longue suite de calculs numériques est aujourd'hui possible grâce aux ordinateurs.

En général, on obtient des solutions du type suivant : les valeurs d'énergie permises au niveau atomique se regroupent dans des ensembles caractérisés par des énergies très proches, qui se confondent en une sorte de zone appelée bande. Ces bandes se distribuent sur une échelle des énergies croissantes ; elles peuvent se recouvrir en partie, ou être séparées par un large gap (écart) d'énergie. Partant de N fonctions atomiques, on obtient N niveaux énergétiques qui se regroupent en bandes. Comme dans la liaison chimique, l'occupation par les électrons des bandes les plus externes devra permettre de comprendre les phénomènes de conduction électrique et thermique. Les électrons s'« empilent » par deux et par fonction, selon le principe de Pauli. On peut alors schématiser ainsi les situations possible  : la bande externe est totalement remplie d'électrons, ou elle l'est partiellement ; la bande immédiatement supérieure, vide d'électrons, recouvre partiellement ou pas du tout la bande dernièrement occupée.

3.3. Électrons et propriétés des solides
Ce simple schéma des situations possibles du point de vue énergétique permet de rendre compte de ce qui paraissait inexplicable dans l'ancienne théorie de l'électron libre. Un électron peut être considéré comme libre d'occuper n'importe quel niveau d'énergie à l'intérieur d'une bande. Si deux bandes se superposent, il peut passer aisément de l'une à l'autre.
Théoriquement, ces mini-sauts demandent toujours une dépense énergétique, mais elle peut être considérée comme suffisamment faible pour que les sauts adviennent. Cette mobilité rend bien compte des propriétés conductrices des solides. Un isolant électrique est un solide où la dernière bande est complètement remplie et la bande vide, immédiatement supérieure, nettement séparée ; pour qu'il y ait mobilité, il faudrait fournir suffisamment d'énergie pour exciter les électrons sur la bande libre. Un bon conducteur présente la configuration inverse : si les deux dernières bandes se recouvrent, il suffit de peu d'énergie pour redistribuer les électrons. Un mauvais conducteur est un solide dont la distance entre la dernière bande remplie et la bande immédiatement supérieure n'est pas très grande : il suffit de peu d'énergie pour le rendre faiblement conducteur. Un tel modèle permet aussi d'expliquer pourquoi la chaleur spécifique des solides, dans les limites de validité de la loi de Dulong et Petit, est une constante. Dans le cas des mauvais conducteurs, la contribution électronique peut être considérée comme nulle ; dans les autres cas, la mobilité électronique est telle qu'elle ne change pas considérablement par l'augmentation de la température dans des limites définies. Dans les deux cas, la contribution des électrons à la chaleur spécifique est négligeable.

Cette approche a en outre le mérite de relier aux modes de distribution électronique d'autres faits physiques, comme l'émission thermo-ionique, à l'origine de l'électronique classique, celle à tubes. On sait qu'en chauffant un métal il se produit une émission d'électrons. Cela signifie que ces électrons ont une énergie cinétique telle qu'ils dépassent la barrière représentée par la surface du métal. Ainsi, la surface devient du point de vue physique une discontinuité fondamentale dans le potentiel. Si cette analyse est bonne, on doit pouvoir expliquer, par analogie, l'effet photoélectrique, dans lequel l'énergie est fournie par le rayonnement incident. Ainsi que l'avait déjà observé Einstein, il faut un rayonnement d'une certaine longueur d'onde pour faire s’échapper des électrons d’un matériau. De ce fait, effets thermoélectrique et photoélectrique relèvent de la même explication.
L'électron décrit par les équations de la mécanique quantique perd son image de particule à laquelle sont associées une masse et une charge ; en revanche, il permet de mieux maîtriser et expliquer les phénomènes complexes propres aux solides.


DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon