ecole de musique piano
     
menu
 
 
 
 
 
 

AZOTE

 

 

 

 

 

 

 

azote

(du grec dzôê, vie)

Consulter aussi dans le dictionnaire : azote
Cet article fait partie du dossier consacré à l'air.
Corps gazeux (N2) à la température ordinaire, qui constitue environ les quatre cinquièmes en volume de l'air atmosphérique. (Élément chimique de symbole N.)


*         Numéro atomique : 7
*         Masse atomique : 14,006 7
*         Point d'ébullition : −195,8 °C
*         Point de fusion : −210 °C
*         Densité par rapport à l'air : 0,97
*
CHIMIE

DÉCOUVERTE DE L’AZOTE

L'azote a été découvert en 1772, par Daniel Rutherford et identifié comme corps simple par Antoine Laurent de Lavoisier en 1775. Il a également été étudié par Henry Cavendish en 1784, lors de ses travaux d’analyse de l’air.

ÉTAT NATUREL DE L’AZOTE
L'azote existe à l'état libre dans l'air, dont il constitue environ 78 % en volume, sous forme de molécules diatomiques (diazote N2). On le trouve également combiné dans les nitrates et les sels ammoniacaux. Il entre enfin dans la constitution des protéines et des acides nucléiques des êtres vivants.

PROPRIÉTÉS ET ACTIVITÉ CHIMIQUES
L'azote est un gaz incolore et inodore, difficile à liquéfier et peu soluble dans l'eau. À basse température, il est sans activité chimique, d'où son nom, mais le devient à haute température, où il passe à l'état monoatomique. Certaines de ses réactions sont d'une extrême importance, à cause du rôle que jouent ses composés dans la nature et dans l'industrie. Avec l'hydrogène à chaud, il donne de l'ammoniac, par une réaction réversible. Dans l'industrie, cette réaction de synthèse est réalisée à 550 °C, sous haute pression avec un catalyseur. Avec l'oxygène, l'azote donne, dans un arc électrique, le monoxyde d'azote NO.

PRÉPARATION
Dans l'industrie, la matière première, abondante et gratuite, est l'air. Par distillation fractionnée de l'air liquide, on obtient de l'azote qui renferme un peu d'oxygène, d'argon, de l'hélium et du néon du mélange de départ. On peut également priver l'air de son oxygène en l'utilisant pour la combustion du charbon ; on obtient alors de l'azote qui contient tous les gaz rares de l'air. Cet azote atmosphérique est livré en bouteilles d'acier, sous 200 atmosphères environ. Pour obtenir de l'azote pur (azote chimique), on chauffe vers 70 °C du nitrite d'ammonium. C'est en constatant que la densité de l'azote atmosphérique et celle de l'azote chimique étaient différentes qu'on a été amené à découvrir les gaz rares.

UTILISATIONS
Obtenu industriellement par distillation fractionnée de l'air liquide, l’azote est principalement utilisé dans la fabrication des engrais et de l'ammoniac, mais également comme atmosphère inerte dans le magasinage de liquides inflammables.
Comme liquide cryogénique, l'azote liquide a des applications alimentaires (congélation), médicales (conservation de tissus et organes, thérapie), industrielles (simulation spatiale, ébarbage, congélation des sols, etc.).
Par ailleurs, l'azote se combine avec divers métaux pour donner des nitrures ou des azotures.

LES OXYDES DE L'AZOTE
Endothermiques à partir de leurs éléments, ils sont peu stables à température modérée et peuvent jouer le rôle d'oxydants.

OXYDE NITREUX OU AZOTEUX, OU PROTOXYDE D'AZOTE N2O
C'est un gaz incolore et inodore, assez facile à liquéfier, produisant une excitation cérébrale (gaz hilarant) puis une anesthésie. Il se décompose à la chaleur en ses éléments et peut de ce fait entretenir des combustions vives.

MONOXYDE D'AZOTE OU OXYDE NITRIQUE NO
C'est un gaz incolore, difficile à liquéfier qui se décompose complètement au rouge vif et présente alors des propriétés comburantes. Au contact de l'oxygène, il s'oxyde spontanément en donnant de l'anhydride nitreux et du peroxyde d'azote. Il réduit ainsi le permanganate de potassium, l'acide nitrique concentré, etc. Il est obtenu dans l'industrie par synthèse directe dans l'arc électrique ou par oxydation catalytique de l'ammoniac, mais est aussitôt transformé en acide nitrique ou en acide nitreux. On le nomme aussi oxyde azotique (ou dioxonitrique II).

PEROXYDE OU DIOXYDE D’AZOTE NO2
C'est un liquide jaune pâle qui bout à 21 °C en émettant des vapeurs rouges dont la coloration augmente par chauffage. Cela provient de l'existence de deux variétés moléculaires : dimère N2O4, incolore et stable à froid, et monomère NO2, fortement coloré et se produisant à chaud par une réaction réversible. Dès 180 °C, la molécule NO2 se dissocie en NO et oxygène. Le peroxyde d'azote présente donc des propriétés comburantes et oxydantes qui le font employer comme ergol et pour réaliser des explosifs, dénommés panclastites. Au contact de l'eau, il se comporte comme un anhydride mixte.

ANHYDRIDE NITREUX N2O3
L’anhydride nitreux est obtenu à l'état liquide en mélangeant et en condensant des volumes égaux d'oxyde nitrique et de dioxyde d'azote. C'est un liquide bleu, qui bout vers 3 °C et qui se solidifie à − 102 °C. Très instable, il émet des vapeurs rutilantes, mélange de NO, de NO2 et de N2O2. Il possède à la fois les propriétés de l'oxyde nitrique et du dioxyde d'azote, c'est-à-dire qu'il peut se comporter comme un oxydant ou comme un réducteur (oxydoréduction). C'est un anhydride vrai qui correspond à l'acide nitreux HNO2. On le nomme aussi anhydride azoteux (ou dioxonitrique III).

ANHYDRIDE NITRIQUE N2O5
L’anhydride nitrique est préparé en déshydratant l'acide nitrique par l'anhydride phosphorique. C'est un solide blanc qui fond vers 30 °C en se décomposant. Le liquide obtenu est un mélange de N2O4 et N2O5. C'est un oxydant et un anhydride vrai. L'acide correspondant est l'acide nitrique (ou trioxonitrique V). L'anhydride nitrique est nommé aussi anhydride azotique. Les composés de l'anhydride nitrique jouent un rôle important dans l'industrie des engrais, des colorants et des explosifs.

LE CYCLE DE L'AZOTE

Élément essentiel des acides aminés, l'azote est l'un des quatre constituants universels de la matière vivante, avec le carbone, l'hydrogène et l'oxygène. Il constitue environ 80 % de la masse de l'atmosphère, mais seules quelques espèces vivantes dites prototrophes (bactéries libres ou symbiotiques du sol, cyanophycées) sont capables de l'absorber utilement. Les phototrophes (plantes vertes) se procurent l'azote dans l'eau ou dans le sol, surtout sous forme de nitrates. Une exception est constituée par les plantes dites enrichissantes, légumineuses surtout, qui hébergent des bactéries prototrophes dans les nodosités de leurs racines et dont l'enfouissement comme « engrais vert » enrichit le sol en azote. Les animaux utilisent l'azote contenu sous forme organique dans leurs proies animales ou végétales.
Excréments et cadavres rendent cet azote organique au sol, où une série d'actions microbiennes (ammonisation, nitrosation, nitratation) redonnent à cet élément la forme de nitrates, assimilables par les plantes. Mais des processus de dénitrification font équilibre à la fixation de l'azote dans le sol, de sorte qu'aucune évolution de la teneur de l'atmosphère en azote n'est constatée.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

 

 

 

 

 

 

 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

Il y a plus de cent ans, les chimistes ont commencé à exploiter des modèles pour visualiser les molécules qu'ils manipulaient dans leurs tubes à essais. Les modèles physiques permettent de mieux comprendre la forme et la flexibilité des molécules, mais ils sont longs à construire, souvent chers, et ils ne donnent qu'une vue très approximative des molécules. De surcroît, ils sont peu adaptés à la représentation des grandes molécules qui caractérisent la vie et qui contiennent des milliers, voire des centaines de milliers, d'atomes. Depuis environ quarante ans, les ordinateurs offrent une alternative aux modèles physiques. Ils permettent de décrire les molécules (et les macromolécules) d'une façon beaucoup plus réaliste en tenant compte de l'ensemble des interactions qui peuvent avoir lieu entre ces espèces. Ils permettent non seulement de visualiser les molécules, mais aussi d'étudier leur dynamique et leurs interactions. La modélisation ne remplace pas l'expérimentation, mais elle aide à analyser des résultats et surtout à formuler de nouvelles hypothèses. J'illustrerai ces développements avec des exemples portant sur les acides nucléiques, et, en particulier, la double hélice d'ADN, sur les protéines et sur les complexes formés entre ces macromolécules. Je montrerai comment on peut approcher les molécules avec l'oeil de l'ingénieur civil, et comment les molécules sondent leurs propres propriétés mécaniques pour se reconnaître. Je parlerai aussi de la modélisation au service des physiciens qui ont appris à manipuler les molécules une à une, ou au service du biologiste "seigneur des anneaux". Je terminerai en parlant de l'avenir de la modélisation: est-ce que nous pouvons commencer déjà à simuler non seulement une ou deux molécules, mais plutôt les systèmes moléculaires organisés qui animent nos cellules ?

Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006
Richard Lavery : « La modélisation des molécules de la vie »
Le besoin de modèles
Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].
C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.

L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.
Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].
La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.

L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.
En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.

Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.
D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.

Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].
Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.
Partir des ponts pour arriver aux protéines
Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.
Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.

Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.

L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.

Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.
Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.

Quelques sites Internet
Charles Babbage et ses merveilleuses machines à calculer :
www.charlesbabbage.net
www.fourmilab.ch/babbage/sketch.html
L'histoire des ordinateurs :
www.hitmill.com/computers/computerhx1.html#BB
L'histoire de la visualisation des molécules sur ordinateur :
www.umass.edu/microbio/rasmol/history.htm
Le logiciel ORTEP :
http://www.ornl.gov/sci/ortep/ortep.html
Les impressionnantes images de David Goodsell :
www.scripps.edu/mb/goodsell/
Les calculs à très grand échelle pour lutter contre le cancer "Screensaver Lifesaver" : www.chem.ox.ac.uk/curecancer.html
"Imprimer" en trois dimensions :
3dmoleculardesigns.com/
La RCSB : les structures des protéines accessibles à tous:
www.rcsb.org
Visualiser les macromolécules chez vous avec VMD :
www.ks.uiuc.edu/Research/vmd/
Références
1. Pullman, B. (1998). The atom in the history of human thought (Oxford: Oxford University Press).
2. Pauling, L., and Corey, R.B. (1953). Structure of the nucleic acids. Nature 171, 346.
3. Watson, J.D., and Crick, F.H. (1953). Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid. Nature 171, 737-738.
4. Swade, D. (2001). The cogwheel brain (London: Abacus).
5. Levinthal, C. (1966). Molecular model building by computer. Scientific American 214, 42-52.
6. Humphrey, W., Dalke, A., and Schulten, K. (1996). VMD: visual molecular dynamics. J Mol Graph 14, 33-38, 27-38.
7. Lavery, R., Lebrun, A., Allemand, J.-F., Bensimon, D., and Croquette, V. (2002). Structure and mechanics of single biomolecules: experiment and simulation. J Phys (Cond. Mat.) 14, R383-R414.
8. Bensimon, D., Simon, A.J., Croquette, V.V., and Bensimon, A. (1995). Stretching DNA with a receding meniscus: Experiments and models. Physical Review Letters 74, 4754-4757.
9. Cluzel, P., Lebrun, A., Heller, C., Lavery, R., Viovy, J.L., Chatenay, D., and Caron, F. (1996). DNA: an extensible molecule. Science 271, 792-794.
10. Lebrun, A., and Lavery, R. (1996). Modelling extreme stretching of DNA. Nucleic Acids Res 24, 2260-2267.
11. Strick, T.R., Allemand, J.F., Bensimon, D., and Croquette, V. (1998). Behavior of supercoiled DNA. Biophys J 74, 2016-2028.
12. Allemand, J.F., Bensimon, D., Lavery, R., and Croquette, V. (1998). Stretched and overwound DNA forms a Pauling-like structure with exposed bases. Proc Natl Acad Sci U S A 95, 14152-14157.
13. Navizet, I., Cailliez, F., and Lavery, R. (2004). Probing protein mechanics: residue-level properties and their use in defining domains. Biophys J 87, 1426-1435.
14. Sacquin-Mora, S., and Lavery, R. (2006). Investigating the local flexibility of functional residues in hemoproteins. Biophys J 90, 2706-2717.

 

   VIDEO       CANAL  U         LIEN

 
 
 
 

LA CHIMIE QUANTIQUE

 

 

 

 

 

 

 

LA CHIMIE QUANTIQUE

En évoquant d'abord les différentes périodes qui ont marqué le développement de cette discipline théorique, située à la charnière de la Physique et de la Chimie, on essayera de faire comprendre quels sont ses objets, et la spécificité de sa pratique. De fait, la Chimie Quantique a fourni à la fois des concepts cruciaux pour l'intelligibilité de phénomènes à l'échelle moléculaire, aidant même parfois les chimistes dans leur invention d'édifices nouveaux, et des outils de prédiction quantitative fiables des énergies et des structures de ces édifices. On essayera de montrer les défis qu'elle affronte aujourd'hui dans sa recherche de puissance (l'efficience simulatrice tuera-t-elle la théorie ?), sa synergie possible avec la Physique dans l'étude des matériaux, sa participation au design d'architectures moléculaires à propriétés électroniques remarquables, le développement des aspects temporels. On ne se privera pas de formuler quelques remarques d'ordres épistémologique, esthétique et sociologique.

Texte de la 233e conférence de l'Université de tous les savoirs donnée le 20 août 2000.
Entre physique et chimie, une discipline métisse : la chimie quantique

par Jean-Paul Malrieu

La Chimie Quantique est installée entre deux sciences majeures, à la charnière entre la Physique, plus particulièrement la Physique Moléculaire et la Physique du Solide, et la Chimie. Elle fait partie de ce qu'en France on appelle la Chimie-Physique, où le tiret signifie le rapprochement de deux substantifs, tandis que les Anglo-saxons distinguent Chemical Physics et Physical Chemistry, selon la pondération des intérêts et les outils mis en oeuvre. La Chimie quantique n'est qu'une partie de la Chimie-Physique. Il existe en effet une Chimie-Physique qui s'intéresse aux propriétés macroscopiques de la matière, et qui mobilise essentiellement des représentations classiques. La Chimie quantique peut être vue comme une discipline qui s'intéresse d'abord à des propriétés et des phénomènes qui concernent l'univers des molécules, à des échelles microscopiques, celles de la molécule ou de l'atome, et qui ne peuvent être compris qu'à l'aide de la Physique Quantique. Il s'agit des propriétés des assemblées d'électrons que les atomes partagent pour construire les édifices moléculaires, et des propriétés caractérisant le mouvement des noyaux dans la molécule.
Quelques questions élémentaires caractérisent ce domaine :
- Comment, par quelles forces, tiennent ces édifices à longue durée de vie que sont les molécules ? Quels sont les différents types de liaisons chimiques entre les atomes, quelle est leur nature, leur solidité ?
- Comment les molécules répondent-elles à la lumière, à quelles longueurs d'onde répondent-elles, que se passe-t-il quand elles absorbent un ou plusieurs photons ?
- Quelles interactions existe-t-il entre des molécules, quels compromis passent-elles, quels édifices d'édifices peuvent-elles construire dans les liquides, les membranes, les organisations supra-moléculaires dont vous parlait J. M. Lehn ?
- En quoi consiste la réaction chimique qui, de la rencontre de A avec B, construit la molécule AB, ou de celle entre AB et CD nous donne les molécules AC et BD ? Par quels chemins, à quelles conditions, doit passer le super-système des deux molécules qui entrent en collision ou s'approchent pour que se négocie le nouvel assemblage, produit de la réaction chimique ?
Mais à ces questions il peut être apporté deux types de réponses, les unes théoriques, par la Chimie quantique, et d'autres expérimentales, qui mobilisent les ressources très diversifiées des spectroscopies. La Chimie-Physique microscopique expérimentale est difficilement discernable de la Physique moléculaire, si ce n'est par des frontières qui tiennent plus de la tradition que de la raison. Elle interpelle très subtilement, en augmentant sans cesse la résolution temporelle ou énergétique de ses interpellations, ou en croisant ces interpellations, les objets sur lesquels travaillent les Chimistes Quanticiens. Ceux-là mobilisent les postulats et les théorèmes de la Physique Quantique, énoncés dès les années vingt du vingtième siècle, pour interpréter et/ou prédire, par des voies purement abstraites ou numériques, les propriétés des molécules. La Chimie Quantique est donc une discipline théorique, bien qu'on puisse la dire, j'y reviendrai, plus calculatoire que théorique.

Une scansion temporelle
D'abord un peu d'histoire sur les étapes par lesquelles est passée cette discipline, qui nous permettra d'en mieux cerner les enjeux.
Au début se trouvent d'une part un corpus théorique, celui de la Mécanique Quantique, avec ses concepts fondamentaux, ses équations maîtresses, ses théorèmes, ses méthodes rigoureuses et ses approximations raisonnées, et d'autre part un legs, la somme des informations préliminaires et des expériences préalables apportées par la Physique Atomique, qui a joué un rôle essentiel dans la naissance de la Mécanique Quantique, et qui concerne les entités à partir desquelles se construisent les molécules.
Je n'écrirai pas d'équation, pas même l'équation maîtresse qui fixe les états stationnaires d'un système quantique, l'équation de Schrödinger, je procéderai par images et par métaphores abusives, forcément abusives. Je dois par exemple dire que les électrons sont des particules chargées indiscernables, mais qu'ils ont une caractéristique, leur spin, qui ne peut prendre que deux valeurs et qu'on peut voir comme un sexe, si on veut une analogie facile.
Le legs de la Physique Atomique
La Physique Atomique lègue d'abord une bonne simplification, en nous disant, avec Born et Oppenheimer, que les noyaux, qui sont aussi des particules quantiques, ont une masse tellement plus lourde que les électrons qu'on peut considérer leurs mouvements comme lents par rapport à ceux des électrons, ceux-ci adaptant instantanément leur répartition à la position des noyaux. Cette approximation, dans laquelle se placent 99,9 % des travaux, découple les problèmes électronique et nucléaire et nous laisse avec une population homogène d'électrons, se déplaçant dans le champ électrique attractif exercé sur eux par les noyaux. Autre leçon, qualitative, l'idée que l'état du système résulte d'une sorte de compromis entre trois composantes de l'énergie, l'attraction nucléaire d'une part, qui est négative (stabilisante), et grande quand les électrons orbitent très près des noyaux, ensuite la répulsion entre électrons, particules de même charge, qui les fait se fuir, et enfin l'énergie cinétique, positive, qui n'est faible que si les électrons se promènent tranquillement dans de vastes espaces. Le compromis se joue donc entre des forces qui confinent les électrons près des noyaux et d'autres qui tendent à les éloigner, à les faire se mouvoir sur de plus vastes orbites.

La Physique Atomique introduit très tôt une vision hiérarchisée des populations d'électrons dans l'atome, un modèle en couches et sous-couches. Ces couches caractérisent des niveaux d'énergie et des extensions spatiales, il y a des couches internes d'énergie très profonde, dont les électrons orbitent près du noyau, et des couches externes, dites de valence, d'énergies plus hautes et dont les électrons orbitent plus loin du noyau. Alors que les premières ne participeront pas aux liaisons chimiques, se contenteront en quelque sorte de s'y adapter par de petites modifications, ce seront les secondes qui participeront à la construction des liaisons entre atomes.
Les sous-couches peuvent être vues comme caractérisant des formes d'orbites des électrons, dans une image classique. C'est pourquoi on les appelle orbitales. Je les appellerai boîtes, ici atomiques. Disons qu'elles ont une forme et une extension spatiale, qui caractérisent par leur volume le domaine où l'électron qui l'occupe aime à se promener et par leur forme, le type de trajectoire qu'il y adopte. On a donc des boîtes sphériques, les orbitales e type « s », des boîtes allongées selon un axe avec deux lobes, de signes différents, les orbitales « p », etc.
Bref une petite zoologie de base que la Chimie quantique va manipuler. Cette construction du modèle atomique, dans laquelle les électrons vont remplir gentiment, deux par deux de spins opposés, les couches et sous-couches d'énergies les plus basses, rationalise le tableau périodique de Mendeleïev, proposé cinquante ans plus tôt. C'est aussi à la Physique Atomique que la Chimie Quantique devra un certain nombre de ses outils, par exemple l'approximation dite de « champ moyen », et la conscience des difficultés du problème à N-corps, dont je reparlerai plus en détail.
Premier temps, comprendre la liaison chimique (les années trente)
Dès les années trente les quanticiens cherchent à comprendre la nature des différentes liaisons chimiques que postulaient les chimistes depuis presque cent ans. Ils appliquent donc, moyennant force simplifications, leurs outils à la compréhension des molécules les plus élémentaires, la molécule H2+, à un seul électron, et la molécule H2, à deux électrons. L'idée clef est la suivante : à ne pas rester dans la boîte de l'atome dans lequel il est arrivé, et à se mouvoir près de l'autre noyau, un électron peut gagner en énergie cinétique puisqu'il orbite dans un volume plus large sans perdre en énergie potentielle, la liaison est liée à une délocalisation des électrons dans la liaison chimique. Cela va sans problème s'il n'y a qu'un électron dans la liaison ; s'ils sont deux, il faut qu'ils soient de sexes opposés, pour que l'électron de spin « up » apporté par l'atome A puisse aller se promener dans la boîte apportée par l'atome B, occupée par un électron de spin « down » et réciproquement.
On a donc un modèle, dit de la Liaison de Valence (Valence-Bond), qui manipule les boîtes atomiques de valence des atomes et construit des liaisons à 2 électrons de spins opposés, se déplaçant entre les deux boîtes apportées à la liaison par les deux atomes partenaires.
Une solution alternative consiste à déchirer la frontière entre les deux boîtes atomiques, à faire une seule boîte plus grande sur la liaison et à y mettre les deux électrons, c'est une orbitale moléculaire de liaison. Les électrons qui n'entrent pas dans des paires de liaison restent dans des boîtes atoniques, un peu déformées par les liaisons engagées, qu'on appelle « paires libres ».
Si les deux atomes sont de nature différente, les électrons peuvent préférer orbiter plutôt, voire seulement près de l'un d'eux, on aura alors une liaison partiellement ionique, comme dans LiH, ou très ionique comme dans NaCl.
En tout cas la théorie quantique naissante vient rationaliser d'emblée le jeu de Lego moléculaire avec lequel les chimistes jouaient et pensaient depuis plus d'un demi-siècle, en écrivant leurs formules chimiques avec des lettres, les atomes, et des traits, les liaisons, supposées porter deux électrons. Cette conciliation de la Chimie constructiviste intuitive avec la théorie abstraite qui venait de naître est un événement épistémologique majeur trop occulté dans l'enseignement.

Un autre domaine de la chimie, la chimie organométallique, va bénéficier très vite de la Physique atomique ; on comprendra en effet comment les ions métalliques, qui sont entourés de ligands moléculaires ou d'ions non métalliques, sont perturbés par cet environnement, des sous couches cessent d'avoir la même énergie, les plus basses acceptent les électrons qui sont sur le métal, et la spectroscopie de celui-ci est très différente de ce qu'elle était sans les ligands. C'est la théorie du Champ Cristallin, complétée ensuite par la prise en compte des délocalisations qui peuvent intervenir entre les orbitales et les électrons des ligands et du métal, pour devenir théorie du Champ des Ligands, un instrument conceptuel de base incontournable dans ce domaine, dépassant le modèle classique intuitif des paires électroniques de liaison.
Cette période voit aussi s'établir la compréhension du mouvement des noyaux, mouvements de rotation et de vibration, donnant lieu à des spectroscopies spécifiques, riches d'informations.
Dernier apport de cette époque pionnière, la compréhension de ce qui se passe entre les molécules quand elles s'approchent sans faire une réaction chimique, les forces qui les attirent, dont certaines sont d'ordre électrostatique mais d'autres, les forces dites de dispersion, ne peuvent être comprises que dans le cadre de la théorie quantique, et les forces qui les repoussent, elles aussi d'origine quantique.
Ainsi s'est immédiatement construite une théorisation qualitative, interprétative, qui a mis de l'ordre dans des variétés d'édifices d'apparence disparate et fourni de nouveaux concepts, ce qui était énorme. Jusque là pas d'ordinateur, des simplifications drastiques mais raisonnées permettant la rationalisation.
L'ère de la délocalisation électronique (les années 45-60)
Tout ne pouvait coller aussi simplement avec le petit Lego des chimistes. S'il en avait été ainsi, la Mécanique Quantique n'aurait servi qu'à justifier une vision classique dans laquelle des noyaux sont liés par des ressorts de longueurs et rigidités différentes. Une Mécanique Moléculaire de type classique sera de fait développée après les années soixante-dix pour l'étude des conformations de grosses molécules, en particulier les biomolécules.
Deux types de problèmes vont donner à l'approche quantique un rôle irremplaçable. Le premier concerne les molécules où certains électrons ne forment pas des paires assignables à un couple d'atomes, ce sont les hydrocarbures conjugués, les polyènes le benzène, le naphtalène, leurs innombrables analogues, molécules dont les atomes sont dans un plan, dans lequel s'engagent des liaisons bien locales, porteuses de deux électrons, mais dont une partie des électrons se déplace dans des bottes atomiques orientées perpendiculairement au plan de la molécule. Le second problème concernait la réponse de toutes les molécules, même les plus compatibles avec le Lego moléculaire, à la lumière, en particulier l'émission d'électrons (spectroscopie photo-électronique). Si vous considérez par exemple la famille des hydrocarbures saturés, méthane, éthane, propane, etc. vous avez la série la plus compatible avec le jeu de Lego moléculaire, l'énergie est très bien donnée par des additions d'énergies de liaisons, caractéristiques de la liaison CC et de la liaison CH respectivement. Et pourtant vous ne comprendrez rien à l'évolution des potentiels d'ionisation (énergie nécessaire à l'arrachement d'un électron) dans cette série, ni à leur dépendance à la structure moléculaire, à ses branchements.

Là s'ouvre le règne de la délocalisation électronique et s'installe une représentation en terme d'orbitales moléculaires délocalisées, aujourd'hui largement enseignée aux chimistes. Dans cette représentation les atomes apportent à l'édifice moléculaire leurs électrons de valence et les boîtes correspondantes, sans préjugé de partenariat, et les électrons vont se promener dans l'ensemble de ces boîtes atomiques. Mais plutôt que de considérer une théorie Valence-Bond généralisée, ce qui est possible mais ne conduit qu'à un traitement numérique, difficile et sans concept, on va construire à partir des boîtes atoniques des boîtes ou orbitales moléculaires, qui s'étendent sur l'ensemble du squelette moléculaire mais qui jouent sur les signes qu'on affecte aux bottes atomiques dans les boîtes moléculaires. Par exemple si on considère un ensemble de quatre atomes alignés apportant chacun un électron et une boîte, on peut prendre quatre combinaisons totalement distinctes (on dit orthogonales), qui seront respectivement ++++, ++--, +--+ et +-+-. Si l'on calcule l'énergie d'un électron posé dans une de ces orbitales moléculaires on verra qu'elle dépend fortement de ces jeux sur les signes, plus il y a de changements de signes, plus l'énergie est élevée. Si on veut donc affecter la population électronique à cet ensemble d'orbitales moléculaires, on mettra deux électrons, toujours de spins opposés, dans les orbitales d'énergie les plus basses. Nous avons ainsi une vision de la population électronique selon laquelle les électrons vont encore par paires mais occupent des sortes d'appartements étendus sur l'ensemble de l'espace moléculaire, d'altitude énergétique différente, qui présentent de plus en plus de changements de signes, de cloisons si vous restez dans cette image immobilière, quand on monte dans les étages (en énergie). Quand on a mis tous les électrons ainsi dans les étages les plus bas, restent des appartements vides de haute énergie. Ioniser une molécule c'est arracher un électron d'un des niveaux occupés, ce qui coûte une énergie donnée, quantifiée, caractérisant ce niveau, et exciter une molécule c'est envoyer un électron d'un niveau occupé à un niveau vide, ce qui implique à nouveau une énergie déterminée.

En fait le jeu selon lequel on combine les orbitales atomiques pour construire les orbitales moléculaires ne manipule pas que les signes, il est plus quantitatif, réglé par l'opérateur quantique associé à l'énergie, le Hamiltonien. Une forme très simplifiée de celui-ci, pratiquement topologique (l'Hamiltonien de Hückel), a permis à la fois des calculs numériques sur les calculateurs mécaniques de l'époque, et de très jolies analyses algébriques. De 1945 à 1960 ce modèle, populaire aussi en Physique du Solide, multiplie les succès. La Chimie Quantique aura néanmoins ses martyrs dans l'URSS de Staline, où les chimistes quanticiens sont envoyés au Goulag comme apôtres d'une idéologie bourgeoise indéterministe. Si l'on songe que les Physiciens soviétiques donnent à cette même période et à ce même pouvoir, à partir des mêmes outils conceptuels, les armes de la fission et de la fusion nucléaires, on mesurera que la Chimie Quantique n'est pas encore une technique très prédictive.

L'ère du comput (1960-75)
L'informatique va permettre à la discipline de se prendre au sérieux, elle va revenir de formes très simplifiées de l'Hamiltonien à son expression exacte. Certes on n'obtiendra pas les solutions exactes de l'équation maîtresse, on travaillera dans le cadre de deux approximations :
- La première, encore indépassée aujourd'hui sauf cas exceptionnels, consiste à travailler dans un espace vectoriel fini, c'est-à-dire avec un nombre fini de boîtes atomiques. Mais on en prendra un nombre de plus en plus grand, afin de donner plus de degrés de liberté dans la distribution spatiale et la forme des orbitales moléculaires.
- La seconde, provisoire, consiste à remplir les niveaux électroniques les plus bas avec deux électrons et à minimiser l'énergie totale. Dans cette approximation les électrons se meuvent dans un champ moyen, créé par les noyaux et les autres électrons.
Cette étape de la discipline bouleverse son visage, sa pratique et son impact. On veut reproduire l'expérience de façon quantitative, la dimension technique explose, il faut calculer, stocker et gérer des dizaines de milliers d'intégrales, penser stratégie computationnelle, taille-mémoire, rapidité des algorithmes. Un autre profil de compétence apparaît, passablement technique, proche de l'informatique dont il faut connaître les outils en rapide évolution. La discipline se fait numériste, elle perd en charme ce qu'elle gagne en précision. Mais elle vit avec exaltation la course à la prédictivité quantitative.

L'ère de la rigueur : le défi de la corrélation électronique (1975-90)
Heureusement pour l'intelligence de la discipline, la recherche de la solution exacte de l'équation maîtresse est une tâche plus que difficile, impossible. L'approximation qui consiste à poser les paires d'électrons dans des orbitales optimisées est grossière. Dans la réalité, ou dans la solution exacte, les électrons ne se déplacent pas dans un champ moyen fixe. Si deux électrons vont à la rencontre l'un de l'autre ils infléchiront leur trajectoire pour diminuer leur répulsion, leurs mouvements seront corrélés et non plus indépendants. Ce problème de la corrélation entre électrons s'appelle « problème à N-corps quantique », il a exigé dans diverses disciplines de beaux efforts conceptuels et méthodologiques. Notons que sur ce terrain la Chimie Quantique s'est trouvée plus proche de la Physique Nucléaire que de la Physique du Solide, qui manipule pourtant elle aussi des électrons dans le champ de noyaux.
Ce problème de la corrélation a deux aspects, formel et physique. L'aspect formel concerne la distribution des électrons dans les boîtes mises à leur disposition, qu'elles soient locales (atomiques) ou étalées sur l'espace moléculaire. U nombre possible de ces distributions de n électrons dans p boîtes, même sous contrainte de ne pas mettre plus de deux électrons par boîte, est trop grand et certaines distributions sont très défavorables. De très jolis formalismes ont été conçus, qui essayent de combiner rigueur formelle et praticabilité. Certains outils, très généraux, peuvent être exportés de la Chimie Quantique vers d'autres champs.


L'aspect physique concerne l'évitement des électrons dans l'espace. Si 2 électrons ont même spin, la probabilité de les trouver dans un même point de l'espace est nulle, c'est une autre version de l'homophobie à l'Suvre dans la constitution des couples d'électrons, qu'on visualise par le « trou de Fermi ». Les électrons de spins opposés font meilleur ménage, on peut en trouver deux au même endroit, mais ils préfèrent garder quelque distance, du fait de leur répulsion électrostatique, et c'est une propriété très subtile de la fonction d'onde exacte que de présenter en tout point cette singularité qu'on appelle « trou de Coulomb ». Il est impossible de rendre compte de cette propriété en tout point de l'espace physique à l'aide d'un ensemble fini d'orbitales. Heureusement cet effet d'évitement à courte portée ou de dernière seconde n'a pas des effets énergétiques cruciaux et les calculs effectués avec un nombre fini d'orbitales, par exemple en donnant 10 orbitales, judicieusement choisies, par électron, donnent des énergies suffisamment correctes pour la précision souhaitée par les chimistes. Néanmoins les méthodologistes s'efforcent de calculer l'effet du trou de Coulomb, avec un succès convaincant.
L'ère de l'efficience simulatrice (1990- ?)
Aujourd'hui donc les chimistes quanticiens sont capables de calculer de façon très précise les énergies et les géométries de molécules de moins de dix atomes dans leur état fondamental, sans introduire d'autre information empirique que la forme analytique des orbitales atomiques utilisées. C'est ce qu'on appelle la méthodologie ab initio, pour l'opposer aux simplifications semi-empiriques utilisées auparavant. Cette approche est aujourd'hui battue en brèche, parce qu'une alternative beaucoup moins coûteuse a été proposée.

Les calculs ab initié nécessitent en effet un temps de calcul qui croît comme une puissance du nombre N d'électrons, la puissance quatrième dans la méthode de champ moyen, une puissance sixième ou septième si on traite la corrélation entre électrons. L'étude de grosses molécules qui intéressent les expérimentateurs, les biochimistes, les inventeurs de matériaux nouveaux, les spécialistes de la catalyse, semblait impossible. Ce coût prohibitif tient en principe à ce que la fonction d'onde manipule les trois coordonnées des N électrons et travaille dans un espace de dimension 3N.
Or un théorème, dû à Hohenberg et Kohn, établit qu'il doit exister une correspondance biunivoque entre la densité électronique dans l'espace physique, de dimension 3, et la fonction d'onde, donc l'énergie. Correspondance qu'on ne connaît que dans le cas idéal du gaz homogène d'électrons. D'où le rêve d'un formalisme qui travaillerait avec la seule densité électronique. Partant donc du cas idéal et de quelques sophistications destinées à tenir compte de l'inhomogénéité de densité, une « théorie fonctionnelle de la densité » (DFT) a été proposée, beaucoup plus économique que les méthodes principielles que j'ai décrites plus haut. Les fonctionnelles utilisées aujourd'hui ont des formes complexes, elles introduisent de nombreux paramètres, et donnent des résultats comparables à ceux des meilleurs calculs ab initio, à bien moindre coût. Bien sûr les valeurs données à ces paramètres ne découlent pas des principes, elles ont été ajustées par essais et erreurs sur un ensemble d'expériences numériques. Si bien que la méthode DFT est encore à ce jour une méthode semi-empirique. J'ai même soutenu qu'on pouvait à la limite lui donner le statut de réseau neuronal, c'est-à-dire d'une machine apprentissante. Si un réseau neuronal, câblé à partir d'un ensemble d'expériences, ne donne pas une réponse satisfaisante dans un cas nouveau, on doit incorporer ce cas à l'ensemble d'apprentissage et réviser les câblages. C'est un peu ce que font les praticiens de la DFT à ce jour, bien que des recherches théoriques fondamentales soient aussi menées pour produire des fonctionnelles formellement fondées. Le rapport qualité des résultats obtenus/coût des calculs est en tout cas très attractif et balaie les scrupules éventuels d'une majorité d'utilisateurs. Et il n'y a pas lieu de faire la fine bouche si ce que l'on demande c'est une réponse très probable à une question précise concernant un système particulier.
Quelques beaux succès d'une discipline austère
Les succès de la Chimie Quantique sont d'ordres différents.

Elle donne d'abord une représentation qualitative de la population électronique. Elle est à la fois un traité des passions, une anthropologie et une sociologie. Elle dit les attirances et les exclusions, elle catégorise les liens, leur nature, elle pense les hiérarchies énergétiques, les partages, les complicités, les lois de la parenté et les compromis économiques. La théorie des orbitales moléculaires est désormais largement enseignée aux chimistes, ce qui leur a demandé de louables efforts, car on n'entre pas facilement dans le paradigme quantique. A ce stade, et dans la mesure où elle est manipulable analytiquement, ou avec les mains, la chimie quantique est parfois très esthétique. En particulier quand elle traite des électrons délocalisés des molécules conjuguées, le culmen dans ce domaine étant sans doute atteint par la formulation des règles qui gouvernent la stéréo-spécificité des réactions électrocycliques, question qu'on peut formuler ainsi : quand une molécule en forme de ruban se referme par ses deux extrémités, se ferme-t-elle en cylindre ou comme un ruban de Moebius ? Ces règles rationalisées par une démonstration simple ont valu à Woodward et Hoffmann un prix Nobel mérité. Ce qu'on peut par contre regretter c'est que l'approche des orbitales moléculaires délocalisées soit aussi hégémonique dans l'enseignement et que les approches alternatives en termes d'orbitales de liaisons, parfaitement équivalentes aux précédentes pour la description de l'état fondamental de la quasi-totalité des molécules, ne soient pas enseignées, alors qu'elles valident la représentation intuitive qu'utilisent les chimistes dans la vie quotidienne.
Un usage qualitatif spectaculaire concerne les édifices magnétiques, ceux où quelques électrons restent seuls dans leur boîte, la question étant de savoir si les électrons célibataires préfèrent avoir le même sexe ou des sexes opposés. Là les effets quantiques sont déterminants. Je voudrais saluer ici la façon dont des chimistes extrêmement créatifs, comme Olivier Kahn, mort prématurément cet hiver, ou Michel Verdaguer, savent mobiliser une vision théorique simple dans leur design de composés nouveaux aux propriétés remarquables. Ceux là font mentir la fatalité qui divise expérimentateurs et théoriciens. Pour les théoriciens « purs » comme moi la rencontre de ces partenaires et des beaux problèmes qu'ils nous soumettent est un plaisir stimulant.

Semi-quantitatives sont les informations qui concernent la spectroscopie. La symétrie des états impliqués dans les excitations, l'intensité des absorptions de photons, l'ordre énergétique des états de la molécule, leurs natures parfois qualitativement différentes, autant de questions dont les réponses exigent la maîtrise de concepts quantiques et la manipulation des fonctions d'onde.
Puis viennent les succès quantitatifs, la spectaculaire précision des calculs les plus rigoureux, effectués sur des molécules de taille moyenne, vérifiables par confrontation avec les informations expérimentales. Les géométries d'équilibre, les longueurs des liaisons, les angles qu'elles forment entre elles, les énergies de dissociation, nécessaires à la rupture des liaisons, sont, sauf rares exceptions, reproduits au pour cent près. Longtemps les théoriciens ne se donnaient pour objectif que de reproduire aussi bien que possible les résultats de l'expérience, et à une époque ils prêtaient le flanc à l'ironie, quand par exemple ils s'échinaient à reproduire avec un ou deux ans de retard l'orientation du moment dipolaire de la misérable molécule CO, que les expérimentateurs révisaient périodiquement. Cette époque est bien révolue. La Chimie Quantique affirme et prédit. Elle a permis d'identifier des composés instables, présents dans l'espace interstellaire, responsables de raies en spectroscopie hertzienne, apparaissant dans des forêts de raies. Ces composés y existent du fait de l'extrême vide qui y règne, qui rend très rares les collisions qui les détruiraient, comme elles le font en laboratoire. Nous sommes capables de déterminer des architectures élusives, de calculer les intermédiaires très instables de réactions chimiques. Tout composé stable correspond à une conformation du squelette moléculaire, et s'en écarter, déplacer les noyaux, coûte de l'énergie. Une configuration d'équilibre est comme un lac entre des montagnes. Passer d'une configuration d'équilibre à une autre, donc faire une réaction chimique, c'est passer d'un lac à un autre, ou d'un lac à une vallée. La route doit franchir une crête, au mieux passer par un col. Et les chimistes quanticiens sont capables de dire la position du col, c'est-à-dire la position relative des noyaux, et son altitude. Ils peuvent même dire si la route qui y mène est directe ou tortueuse.

Ils peuvent aussi désormais explorer, avant les expérimentateurs et à bien moindre coût, des chimies utopiques susceptibles d'être réalisées. Par exemple : la Chimie la plus pratiquée est celle des atomes légers, l'hydrogène, le carbone, l'azote et l'oxygène, et leurs analogues de la seconde ligne longue du tableau périodique. Que se passe-t-il si l'on remplace le carbone par un atome lourd, ayant le même nombre d'électrons externes, comme le germanium ou l'étain ? Conséquence indirecte de la relativité, ces atomes sont plus réticents que le carbone à engager leurs 4 électrons externes dans des liaisons, ils hésitent à se comporter comme le plomb, qui préfère n'en engager que deux, et ils construisent une chimie très versatile, avec des liaisons d'un type nouveau, à un seul ou à trois électrons, ce que l'expérience confirme peu à peu.
Autre utopie : des édifices assez stables mais qui pourraient stocker beaucoup d'énergie, libérable par dissociation. Par exemple le cube N8 peut exister, il serait stable à température ordinaire, mais sa dissociation en quatre molécules N2 dégagerait une énergie considérable. Les chemins de sa synthèse sont par contre ardus, car c'est un lac de montagne encore inaccessible, pour reprendre ma métaphore géographique.
Autre domaine où la Chimie Quantique s'est avérée utile, celui des petits agrégats d'atomes. Si vous considérez par exemple l'élément Sodium, vous trouverez à un extrême le cristal de sodium, métal où les électrons sont très délocalisés, et à l'autre extrême la molécule diatomique Na2, avec une liaison plutôt covalente. Entre ces deux extrêmes, dans des édifices à 4, 10 ou 100 atomes, que se passe-t-il ? Comment se passe la transition vers le métal et son organisation ? Pour les petits agrégats au moins la Chimie Quantique apporte des réponses sûres ; pour les plus gros d'autres modèles, plus proches du gaz d'électrons, apportent les informations les plus pertinentes.
Autre forme de la matière, les liquides moléculaires. Là, les molécules glissent, tournent et vibrent les unes par rapport aux autres. On est ici dans un univers dynamique. Comprendre les propriétés d'un liquide exige de bien connaître les interactions entre deux molécules, dont on peut ensuite faire un potentiel à deux corps, à utiliser dans une mécanique statistique classique pour déterminer les propriétés macroscopiques du liquide. Parfois les termes à deux corps ne suffisent pas, des effets non additifs à trois, quatre ou six corps sont non négligeables. À cet égard l'eau est particulièrement difficile à traiter. Mais on en sait désormais assez par les simulations temporelles sur la dynamique de l'eau pour savoir la labilité extrême des associations intermoléculaires locales et vous ne trouverez pas un chimiste quanticien pour parier un kopek sur la supposée « mémoire de l'eau » de Benvéniste.

Perspectives et paris
P. G. de Gennes disait récemment de la Chimie Quantique qu'il faudrait, je cite, « en hâter l'agonie ». On doit ajouter qu'il la jetait dans une fosse commune en bonne compagnie, avec la Physique du Solide et la Physique Nucléaire. Mort du Quantique ? Non, notre discipline, comme, et je dirai avec, la Physique du Solide, a du pain sur la planche et de belles ambitions.
Sur le plan conceptuel et méthodologique, le traitement des états excités est l'enjeu de gros efforts, parce que la définition d'une description d'ordre zéro, sur laquelle s'appuyer pour élaborer la fonction d'onde est difficile.

Sur le plan de la puissance et de la capacité à s'attaquer au traitement de grandes molécules une percée remarquable est en cours. Elle consiste à concevoir des algorithmes dont le temps d'exécution croisse linéairement avec la taille du système traité. Cette offensive s'appuie sur une remarque de bon sens : pour la quasi-totalité des molécules, et pour autant qu'on s'intéresse à leur état fondamental, il n'y pas d'effet physique à longue portée, il est toujours possible de construire soit la densité soit la fonction d'onde à partir de briques locales d'extension finie, en interaction avec un nombre fini de briques voisines. Il s'agit là d'un retour aux descriptions localisées que les visions mettant l'accent sur la délocalisation avaient refoulées. L'idée s'applique à tous les Hamiltoniens et Scuselia dans un article récent rapportait un calcul concernant un footballène géant de 8 640 atomes de carbone, dont la géométrie avait été optimisée. Mais l'idée est pertinente aussi dans le cadre des méthodes ab initio dont certains pensaient il y a 5 ans que la révolution pragmatique de la DFT allait les envoyer au Musée des Arts et Métiers sinon aux poubelles de l'Histoire. Mais la corrélation électronique, si difficile à traiter correctement, est à courte portée. Il est possible de déterminer directement des orbitales moléculaires locales et d'effectuer dans cette base des calculs élaborés de la corrélation électronique avec des temps de calcul qui ne croissent que proportionnellement au nombre des atomes. Le match qui oppose rigueur et efficacité pragmatique n'est pas définitivement joué. Ces approches ouvrent d'ailleurs la voie au traitement des solides périodiques par les techniques ab initié.

Autre perspective d'avenir, apporter à la physique des matériaux des connaissances cruciales sur la nature et l'amplitude des interactions locales, qui commandent les propriétés collectives de ces matériaux. Pour comprendre quand un empilement d'unités composées de deux donneurs plus un accepteur devient conducteur, il faut connaître les interactions entre les donneurs, leur dépendance aux changements de géométrie, la structure chimique est cruciale, ainsi que ces données que sont les énergies et les formes des orbitales moléculaires en jeu, leur position spatiale relative. De même pour les édifices magnétiques, les composés à magnétorésistance colossale ou les supraconducteurs à haute température critique, leurs propriétés spectaculaires ne peuvent être comprises qu'à l'aide non du Hamiltonien exact, trop compliqué, mais d'Hamiltoniens modèles réduisant le nombre des électrons impliqués et simplifiant leurs interactions. Mais telle ou telle simplification n'est elle pas abusive ? Et quelle est la valeur de telle interaction ? Comment change-t-elle dans les déformations du réseau ? Autant de questions auxquelles l'expérience ne peut en général pas apporter de réponse univoque, et qui relèvent potentiellement des compétences de la Chimie Quantique. Je suis persuadé qu'il y a là un avenir très fructueux pour notre discipline. Lorsqu'il en est ainsi, lorsque nous apportons de telles informations à la Physique, la Chimie Quantique, science de transfert, science hybride, n'est plus seulement la passerelle par laquelle une science plus scientifique, la Physique, déverse sur une science moins noble, inférieure, le bienfait de ses connaissances. Par cette passerelle passent en sens inverse des connaissances indispensables à la Physique.

Encore faut-il savoir ce dont on est capable. Dès le début des années 80 les Chimistes quanticiens se sont engouffrés en masse vers un problème d'envergure et d'une grande importance économique, la catalyse hétérogène, processus par lequel une réaction chimique impossible en phase gazeuse ou liquide devient possible à la surface d'un métal. Mais cette question est celle de toutes les difficultés, car il s'agit d'un métal de transition, déjà difficile à traiter théoriquement, de sa surface, encore plus difficile, voire d'un défaut sur cette surface, et d'une réaction chimique sur celle-ci ! Les années hommes et les années computers englouties dans ce problème prématuré n'ont pas apporté de lumières convaincantes.
Par contre l'assistance théorique au design moléculaire, à la conception de nouvelles architectures, doit prendre son essor. Il faut des théoriciens imaginatifs qui conçoivent et mettent à l'épreuve de leurs calculs des composés doués par exemple de bistabilité, donc susceptibles de stocker de l'information à l'échelle de la molécule, ce qui représenterait un bond prodigieux dans la compacité du stockage. Et l'utopie d'une électronique moléculaire, avec ses fils, ses diodes, ses commutateurs, est déjà en marche, sous l'impulsion d'esprits hardis.

Questions impertinentes
Pour terminer et prendre un peu de champ je voudrais poser quelques questions qui débordent le cadre d'un exposé scientifique usuel, fut-il adressé à des non-spécialistes.
D'abord pourquoi des Chimistes Quanticiens ? La division Expérience/Théorie ne prend pas en Physique la forme institutionnelle qu'elle a prise en Chimie, où existent des laboratoires de Chimie Quantique. La réponse à cette question est à la fois pratique et culturelle. La distance est plus grande entre l'inactivité du chimiste de synthèse et celle du chimiste quanticien qu'entre celle du physicien expérimentateur, qui manipule des spectroscopies compliquées, déjà prises dans le paradigme quantique, et son collègue théoricien. A quoi s'ajoute le fait que la plupart des chimistes n'ont ni le goût ni les bases qui leur permettent de s'approprier des concepts abstraits et des outils formels non-intuitifs. Mais ce fossé est peut-être imputable en partie au faible effort de transmission de leur savoir par les théoriciens.
Quelque chose est cependant en train de changer. Des logiciels sont désormais disponibles, moyennant finances, que des chimistes non-spécialistes peuvent utiliser comme des bottes noires ou un autre type de spectromètre. Ils n'ont besoin que de recettes simples concernant la saisie de leur problème et la lecture des résultats. Cette révolution changera peut-être les rapports théorie/expérience. Elle pourrait en tout cas amener à reconsidérer le mode d'enseignement de la Chimie Quantique, qui suit jusqu'à ce jour les voies ardues de la déduction et laisse dans les premiers lacets de la route, entre formalismes obscurs et exercices dérisoires, des étudiants démotivés. Peut-être faudrait-il mettre cet enseignement cul par dessus tête, et convaincre d'abord les étudiants, grâce à l'usage de ces boîtes noires performantes, de la pertinence et de l'efficience de la Chimie Quantique, pour accrocher leur curiosité et les faire remonter, par les chemins du doute, vers le contenu des formalismes utilisés.

La théorie est-elle dirigée par une logique interne ou par une demande, une sorte d'effet de marché ? J'ai en effet mentionné ces codes boîtes noires, produits et vendus par des sociétés privées réunissant théoriciens et informaticiens. La Chimie quantique, complexée de sa longue inutilité, a voulu faire ses preuves et certains ont cru nécessaire ou rentable de créer ces petites sociétés privées de quelques dizaines de personnes. Il s'agissait moins d'un marché déjà là que d'une anticipation sur une demande potentielle, celle des compagnies industrielles chimiques, pharmaceutiques et biochimiques. Il est certain que la cible escomptée, celle des « grosses molécules », a infléchi la pratique de la discipline, accentué la conversion rapide de l'approche ab initio à la DFT. J. Pople fut un des participants actifs à la conception de la méthodologie ab initio en même temps qu'il fondait la première de ces sociétés privées. En Juillet 91 il ferraillait durement contre W. Kohn et la DFT, avant de se convertir en six mois à cette nouvelle approche, évidemment plus prometteuse pour le marché. Bien lui en a pris puisqu'il a partagé avec Kohn voici deux ans le prix Nobel de Chimie.

La Chimie Quantique est-elle une science ou une technique ? Il est certain que cette discipline mobilise beaucoup de technologie. Dans la mesure où elle fonctionne largement, certains diraient exclusivement, à l'aide d'ordinateurs, l'attention aux ressources informatiques et leur évolution est essentielle. Je vois effectivement deux périls à une technicisation excessive de la discipline.
Le premier péril, c'est le culte du nombre, qui à la limite peut devenir dangereux pour la théorie elle-même. Lévy-Leblond a dit avec raison que la simulation numérique n'est pas de la théorie. La simulation peut être basée sur la mise en comput de la théorie, laquelle est faite de concepts, de lois et de déductions. Le calcul ne déduit pas, il s'effectue sans la participation de notre logique. Si elle dérive vers le réseau neuronal efficace, la simulation peut perdre le contact avec la théorie. Ne pourrait-elle alors tuer la théorie ?
L'autre péril est celui de la perte de séduction. À n'exalter que l'efficience, la puissance, on pose un idéal très besogneux, un profil d'informaticien appliqué, figure dont on peut craindre qu'elle n'attire pas les esprits les plus créatifs. Et de fait l'informatique capte, c'est une esclave asservissante. Mes jeunes collègues passent l'essentiel de leur temps devant leur écran, où ils lisent le verdict de leurs dernière tentative et lancent la suivante. Ils n'ont plus le temps, ou le laissent à des privilégiés-négriers de mon genre, de ces batailles logiques avec la structure d'un problème formel, ou de ces longues recherches du « passage du Nord-Ouest » qui caractérisent la théorie.

Même l'exploitation des résultats numériques souffre du numérisme. Vous travaillez sur un composé bizarre, hypothétique, et vos calculs confirment son existence donnent son énergie, sa structure, ses fréquences vibrationnelles. Mais ces résultats appelleraient d'autres analyses plus qualitatives : où sont les électrons, quelles liaisons chimiques tiennent cet édifice, s'agit-il d'un prototype nouveau, d'une pièce nouvelle à ajouter au Lego moléculaire des chimistes ? En campant dans le pré étroit du positivisme numérique, en affichant une telle répugnance au qualitatif, à la traduction imagée, en s'enfermant dans le puritanisme du fait, non seulement on manque à une des fonctions du théoricien, sa fonction langagière, de fournisseuse d'une représentation du monde, mais on se prive du plaisir esthétique.
Quelle place tient en effet l'esthétique dans cette science ?
Présentée souvent comme austère, cette discipline réserve pourtant de grands plaisirs. D'abord par le jeu de ses trois langages, la jonglerie des traductions entre le langage Valence-Bond (en terme de bottes atomiques), celui des orbitales moléculaires de liaison, et celui des orbitales moléculaires délocalisées. Un effet physique peut être obscur dans une représentation et devenir limpide dans une autre.
Le plaisir du dévoilement ensuite. La Chimie, à la différence de la Physique, ne fonctionne pas par formulation de lois, elle est connaissance du spécifique. Mais elle connaît des « effets » assez universels, qu'on prend plaisir à identifier et comprendre.

Pour le théoricien formaliste, le plaisir est celui des défis logiques, qui sont branchés sur des problèmes universaux, dépassant le cadre étroit de la discipline. Il est aussi un plaisir d'ingénieur de concevoir une approche nouvelle, plus élégante et/ou plus rigoureuse que celles déjà disponibles.
Pour l'imaginatif c'est le bonheur des inventions d'architectures, le double plaisir de concevoir des utopies chimiques et de pouvoir en vérifier très vite la cohérence.

La Chimie quantique, science hybride entre Physique et Chimie, science inconfortable qui fait des siens des chauves-souris, physiciens abscons aux yeux des chimistes, pauvres chimistes aux yeux des physiciens ? Elle est autre chose qu'une passerelle ou une science de transfert,' elle a produit une culture spécifique dans la tension où elle vit entre les trois pôles qui la stimulent et la déchirent :
- La fonction interprétative, de compréhension, de fournisseuse de représentations,
- le souci de grande rigueur formelle, en particulier de manipuler l'Hamiltonien exact,
- et le souci acharné de la précision de ses prédictions.
Je suis persuadé que cette science, métisse donc, mais originale, a un bel avenir et dispose de suffisamment de ressources et d'assez d'énigmes devant elle pour attirer de jeunes esprits exigeants.

 

 VIDEO       CANAL  U         LIEN 

 
 
 
 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

 

 

 

 

 

 

 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE



Le texte de Bernard Cabane et Rodolphe Vuilleumier ci-dessous est similaire aux principaux points développés lors de la 593 ème conférence de lUniversité de tous les savoirs donnée le 15 juillet 2005 1
Par Bernard Cabane, Rodolphe Vuilleumier : « La physique de leau liquide »
L'eau est le liquide le plus abondant à la surface de la terre. C'est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. L'eau est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Ainsi, l'eau reste liquide à pression atmosphérique jusqu'à 100 °C, alors que l'extrapolation de la série H2S, H2Se, H2Te donnerait une température d'ébullition de - 80°C. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie, avec les alcools et les amines, d'un petit groupe de liquides qu'on appelle liquides associés (Figure 1). Parmi ces liquides, la cohésion de l'eau est remarquable. Par exemple, l'eau a des températures de fusion et d'ébullition très supérieures à celles de l'ammoniac et de l'acide fluorhydrique, qui font des liaisons H plus faibles ou spatialement moins développées.

Figure 1. Densités électroniques du dimère, obtenues par calcul des orbitales localisées via la mécanique quantique. Le "pont" de densité électronique qui joint les deux molécules est la « signature » de la liaison H.
La cohésion de l'eau se traduit aussi par une chaleur spécifique énorme : il faut 3 fois plus d'énergie pour réchauffer l'eau que pour la même masse de pentane, et 10 fois plus que pour la même masse de fer. Cette chaleur spécifique est aussi beaucoup plus élevée que celle du solide (plus de 2 fois supérieure à celle de la glace), alors que la plupart des liquides ont des chaleurs spécifiques proches de celles des solides correspondants. Elle est due à l'absorption de chaleur par la rupture de liaisons hydrogène : la chaleur absorbée par ces processus n'est pas disponible pour augmenter l'énergie cinétique des molécules, ce qui réduit l'élévation de température. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat.
L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait pour un liquide non associé sur la base du moment dipolaire de la molécule isolée. Qualitativement, cette réponse très forte aux champs électriques est due à l'enchaînement des molécules par les liaisons hydrogène, car les molécules liées par des liaisons hydrogène se polarisent mutuellement (Figure 2).

Figure 2. Variations de densité électronique causées par les interactions des deux molécules du dimère, par rapport aux densités électroniques de molécules isolées. Les régions où la densité électronique du dimère est excédentaire sont ombrées en gris, celles qui ont perdu de la densité électronique en blanc. L'alternance régulière de régions contenant un excès et un défaut de densité électronique crée une polarisation des molécules, qui augmente le moment dipolaire du dimère.

C'est grâce à cette constante diélectrique exceptionnelle que la vie a pu se développer dans l'eau (Figure 3). La plupart des molécules biologiques sont en effet ioniques, et les processus biochimiques requièrent la dissociation des paires d'ions et l'écrantage des charges électriques. C'est la polarisation des molécules d'eau autour d'un ion qui compense le champ électrique créé par l'ion, et permet ainsi la dissociation des paires d'ions et la dissolution des cristaux ioniques. L'exemple le plus courant de solution ionique est, bien sur, l'eau de mer, qui ne contient que 9 molécules d'eau par paire d'ions.

Figure 3. Constantes diélectriques relatives des liquides polaires usuels (variation parabolique en fonction du moment dipolaire de la molécule isolée) et de liquides associés points situés très au dessus). La valeur anormalement élevée de la constante diélectrique de l'eau est due à la polarisation mutuelle des molécules dans le liquide
L'eau est, dans les conditions usuelles de température et de pression, un liquide peu dense. Sa masse volumique est relativement peu élevée pour un liquide aussi cohésif (les huiles ont des densités comparables, mais sont beaucoup moins cohésives). Cette faible masse volumique exprime le fait que le volume occupé par les atomes est faible par rapport au volume total : les atomes de la molécule d'eau n'occupent que 49 % du volume disponible par molécule. Une grande partie du volume de l'eau liquide est donc formée de cavités.
L'eau présente toute une série d'anomalies liées aux variations de son volume. Tout d'abord, la variation en température de sa masse volumique est anormale à basse température. Pour presque tous les liquides, le volume occupé diminue régulièrement lorsqu'on abaisse la température, par suite de la réduction du désordre et surtout du nombre de lacunes excitées thermiquement. Au contraire, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité (TMD H + 4 °C pour H2O). L'eau liquide à basse température est un liquide peu dense par rapport à ce qu'on attendrait d'après sa densité à haute température.
Figure 4 Variation de la masse volumique de l'eau liquide avec la température. Pour les liquides « normaux », la masse volumique décroit de manière monotone. La température du maximum de densité de l'eau vaut 4 °C dans H2O, 11.2 °C dans D2O et 13,4 °C dans T2O. La décroissance de la densité à basse température résulte d'un changement de la structure du liquide, qui crée systématiquement des liaisons et des cavités.

Pour presque tous les liquides, le volume occupé se réduit d'environ 10 % lors de la cristallisation, car les atomes ou les molécules sont empilés de manière plus efficace dans le cristal. Au contraire, l'eau se dilate d'environ 9 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans.

Les propriétés de l'eau confinée dans des pores ou des films nanométriques diffèrent aussi de celles des autres liquides. La plupart des liquides se stratifient lorsqu'ils sont confinés entre deux surfaces planes, et ils résistent comme des solides lorsqu'on essaie de les faire s'écouler. Au contraire, l'eau reste fluide même dans des géométries extrêmement confinées. Cette résistance à la solidification semble être due aux anomalies volumiques de l'eau, qui devient plus fluide lorsqu'elle est soumise à une pression. La persistance de l'état fluide de l'eau est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules. De même le passage des ions à travers les canaux qui traversent les membranes n'est possible grâce à la fluidité de cette eau confinée.
Les propriétés de l'eau comme solvant sont aussi très surprenantes. On comprend bien que les molécules polaires ou ioniques se dissolvent facilement dans l'eau, tandis que les molécules apolaires se dissolvent beaucoup plus difficilement. Cette préférence est à l'origine de phénomènes physico-chimiques comme la micellisation des molécules de tensioactifs, la formation des membranes biologiques, et le repliement ou la dénaturation des protéines. Cependant le passage dans l'eau de ces molécules hydrophobes ou amphiphiles se fait de manière tout à fait anormale : alors que la dissolution dans n'importe quel solvant est un processus défavorable du point de vue des énergies, mais favorisé par l'entropie, c'est l'inverse qui se produit pour la dissolution des molécules apolaires dans l'eau. Ces effets varient fortement avec la température, et on trouve que les solubilités augmentent aussi bien quand on va vers les basses températures (c'est bien pour les poissons, qui respirent l'oxygène dissous) que lorsqu'on va vers les températures élevées (l'eau super-critique est un bon solvant, utilisé, par exemple, pour extraire la caféine). Le minimum de solubilité coïncide à peu près avec le minimum de densité de l'eau pure, ce qui suggère que ces solubilités anormales sont liées à l'équation d'état (anormale elle aussi) de l'eau liquide.
Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, formamide etc). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ - bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette explication n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant.

Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.
On ne compte plus les théories proposées pour expliquer telle ou telle anomalie de l'eau, et abandonnées parce qu'elles n'expliquent que certaines anomalies, mais pas l'ensemble des propriétés de l'eau. On peut ainsi citer la théorie des « icebergs », dans sa version liquide pur (l'eau liquide serait formée de petits groupes de molécules ayant la structure de la glace, séparées par un liquide désordonné) et dans sa version solvant (les molécules d'eau se réorganiseraient autour d'un soluté apolaire pour former plus de liaisons hydrogène que l'eau pure, ce qui expliquerait le coût entropique de l'introduction du soluté). De nombreuses théories ont aussi postulé des structures particulières, comme des structures de type « clathrates », semblables aux cages que forment les molécules d'eau dans les hydrates de gaz cristallins. On discute actuellement une série de modèles qui postulent que l'eau serait formée de deux liquides mélangés dans des proportions qui changeraient avec la température et la pression, mais ne se sépareraient que dans des conditions de température inaccessibles aux expériences.

Il peut sembler paradoxal qu'une civilisation qui comprend la physique de l'infiniment grand et de l'infiniment petit, et qui est capable de prouesses technologiques considérables, n'arrive pas à décrire le liquide dans lequel tous les systèmes vivants fonctionnent. En fait, il s'agit d'un problème dur. Les verrous tiennent, pour une part, à une limitation des informations expérimentales. En effet, nous ne savons pas mesurer, dans un liquide, les fonctions de corrélation qui décrivent les arrangements de petits groupes de molécules (3 ou plus) : depuis un demi-siècle, nous sommes limités aux fonctions de corrélation de paires. Ils sont aussi dus à notre incapacité à simplifier correctement la description d'un liquide dans lequel les molécules forment des liaisons ayant un fort caractère orientationnel. Nous savons, bien sur, décrire ces liaisons, et nous pouvons simuler numériquement les mouvements des molécules soumises à ces interactions et à l'agitation thermique : nous pouvons ainsi reproduire certaines propriétés du liquide (mais pas toutes à la fois !) Par contre, nous ne savons pas, actuellement, construire une théorie de l'eau en utilisant les outils de la physique statistique.

Pour en savoir plus :
« The physics of liquid water »
B. Cabane, R. Vuilleumier
C. R. Geosciences. 337 (2005) 159
Liquides : solutions, dispersions, émulsions, gels
B. Cabane et S. Hénon
Livre publié par Belin (2003)

 

 VIDEO       CANAL  U         LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon