ecole de musique piano
     
menu
 
 
 
 
 
 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

 

 

 

 

 

 

 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

Au voisinage du zéro absolu de température, la matière se transforme, adoptant des comportements que notre intuition a de la peine à appréhender. Certains gaz liquéfiés deviennent superfluides, s'échappant du réservoir qui les contient comme s'ils défiaient la pesanteur. La supraconductivité apparaît dans les métaux et donne lieu à des courants électriques permanents, utilisés aujourd'hui pour la production de champs magnétiques intenses. L'explication de ces phénomènes étranges apporte un nouvel éclairage dans des domaines que l'on aurait crus très éloignés, comme la dynamique des étoiles à neutrons ou l'évolution de l'Univers après le Big Bang, contribuant ainsi à établir des concepts physiques fondamentaux. Pour atteindre des basses températures qui n'existent pas dans la Nature, les chercheurs ont mis au point des méthodes de réfrigération sophistiquées. Celles-ci ont ouvert un nouveau domaine de recherche, la Physique des très basses températures, particulièrement riche en phénomènes physiques nouveaux qui constituent la source d'applications technologiques de pointe. Au cours d'une promenade à la limite du zéro absolu de température nous explorerons ensemble le royaume du froid.

Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu
par Henri Godfrin
Température et intuition...
Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.

Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...

Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !

La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.

Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.
La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.

La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.
Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.
Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !

L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !

Les fluides cryogéniques
Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.

Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.

Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.
L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !
La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !
H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.
On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.
Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].

Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.

Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.

Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.

Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.

D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.

Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».

Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannoudji.

 

  VIDEO     canal U       LIEN  

 
 
 
 

LA TURBULENCE

 

 

 

 

 

 

 

LA TURBULENCE

Cinq siècles après les travaux de Léonard de Vinci sur le contrôle des tourbillons et de leur effet dans la rivière Arno, le sujet n'est toujours pas clos. Au XXème siècle ce sont d'abord les innombrables applications pratiques (par exemple dans le domaine de l'aéronautique) qui ont été le moteur d'un progrès qui se concrétisait plutôt par le développement de modèles empiriques que par de véritables percées fondamentales. A partir de 1940, grâce en particulier au mathématicien russe Andrei Nikolaevich Kolmogorov, une véritable théorie a été proposée. Elle s'est révélée à la fois féconde en applications (en modélisation pour l'ingénieur) et pas tout à fait correcte : la théorie de Kolmogorov est invariante d'échelle (auto-similaire) alors que dans la réalité cette invariance d'échelle est brisée (un peu comme l'homogénéité de l'Univers est brisée par la présence de galaxies, d'étoiles, de cristaux, d'êtres vivants, etc.). on commence seulement depuis peu à comprendre le mécanisme physique et mathématique de cette brisure. Une véritable théorie de la turbulence pourrait naître dans les prochaines années.

Texte de la 177e conférence de l’Université de tous les savoirs donnée le 25 juin 2000.
La turbulence par Uriel Frisch
1
Comme ma conférence se situe dans le cadre du thème « Perspectives sur les mathématiques actuelles », je vais bien entendu vous parler aussi des aspects de la turbulence qui relèvent des mathématiques. Toutefois, le sujet est très interdisciplinaire et touche, comme vous le verrez, aussi à la physique, à la mécanique des fluides, à la météorologie et à l'astrophysique. Apres une brève introduction, je vous dirai deux mots de la formulation du problème, puis je vous parlerai de transition, de chaos, d'effet papillon, de mouvement Brownien, de chou-fleur et enfin du million de dollars que M. Clay nous a promis.
Le mot « turbulence » signifiait a l'origine « mouvements désordonnés d'une foule » (en latin turba signifie foule). Au Moyen Âge « turbulences » était utilisé comme synonyme de « troubles ». C'est ainsi que, sur un manuscrit en vieux français exposé au musée J. Paul Getty à Los Angeles, j'ai trouvé récemment un « Seigneur, délivrez nous des turbulences ». Comme vous le voyez, le sens a ensuite évolué.
Tout d'abord, la turbulence fait partie de l'expérience quotidienne : nul besoin d'un microscope ou d'un télescope pour observer les volutes de la fumée d'une cigarette, les gracieuses arabesques de la crème versée dans le café, ou les enchevêtrements de tourbillons dans un torrent de montagne [figure 1]. Ce que nous voyons, c'est très complexe, c'est très désordonné mais c'est très loin d'être le désordre total. Quand on regarde un écoulement turbulent, même en instantané, sur une photo, ce que l'on voit est autrement plus fascinant que l'espèce de chaos total obtenu, par exemple, en projetant une poignée de sable sec sur une feuille de papier. La turbulence, quand vous l'observez, est pleine de structures, en particulier de « tourbillons », entités connues depuis l'Antiquité, étudiées et peintes par Léonard de Vinci (qui fut sans doute le premier à utiliser le mot de turbulence – turbolenza en Italien – pour décrire les mouvements complexes de l'eau ou de l'air). Je crois que c'est ce mélange intime d'ordre et de désordre qui en fait a la fois le charme et, il faut bien le dire, une des principales difficultés.
2
Figure 1
Il est très facile d'obtenir de la turbulence. En fait, chaque fois qu'un fluide s'écoule autour d'un obstacle, par exemple dans le sillage d'un bateau, et si la vitesse est suffisante, eh bien, on aura de la turbulence. On trouve donc de la turbulence un peu partout : la circulation du sang à l'intérieur des vaisseaux sanguins, les écoulements de l'air autour d'une automobile ou d'un avion – responsable des fameuses « turbulences » pour lesquelles on nous demande d'attacher nos ceintures –, ou encore les mouvements de l'atmosphère en météorologie, les mouvements du gaz constituant les étoiles comme notre Soleil, et enfin les fluctuations de densité de l'Univers primitif donnant naissance ultérieurement aux grandes structures de l'Univers actuel, comme les amas de galaxies [figure 2]. Sans toute cette turbulence, la pollution urbaine persisterait pendant des millénaires, la chaleur produite par les réactions nucléaires dans les étoiles ne pourrait pas s'en échapper sur une échelle de temps acceptable et les phénomènes météorologiques deviendraient prévisibles à très long terme.
3
Figure 2 : Amas de galaxies simulé par la Collaboration Virgo en 1996. Il s’agit d’une simulation tri-dimensionnelle comportant 256X256X256 particules.
Les équations qui gouvernent les mouvements des fluides, qu'ils soient turbulents ou non, ont été écrites pour la première fois par Claude Navier en 1823. Elles sont souvent appelées équations de Navier-Stokes en raison des perfectionnements apportes ultérieurement par George Stokes. En fait il s'agit essentiellement des équations de Newton, qui relient la force et l'accélération, équations qu'il faut appliquer à chaque parcelle du fluide ce qui fut fait pour la première fois par Léonard Euler il y a trois siècles. L'apport crucial de Navier a été d'ajouter aux équations d'Euler un terme de friction entre les diverses couches de fluide proportionnel au coefficient de viscosité et aux variations de vitesse [figure 3]. Ces équations, que l'ont sait par exemple résoudre a l'ordinateur, comportent encore des défis majeurs sur lesquels je vais revenir.
4
Figure 3
La turbulence est devenue une science expérimentale vers la fin du XIXe siècle quand l'anglais Osborne Reynolds a pu observer la transition du régime laminaire au régime turbulent. Vous savez que, dans un tuyau, si l'eau passe lentement, on aura des filets bien réguliers, c'est-à-dire un écoulement laminaire. Si elle va trop vite, il apparaît un très grand nombre de tourbillons et les pertes de charges dans le tuyau vont être très différentes. Reynolds put mettre en évidence des lois assez simples relatives à n'importe quel tuyau pour cette transition vers la turbulence ; il introduisit un nombre, appelé depuis nombre de Reynolds, qui n'est autre que le produit du diamètre du tuyau D et de la vitesse moyenne de l'écoulement dans le tuyau V, le tout divisé par la viscosité du fluide ν (viscosité de l’air environ 0,1 cm2/S, viscosité de l’eau 0,01 cm2/S) soit R = DV/ν. Reynolds a montré que lorsque ce nombre dépasse une certaine valeur critique, de l'ordre de quelques milliers, alors tout d'un coup, l'écoulement devient turbulent. Des transitions analogues mais plus spectaculaires s'observent dans des écoulements ouverts derrière un cylindre [figure 4]. Léonard avait déjà vu le phénomène d'allée tourbillonnaire et l'avait représente de façon presque correcte [figure 5].
Figure 4 : L’allée tourbillonnaire de von Kármán.
Figure 5 : Recirculations à l’aval d’un élargissement brusque par Léonard de Vinci.
Une caractéristique très importante de ces écoulements turbulents, qui apparaît dès la transition, est leur caractère chaotique. De façon plus précise, les écoulements turbulents apparaissent comme non prédicibles. Qu'est-ce que cela veut dire, non prédicibles? Supposons que l'on connaisse de façon détaillée la configuration de l'écoulement à un instant donné. Alors, bien que cet écoulement soit régi par des équations bien déterminées, déterministes comme on dit, dans la pratique, il n'est pas possible de prédire l'évolution ultérieure pour des temps longs. Cette théorie du chaos, qui doit beaucoup à Henri Poincaré, à David Ruelle, à Edward Lorenz et à l'École russe de Kolmogorov et de ses élèves Vladimir Arnold et Yacov Sinai, a des implications très importantes en météorologie. Imaginons que, pour prévoir le temps, on mesure, à un instant donné, le vent, la pression, la température en tous les points de la planète et que l'on essaie de prédire l'évolution ultérieure du temps par un calcul à l'ordinateur. En fait, au bout d'un temps relativement court, vous ne pourrez plus prédire de façon détaillée dans quel état se trouve l'atmosphère, et cela quelle que soit la puissance des ordinateurs. On dit que la turbulence atmosphérique est non prédicible, elle finit par être sensible au moindre éternuement ou à un battement d'aile d'un papillon, comme l'a suggère le météorologue américain E. Lorenz. Son « effet papillon » est illustré sur la
5
6 figure 6 où les courbes représentent non pas la trajectoire d'un papillon mais – de
façon symbolique – la trajectoire du point représentatif de l'ensemble du système étudié. La courbe noire correspond au cas sans papillon et la courbe rouge à la trajectoire modifiée par la présence initiale d'un battement d'aile d'un papillon. Les deux trajectoire restent d'abord proches (pour le montrer j'ai répété la trajectoire noire en pointillé) puis s'écartent assez vite. Dans la pratique il n'est pas possible de prédire en détail le temps qu'il fera au-delà d'environ une dizaine de jours. Toutefois des progrès récents, qui doivent beaucoup aux travaux de Michael Ghil, Bernard Legras et Robert Vautard, rendent concevables des prévisions un peu plus grossières à l'échelle de plusieurs semaines, voire de plusieurs mois dans les régions tropicales.
Figure 6 : L’effet papillon.
En géophysique et en astrophysique des nombres de Reynolds gigantesques de centaines de millions et bien au-delà sont monnaie courante. Un point très intéressant est que, lorsqu'on augmente le nombre de Reynolds, ce qui peut se faire par exemple en diminuant sa viscosité, il apparaît de plus en plus de tourbillons de petite taille comme vous le voyez sur la figure 7 qui présente un jet turbulent. Chaque tourbillon est un peu comme une espèce de molécule. C'est ce que l'on appelle des « degrés de liberté ». Donc un grand nombre de Reynolds, cela veut dire qu'il y a beaucoup de degrés de liberté; c'est ce que l'on appelle le régime de turbulence développée. Il est facile d'observer ce régime dans une soufflerie de grande taille comme celles où l'on teste les maquettes d'autos et d'avions. On peut aussi maintenant réaliser des souffleries sur table qui exploitent les propriétés très particulières de l'Hélium à basse température, comme l'ont montré les travaux de Bernard Castaing à Grenoble et de Patrick Tabeling à Paris. Si on examine le comportement en fonction du temps de la vitesse en un point d'un tel écoulement mesuré par une sonde, on est frappé de l'analogie avec la courbe du mouvement Brownien [figure 8]. Cette dernière peut être imaginée comme le relevé en fonction du temps de la position d'un ivrogne arpentant la grand rue d'un village
7 aux innombrables bistrots, ivrogne qui déambulerait tantôt dans un sens tantôt dans
l'autre sans jamais se souvenir du sens précédent de sa marche au hasard. Il est facile de voir que le déplacement typique d'un tel ivrogne pendant un certain intervalle de temps est proportionnel non pas au temps écoulé mais à sa racine carrée (la même loi que celle qui régit les erreurs dans les sondages d'opinion). Dans un écoulement turbulent développe on trouve que la variation de la vitesse pendant un certain intervalle de temps est proportionnelle, non à la racine carrée mais à la racine cubique du temps écoulé. Cette loi en racine cubique, obtenue en fait par un argument dimensionnel lié à la conservation de l'énergie, fut prédite en 1941 par le mathématicien russe Andrei Kolmogorov et a été assez largement validée par des expériences et des simulations à l'ordinateur. En fait, des 1922 l'anglais Lewis Fry Richardson, avait pressenti ce qui se passait en présentant sa vision de la cascade d'énergie des grandes vers les petites échelles d'un écoulement turbulent, vision directement inspirée d'un poème du poète anglais Jonathan Swift :
« So, nat'ralists observe, a flea
Hath smaller fleas that on him prey; And these have smaller yet to bite 'em, And so proceed ad infinitum. »
8
Figure 7 : Jet d’eau turbulent (d’après Dimotakis, Lye et Papantoniou, 1981).
9
Figure 8 : Mouvement brownien.
Plutôt que de me hasarder à traduire, je vous demande d'imaginer une grosse puce en train de sucer le sang de votre chien, sang qui va ici jouer le rôle que l'énergie cinétique joue en turbulence. Maintenant, imaginez que la grosse puce est à son tour assaillie de puces plus petites qui lui sucent le sang et ainsi de suite jusqu'a atteindre des puces tellement petites que le sang y est décomposé par des processus moléculaires. Il est clair que le monstre ainsi sorti de l'imagination de Swift constitue ce que Benoît Mandelbrot a appelé une fractale. Ces fractales peuvent être caractérisées par une dimension qui n'est pas un nombre entier. Les objets de dimension entière 0, 1, 2, 3 sont, par exemple, des points, des lignes, des surfaces et des volumes. Pour imaginer un objet de dimension fractale entre 2 et 3 pensez par exemple à un chou-fleur. La dimension fractale de la turbulence – plus précisément ce que les mathématiciens appellent la dimension de Hausdorff de la dissipation d'énergie – est très proche de trois. Si c'était vraiment trois, la théorie proposée par Kolmogorov en 1941 serait exacte, ce qui explique le succès qu'a rencontré cette théorie dans l'élaboration de modèles empiriques pour les calculs des ingénieurs.
Le calcul de telles dimensions à partir des équations fondamentales de la mécanique des fluides reste un problème ouvert. Toutefois des progrès importants ont été faits ces dernières années en utilisant des outils mathématiques empruntés à la théorie quantique des champs, appliqués à un modèle simplifié dû à l'américain Robert Kraichnan. Dans ce modèle on suppose l'écoulement turbulent connu et l'on cherche à caractériser les propriétés d'un traceur transporté par cette turbulence, comme illustré par la figure 9 de Antonio Celani, Alain Noullez et Massimo Vergassola, représentant un instantané de la concentration d'un traceur obtenu par simulation a l'ordinateur. On peut imaginer par exemple qu'il s'agit de la concentration d'un polluant lâché dans l'océan, On sait maintenant calculer les propriétés fractales de tels polluants, mais il faudra sans doute des années avant de pouvoir mener à bien une entreprise comparable pour les propriétés fractales de la turbulence elle-même.
10
Figure 9 : Concentration d’un scalaire passif (polluant) transporté par un écoulement turbulent bi-dimensionnel du type que l’on trouve dans l’atmosphère et l’océan, simulé
numériquement sur une grille 2048x2048. Le scalaire est fortement intermittent et possède des propriétés d’échelle « anomales » qui ne peuvent être prédites par l’analyse dimensionnelle. Concentrations les plus faibles en bleu et les plus fortes en jaune.
Figure de Celani (A.), Noullez (A.) et Vergassola (M.), Observatoire de la Côte d’Azur, laboratoire G.-D. Cassini , UMR 6529 ; simulations à l’IDRIS, CNRS.
Dans un écoulement turbulent, si la variation temporelle de la vitesse en un point est généralement bien donnée par la loi en racine cubique de Kolmogorov, on sait depuis longtemps que ce n'est pas toujours vrai. Déjà en 1843 Adhémar Barré de Saint Venant observe que « les écoulements dans les canaux de grande section, ceux dont nous dirions aujourd'hui qu'ils possèdent un grand nombre de Reynolds présentent des ruptures, des tourbillonnements et autres mouvements compliques ». Le point intéressant ce sont les ruptures. C'est un fait expérimental que la vitesse de l'écoulement peut, à l'occasion, varier de façon considérable entre deux points voisins. Si par hasard l'échelle de cette variation devenait comparable à la distance parcourue par les molécules du fluide entre deux collisions successives, alors il faudrait repenser les fondements mathématiques des équations de Navier- Stokes. La façon traditionnelle d'obtenir ces équations suppose en effet une forte séparation entre le monde microscopique des molécules et le monde, appelé « macroscopique » où le fluide est traite comme un milieu continu.
Cela m'amène au grand défit mathématique qui fait l'objet d'un des sept prix d'un montant d'un million de dollars annoncés récemment par la fondation Clay au Collège de France. Le problème est de montrer que les équations de Navier-Stokes conduisent à un
11
problème « bien posé ». Cela veut dire que si l'on connaît le mouvement du fluide à
un instant initial on veut pouvoir montrer qu'il y a une solution unique à tout instant ultérieur. Notez que cette fois le problème n'est pas celui des erreurs mais de l'unicité de la solution. Ce problème a été résolu dans les années trente par Jean Leray dans le cas de deux dimensions d'espace (ce qui est pertinent en météorologie et en océanographie). Le problème est beaucoup plus difficile en dimension trois. Je vais essayer maintenant de donner un tout petit aperçu de la difficulté, sans utiliser de formalisme mathématique. Tout d'abord il faut noter que dans un fluide qui n'est pas en mouvement uniforme les filets fluides frottent les uns contre les autres, en raison de la viscosité, ce qui tend à ralentir leur mouvement relatif. À faible vitesse, donc à faible nombre de Reynolds (ce dernier est proportionnel à la vitesse), les effets du frottement visqueux sont très importants pour tous les tourbillons présents dans l'écoulement. Ce frottement rabote tout et l'on sait démontrer – ce n'est pas très difficile – que le problème est bien posé. En revanche, à grand nombre de Reynolds, les effets du frottement visqueux sont limités aux plus petits tourbillons et le problème est proche du problème du fluide parfait dans lequel la viscosité est ignorée. On sait montrer que ce dernier problème est bien posé pendant un temps court mais pas au-delà. En gros, le mieux qu'on sait démontrer pour l'instant, c'est que le fluide parfait ne se comporte pas mieux qu'un mobile dont l'accélération serait proportionnelle au carré de la vitesse, hypothèse qui conduit à une augmentation catastrophique de la vitesse qui peut devenir infinie au bout d'un temps assez court [figure 10]. Certaines simulations numériques à l'ordinateur suggèrent que le fluide parfait est en réalité bien plus sage, n'explose pas, et conduit de ce fait à un problème bien posé pour des temps arbitrairement longs. Il est possible aussi que le fluide parfait explose rapidement mais que l'effet du frottement visqueux empêche cette explosion. C'est précisément ce qui se passe dans la théorie de 1941 de Kolmogorov, mais pas nécessairement dans la réalité.
Figure 10 : L’accélération est proportionnelle au carré de la vitesse : la vitesse explose au bout d’un temps fini.
En conclusion, je voudrais souligner que la turbulence a un statut très particulier dans la physique contemporaine. Elle est souvent considérée comme un des grands problèmes
12
ouverts de la physique, mais contrairement à d'autres problèmes frontières de la physique, les phénomènes auxquels on s'intéresse en turbulence ne se situent ni dans l'infiniment petit ni, en général, dans l'infiniment grand. Ces phénomènes sont parfaitement décrits par la mécanique de Newton, sans qu'il soit nécessaire de faire intervenir la mécanique quantique ou la mécanique relativiste, c'est-à-dire les idées modernes de la physique sur l'espace, le temps et la matière. Comme vous le voyez, la physique, dite « classique », celle qui est enseignée au lycée, comporte encore quelques grands mystères.

 

  VIDEO       CANAL  U         LIEN
 

 
 
 
 

CHAOS, IMPRÉDICTIBILITÉ, HASARD

 

 

 

 

 

 

 

CHAOS, IMPRÉDICTIBILITÉ, HASARD

Le monde qui nous entoure paraît souvent imprévisible, plein de désordre et de hasard. Une partie de cette complexité du monde est maintenant devenue scientifiquement compréhensible grâce à la théorie du chaos déterministe. Cette théorie analyse quantitativement les limites à la prédictibilité d'une l'évolution temporelle déterministe : une faible incertitude initiale donne lieu dans certains cas à une incertitude croissante dans les prévisions, et cette incertitude devient inacceptable après un temps plus ou moins long. On comprend ainsi comment le hasard s'introduit inévitablement dans notre description du monde. L'exemple des prévisions météorologiques est à cet égard le plus frappant. Nous verrons comment les idées à ce sujet évoluent de Sénèque à Poincaré, puis nous discuterons comment le battement d'ailes du papillon de Lorenz peut affecter la météo, donnant lieu à des ouragans dévastateurs des milliers de kilomètres plus loin. Ainsi, la notion de chaos déterministe contribue non seulement à notre appréciation pratique des incertitudes du monde qui nous entoure, mais encore à la conceptualisation philosophique de ce que nous appelons cause et de ce que nous appelons hasard.

Texte de la 218e conférence de l’Université de tous les savoirs donnée le 5 août 2000.
Chaos, imprédictibilité et hasard par David Ruelle
Pour interpréter le monde qui nous entoure nous utilisons un grand nombre de concepts très divers. Certains concepts sont concrets comme vache, puceron, papillon, d’autres abstraits comme espace, temps, hasard, ou causalité. Ces concepts sont des créations humaines : leur histoire est intimement liée à celle du langage, et leur contenu peut varier d’une culture à une autre. Nous pensons que des mots comme espace, temps, hasard, causalité correspondent à des réalités fondamentales, indépendantes de la culture où nous vivons, et même indépendantes de l’existence de l’homme. Mais il faut bien admettre que les concepts abstraits que nous venons d’énumérer ont évolué au cours de l’histoire, et que cette évolution reflète un progrès dans notre compréhension de la nature des choses. Dans ce progrès, la philosophie et la science ont joué un rôle important. Dès l’Antiquité, par exemple, les gens cultivés avaient acquis une certaine idée de l’immensité de l’univers grâce aux travaux des astronomes. Des notions comme « erratique et imprévisible » ou « peu fréquent et improbable » ont sans doute une origine préhistorique ou même antérieure au langage. En effet, une bonne appréciation des risques peut aider à la survie. Ainsi si l’orage menace il est prudent de se mettre à l’abri. En général il faut se méfier des caprices des gens et de la nature, caprices qui expriment la liberté des hommes et des choses de se comporter parfois de manière aléatoire et imprévisible. Si les notions liées au hasard et au libre choix sont d’une grande aide dans la pratique, la notion de cause est aussi une conceptualisation utile : la fumée par exemple a une cause qui est le feu. De même les marées ont une cause qui est la lune : ce n’est pas tout à fait évident, mais la chose était connue des anciens, et cette connaissance pouvait être fort utile. On peut ainsi essayer de tout expliquer comme un enchaînement plus ou moins évident de causes et d’effets. On arrive de cette manière à une vision déterministe de l’univers. Si l’on y réfléchit un peu, le déterminisme, c’est-à-dire l’enchaînement bien ordonné des causes et des effets semble en contradiction avec la notion de hasard. Sénèque qui eut la charge d’éduquer le jeune Néron se penche sur le problème dans le De Providentia et dit ceci : « les phénomènes mêmes qui paraissent le plus confus et le plus irrégulier : je veux dire les pluies, les nuages, les explosions de la foudre, ..., ne se produisent pas capricieusement : ils ont aussi leurs causes. » Cette affirmation porte en germe le déterminisme scientifique, mais, il faut bien voir que son contenu est surtout idéologique. Sénèque était un amateur d’ordre, un ordre imposé par une loi éternelle et divine. Le désordre et le hasard lui répugnaient. Cependant, comme je l’ai dit, les notions liées au hasard sont utiles, pratiquement et conceptuellement, et l’on perd peut-être plus qu’on ne gagne à les évacuer pour des motifs idéologiques. On peut d’ailleurs reprocher de manière générale aux idéologies de vouloir supprimer des idées utiles, et cela s’applique encore aux idéologies modernes, dans leurs ambitions simplificatrices et leur intolérance aux fantaisies individuelles. Mais quittons maintenant le domaine idéologique pour parler de science. Et puisque le feu est la cause de la fumée, allons voir un physico-chimiste spécialiste des phénomènes de combustion. Il nous apprendra des choses fascinantes, et nous convaincra que les problèmes de combustion sont importants, complexes, et encore mal compris. En fait si l’on s’intéresse aux problèmes de causalité et de déterminisme, plutôt que de passer sa vie à étudier les problèmes de combustion, mieux vaut choisir un problème plus simple. Par exemple celui d’une pierre jetée en l’air, surtout s’il n’y a pas d’air. On peut en effet, avec une très bonne précision, décrire par des équations déterministes la trajectoire d’une pierre jetée en l’air. Si l’on connaît les conditions initiales, c’est-à-dire la position et la vitesse de la pierre à l’instant initial, on peut calculer la position et la vitesse à n’importe quel autre instant. Au lieu d’une pierre jetée en l’air nous pouvons considérer le ballet des planètes et autres corps célestes autour du soleil, ou la dynamique d’un fluide soumis à certaines forces. Dans tous ces cas l’évolution temporelle du système considéré, c’est-à-dire son mouvement, satisfait à des équations déterministes. Si l’on veut, on peut dire que les conditions initiales d’un système sont la cause de son évolution ultérieure et la déterminent complètement. Voilà qui devrait satisfaire Lucius Annaeus Seneca. Notons quand même que le concept de cause a été remplacé par celui d’évolution déterministe, ce qui n’est pas tout à fait la même chose. Par exemple, les équations de Newton qui déterminent les mouvements des planètes permettent à partir de conditions initiales données de calculer non seulement les états futurs du système solaire, mais également les états passés. On a oublié que la cause devait précéder l’effet. En fait, l’analyse scientifique du concept de cause montre qu’il s’agit d’une notion complexe et ambiguë. Cette notion nous est très utile pour vivre dans un monde complexe et ambigu, et nous ne voudrions pas nous en passer. Cependant la science préfère utiliser des concepts plus simples et moins ambigus, comme celui d’équation d'évolution déterministe. Notons d’ailleurs que l’idée de hasard semble incompatible avec la notion d’évolution déterministe tout autant qu’avec un enchaînement bien ordonné de causes et d’effets. Nous allons dans un moment revenir à ce problème. Mais avant cela je voudrais discuter une précaution verbale que j’ai prise en parlant d’équations d’évolution déterministe valables avec une très bonne précision. Si vous demandez à un physicien des équations d’évolution pour tel ou tel phénomène, il vous demandera avec quelle précision vous les voulez. Dans l’exemple de la dynamique du système solaire, suivant la précision requise, on tiendra compte ou non du ralentissement de la rotation de la terre par effet de marée, ou du déplacement du périhélie de Mercure dû à la relativité générale. Il faudra d’ailleurs bien s’arrêter quelque part : on ne peut pas tenir compte, vous en conviendrez, des déplacements de chaque vache dans sa prairie, ou de chaque puceron sur son rosier. Même si, en principe, les déplacements de la vache et du puceron perturbent quelque peu la rotation de la terre. En Bref, la physique répond aux questions qu’on lui pose avec une précision qui peut être remarquable, mais pas absolument parfaite. Et cela n’est pas sans conséquences philosophiques, comme nous le verrons plus loin. J’ai parlé des équations d’évolution déterministes qui régissent les mouvements des astres ou ceux des fluides, de l’atmosphère ou des océans par exemple. Ces équations sont dites classiques car elles ne tiennent pas compte de la mécanique quantique. En fait la mécanique quantique est une théorie plus exacte que la mécanique classique, mais plus difficile à manier, et comme les effets quantiques semblent négligeables pour les mouvements des astres, de l’atmosphère ou des océans, on utilisera dans ces cas des équations classiques. Cependant, la mécanique quantique utilise des concepts irréductibles à ceux de la mécanique classique. En particulier la mécanique quantique, contrairement à la mécanique classique, fait nécessairement référence au hasard. Dans une discussion des rapports entre hasard et déterminisme, ne faudrait-il pas par conséquent utiliser la mécanique quantique plutôt que classique ? La situation est la suivante : la physique nous propose diverses théories plus pou moins précises et dont les domaines d’application sont différents. Pour une classe donnée de phénomènes plusieurs théories sont en principe applicables, et on peut choisir celle que l’on veut : pour toute question raisonnable la réponse devrait être la même. En pratique on utilisera la théorie la plus facile à appliquer. Dans les cas qui nous intéressent, dynamique de l’atmosphère ou mouvement des planètes, il est naturel d’utiliser une théorie classique. Après quoi il sera toujours temps de vérifier que les effets quantiques ou relativistes que l’on a négligés étaient réellement négligeables. Et que somme toute les questions que l’on s’est posées étaient des questions raisonnables. Les progrès de la physique ont montré que les équations d’évolution déterministes étaient vérifiées avec une précision souvent excellente, et parfois stupéfiante. Ces équations sont notre reformulation de l’idée d’enchaînement bien ordonné de causes et d’effets. Il nous faut maintenant parler de hasard, et essayer de reformuler ce concept en termes qui permettent l’application des méthodes scientifiques. On dit qu’un événement relève du hasard s’il peut, pour autant que nous sachions, soit se produire soit ne pas se produire, et nous avons tendance à concevoir notre incertitude à ce sujet comme ontologique et fondamentale. Mais en fait l’utilité essentielle des concepts du hasard est de décrire une connaissance entachée d’incertitude, quelles que soient les origines de la connaissance et de l’incertitude. Si je dis qu’à cette heure-ci Jean Durand a une chance sur deux d’être chez lui, je fournis une information utile : cela vaut la peine d’essayer de téléphoner à son appartement. La probabilité un demi que j’attribue au fait que Jean Durand soit chez lui reflète ma connaissance de ses habitudes, mais n’a pas de caractère fondamental. En particulier, Jean Durand lui-même sait très bien s’il est chez lui ou pas. Il n’y a donc pas de paradoxe à ce que des probabilités différentes soient attribuées au même événement par différentes personnes, ou par la même personne à des moments différents. Le hasard correspond à une information incomplète, et peut avoir des origines diverses. Il y a un siècle environ, Henri Poincaré a fait une liste de sources possibles de hasard. Il mentionne par exemple qu’au casino, c’est le manque de contrôle musculaire de la personne qui met en mouvement la roulette qui justifie le caractère aléatoire de la position où elle s’arrête. Pour des raisons historiques évidentes, Poincaré ne mentionne pas la mécanique quantique comme source de hasard, mais il discute une source d’incertitude qui a été analysée en grand détail beaucoup plus tard sous le nom de chaos et que nous allons maintenant examiner. Prenons un système physique dont l’évolution temporelle est décrite par des équations déterministes. Si l’on connaît l’état du système à un instant initial, d’ailleurs arbitraire, on peut calculer son état à tout autre instant. Il n’y a aucune incertitude, aucun hasard. Mais nous avons supposé implicitement que nous connaissions l’état initial avec une totale précision. En fait, nous ne pouvons mesurer l’état initial qu’avec une précision limitée (et d’ailleurs les équations déterministes que nous utilisons ne représentent qu’approximativement l’évolution réelle du système physique qui nous occupe). Il faut donc voir comment une petite imprécision dans notre connaissance de l’état initial au temps 0 (zéro) va affecter nos prédictions sur un état ultérieur, au temps t. On s’attend à ce qu’une incertitude suffisamment petite au temps 0 donne lieu à une incertitude petite au temps t. Mais la question cruciale est de savoir comment cette incertitude va dépendre du temps t. Il se trouve que pour beaucoup de systèmes, dits chaotiques, l’incertitude (ou erreur probable) va croître rapidement, en fait exponentiellement avec le temps t. Cela veut dire que si l’on peut choisir un laps de temps T au bout duquel l’erreur est multipliée par 2, au temps 2T elle sera multipliée par 4, au temps 3T par 8, et ainsi de suite. Au temps 10T le facteur est 1024, au temps 20T plus d’un million, au temps 30T plus d’un milliard ... et tôt ou tard l’incertitude de notre prédiction cesse d’être petit pour devenir inacceptable. Le phénomène de croissance rapide des erreurs de prédiction d’un système physique, que l’on appelle chaos , introduit donc du hasard dans la description d’un système physique, même si ce système correspond à des équations d’évolution parfaitement déterministes comme celles de la dynamique des fluides ou du mouvement des astres. Voici ce que dit Henri Poincaré dans le chapitre sur le hasard de son livre Science et Méthode publiée en 1908 : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. » Cette affirmation, Poincaré en donne un exemple emprunté à la météorologie : « Pourquoi Les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir de la pluie ou du beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de la dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées ni assez précises, et c’est pour cela que tout semple dû à l’intervention du hasard. » Les affirmations de Poincaré sur la météorologie dépassent, il faut bien le dire, ce que la science du début du 20-ième siècle permettait d’établie scientifiquement. Les intuitions géniales de Poincaré ont été confirmées, mais on trouverait sans peine des intuitions d’autres savants qui se sont révélées fausses. Il est donc heureux que, après avoir été oubliées, les idées de Poincaré aient été redécouvertes, étendues, et soumises à une analyse scientifique rigoureuse. Cette nouvelle période commence avec un article de Lorenz relatif à la météorologie en 1963, un article de Takens et moi-même sur la turbulence en 1971, puis une foule de travaux dans les années 70, 80, 90 qui édifient la théorie moderne du chaos. Le mot chaos lui-même apparaît dans son sens technique en 1975. Il n’est possible de donner ici qu’une vue très sommaire des aspects techniques de la théorie du chaos, mais j’insiste sur le fait que les résultats techniques sont essentiels. Ces résultats permettent de changer l’affirmation du sens commun suivant laquelle « de petites causes peuvent avoir de grands effets » en affirmations quantitatives comme celle concernant l’effet papillon dont nous parlerons dans un moment. La théorie du chaos étudie donc en détail comment une petite incertitude sur l’état initial d’une évolution temporelle déterministe peut donner lieu à une incertitude des prédictions qui croît rapidement avec le temps. On dit qu’il y a dépendance sensitive des conditions initiales. Cela veut dire que de petites causes peuvent avoir de grands effets, non seulement dans des situations exceptionnelles, mais pour toutes les conditions initiales. En résumé, le terme chaos désigne une situation où, pour n’importe quelle condition initiale, l’incertitude des prédictions croît rapidement avec le temps. Pour donner un exemple, considérons un faisceau de rayons lumineux parallèles tombant sur un miroir convexe. Après réflexion, nous avons un faisceau divergent de rayons lumineux. Si le faisceau initial était divergent, il serait encore plus divergent après réflexion. Si au lieu de rayons lumineux et de miroir nous avons une bille de billard qui rebondit élastiquement sur un obstacle convexe, la situation géométrique est la même, et on conclut qu’une petite incertitude sur la trajectoire de la bille avant le choc donne lieu à une incertitude plus grande après le choc. S’il y a plusieurs obstacles convexes que la bille heurte de façon répétée, l’incertitude croît exponentiellement, et on a une évolution temporelle chaotique. Cet exemple était connu de Poincaré, mais ce n’est que bien plus tard qu’il a été analysé de manière mathématiquement rigoureuse par Sinaï. Comme l’étude mathématique des systèmes chaotiques est d’une grande difficulté, l’étude du chaos combine en fait trois techniques : les mathématiques, les simulations sur ordinateur, et l’expérimentation (au laboratoire) ou l’observation (de l’atmosphère, des astres). Notons que les simulations sur ordinateur n’existaient pas du temps de Poincaré. Ces simulations ont joué un rôle essentiel en montrant que les systèmes déterministes tant soit peu complexes présentent fréquemment de la sensitivité aux conditions initiales. Le chaos est donc un phénomène très répandu. La météorologie fournit une application exemplaire des idées du chaos. En effet, on a de bons modèles qui décrivent la dynamique de l’atmosphère terrestre. L’étude par ordinateur de ces modèles montre qu’ils sont chaotiques. Si l’on change un peu les conditions initiales, les prédictions après quelques jours deviennent assez différentes : on a atteint la limite de la fiabilité du modèle. Bien entendu les prédictions faites avec ces modèles décollent après quelques jours de la réalité observée, et l’on comprend maintenant pourquoi : le chaos limite la prédictibilité du temps qu’il va faire. Le météorologiste Ed Lorenz, que nous avons déjà mentionné, a rendu populaire le concept de sensitivité aux conditions initiales sous le nom d’effet papillon. Dans un article grand public, il explique comment le battement des ailes d’un papillon, après quelques mois, a un tel effet sur l’atmosphère de la terre entière qu’il peut donner lieu à une tempête dévastatrice dans une contrée éloignée. Cela rappelle ce qu’écrivait Poincaré, mais paraît tellement extrême qu’on peut se demander s’il faut accorder à l’effet papillon plus qu’une valeur métaphorique. En fait, il semble bien que l’affirmation de Lorenz doit être prise au pied de la lettre. On va considérer la situation où le papillon bat des ailes comme une petite perturbation de la situation où il se tiendrait tranquille. On peut évaluer l’effet de cette petite perturbation en utilisant le caractère chaotique de la dynamique de l’atmosphère. (Rappelons que les modèles de l’atmosphère terrestre montrent une dynamique chaotique aux grandes échelles ; aux petites échelles, on a aussi du chaos à cause de la turbulence généralisée de l’air où nous baignons). La perturbation causée par le papillon va donc croître exponentiellement, c’est-à-dire très vite, et l’on peut se convaincre qu’au bout de quelques mois l’état de l’atmosphère terrestre aura changé du tout au tout. De sorte que des lieux éloignés de celui où se trouvait le papillon seront ravagés par la tempête. La prudence m’incite à prendre ici quelques précautions verbales. Il s’agit d’éviter qu’un doute sur un point de détail ne jette le discrédit sur des conclusions par ailleurs bien assurées. On peut se demander comment des perturbations aux petites dimensions (comme la dimension d’un papillon) vont se propager aux grandes dimensions (comme celle d’un ouragan). Si la propagation se fait mal ou très mal, peut-être faudra-t-il plus que quelques mois pour qu’un battement d’ailes de papillon détermine un ouragan ici ou là. Cela rendrait l’effet papillon moins intéressant. A vrai dire, la turbulence développée reste mal comprise et la conclusion de Lorenz reste donc un peu incertaine. L’image du papillon est jolie cependant, il serait dommage qu’on doive l’enterrer et, jusqu’à plus ample informé, j’y reste personnellement attaché. Quoi qu’il en soit, la circulation générale de l’atmosphère n’est pas prédictible plusieurs mois à l’avance. C’est un fait bien établi. Un ouragan peut donc se déclencher ici ou là de manière imprévue, mais cela dépendra peut-être d’incertitudes autres que les battements d’ailes d’un papillon. Si l’on y réfléchit un instant, on voit que le déclenchement d’une tempête à tel endroit et tel moment résulte d’innombrables facteurs agissant quelques mois plus tôt. Que ce soient des papillons qui battent des ailes, des chiens qui agitent la queue, des gens qui éternuent, ou tout ce qui vous plaira. La notion de cause s’est ici à ce point diluée qu’elle a perdu toute signification. Nous avons en fait perdu tout contrôle sur l’ensemble des « causes » qui, a un instant donné, concourent à ce qu’une tempête ait lieu ou n’ait pas lieu ici ou là quelques mois plus tard. Mêmes des perturbations infimes dues à la mécanique quantique, à la relativité générale, ou à l’effet gravitationnel d’un électron à la limite de l’univers observable, pourraient avoir des résultats importants au bout de quelques mois. Aurions-nous dû en tenir compte ? Il est clair qu’on n’aurait pas pu le faire. L’effet de ces perturbations infimes peut devenir important après quelques mois, mais un mur d’imprédicibilité nous interdit de le voir. Pour l’atmosphère terrestre, ce mur d’imprédicibilité est situé à quelques jours ou semaines de nous dans le futur. Je voudrais revenir brièvement à mon implication personnelle dans l’histoire du chaos. A la fin des années 60, je m’étais mis à l’étude de l’hydrodynamique, qui est la science de l’écoulement des fluides. Certains des écoulements que l’on observe sont tranquilles et réguliers, on les dit laminaires, d’autres sont agités et irréguliers, on les dit turbulents. Les explications de la turbulence que j’avais trouvées, en particulier dans un livre de Landau et Lifschitz sur l’hydrodynamique, ne me satisfaisaient pas, car elles ne tenaient pas compte d’un phénomène mathématique nouveau, dont j’avais appris l’existence dans les travaux de Smale. Quel est ce phénomène ? C’est l’abondance d’évolutions temporelles de nature étrange, avec dépendance sensitive des conditions initiales. Je m’étais alors convaincu que la turbulence devait être liée à une dynamique « étrange ». Dans un article joint avec Takens nous avons proposé que la turbulence hydrodynamique devait être représentée par des attracteurs étranges, ou chaotiques, et étudié le début de la turbulence, ou turbulence faible. Par la suite, de nombreux travaux expérimentaux ont justifié cette analyse. Cela ne résout pas le problème de la turbulence, qui reste l’un des plus difficiles de la physique théorique, mais on sait au moins que les théories « non chaotiques » jadis à l’honneur ne peuvent mener à rien. Quand le chaos est devenu à la mode, il a donné lieu à d’innombrables travaux. Certains de ces travaux développaient les aspects techniques de la théorie du chaos, et il n’est pas question d’en parler ici, d’autres analysaient diverses classes de phénomènes naturels dans l’espoir d’y trouver un comportement chaotique. C’est ainsi que j’ai proposé qu’il devait y avoir des oscillations chimiques chaotiques, ce qui effectivement a été démontré par l'expérience dans la suite. Ce fut une période féconde où, en réfléchissant un peu, on pouvait faire des découvertes d’un intérêt durable. Toutes les idées n’ont d’ailleurs pas été également bonnes. Ainsi, des essais d’application du chaos à l’économie et à la finance se sont révélés moins convaincants ; j’y reviendrai. Mais quand Wisdom et Laskar ont cherché du chaos dans la dynamique du système solaire, ils ont eu la main remarquablement heureuse. Le mouvement des astres du système solaire semble extraordinairement régulier, puisque l’on peut par le calcul prédire les éclipses, ou retrouver celles qui ont eu lieu, il y a plus de mille ans. On a donc longtemps pensé que le mouvement des planètes, et en particulier de la Terre, était exempt de chaos. On sait maintenant que c’est faux. L’orbite de la Terre est une ellipse dont les paramètres varient lentement au cours du temps, en particulier l’excentricité, c’est-à-dire l’aplatissement. En fait on a maintenant montré que la variation temporelle de l’excentricité est chaotique. Il y a donc de l’imprédicibilité dans le mouvement de la Terre. Le temps nécessaire pour que les erreurs de prédiction doublent est de l’ordre de 5 millions d’années. C’est un temps fort long par rapport à la vie humaine, mais assez court à l’échelle géologique. Le chaos que l’on a trouvé dans le système solaire n’est donc pas sans importance, et les travaux dans ce domaine se poursuivent activement, mais ce n’est pas ici le lieu d’en discuter. Les résultats accumulés depuis plusieurs décennies nous ont donné une assez bonne compréhension du rôle du chaos en météorologie, en turbulence hydrodynamique faible, dans la dynamique du système solaire, et pour quelques autres systèmes relativement simples. Qu’en est-il de la biologie, de l’économie, de la finance, ou des sciences sociales ? Il faut comprendre que les modélisations utiles dans le domaine du vivant sont assez différentes de celles qui nous satisfont pour des systèmes physiques simples. Les relations du hasard et la nécessité sont d’une autre nature. En fait le domaine du vivant est caractérisé par l’homéostasie qui maintient les organismes dans des conditions appropriées à la vie.

L’homéostasie tend par exemple à maintenir la température de notre corps dans d’étroites limites. Elle supprime les fluctuations thermiques et est donc de nature antichaotique. La correction des fluctuations apparaît aussi au niveau du comportement individuel : un projet de voyage est maintenu même si une panne de voiture ou une grève fortuites obligent à changer de moyen de transport. Il s’agit ici de processus correctifs compliqués et qu’il est difficile de représenter par des modèles dynamiques simples auxquels on pourrait appliquer les techniques de la théorie du chaos. Clairement, de petites causes peuvent avoir de grands effets dans la vie de tous les jours, mais aux mécanismes causateurs de chaos s’ajoutent des mécanismes correcteurs, et il est difficile de débrouiller la dynamique qui en résulte. Dans le domaine de l’économie, de la finance ou de l’histoire, on voit aussi que des causes minimes peuvent avoir des effets importants. Par exemple une fluctuation météorologique peut causer la sécheresse dans une région et livrer sa population à la famine. Mais des mécanismes régulateurs effaceront peut-être l’effet de la famine, et l’histoire poursuivra son cours majestueux. Peut-être, mais ce n’est pas certain. Une guerre obscure en Afghanistan a précipité la chute du colossal empire Soviétique. Cette guerre obscure a concouru avec de nombreuses autres causes obscures à miner un empire devenu plus instable qu’on ne le pensait. En fait nous vivons tous dans un monde globalement instable : la rapidité des transports, la transmission presque instantanée de l’information, la mondialisation de l’économie, tout cela améliore peut-être le fonctionnement de la société humaine, mais rend aussi cette société plus instable, et cela à l’échelle de la planète. Une maladie virale nouvelle, ou un virus informatique, ou une crise financière font sentir leurs effets partout et immédiatement. Aujourd’hui comme hier le futur individuel de chaque homme et chaque femme reste incertain. Mais jamais sans doute jusqu’à présent l’imprédictibilité du futur n’a affecté aussi globalement notre civilisation tout entière.

 

 VIDEO       CANAL  U         LIEN

 
 
 
 

L'EXPÉRIENCE DANS LES SCIENCES, MODÈLES ET SIMULATIONS

 


 

 

 

 

 

L'EXPÉRIENCE DANS LES SCIENCES, MODÈLES ET SIMULATIONS

Après avoir été sous-estimée par Descartes, constructeur d'une science déductive essentiellement théorique, l'expérience, à partir de Newton, a acquis une place prépondérante, sinon autonome, dans les sciences modernes et contemporaines, au point que la vérification expérimentale est devenue un moment essentiel du " rationalisme appliqué ". Dès la seconde moitié du XIXème siècle, cependant, et notamment à partir de Maxwell, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques. Aujourd'hui, un pas de plus est franchi puisque la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique. La question se pose ainsi de savoir si ce nouveau tournant nous ramène à son point de départ et quelles sont les limites de cette réintégration de l'expérience dans la pratique théorique.


L'EXPÉRIENCE DANS LES SCIENCES, MODÈLES ET SIMULATIONS

Texte de la 15ème conférence de l'Université de tous les savoirs réalisée le 15 janvier 2000 par Daniel Parrochia
L'expérience dans les sciences : modèles et simulation
"Expérience", du verbe latin "experiri", faire l'essai de, s'introduit en français au XIIIème siècle avec Jean de Meung. Le mot "Expérimenter", du bas latin "experimentare", "essai", remonte au XIVème siècle. Au début du XVIème siècle apparaît en français l'adjectif "expérimental", mais la notion même d"'expérimentation" reste absente des dictionnaires jusqu'en 1824. Et ce n'est qu'en 1865, avec l'Introduction à l'étude de la médecine expérimentale de Claude-Bernard, que le recours à l'expérience trouvera toute son extension, au moment même où l'on s'efforce de transposer la méthodologie victorieuse des sciences de la nature dans le domaine des sciences de la vie.
Inexistante dans l'Antiquité, sous-estimée par Descartes, mais prépondérante dans les sciences à partir de Newton, l'expérience devient donc, à l'époque de Claude-Bernard, un des facteurs incontournables des sciences de la nature et de la vie.
Ce moment d'acmé est en même temps un point d'inflexion. Dans la physique du XIXème siècle, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques.
Aujourd'hui, la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et semble la réinstaller en partie au sein du théorique. Quelles sont donc les limites de cette réintégration ? C'est ce que nous chercherons à définir.
1. La carence expérimentale de la science dans l'Antiquité et à la l'Âge classique
Dans l'Antiquité, sous l'influence de Platon, l'expérience est dévaluée et réduite à la simple observation, contingente et dépourvue de valeur probatoire. Le Thééthète (163 c) distingue soigneusement perception et connaissance, la seconde reposant sur la mémoire et mettant en oeuvre les mécanismes de réminiscence que le Ménon avait présentés autrefois comme solidaires de la rationalité.
Aristote lui-même n'a ni l'idée d'une critique de la perception sensible ordinaire, ni le sentiment de l'importance que peut revêtir pour la science une mesure exacte. Certes, ses traités biologiques révèlent qu'il pratiquait la dissection des animaux. Et sa Physique (II, 4) comme son Traité Du Ciel (II 13 294 b 30), contiennent bien quelques expérimentations. Celles-ci restent toutefois peu nombreuses et limitées. Comme le note Jean-Marie Leblond, «Aristote ne possédait pas des instruments assez perfectionnés et assez exacts pour que le travail de laboratoire put être bien fructueux pour lui» et son «penchant très marqué pour l'observation commune l'en éloignait» [réf 1].
Force est donc de constater que les deux plus grands philosophes de l'antiquité ne connaissent en fait ni méthode expérimentale ni modèles, ni procédés de simulation.
Au XVIIe siècle, dans la perspective anti-aristotélicienne qui est celle de Descartes, le sensible est dévalorisé et la voie mathématique déductive préconisée, en vue d'une physique quantitative fondée en raison. Dans le Traité du Monde et encore au début du Traité de l'Homme, cette déduction est même présentée comme la reconstitution d'un monde fictif, analogue du vrai, et dans lequel les hommes, les corps, les choses sont des automates simplifiés simulant les hommes, corps et choses réelles. Avec cette «fable du monde», le philosophe construit donc une maquette théorique, une sorte de «modèle» (de modulus, diminutif, de modus, moule) de la réalité.
Dans cette perspective déductive, les expériences ne jouent qu'un rôle fort limité, comme le montre bien le Discours de la Méthode [réf 2] :
(1) La nécessité des expériences est proportionnelle à l'avancement des connaissances. Au commencement, les expériences sont à manipuler avec prudence, de sorte que Descartes les restreint aux intuitions immédiates et rejette les expériences plus élaborées, alléguant ici deux explications : d'une part, l'impossibilité de leur assigner une cause quand on ignore les grands principes; d'autre part, le caractère contingent et variable du contexte expérimental.
(2) Quand la connaissance progresse, les expériences, certes, deviennent nécessaires, mais elles ont surtout un rôle d'adjuvant, et servent surtout à pallier les limites de la théorie pure. Les raisons de cette fonction sont multiples :
a) La première est liée à l'écart existant entre la puissance de la déduction mathématique, qui porte sur le possible et enveloppe l'indéfini (sinon l'infini), et la réalité toujours finie et limitée du monde existant. «Lorsque j'ai voulu descendre [aux choses] les plus particulières, écrit Descartes, il s'en est tant présenté à moi de diverses que je n'ai pas cru qu'il fût possible à l'esprit humain de distinguer les formes ou espèces de corps qui sont sur la terre d'une infinité d'autres qui pourraient y être si c'eût été le vouloir de Dieu de les y mettre». Objectivement, distinguer le réel du possible suppose donc un recours aux expériences.
Mais subjectivement, la visée eudémoniste de la science oblige à privilégier, parmi les faits déductibles possibles, ceux qui nous sont utiles. Or, pour distinguer, parmi les choses possibles, celles que nous pourrons, comme dit Descartes, «rapporter à notre usage», il convient «qu'on vienne au-devant des causes par les effets, et qu'on se serve de plusieurs expériences particulières».
b) Une seconde raison rend les expériences plus nécessaires au fur et à mesure que la connaissance s'avance, qui tient, cette fois-ci, dans l'écart entre la puissance de la nature et la simplicité des principes posés en tête de la déduction. «Il faut aussi que j'avoue, écrit Descartes, que la puissance de la nature est si ample et si vaste, et que ces principes sont si simples et si généraux, que je ne remarque quasi plus aucun effet particulier que d'abord je ne connaisse qu'il peut en être déduit en plusieurs diverses façons, et que ma plus grande difficulté est d'ordinaire de trouver en laquelle de ces façons il en dépend». Ici, l'explication est combinatoire : le nombre des chemins déductifs possibles étant supérieur à celui des chemins déductifs réels, les expériences doivent intervenir. Elles sont finalement, pour Descartes, l'«expédient» qui permet de faire le départ entre des couples de chemins déductifs possibles, dont un seul est réel.
Au bilan, l'expérience, joue donc un triple rôle : combler l'écart entre le possible et le réel; séparer l'utile de l'inutile et simplifier le graphe des déductions possibles, opérant ainsi sur la chaîne déductive une sorte de «stabilisation sélective». La théorie, virtuellement hésitante et bifurcante, est alors restreinte à certaines voies déductives privilégiées.
Cette méthodologie devait rencontrer de nombreux problèmes. Maupertuis, au siècle suivant, en démontra les inconséquences (l'impossible hypothèse des tourbillons). Mais Newton devait ruiner l'édifice cartésien déjà fortement ébranlé par les critiques de Leibniz, Malebranche ou Huygens Une science fondée sur les faits expérimentaux et non plus sur des principes abstraits allait se substituer à la déduction cartésienne. Que devient alors la notion d'expérience une fois ce grand retournement opéré ?
2. Vers le modèle et la simulation
Dès la fin du XVIIème siècle, sous l'influence de la philosophie empiriste de Locke, qui réhabilite la sensation et en fait la condition de toute nos idées, la synthèse géométrique cesse d'être l'idéal de tout savoir et la forme de la connaissance abandonne le paradigme hypothético-déductif pour une démarche analytique et génétique, associationniste et combinatoire. La mécanique newtonienne se déploie dans ce contexte où il n'est plus question de «feindre des hypothèses» et où les faits, mathématisés, deviennent rois. Au début du livre III des Principes mathématiques de la philosophie naturelle [réf 3], Newton énonce quatre règles qui constituent, jusqu'au XIXème siècle, la base de la méthode expérimentale en physique. Ces règles trahissent une opposition totale à Descartes :
1° «Les causes de ce qui est naturel ne doivent pas être admises en nombre supérieur à celui des causes vraies ou de celles qui suffisent à expliquer les phénomènes de ce qui est naturel.» On ne doit donc pas avoir plus de principes explicatifs qu'il n'est nécessaire. C'est la fin d'une conception où le possible était plus puissant que le réel.
2° Il faut, en second lieu, «assigner les mêmes causes aux effets naturels du même genre». Autrement dit, impossibilité de rapporter les mêmes effets à des séries causales différentes. La théorie ne peut pas, et ne doit pas, contenir de bifurcation.
3° Les corps sur lesquels on expérimente, sont un sous-ensemble témoin suffisamment invariant pour servir de base inductive : «Les qualités des corps qui ne peuvent être ni augmentées ni diminuées, et qui appartiennent à tous les corps sur lesquels on peut faire des expériences doivent être considérées comme les qualités de tous les corps en général».
Newton, qui étend prudemment les enseignements de l'expérience, en ne cessant pas de s'appuyer sur les faits, précise cependant «que l'on ne doit pas forger des rêveries à l'encontre du déroulement des expériences» [réf 4]. En toute circonstance, il préfère s'appuyer sur les faits les plus avérés : ainsi, à propos des corps, il tablera sur la notion de force d'inertie plutôt que sur la notion d'impénétrabilité, beaucoup plus vague.
4° La règle IV précise le sens expérimental de sa méthodologie : les propositions réunies par induction à partir des phénomènes doivent être tenues pour vraies tant que des hypothèses contraires ne leur font pas obstacle, ou tant que d'autres phénomènes ne viennent pas les rendre plus précises ou les affranchir des exceptions qu'elles pourraient contenir.
Ainsi, une proposition ne devient générale et ne se précise que par induction, et toujours parce que les phénomènes le permettent. L'expérience, comme observation et comme observation provoquée, c'est-à-dire comme expérimentation, devient la règle suprême de la philosophie naturelle.
Quest-ce qui a alors amené la science à infléchir à nouveau la méthode expérimentale dans les deux directions anticipées par Descartes : la construction de modèles et la mise en place de procédés de simulation ?
1) Au début du XIXème siècle, la mécanique newtonienne s'est complexifiée et décrit désormais des «systèmes» physiques.
La notion de système s'est introduite en physique à travers l'étude des forces et de l'équilibre [réf 5], et, comme un système physique va devoir être décrit par un système d'équations mathématiques, la notion de modèle n'est pas loin. A l'époque, la physique s'ouvre en outre à des domaines nouveaux non mécaniques (électrostatique, thermodynamique, électromagnétisme) qu'elle explore à partir des méthodes de la science connue, autrement dit de la mécanique. La mécanique, elle-même systémique, devient ainsi un réservoir de modèles, aussi bien de montages pratiques que de modèles théoriques.
La notion de modèle comme norme abstraite se développe alors en physique. Le modèle est ici un intermédiaire à qui les physiciens délèguent la fonction de connaissance, de réduction de l'encore-énigmatique à du déjà-connu, notamment en présence d'un champ d'études dont l'accès est difficilement praticable [réf.6].
Cette fonction de délégation du modèle le fait apparaître comme un instrument d'intelligibilité dont la fonction est triple :
a) Dans un monde complexe et déployé dans des régions hétérogènes et sur des échelles très différentes, le modèle, bien adapté à un niveau d'expérience particulier, permet encore d'intégrer les niveaux inférieurs.
b) Réalisant une économie (puisqu'il transpose une même méthodologie sur un autre champ), il abrège la science en l'augmentant et permet ainsi de faire plus avec moins.
c) Ramenant le nouveau à l'ancien, il justifie l'exportation des méthodes connues dans des champs inconnus.
2) Dès la seconde moitié du XIXème siècle, la méthode expérimentale sinstalle en biologie et en médecine.
Claude-Bernard, avec son Introduction à l'étude de la médecine expérimentale, est le grand théoricien de cette extension. Mais sa définition de la méthode expérimentale est restrictive : pour lui, celle-ci «ne fait pas autre chose que porter un jugement sur les faits qui nous entourent, à l'aide d'un criterium qui n'est lui-même qu'un autre fait, disposé de façon à contrôler le jugement et à donner l'expérience» [réf 7]. Or, faire éclater l'expérience en faits simples et penser qu'on peut juger d'un fait au moyen d'un autre fait va s'avérer insuffisant. De plus, le constat reste le premier moment de la méthode préconisée par Claude-Bernard même s'il précise, par ailleurs, que l'expérience scientifique n'est pas une observation passive mais provoquée, et insiste à juste titre sur l'art du raisonnement expérimental. En fait, dans le mouvement cyclique qui caractérise sa méthode, le constat est bien à la source de l'idée à partir de laquelle pourra s'instituer le raisonnement et se mettre en place des expériences, lesquelles seront à leur tour sources de nouvelles idées et inductrices d'un nouveau cycle. Or le fait constaté, pour Claude-Bernard, reste un fait granulaire : non seulement la méthode scientifique exige un «morcellement du domaine expérimental» [réf 8] mais elle est de part en part analytique et aboutit volontairement à la dissociation des phénomènes. «A l'aide de l'expérience, nous analysons, nous dissocions ces phénomènes afin de les réduire à des relations et à des conditions de plus en plus simples» [réf 9]. D'où, deux conséquences :
(1) Les progrès de la connaissance seront toujours dus à des décisions élémentaires heuristiques, à caractère discret : «Le choix heureux d'un animal, écrit Claude-Bernard, un instrument construit d'une certaine façon, l'emploi d'un réactif au lieu d'un autre, suffisent souvent pour résoudre les questions générales les plus élevées».
(2) Le privilège de l'analyse et l'élémentarité des faits, qui renvoient au fond encore à une épistémologie cartésienne, interdit la saisie des relations dialectiques entre les phénomènes : «de ce qui précède, note Claude-Bernard à là fin de son introduction sur le raisonnement expérimental, il résulte que, si un phénomène se présentait dans une expérience, avec une apparence tellement contradictoire qu'il ne se rattachât pas d'une manière nécessaire à des conditions d'existence déterminées, la raison devrait repousser le fait comme un fait non scientifique» [réf 10].
Mais là, Claude-Bernard théoricien de la méthode expérimentale est en retard sur Claude-Bernard praticien de la physiologie, théoricien des mécanismes de régulation et fondateur de la notion de milieu intérieur. Critiquant l'anatomie, dans ses Leçons de physiologie expérimentale appliquées à la médecine (Paris 1856, tome 2, 6), il notait déjà l'impossibilité de déduire d'un examen anatomique d'autres connaissances d'ordre fonctionnel que celles qu'on y avait importées : or parmi les connaissances importées par les anatomistes, il notait la présence de modèles concrets : «quand on a dit, par simple comparaison, écrivait-il, que la vessie devait être un réservoir servant à contenir des liquides, que les artères et les veines étaient des canaux destinés à conduire des fluides, que les os et les articulations faisaient office de charpente, de charnières, de levier, etc.», «on a rapproché des formes analogues et l'on a induit des usages semblables». Canguilhem, qui cite ce texte dans ses Etudes d'histoire des sciences [réf 11] constate pourtant que le mot «modèle», ici, n'est pas utilisé.
Mais ce que Claude-Bernard théoricien néglige va s'avérer de plus en plus nécessaire pour comprendre les mécanismes de régulation qu'il a lui-même mis en évidence comme expérimentateur. Au fur et à mesure que la biologie et la médecine progresseront, le caractère interrelié des phénomènes de la vie imposera la prise en compte de faits complexes, et parfois en eux-mêmes apparemment contradictoires ou, en tout cas, antagonistes. Dès lors, ce n'est plus simplement de modèles concrets, iconiques et analogiques dont on va avoir besoin. Ce sera, comme en physique, d'authentiques modèles mathématiques.
Avec la cybernétique de N. Wiener, puis la théorie des systèmes de Bertalanffy, ce genre d'approche va se développer, et la biologie, à différents niveaux, en fera grand usage.
Au niveau cellulaire, Monod, Jacob et Lwoff ont pu décrire les phénomènes métaboliques en supposant l'existence d'un mécanisme cybernétique impliquant l'action conjointe d'un inducteur et d'un répresseur [réf 12].
Au plan des mécanismes hormonaux, de même, des modèles ont pu être proposés pour expliquer les régulations croisées et les actions conjointes d'axes hormonaux antagonistes comme les axes anté- et post-hypophysaires, des actions stimulantes de l'axe défaillant existant conjointement à des actions inhibitrices de l'axe prédominant [réf 13].
Dans ces deux exemples, des situations dialectiques complexes ne deviennent intelligibles que par une modélisation.
Enfin, à un niveau beaucoup plus général, la pensée écologique depuis les années 1930, avec l'introduction des notions de système écologique et de réseau trophique, a imposé la construction de modèles pour saisir les réalités naturelles complexes et interreliées, notamment les comportements des vivants en relation avec leur milieu biotique et abiotiques [réf 14].
La modélisation s'est donc imposée en biologie, en médecine, et en écologie, à l'encontre des idées de Claude-Bernard.
3. Les rapports entre modélisation et simulation
Si modéliser, c'est déléguer la fonction de connaissance afin de représenter la réalité de façon à la fois économique et fiable, encore faut-il s'assurer que le modèle conserve un lien avec l'expérience. C'est la tâche de la simulation, notion aux connotations jadis négatives, et que Platon, dans la République (VI, 51le) réservait à un type de savoir dégradé, celui des images, plus bas degré de la réalité selon lui. A travers Gracian, Diderot, puis Nietzsche, s'opère progressivement un renversement qui réhabilite l'artifice et permet de faire aujourd'hui, l'«éloge de la simulation», cette capacité à reproduire numériquement et à générer de façon figurative et imagée des situations, des séquences, des processus identiques aux processus réels.
1) Modélisation et simulation
Selon Etienne Guyon [réf 15], modélisation et simulation restent des démarches distinctes. La modélisation, vu ses outils, garde plus de latitude par rapport au réel que la simulation. Les conditions du mimétisme absolu ne sont pas respectées puisque le modèle opère une simplification du phénomène, ne retenant que les variables les plus caractéristiques. Ceci constitue une approximation, mais qui suffit souvent pour réussir.
En regard de cette modélisation, la simulation semble une approche plus coûteuse, puisqu'elle invite à conserver tous les paramètres du problème initial. Ainsi, selon E. Guyon, le simulateur de vol ou de conduite place-t-il le pilote dans des conditions tout à fait semblables à celle qu'il aura à affronter dans la réalité. Mais ce sentiment est trompeur car le simulateur est un modèle réduit, une simplification de la réalité, restreinte à un poste de pilotage monté sur un système de venins hydrauliques.
La simulation présuppose donc la modélisation : elle joue sur le fait que, du point de vue de la représentation humaine, le même effet peut être produit de différentes façons, et notamment d'une manière plus économique que d'une autre.
Par conséquent, les deux méthodes doivent être jugées plus complémentaires qu'opposées.
2) Fonction de la simulation.
La simulation permet d'effectuer des tests et d'expérimenter sans danger, mais aussi, dans certaines branches de la physique appliquée, de pallier les déficiences de la théorie. Ainsi, en météorologie, où il n'est pas possible de connaître théoriquement le comportement de l'atmosphère (système dynamique évolutif sensible aux conditions initiales), à moyen ou long terme, on a recours à la modélisation et à la simulation. Des programmes de calculs résolvent les équations de façon approchée mais théoriquement aussi précise que l'on veut. A partir de la connaissance de l'état de l'atmosphère à un instant donné, on peut théoriquement calculer l'évolution de cette atmosphère, et faire des prévisions. Cette approche permet en outre l'expérimentation, le modèle numérique devenant un laboratoire virtuel dans lequel on peut tester des hypothèses. Par exemple, on y fait varier certain paramètre (quantité d'énergie solaire reçue, vitesse de rotation de la terre...) pour en étudier les conséquences sur le climat. Ces modèles numériques permettent en outre d'affiner la prévision à court terme en injectant périodiquement dans le modèle de nouvelles valeurs de mesure, en coefficientant ces dernières de telle manière qu'elles aient un poids plus important que les mesures plus anciennes et aboutissent à des prévisions plus fiables.
Même si la météorologie reste une science où les modèles sont encore approximatifs, les progrès de la couverture satellitaire et des différentes méthodes numériques et informatiques permettent aux météorologues de préciser les conditions initiales et de limiter l'impact du chaos déterministe et de la turbulence. D'incessants progrès ont été faits depuis les premiers modèles, qui datent des années 1950.
Nous pourrions évoquer encore bien des exemples où modélisation et simulation vont de pair, par exemple dans les sciences humaines. Lévi-Strauss, dans La Pensée Sauvage, avait déjà souligné l'importance de la notion de «modèle réduit», à propos de la pensée mythique qui propose une sorte de métaphore du monde. On est passé rapidement de la métaphore au modèle dans des disciplines comme l'analyse spatiale en géographie ou encore la dynamique économique, qui sont des secteurs dans lesquels la modélisation et la simulation se sont énormément développées.
3) Caractère créatif de ce couple modélisation-simulation
L'intelligence artificielle (I.A.) servira ici dexemple. Se proposant au départ de comprendre la nature de l'intelligence, les chercheurs ont dû se limiter à reconstituer des comportements intelligents (et une reconstitution n'est pas une explication). Le plus souvent, ils se sont même bornés à faire faire à un ordinateur des tâches pour lesquelles l'homme est encore aujourd'hui le meilleur. Il y a un triple affaiblissement du projet initial puisque c'est avouer que non seulement on ne connaîtra pas la nature de l'intelligence, non seulement le simulacre ne renversera pas le modèle et la copie, mais la copie restera une copie imparfaite et qui n'égalera pas le modèle humain. Cette évolution, qui sonne une sorte de retour à Platon et va donc d'une modélisation impossible à une simulation imparfaite, aurait pu à bon droit passer pour une régression aliénante. Or, selon Philippe Quéau, ce chemin apparaît au contraire libérateur :
(1) La nécessité où l'on se trouve, en I.A. comme d'ailleurs souvent en physique, de faire d'abord fonctionner le modèle pour tester sa cohérence interne avant de le valider, amène parfois à le nourrir de données arbitraires. Or cet éloignement de l'expérience réelle porte en lui une créativité potentielle. Dans cette expérimentation inédite, le modèle, suivant des trajectoires éventuellement imprévues, devient susceptible de potentialités nouvelles entraînant au delà du connu.
(2) Alors que le modèle, comme réduction, opérait une certaine forme de condensation de l'expérience, «la simulation, écrit Philippe Quéau, nécessite le déplacement, le remaniement, l'ordonnancement du modèle» [réf 16]. Ces mots de condensation et de déplacement sont ceux par lesquels Freud a décrit la logique de l'inconscient, qui est aussi celle du rêve. Philippe Quéau en déduit que le simulateur, qui condense et réduit, produit donc un rêve formel, libéré des contraintes de l'expérience sensorielle qui en fournit ordinairement les matériaux.
Une des applications bien connues est la synthèse d'image, où la création de mondes virtuels, de flores ou de faunes inventées mais mathématiquement crédibles - toute une «vie artificielle» -, semble plonger le réel dans un univers beaucoup plus riche dont il n'apparaît plus que comme l'un des possibles. Le modèle, qui condense le réel, débouche, grâce au simulateur, sur une amplification théorique de celui-ci.
Cette conclusion n'admet-elle aucune limite ?
S'il est vrai que la simulation informatique fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique, la question se pose de savoir si ce nouveau tournant nous ramène ou non au point de départ. Bachelard nous avait appris que le rationalisme devait s'appliquer. Mais la modélisation et la simulation semblent faire l'économie d'une application réelle. Le rationalisme devient-il fantasmé ?
Certes, la modélisation-simulation, comme condensation et déplacement, opère une amplification de l'expérience, qui fait de cette extension virtuelle du réel, comme le montre Gilles-Gaston. Granger [réf. 17], un réel reformulé et enrichi, ce qu'on pourrait appeler un surréel. Ce «surréalisme» de la science contemporaine n'est d'ailleurs que le pendant du surrationalisme des grandes théorie scientifiques du XXème siècle. Expérience et applications y sont moins réfutées que réduites à un support minimum, le symbolique remplaçant économiquement le matériel.
Mais une telle réduction-substitution n'est pas sans risque. D'abord, il convient de ne confondre ni les objets et leurs images, ni les simulations et la réalité : la simulation d'un incendie ne brûle personne, les aléas de «la vie sur l'écran» n'engendrent aucune souffrance. Les erreurs qu'on peut commettre avec ces outils, tout comme la difficulté de leur validation, nous rappellent leurs limites. Certaines simulations numériques comme les simulations des explosions nucléaires, qui remplacent apparemment avantageusement ces dernières, n'excluent pas des expériences réelles coûteuses. En outre, on peut encore s'interroger sur les dangers de la virtualisation. La virtualisation des explosions nucléaires a tendance à banaliser la bombe. Il n'est pas sûr qu'on y gagne beaucoup.
Toutes les simulations ne font pas encourir les mêmes dangers. Mais l'expérience scientifique moderne, modélisée et simulée, ne saurait occulter le recours à l'expérience réelle. La simulation moderne suscite des mondes virtuels dont la logique, qui tient parfois du rêve, pourrait se révéler celle du cauchemar si elle se déconnectait totalement de l'expérience sensible et si la matière symbolique devait définitivement remplacer la matière réelle. Mais nous n'en sommes pas là et le recours au sensible, aux infrastructures matérielles et aux coûts réels nous remet périodiquement, malgré l'excroissance surréaliste que nous avons créée, dans une perspective de rationalisme appliqué.
Références
Réf 1 : J.-M. Leblond, Logique et méthode chez Aristote, Paris, Vrin, 1970, 2è ed., p.235
Réf 2 : Descartes, Discours de la méthode, 6è partie, «choses requises pour aller plus avant en la recherche de la nature», Ruvres, Paris, Gallimard, 1951, p. 169-170.
Réf 3 : Newton, Principes mathématiques de la philosophie naturelle, tr. Fr. Paris, Bourgois, 1985, p.76 sq.
Réf 4 : Newton, op.cit., p.77.
Réf 5 : Lagrange, Mécanique Analytique, 1ère éd. p. 25 ; éd. Blanchard, p. 27 et 40. Cf. P. Bailhache, Louis Poinsot, la théorie générale de l'équilibre et du mouvement des systèmes, Paris, Vrin, 1975, p. 127-132.
Réf 6 : S. Bachelard, "Quelques remarques épistémologiques sur la notion de modèle", Colloque Elaboration et justification des modèles, chez Maloine-Dion, 1979, t.1, p.3
Réf 7 : Claude-Bernard, Introduction à l'étude de la méthode expérimentale, Paris, Garnier-Flammarion, 1966, p.41
Réf 8 : Claude-Bernard, op. cit., p.55
Réf 9 : Claude-Bernard, op. cit., p.89
Réf 10 : Claude-Bernard, op. cit., p.90
Réf 11 : G. Canguilhem, «Modèles et analogies dans la découverte en biologie», Etudes d'histoire des sciences, Paris, Vrin, 1975, p. 308.
Réf 12 : J. Monod, Le hasard et la nécessité, (1970), Paris, Point-Seuil, 1973, p. 85 sq.
Réf 13 : Cf. E. Bernhard-Weil, L'arc et la corde, Paris, Maloine-Doin, 1975, P.14-15
Réf 14 : D. Parrochia, Philosophie des réseaux, PUF, 1993 ; voir aussi P. Acot, Histoire de l'écologie, PUF, 1988.
Réf 15 : E. Guyon, "Modélisation et expérimentation", in G. Cohen-Tannoudji, Virtualité et réalité dans les sciences, Paris, Editions Frontières, 1995, pp.95-118.
Réf 16 : Ph. Quéau, Eloge de la simulation, Seyssel, Champ Vallon, 1986, p 161.
Réf 17 : G. G. Granger, Le probable, le possible et le virtuel, Paris, 0. Jacob, 1995, p. 9.

 

  VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon