ecole de musique piano
     
menu
 
 
 
 
 
 

L'ASSISTANCE GRAVITATIONNELLE

 

L'ASSISTANCE   GRAVITATIONNELLE

L’assistance gravitationnelle est une technique utilisant l'attraction des planètes pour donner un supplément de vitesse à une sonde interplanétaire. On parle aussi d'effet de fronde gravitationnelle. Cette technique est maintenant employée pour la plupart des sondes interplanétaires, dans le but d'économiser du carburant. Voici pourquoi.

La gravitation impose de nombreuses contraintes rendant difficile un voyage en ligne droite d’une planète à un autre, à moins de disposer d’un moteur-fusée exceptionnel. En effet, pour atteindre une vitesse donnée, par exemple celle de libération d’une planète, il faut dépenser du carburant… pour propulser le carburant. Pour une charge utile donnée, il faut pouvoir éjecter des gaz aux vitesses les plus élevées possible si l’on dispose de peu de carburant. Pour le moment, on en est encore réduit à faire voyager des masses peu importantes selon des trajectoires bien déterminées lorsqu’on veut visiter une planète du Système solaire.

Il existe heureusement une stratégie pour voyager d’une planète à une autre en économisant du carburant : l’assistance gravitationnelle. Elle consiste à faire entrer une sonde dans ce que l’on appelle la sphère de Hill (du nom de son découvreur, le mathématicien et astronome George Hill), encore appelée la sphère de Roche (du nom du mathématicien et astronome français Édouard Roche). Cette sphère d’influence gravitationnelle d’un corps céleste, que l’on ne doit pas confondre avec la limite de Roche, définit une région dans laquelle un autre corps céleste a tendance à rester naturellement un satellite du premier malgré l’influence gravitationnelle d’un troisième corps. La Terre possède donc une sphère de Hill par rapport au Soleil dans laquelle se trouve la Lune, et il en est de même pour la Lune elle-même par rapport à la Terre et au Soleil, ainsi que pour les autres planètes comme Jupiter et Vénus.

Lorsqu’une sonde entre dans une sphère de Hill avec une vitesse suffisante pour ne pas y rester, sa vitesse augmente comme le ferait une bille tombant dans une cuvette avant de diminuer à la sortie de la cuvette. On pourrait croire que le bilan est nul, mais du fait du mouvement de la planète possédant une sphère de Hill, il devient possible d’emprunter une partie du moment cinétique orbitale de la planète pour douer la sonde d’une impulsion supplémentaire si l’on s’y prend bien. En passant de planète en planète, une sonde peut donc accélérer pour atteindre des vitesses considérables sans utiliser de carburant et parcourir des distances beaucoup plus rapidement.

L'assistance gravitationnelle et l'exploration du Système solaire

L’idée d’utiliser l’influence gravitationnelle d’une planète pour changer la vitesse d’un vaisseau spatial remonte aux années 1920 avec les travaux du mathématicien ukrainien Yuri Kondratyuk. On lui doit aussi le rendez-vous en orbite lunaire (LOR, lunar orbit rendezvous) qui est le nom du scénario de mission qui a été suivi par le programme spatial Apollo pour envoyer des hommes sur la Lune. Mais c’est le mathématicien états-unien Michael Minovitch qui saisira vraiment toute la portée de l’idée de l'assistance gravitationnelle d'une planète en 1961, à savoir la possibilité de réduire la consommation de carburant nécessaire à des voyages interplanétaires rapides.

La Nasa va mettre en pratique pour la première fois ce concept avec la sonde Mariner 10, qui utilisera Vénus le 5 février 1974 pour atteindre Mercure le 16 mars 1974. Il s’agissait du premier vol interplanétaire au moyen de l’assistance gravitationnelle, mais la technique avait tout de même déjà été utilisée lors du vol de la sonde russe Luna 3 en 1959. Mercure ne sera à nouveau visitée que 33 ans plus tard, par la sonde Messenger le 14 janvier 2008.

Les sondes Mariner 11 et 12 ne virent pas le jour à cause de compression de budget. Plutôt que de continuer à explorer le Système solaire interne, la Nasa utilisa les travaux déjà engagés pour un projet bien plus ambitieux. C’est ainsi que naquirent les sondes Voyager 1 et Voyager 2, ainsi que le projet d’un « Grand Tour » du Système solaire en direction des planètes externes. C’est l’ingénieur Gary Flandro qui s’est rendu compte en 1964 que les travaux de Minovitch, son collègue de la Nasa, permettaient d’envisager ce Grand Tour en moins de dix ans, ce qui semblait impossible étant donné la technologie de l’époque.

Depuis, l'assistance gravitationnelle d'une planète a été mise à profit par d’autres missions, comme celle de la sonde Cassini-Huygens qui l’a utilisée à plusieurs reprises pour parvenir à Saturne. Elle a modifié sa vitesse d'abord en passant à deux reprises près de Vénus, puis de la Terre et enfin de Jupiter. On peut citer aussi les exemples des sondes Rosetta et New Horizon.

 

DOCUMENT      futura-science.com     LIEN

 

ANIMATION       cnes       LIEN

 
 
 
 

DES SATTELLITES À LA PORTÉE DES ÉTUDIANTS

 


Cubesat : des satellites à la portée des étudiants

Ces minuscules dispositifs de 10 cm de côté sont un support de travail idéal pour les ingénieurs en herbe qui peuvent ensuite les exploiter après qu'ils ont été lancés dans l'espace.

PÉDAGOGIQUES. En décembre 2015, un satellite français devrait décoller à bord d'un lanceur Falcon 9 de la société privée américaine SpaceX. Un satellite un peu particulier puisque ce dernier ne sera qu'un des nombreux passagers lors de ce lancement. Et pour cause "Robusta-1B" (c'est son nom) est si petit qu'il tient dans la paume de la main. Il fait en effet partie de la catégorie des "cubesat". De petits objets cubiques de 10 cm d'arête et pesant à peine plus d'un kilo.
Robusta-1B n'est pas le premier de son espèce, loin de là. Leurs spécifications techniques ont été définies en 1999 par deux professeurs d'universités aux États-Unis, désireux d'initier leurs étudiants à la conception, la fabrication, l'assemblage, le lancement et l'exploitation de satellites, à la manière d'une agence spatiale. Rapidement, leur idée s'est répandue comme une trainée de poudre. Et pour cause, relativement simple à construire, rapide à assembler, et passionnants à concevoir, ces petits cubes high-tech permettent aux étudiants d'aborder toutes les thématiques liées au domaine spatial, depuis la gestion d'une orbite aux télécommunications, en passant par la collecte et le traitement de données.
Simples, performants, et beaucoup moins chers
Certes, les cubesat ne sont pas aussi performant que leurs massifs homologues. Ils n'embarquent qu'une batterie minuscule qui ne leur fournit pas pour l'instant la puissance nécessaire pour relayer des flux vidéos. De même, leur compacité s'accommode mal avec des applications d'imagerie tels que des télescopes, qui nécessitent des optiques de grande longueur. Néanmoins, ils peuvent rendre une somme incalculable de services : cartographie sommaire, détecteurs de particules, magnétomètres, relais de communication, etc. Ils peuvent demeurer 1 à 2 ans sur leur orbite basse avant de retomber et de se désintégrer dans l'atmosphère, ce qui simplifie grandement les problématiques liées à la gestion des déchets spatiaux.
TARIF. Et surtout, ils ne coûtent qu'une fraction du prix d'un satellite "classique". Car ces cubesats sont souvent lancés par grappe d'une dizaine voire d'une trentaine et partagent parfois le lanceur avec de gros satellites commerciaux dont les opérateurs financent la plus grande part du lancement. "Mettre 1 kilo dans l'espace dans ces conditions coûte environ 30.000 euros" estime Frédéric Saigné, professeur à l'Institut d'Électronique de Montpellier (IES) et directeur de la Fondation Van Allen qui se charge de collecter les fonds pour financer ce type de projet ainsi que des bourses d'étudiants (la Région Languedoc-Roussillon finance grandement l’ensemble du projet et notamment le premier Centre spatial Universitaire français).
Des expériences universitaires dans le vide spatial
Le tout premier de ces mini satellites cubiques était américain. Il a décollé en juin 2003 à bord d'un lanceur Rockot. Depuis, plus de 130 de ces mini satellites ont été lancés. Le premier cubesat français a décollé en février 2012, en même temps que le premier lanceur européen Vega. Durant ce vol de qualification, le lanceur a mis sur orbite deux gros satellites et 7 petits cubesats parmi lesquels figurait "Robusta-1A". Un satellite conçu par des étudiants de l'Université de Montpellier et l'équipe du Centre Spatial Universitaire, suite à l'appel à projet "Expresso" amorcé en 2006 par le CNES.
LIREVol de qualification réussi pour le nouveau lanceur Vega

Placé sur son orbite, Robusta-1A a émis pendant quelques heures avant de cesser de fonctionner. "Nous avons beaucoup appris de cette expérience. C'est très probablement un souci de branchement au niveau des panneaux solaires qui a empêché la batterie de notre cubesat de se recharger" analyse Jérôme Boch, professeur à l'IES. Et ce demi échec a plus que jamais motivé les troupes pour renouveler l'expérience en concevant le successeur de ce premier cubesat : Robusta-1B.

 
 
Sa charge utile est constituée d'une plaque de circuit imprimé sur laquelle sont fixés des composants électroniques. L'objectif est d'étudier en conditions réelles comment vieillit l'électronique lorsqu'il est exposé à l'environnement radiatif hostile de l'espace. L'étude de ce vieillissement in situ sera l'occasion de valider de nouveaux modèles prédictifs de vieillissement de l'électronique. "En effet, jusqu'à présent, on se contente de reproduire les effets de l'environnement radiatif spatial en irradiant les composants en laboratoire pendant un temps très court (comparé à la durée de vie d'un satellite), puis on extrapole afin d'obtenir une information sur le vieillissement. Or, il est bien connu qu'une irradiation plus lente, correspondante aux conditions réelles que rencontrera le satellite, n'aura pas les mêmes effets sur l'électronique. Robusta 1b nous permettra de vérifier ces hypothèses en environnement réel"explique Mathias Rousselet, étudiant impliqué dans le projet.

 
Et ces premiers lancements ne sont que le début d'une longue série. Le Centre Spatial Universitaire (CSU) de Montpellier espère désormais lancer au moins un de ces cubesats par an.
De fait, un peu avant l'été 2015, un lanceur devrait décoller de Russie, emportant avec lui une petite carte électronique développé par le CSU en partenariat avec l'université de Bauman en Russie. Il s'agira cette fois de tester la résistance de différents types de mémoire flash ou Ram dans un environnement spatial.
OPÉRATIONNEL. Et le projet suivant est d'ores et déjà sur la rampe de lancement. Il s'agit d'un triple cubesat baptisé Robusta-3A Mediterranée. Sa mission sera de servir de relai pour transmettre des données collectées par le GPS des navires qui croisent en Méditerranée. En effet, le signal GPS met un peu plus de temps à parvenir aux récepteurs lorsque le ciel est encombré de nuages. La mesure de ce délai fournit une indication sur la quantité d'eau contenue dans la troposphère, au dessus du navire. Ces données seront transmises par chaque navire et collectées par le satellite. Elles seront alors transmises dans un format exploitable à Meteo-France, afin d'en affiner les modèles et donc les prédictions météorologiques. "Le partenariat est en cours de signature avec Méteo-France" assure Frédéric Saigné.
Tisser des collaborations internationales et avec les agences spatiales
Et lorsqu'ils ne sera pas utilisé à des fins météorologiques, le cubesat pourra être employé pour faire transiter des données de type SMS entre des universités partenaires au Burkina-Faso, à Madagascar, ainsi que dans le sud de la France. Ce satellite constituera un défi technique supplémentaire puisqu'il sera stabilisé par des petits propulseurs, et qu'il emploiera à cet effet un "star tracker". C'est à dire une petite caméra capable de se repérer grâce à la position des étoiles dans le ciel.
Le domaine des cubesat semble tellement porteur que l'université de Montpellier leur a même ouvert un cursus dédié, portant sur l'ingénierie des systèmes spatiaux. Ce qui permet aux étudiants de travailler en partenariat avec l'ESA, le CNES, mais aussi avec l'agence spatiale russe Roscosmos ainsi qu'avec le laboratoire JPL de la NASA. "Dans les 5 ans, quelques 1000 nanosatellites de 1 à 10 kilos pourraient-être lancés" prédit un article du journal The Economist.

 

DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
 

GALILEO

 


Galileo : de bonnes nouvelles des satellites placés sur la mauvaise orbite

Vendredi 27 mars 2015, à 22 H 46 heure française, un lanceur Soyouz devrait décoller de la base de Kourou, en Guyane, emportant avec lui une nouvelle paire de satellites de la future constellation européenne Galileo. Les satellites 7 et 8 devraient, si tout se passe bien, vont rejoindre leurs 6 jumeaux qui orbitent actuellement au-dessus de nos têtes. À terme, la constellation permettant le géopositionnement devrait comporter 30 satellites. Mais, on s'en souvient, le précédent lancement, le 22 août 2014, avait pâti d'une grave avarie matérielle. Une erreur de conception avait entraîné le gel du carburant dans les tuyaux d'alimentation en hydrazine du dernier étage (Fregat) du lanceur russe Soyouz. De ce fait, la paire de satellites 5 et 6 avait été déposée sur une mauvaise orbite.


Leur sort est resté incertain pendant plusieurs mois. Nous avions même interrogé des spécialistes qui envisageaient très sérieusement l'hypothèse d'abandonner les satellites. Mais l'Agence spatiale européenne (ESA) a opté pour une autre option. Dans un communiqué publié le 13 mars 2015, l'Agence explique que les satellites ont finalement été replacés sur une orbite correcte. Pour en savoir plus, nous avons contacté les deux spécialistes de l'ESA Didier Faivre, directeur du programme Galileo et de ses systèmes de navigation, et à Sylvain Loddo, responsable des segments sol.
Sciences et Avenir : Les satellites 5 et 6 sont-ils désormais exactement sur l’orbite initialement visée où seulement sur une orbite proche de l’orbite cible ?
Didier Faivre : L'orbite initialement visée avec le lanceur Soyouz était inaccessible avec la capacité de manœuvre dont nous disposions. Or, les satellites 5 et 6 étaient inexploitables sur la mauvaise orbite sur laquelle ils avaient été déposés. En effet, du fait de la forte excentricité de cette orbite, avec un périgée (point de l'orbite ou la distance entre le satellite et la Terre est la plus faible) très bas, le système de contrôle d’altitude des satellites était périodiquement aveuglé par la Terre. Après réflexion, nous avons déterminé les coordonnées d'une nouvelle orbite (dite "orbite de travail") qui pourrait permettre d'exploiter les satellites. Nous avons donc remonté le périgée de 13.700 à 17.200 km et corrigé son excentricité qui est passée de 0,23 à 0,15 (autrement dit, l'orbite a été rendue un peu plus circulaire, ndlr). Le satellite numéro 5 a atteint cette orbite de travail en novembre 2014 et le satellite 6 en mars 2015.


Sciences et Avenir : Le communiqué de l'ESA explique que pour corriger l'orbite, il a fallu effectuer 14 manœuvres et pas moins de 6 semaines ! Pourquoi est-il si long de corriger une orbite ?
Didier Faivre : Cela a été long pour deux raisons. La première est que les satellites ne sont pas qualifiés pour endurer des poussées très puissantes. Ils sont conçus pour encaisser des impulsions relativement faibles correspondant à des accélérations de 20 mètres par seconde. On n'a pas voulu aller au delà. Il a donc fallu effectuer plusieurs poussées pour atteindre la nouvelle orbite cible. L'autre raison est que nous avons préféré effectuer les manœuvres lorsque les satellites étaient en visibilité. C'est-à-dire lorsqu'ils passaient au-dessus de stations de surveillance situées en Europe. Cela était beaucoup plus pratique pour suivre le bon déroulement de la manœuvre. Or, les orbites des satellites avaient entre 12 et 14 heures de période. Au vu de ces contraintes, on ne pouvait donc effectuer qu'une manœuvre tous les deux jours environ.
Sciences et Avenir : Combien ces manoeuvres ont-elle consommé de carburant ? Combien en reste-t-il à chacun des satellites 5 et 6 ?
Didier Faivre : Ces manoeuvres ont consommé la plus grande partie du carburant des satellites. Il leur reste désormais environ 10 kilos d'ergols sur les 70 qu'ils emportaient au départ.
Sciences et Avenir : La consommation de carburant consécutive à ces manoeuvres a-t-elle réduit la durée de vie de ces satellites ?
Didier Faivre : Non, pour trois raisons. La première est qu'avec 10 kilos d'ergol, il reste une bonne capacité de manœuvre. Et sur leur nouvelle orbite, cette capacité ne sera sans doute pas tellement sollicitée. En effet, les ergols sont surtout utilisés pour des manoeuvres consistant à remplacer un autre satellite de la constellation (lorsque celui-ci arrive en fin de vie par exemple, ndlr). Or, si les prochains lancements se déroulent correctement, aucun autre satellite n'est censé rejoindre les satellites 5 et 6 sur leur orbite atypique. Ce qui fait que pour ces derniers, les manœuvres à effectuer seront beaucoup plus fines et moins nombreuses. La seconde raison est que cette nouvelle "orbite de travail" est très stable, ce qui signifie qu'il ne sera pas nécessaire de remonter périodiquement les satellites (comme on le fait avec la station spatiale internationale, ndlr) afin qu'ils ne soient pas happés par la force de gravitation et ne finissent par retomber sur Terre. La troisième est que cette orbite de travail ne sera utilisée pour aucune autre mission spatiale. Elle peut donc-être dores et déjà être considérée comme une orbite cimetière. Il ne sera donc pas nécessaire de conserver du carburant pour désorbiter ces satellite une fois leur mission terminée.
Le communiqué de l'ESA précise que les satellites ont été exposés aux radiations de la ceinture de Van Allen. Avez-vous constaté des dégâts matériels sur l’un ou l’autre des satellites ?
Didier Faivre : Il est vrai qu'entre le mois d'août et ceux de novembre et décembre, les satellites ont été exposés à un environnement radioactif lourd. Toutefois, nous n'avons eu aucun indice signalant un dysfonctionnement ou une dégradation. Les satellites fonctionnent parfaitement.
Sciences et Avenir : Sur leur nouvelle orbite, les satellites 5 et 6 peuvent-ils remplir toutes les missions pour lesquelles ils ont été conçus ?

Sylvain Loddo : Oui, les satellites sont opérationnels. Nos tests ont montré qu'ils sont capables d'envoyer un signal qui permet de se localiser au sol avec une grande précision. Le seul souci est que, du fait de cette orbite atypique, le signal est plus long à acquérir. Cela peut prendre une trentaines de secondes au lieu de quelques secondes habituellement. Mais ce temps varie en fonction de la qualité du récepteur et du nombre de canaux qu'il utilise. Mais nos tests ont montré qu'avec quelques adaptations mineures sur les segments sol, on pourrait régler ce problème en quelques mois et générer un message qui sera pratiquement le même que celui des autres satellites de la constellation. "Pratiquement" car si on arrive bien transmettre les éphémérides (information sur la position précise du satellite, permettant de faire les mesures de calcul des distances) on a encore du mal à transmettre les almanachs (qui contiennent, entre autre, toutes les données orbitales du satellite, ce qui permet au récepteur de savoir quel coin du ciel scruter pour le trouver plus rapidement). Ces almanachs constituent une aide à la navigation et permettent un géopositionnement plus rapide. Là aussi il est envisageable de modifier le message pour y injecter les almanachs, mais cela prendra plus de temps.

 

  DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
 

MODÈLES ET SIMULATIONS

 

Texte de la 15ème conférence de l'Université de tous les savoirs réalisée le 15 janvier 2000 par Daniel Parrochia


L'expérience dans les sciences : modèles et simulation


"Expérience", du verbe latin "experiri", faire l'essai de, s'introduit en français au XIIIème siècle avec Jean de Meung. Le mot "Expérimenter", du bas latin "experimentare", "essai", remonte au XIVème siècle. Au début du XVIème siècle apparaît en français l'adjectif "expérimental", mais la notion même d"'expérimentation" reste absente des dictionnaires jusqu'en 1824. Et ce n'est qu'en 1865, avec l'Introduction à l'étude de la médecine expérimentale de Claude-Bernard, que le recours à l'expérience trouvera toute son extension, au moment même où l'on s'efforce de transposer la méthodologie victorieuse des sciences de la nature dans le domaine des sciences de la vie.
Inexistante dans l'Antiquité, sous-estimée par Descartes, mais prépondérante dans les sciences à partir de Newton, l'expérience devient donc, à l'époque de Claude-Bernard, un des facteurs incontournables des sciences de la nature et de la vie.
Ce moment d'acmé est en même temps un point d'inflexion. Dans la physique du XIXème siècle, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques.
Aujourd'hui, la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et semble la réinstaller en partie au sein du théorique. Quelles sont donc les limites de cette réintégration ? C'est ce que nous chercherons à définir.
1. La carence expérimentale de la science dans l'Antiquité et à la l'Âge classique
Dans l'Antiquité, sous l'influence de Platon, l'expérience est dévaluée et réduite à la simple observation, contingente et dépourvue de valeur probatoire. Le Thééthète (163 c) distingue soigneusement perception et connaissance, la seconde reposant sur la mémoire et mettant en oeuvre les mécanismes de réminiscence que le Ménon avait présentés autrefois comme solidaires de la rationalité.
Aristote lui-même n'a ni l'idée d'une critique de la perception sensible ordinaire, ni le sentiment de l'importance que peut revêtir pour la science une mesure exacte. Certes, ses traités biologiques révèlent qu'il pratiquait la dissection des animaux. Et sa Physique (II, 4) comme son Traité Du Ciel (II 13 294 b 30), contiennent bien quelques expérimentations. Celles-ci restent toutefois peu nombreuses et limitées. Comme le note Jean-Marie Leblond, «Aristote ne possédait pas des instruments assez perfectionnés et assez exacts pour que le travail de laboratoire put être bien fructueux pour lui» et son «penchant très marqué pour l'observation commune l'en éloignait» [réf 1].
Force est donc de constater que les deux plus grands philosophes de l'antiquité ne connaissent en fait ni méthode expérimentale ni modèles, ni procédés de simulation.
Au XVIIe siècle, dans la perspective anti-aristotélicienne qui est celle de Descartes, le sensible est dévalorisé et la voie mathématique déductive préconisée, en vue d'une physique quantitative fondée en raison. Dans le Traité du Monde et encore au début du Traité de l'Homme, cette déduction est même présentée comme la reconstitution d'un monde fictif, analogue du vrai, et dans lequel les hommes, les corps, les choses sont des automates simplifiés simulant les hommes, corps et choses réelles. Avec cette «fable du monde», le philosophe construit donc une maquette théorique, une sorte de «modèle» (de modulus, diminutif, de modus, moule) de la réalité.
Dans cette perspective déductive, les expériences ne jouent qu'un rôle fort limité, comme le montre bien le Discours de la Méthode [réf 2] :
(1) La nécessité des expériences est proportionnelle à l'avancement des connaissances. Au commencement, les expériences sont à manipuler avec prudence, de sorte que Descartes les restreint aux intuitions immédiates et rejette les expériences plus élaborées, alléguant ici deux explications : d'une part, l'impossibilité de leur assigner une cause quand on ignore les grands principes; d'autre part, le caractère contingent et variable du contexte expérimental.
(2) Quand la connaissance progresse, les expériences, certes, deviennent nécessaires, mais elles ont surtout un rôle d'adjuvant, et servent surtout à pallier les limites de la théorie pure. Les raisons de cette fonction sont multiples :
a) La première est liée à l'écart existant entre la puissance de la déduction mathématique, qui porte sur le possible et enveloppe l'indéfini (sinon l'infini), et la réalité toujours finie et limitée du monde existant. «Lorsque j'ai voulu descendre [aux choses] les plus particulières, écrit Descartes, il s'en est tant présenté à moi de diverses que je n'ai pas cru qu'il fût possible à l'esprit humain de distinguer les formes ou espèces de corps qui sont sur la terre d'une infinité d'autres qui pourraient y être si c'eût été le vouloir de Dieu de les y mettre». Objectivement, distinguer le réel du possible suppose donc un recours aux expériences.
Mais subjectivement, la visée eudémoniste de la science oblige à privilégier, parmi les faits déductibles possibles, ceux qui nous sont utiles. Or, pour distinguer, parmi les choses possibles, celles que nous pourrons, comme dit Descartes, «rapporter à notre usage», il convient «qu'on vienne au-devant des causes par les effets, et qu'on se serve de plusieurs expériences particulières».
b) Une seconde raison rend les expériences plus nécessaires au fur et à mesure que la connaissance s'avance, qui tient, cette fois-ci, dans l'écart entre la puissance de la nature et la simplicité des principes posés en tête de la déduction. «Il faut aussi que j'avoue, écrit Descartes, que la puissance de la nature est si ample et si vaste, et que ces principes sont si simples et si généraux, que je ne remarque quasi plus aucun effet particulier que d'abord je ne connaisse qu'il peut en être déduit en plusieurs diverses façons, et que ma plus grande difficulté est d'ordinaire de trouver en laquelle de ces façons il en dépend». Ici, l'explication est combinatoire : le nombre des chemins déductifs possibles étant supérieur à celui des chemins déductifs réels, les expériences doivent intervenir. Elles sont finalement, pour Descartes, l'«expédient» qui permet de faire le départ entre des couples de chemins déductifs possibles, dont un seul est réel.
Au bilan, l'expérience, joue donc un triple rôle : combler l'écart entre le possible et le réel; séparer l'utile de l'inutile et simplifier le graphe des déductions possibles, opérant ainsi sur la chaîne déductive une sorte de «stabilisation sélective». La théorie, virtuellement hésitante et bifurcante, est alors restreinte à certaines voies déductives privilégiées.
Cette méthodologie devait rencontrer de nombreux problèmes. Maupertuis, au siècle suivant, en démontra les inconséquences (l'impossible hypothèse des tourbillons). Mais Newton devait ruiner l'édifice cartésien déjà fortement ébranlé par les critiques de Leibniz, Malebranche ou Huygens Une science fondée sur les faits expérimentaux et non plus sur des principes abstraits allait se substituer à la déduction cartésienne. Que devient alors la notion d'expérience une fois ce grand retournement opéré ?
2. Vers le modèle et la simulation
Dès la fin du XVIIème siècle, sous l'influence de la philosophie empiriste de Locke, qui réhabilite la sensation et en fait la condition de toute nos idées, la synthèse géométrique cesse d'être l'idéal de tout savoir et la forme de la connaissance abandonne le paradigme hypothético-déductif pour une démarche analytique et génétique, associationniste et combinatoire. La mécanique newtonienne se déploie dans ce contexte où il n'est plus question de «feindre des hypothèses» et où les faits, mathématisés, deviennent rois. Au début du livre III des Principes mathématiques de la philosophie naturelle [réf 3], Newton énonce quatre règles qui constituent, jusqu'au XIXème siècle, la base de la méthode expérimentale en physique. Ces règles trahissent une opposition totale à Descartes :
1° «Les causes de ce qui est naturel ne doivent pas être admises en nombre supérieur à celui des causes vraies ou de celles qui suffisent à expliquer les phénomènes de ce qui est naturel.» On ne doit donc pas avoir plus de principes explicatifs qu'il n'est nécessaire. C'est la fin d'une conception où le possible était plus puissant que le réel.
2° Il faut, en second lieu, «assigner les mêmes causes aux effets naturels du même genre». Autrement dit, impossibilité de rapporter les mêmes effets à des séries causales différentes. La théorie ne peut pas, et ne doit pas, contenir de bifurcation.
3° Les corps sur lesquels on expérimente, sont un sous-ensemble témoin suffisamment invariant pour servir de base inductive : «Les qualités des corps qui ne peuvent être ni augmentées ni diminuées, et qui appartiennent à tous les corps sur lesquels on peut faire des expériences doivent être considérées comme les qualités de tous les corps en général».
Newton, qui étend prudemment les enseignements de l'expérience, en ne cessant pas de s'appuyer sur les faits, précise cependant «que l'on ne doit pas forger des rêveries à l'encontre du déroulement des expériences» [réf 4]. En toute circonstance, il préfère s'appuyer sur les faits les plus avérés : ainsi, à propos des corps, il tablera sur la notion de force d'inertie plutôt que sur la notion d'impénétrabilité, beaucoup plus vague.
4° La règle IV précise le sens expérimental de sa méthodologie : les propositions réunies par induction à partir des phénomènes doivent être tenues pour vraies tant que des hypothèses contraires ne leur font pas obstacle, ou tant que d'autres phénomènes ne viennent pas les rendre plus précises ou les affranchir des exceptions qu'elles pourraient contenir.
Ainsi, une proposition ne devient générale et ne se précise que par induction, et toujours parce que les phénomènes le permettent. L'expérience, comme observation et comme observation provoquée, c'est-à-dire comme expérimentation, devient la règle suprême de la philosophie naturelle.
Quest-ce qui a alors amené la science à infléchir à nouveau la méthode expérimentale dans les deux directions anticipées par Descartes : la construction de modèles et la mise en place de procédés de simulation ?
1) Au début du XIXème siècle, la mécanique newtonienne s'est complexifiée et décrit désormais des «systèmes» physiques.
La notion de système s'est introduite en physique à travers l'étude des forces et de l'équilibre [réf 5], et, comme un système physique va devoir être décrit par un système d'équations mathématiques, la notion de modèle n'est pas loin. A l'époque, la physique s'ouvre en outre à des domaines nouveaux non mécaniques (électrostatique, thermodynamique, électromagnétisme) qu'elle explore à partir des méthodes de la science connue, autrement dit de la mécanique. La mécanique, elle-même systémique, devient ainsi un réservoir de modèles, aussi bien de montages pratiques que de modèles théoriques.
La notion de modèle comme norme abstraite se développe alors en physique. Le modèle est ici un intermédiaire à qui les physiciens délèguent la fonction de connaissance, de réduction de l'encore-énigmatique à du déjà-connu, notamment en présence d'un champ d'études dont l'accès est difficilement praticable [réf.6].
Cette fonction de délégation du modèle le fait apparaître comme un instrument d'intelligibilité dont la fonction est triple :
a) Dans un monde complexe et déployé dans des régions hétérogènes et sur des échelles très différentes, le modèle, bien adapté à un niveau d'expérience particulier, permet encore d'intégrer les niveaux inférieurs.
b) Réalisant une économie (puisqu'il transpose une même méthodologie sur un autre champ), il abrège la science en l'augmentant et permet ainsi de faire plus avec moins.
c) Ramenant le nouveau à l'ancien, il justifie l'exportation des méthodes connues dans des champs inconnus.
2) Dès la seconde moitié du XIXème siècle, la méthode expérimentale sinstalle en biologie et en médecine.
Claude-Bernard, avec son Introduction à l'étude de la médecine expérimentale, est le grand théoricien de cette extension. Mais sa définition de la méthode expérimentale est restrictive : pour lui, celle-ci «ne fait pas autre chose que porter un jugement sur les faits qui nous entourent, à l'aide d'un criterium qui n'est lui-même qu'un autre fait, disposé de façon à contrôler le jugement et à donner l'expérience» [réf 7]. Or, faire éclater l'expérience en faits simples et penser qu'on peut juger d'un fait au moyen d'un autre fait va s'avérer insuffisant. De plus, le constat reste le premier moment de la méthode préconisée par Claude-Bernard même s'il précise, par ailleurs, que l'expérience scientifique n'est pas une observation passive mais provoquée, et insiste à juste titre sur l'art du raisonnement expérimental. En fait, dans le mouvement cyclique qui caractérise sa méthode, le constat est bien à la source de l'idée à partir de laquelle pourra s'instituer le raisonnement et se mettre en place des expériences, lesquelles seront à leur tour sources de nouvelles idées et inductrices d'un nouveau cycle. Or le fait constaté, pour Claude-Bernard, reste un fait granulaire : non seulement la méthode scientifique exige un «morcellement du domaine expérimental» [réf 8] mais elle est de part en part analytique et aboutit volontairement à la dissociation des phénomènes. «A l'aide de l'expérience, nous analysons, nous dissocions ces phénomènes afin de les réduire à des relations et à des conditions de plus en plus simples» [réf 9]. D'où, deux conséquences :
(1) Les progrès de la connaissance seront toujours dus à des décisions élémentaires heuristiques, à caractère discret : «Le choix heureux d'un animal, écrit Claude-Bernard, un instrument construit d'une certaine façon, l'emploi d'un réactif au lieu d'un autre, suffisent souvent pour résoudre les questions générales les plus élevées».
(2) Le privilège de l'analyse et l'élémentarité des faits, qui renvoient au fond encore à une épistémologie cartésienne, interdit la saisie des relations dialectiques entre les phénomènes : «de ce qui précède, note Claude-Bernard à là fin de son introduction sur le raisonnement expérimental, il résulte que, si un phénomène se présentait dans une expérience, avec une apparence tellement contradictoire qu'il ne se rattachât pas d'une manière nécessaire à des conditions d'existence déterminées, la raison devrait repousser le fait comme un fait non scientifique» [réf 10].
Mais là, Claude-Bernard théoricien de la méthode expérimentale est en retard sur Claude-Bernard praticien de la physiologie, théoricien des mécanismes de régulation et fondateur de la notion de milieu intérieur. Critiquant l'anatomie, dans ses Leçons de physiologie expérimentale appliquées à la médecine (Paris 1856, tome 2, 6), il notait déjà l'impossibilité de déduire d'un examen anatomique d'autres connaissances d'ordre fonctionnel que celles qu'on y avait importées : or parmi les connaissances importées par les anatomistes, il notait la présence de modèles concrets : «quand on a dit, par simple comparaison, écrivait-il, que la vessie devait être un réservoir servant à contenir des liquides, que les artères et les veines étaient des canaux destinés à conduire des fluides, que les os et les articulations faisaient office de charpente, de charnières, de levier, etc.», «on a rapproché des formes analogues et l'on a induit des usages semblables». Canguilhem, qui cite ce texte dans ses Etudes d'histoire des sciences [réf 11] constate pourtant que le mot «modèle», ici, n'est pas utilisé.
Mais ce que Claude-Bernard théoricien néglige va s'avérer de plus en plus nécessaire pour comprendre les mécanismes de régulation qu'il a lui-même mis en évidence comme expérimentateur. Au fur et à mesure que la biologie et la médecine progresseront, le caractère interrelié des phénomènes de la vie imposera la prise en compte de faits complexes, et parfois en eux-mêmes apparemment contradictoires ou, en tout cas, antagonistes. Dès lors, ce n'est plus simplement de modèles concrets, iconiques et analogiques dont on va avoir besoin. Ce sera, comme en physique, d'authentiques modèles mathématiques.
Avec la cybernétique de N. Wiener, puis la théorie des systèmes de Bertalanffy, ce genre d'approche va se développer, et la biologie, à différents niveaux, en fera grand usage.
Au niveau cellulaire, Monod, Jacob et Lwoff ont pu décrire les phénomènes métaboliques en supposant l'existence d'un mécanisme cybernétique impliquant l'action conjointe d'un inducteur et d'un répresseur [réf 12].
Au plan des mécanismes hormonaux, de même, des modèles ont pu être proposés pour expliquer les régulations croisées et les actions conjointes d'axes hormonaux antagonistes comme les axes anté- et post-hypophysaires, des actions stimulantes de l'axe défaillant existant conjointement à des actions inhibitrices de l'axe prédominant [réf 13].
Dans ces deux exemples, des situations dialectiques complexes ne deviennent intelligibles que par une modélisation.
Enfin, à un niveau beaucoup plus général, la pensée écologique depuis les années 1930, avec l'introduction des notions de système écologique et de réseau trophique, a imposé la construction de modèles pour saisir les réalités naturelles complexes et interreliées, notamment les comportements des vivants en relation avec leur milieu biotique et abiotiques [réf 14].
La modélisation s'est donc imposée en biologie, en médecine, et en écologie, à l'encontre des idées de Claude-Bernard.
3. Les rapports entre modélisation et simulation
Si modéliser, c'est déléguer la fonction de connaissance afin de représenter la réalité de façon à la fois économique et fiable, encore faut-il s'assurer que le modèle conserve un lien avec l'expérience. C'est la tâche de la simulation, notion aux connotations jadis négatives, et que Platon, dans la République (VI, 51le) réservait à un type de savoir dégradé, celui des images, plus bas degré de la réalité selon lui. A travers Gracian, Diderot, puis Nietzsche, s'opère progressivement un renversement qui réhabilite l'artifice et permet de faire aujourd'hui, l'«éloge de la simulation», cette capacité à reproduire numériquement et à générer de façon figurative et imagée des situations, des séquences, des processus identiques aux processus réels.
1) Modélisation et simulation
Selon Etienne Guyon [réf 15], modélisation et simulation restent des démarches distinctes. La modélisation, vu ses outils, garde plus de latitude par rapport au réel que la simulation. Les conditions du mimétisme absolu ne sont pas respectées puisque le modèle opère une simplification du phénomène, ne retenant que les variables les plus caractéristiques. Ceci constitue une approximation, mais qui suffit souvent pour réussir.
En regard de cette modélisation, la simulation semble une approche plus coûteuse, puisqu'elle invite à conserver tous les paramètres du problème initial. Ainsi, selon E. Guyon, le simulateur de vol ou de conduite place-t-il le pilote dans des conditions tout à fait semblables à celle qu'il aura à affronter dans la réalité. Mais ce sentiment est trompeur car le simulateur est un modèle réduit, une simplification de la réalité, restreinte à un poste de pilotage monté sur un système de venins hydrauliques.
La simulation présuppose donc la modélisation : elle joue sur le fait que, du point de vue de la représentation humaine, le même effet peut être produit de différentes façons, et notamment d'une manière plus économique que d'une autre.
Par conséquent, les deux méthodes doivent être jugées plus complémentaires qu'opposées.
2) Fonction de la simulation.
La simulation permet d'effectuer des tests et d'expérimenter sans danger, mais aussi, dans certaines branches de la physique appliquée, de pallier les déficiences de la théorie. Ainsi, en météorologie, où il n'est pas possible de connaître théoriquement le comportement de l'atmosphère (système dynamique évolutif sensible aux conditions initiales), à moyen ou long terme, on a recours à la modélisation et à la simulation. Des programmes de calculs résolvent les équations de façon approchée mais théoriquement aussi précise que l'on veut. A partir de la connaissance de l'état de l'atmosphère à un instant donné, on peut théoriquement calculer l'évolution de cette atmosphère, et faire des prévisions. Cette approche permet en outre l'expérimentation, le modèle numérique devenant un laboratoire virtuel dans lequel on peut tester des hypothèses. Par exemple, on y fait varier certain paramètre (quantité d'énergie solaire reçue, vitesse de rotation de la terre...) pour en étudier les conséquences sur le climat. Ces modèles numériques permettent en outre d'affiner la prévision à court terme en injectant périodiquement dans le modèle de nouvelles valeurs de mesure, en coefficientant ces dernières de telle manière qu'elles aient un poids plus important que les mesures plus anciennes et aboutissent à des prévisions plus fiables.
Même si la météorologie reste une science où les modèles sont encore approximatifs, les progrès de la couverture satellitaire et des différentes méthodes numériques et informatiques permettent aux météorologues de préciser les conditions initiales et de limiter l'impact du chaos déterministe et de la turbulence. D'incessants progrès ont été faits depuis les premiers modèles, qui datent des années 1950.
Nous pourrions évoquer encore bien des exemples où modélisation et simulation vont de pair, par exemple dans les sciences humaines. Lévi-Strauss, dans La Pensée Sauvage, avait déjà souligné l'importance de la notion de «modèle réduit», à propos de la pensée mythique qui propose une sorte de métaphore du monde. On est passé rapidement de la métaphore au modèle dans des disciplines comme l'analyse spatiale en géographie ou encore la dynamique économique, qui sont des secteurs dans lesquels la modélisation et la simulation se sont énormément développées.
3) Caractère créatif de ce couple modélisation-simulation
L'intelligence artificielle (I.A.) servira ici dexemple. Se proposant au départ de comprendre la nature de l'intelligence, les chercheurs ont dû se limiter à reconstituer des comportements intelligents (et une reconstitution n'est pas une explication). Le plus souvent, ils se sont même bornés à faire faire à un ordinateur des tâches pour lesquelles l'homme est encore aujourd'hui le meilleur. Il y a un triple affaiblissement du projet initial puisque c'est avouer que non seulement on ne connaîtra pas la nature de l'intelligence, non seulement le simulacre ne renversera pas le modèle et la copie, mais la copie restera une copie imparfaite et qui n'égalera pas le modèle humain. Cette évolution, qui sonne une sorte de retour à Platon et va donc d'une modélisation impossible à une simulation imparfaite, aurait pu à bon droit passer pour une régression aliénante. Or, selon Philippe Quéau, ce chemin apparaît au contraire libérateur :
(1) La nécessité où l'on se trouve, en I.A. comme d'ailleurs souvent en physique, de faire d'abord fonctionner le modèle pour tester sa cohérence interne avant de le valider, amène parfois à le nourrir de données arbitraires. Or cet éloignement de l'expérience réelle porte en lui une créativité potentielle. Dans cette expérimentation inédite, le modèle, suivant des trajectoires éventuellement imprévues, devient susceptible de potentialités nouvelles entraînant au delà du connu.
(2) Alors que le modèle, comme réduction, opérait une certaine forme de condensation de l'expérience, «la simulation, écrit Philippe Quéau, nécessite le déplacement, le remaniement, l'ordonnancement du modèle» [réf 16]. Ces mots de condensation et de déplacement sont ceux par lesquels Freud a décrit la logique de l'inconscient, qui est aussi celle du rêve. Philippe Quéau en déduit que le simulateur, qui condense et réduit, produit donc un rêve formel, libéré des contraintes de l'expérience sensorielle qui en fournit ordinairement les matériaux.
Une des applications bien connues est la synthèse d'image, où la création de mondes virtuels, de flores ou de faunes inventées mais mathématiquement crédibles - toute une «vie artificielle» -, semble plonger le réel dans un univers beaucoup plus riche dont il n'apparaît plus que comme l'un des possibles. Le modèle, qui condense le réel, débouche, grâce au simulateur, sur une amplification théorique de celui-ci.
Cette conclusion n'admet-elle aucune limite ?
S'il est vrai que la simulation informatique fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique, la question se pose de savoir si ce nouveau tournant nous ramène ou non au point de départ. Bachelard nous avait appris que le rationalisme devait s'appliquer. Mais la modélisation et la simulation semblent faire l'économie d'une application réelle. Le rationalisme devient-il fantasmé ?
Certes, la modélisation-simulation, comme condensation et déplacement, opère une amplification de l'expérience, qui fait de cette extension virtuelle du réel, comme le montre Gilles-Gaston. Granger [réf. 17], un réel reformulé et enrichi, ce qu'on pourrait appeler un surréel. Ce «surréalisme» de la science contemporaine n'est d'ailleurs que le pendant du surrationalisme des grandes théorie scientifiques du XXème siècle. Expérience et applications y sont moins réfutées que réduites à un support minimum, le symbolique remplaçant économiquement le matériel.
Mais une telle réduction-substitution n'est pas sans risque. D'abord, il convient de ne confondre ni les objets et leurs images, ni les simulations et la réalité : la simulation d'un incendie ne brûle personne, les aléas de «la vie sur l'écran» n'engendrent aucune souffrance. Les erreurs qu'on peut commettre avec ces outils, tout comme la difficulté de leur validation, nous rappellent leurs limites. Certaines simulations numériques comme les simulations des explosions nucléaires, qui remplacent apparemment avantageusement ces dernières, n'excluent pas des expériences réelles coûteuses. En outre, on peut encore s'interroger sur les dangers de la virtualisation. La virtualisation des explosions nucléaires a tendance à banaliser la bombe. Il n'est pas sûr qu'on y gagne beaucoup.
Toutes les simulations ne font pas encourir les mêmes dangers. Mais l'expérience scientifique moderne, modélisée et simulée, ne saurait occulter le recours à l'expérience réelle. La simulation moderne suscite des mondes virtuels dont la logique, qui tient parfois du rêve, pourrait se révéler celle du cauchemar si elle se déconnectait totalement de l'expérience sensible et si la matière symbolique devait définitivement remplacer la matière réelle. Mais nous n'en sommes pas là et le recours au sensible, aux infrastructures matérielles et aux coûts réels nous remet périodiquement, malgré l'excroissance surréaliste que nous avons créée, dans une perspective de rationalisme appliqué.

 

VIDEO       CANAL  U         LIEN

 

( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon