ecole de musique piano
     
menu
 
 
 
 
 
 

LES SCIENCES COGNITIVES EN FRANCE

 

Les sciences cognitives en France
Brigitte Chamak

Résumé
The Institutionalisation of Cognitive Sciences in France
The aim of this paper is to reconstruct the different stages of the institutional process which led to the structuring of cognitive sciences in France between 1985 and 2003. This research is based on reports written for the CNRS and the Research Ministry; it underlines the professional and disciplinary interests of the concerned participants. This study shows that two main orientations divide the researchers. For those who identify cognitive functions with logical operations, the computer constitute the model and thought is perceived like a system of symbols’ handling ; whereas for those interested in neurophysiological mechanisms, the study of the mind belongs to neurosciences. The analysis of the institutional process shows that the cognitive sciences’ frontiers are the results of negotiations between disciplines and that economic and political factors contribute to amend their contours. The comparison with United States indicates a gap of twenty years; the first American cognitive sciences centre was created in 1960. The development of artificial intelligence during the Cold War is one reason of the origin of this gap, depended also by the concentration of resources and most efficient computers available to the American pioneers of artificial intelligence. As for the neurosciences researchers, in France as well as in United States, one has to wait the middle of the 1980’s to see a beginning of the process of institutionalisation in the field of the cognitive sciences, changing the original orientations.

Plan
Introduction
Le processus d’institutionnalisation des sciences cognitives en France
Première initiative : le CNRS
L’action du ministère de la Recherche
Le programme « cognisciences » du CNRS
Le rapport Guibert (ministère de la Recherche)
L’unification des actions du CNRS et du ministère de la Recherche et de l’Enseignement supérieur
Le tour de la linguistique et des SHS
Comparaison avec les États-Unis
La place de l’informatique et de l’intelligence artificielle
La place des neurosciences
Conclusion

Introduction
    •   
1
Par quels processus institutionnels les sciences cognitives se sont-elles structurées en France ? Dans les années 1980, les chercheurs qui se réclamaient de ce domaine expliquaient qu’ils tentaient de regrouper différentes disciplines (intelligence artificielle (IA), neurosciences, psychologie, linguistique, philosophie…) pour analyser les processus impliqués dans la formation et l’exploitation des connaissances. Intéressés par l’étude du fonctionnement de la pensée, ils cherchaient à décrire, expliquer, simuler les fonctions cognitives telles que le langage, le raisonnement, la perception, la compréhension, la mémoire ou l’apprentissage. Ce type d’intérêt les a conduits à proposer différentes théories de l’esprit adoptant deux grandes orientations. Pour les uns, l’hypothèse de base est que la pensée opère selon un processus de traitement de l’information et les fonctions cognitives sont assimilées à des opérations logiques. Pour les autres, l’esprit procédant du fonctionnement cérébral, son étude relève principalement des neurosciences. Il s’agit alors de mettre en évidence les mécanismes neurophysiologiques sous-jacents aux fonctions cognitives et de localiser les structures neurales impliquées. Ce sont les neurosciences cognitives1.
2
Cet article tentera, dans un premier temps, de reconstituer le processus institutionnel qui a conduit à la structuration des sciences cognitives en France entre 1985 et 2003 par l’intermédiaire de l’analyse des rapports produits pour le CNRS et le ministère de la Recherche, et de mettre en évidence les intérêts professionnels et disciplinaires en jeu. Dans un second temps, une comparaison avec les États-Unis cherchera à déterminer pourquoi un décalage de vingt ans sépare le processus institutionnel des sciences cognitives dans ces deux pays et comment des contextes différents influent sur l’histoire de la construction d’un nouveau domaine.
    •   
3
Les théories d’Andrew Abbott2 sur le système de professionnalisation offrent un cadre méthodologique et théorique à ce type d’étude qui vise à comprendre comment se constituent les frontières d’un nouveau domaine et à analyser les enjeux sous-jacents à cette construction. Les professions ne constituent pas seulement des corps organisés d’experts qui appliquent des connaissances à des cas particuliers et qui élaborent un système de formation. La professionnalisation peut être vue comme une tentative de délimiter un territoire et de répondre à certaines questions : comment définir et classer un problème, comment y réfléchir et comment agir ? Le système de connaissance académique d’une profession accomplit généralement trois tâches, celles de légitimation, de recherche et de formation. Pour comprendre l’organisation d’un milieu professionnel, Andrew Abbott suggère de commencer par décrire qui contrôle quoi, quand et comment.
    •   
4
Le modèle proposé par Andrew Abbott insiste sur l’interdépendance des professions et décrit des sources de modification, internes ou externes, qui perturbent le système en ouvrant de nouveaux champs d’action ou en impliquant de nouveaux groupes professionnels. Le développement de nouvelles connaissances ou de nouvelles technologies peut constituer une source interne de modification. Parmi les autres mécanismes de modification du système, Andrew Abbott décrit l’utilisation d’une connaissance abstraite pour annexer de nouvelles zones et les définir comme faisant partie du domaine. Il donne l’exemple des chercheurs en IA qui, en affirmant que les questions posées par toutes les autres professions peuvent être traitées en utilisant leur approche computationnelle, tentent de réduire les autres professions à des pourvoyeurs de questions3.
5
Des forces externes affectent également les professions à travers différents mécanismes. Dans le cas des sciences cognitives, nous verrons comment les contextes économique et politique jouent un rôle non négligeable dans le développement et l’orientation de ce domaine.
Le processus d’institutionnalisation des sciences cognitives en France
6
Entre 1985 et 1995, plusieurs rapports sur les sciences cognitives ont été produits à la demande du CNRS ou du ministère de la Recherche pour évaluer dans quelles perspectives pouvait être financé ce nouveau domaine en France. Ces rapports constituent une source importante pour la détection des enjeux sous-jacents à la construction des sciences cognitives.
Première initiative : le CNRS
    •   
7
En 1984, Pierre Papon, directeur général du CNRS, demande au sociologue Dominique Wolton un rapport sur la communication et les sciences cognitives. Pierre Papon, très intéressé par la prospective, cherchait à disposer d’un support pour développer « ce qui pourrait être une politique de recherche interdisciplinaire dans le domaine de la communication4 ». Dominique Wolton propose de favoriser les recherches dans trois directions : les sciences cognitives, les neurosciences et les sciences sociales. Pierre Papon crée alors en 1985 une action de recherche intégrée en liaison avec les trois directions scientifiques du CNRS : SDV (sciences de la vie), SPI (sciences physiques pour l’ingénieur) et SHS (sciences humaines et sociales).
    •   
8
À la même époque, en 1985, Yves Stourdzé, sociologue qui dirigeait le Cesta (Centre d’études des systèmes et technologies avancées) et qui avait assisté à un colloque au Japon sur les sciences de l’artificiel, décide d’organiser à Paris le premier colloque international en sciences cognitives, « Cognitiva 85 : de l’intelligence artificielle aux biosciences ». Ce colloque sera essentiellement orienté vers l’intelligence artificielle et ses applications5.
    •   
9
Dans son rapport, « Programme de recherche sur les sciences de la communication », publié en 1989, qui résume les actions menées depuis 1985, Dominique Wolton identifie comme essentielles les collaborations entre psychologues, linguistes et informaticiens et loue le rôle de l’Association pour la recherche cognitive (Arc)6, créée en 1981. Dans une annexe du rapport, Gérard Sabah, président de l’Arc, présente les sciences cognitives comme étant centrées autour de l’IA dont l’objectif consiste à construire des modèles informatiques de la connaissance. On constate une absence de référence au cerveau et aux neurosciences dans la construction élaborée par les membres de l’Arc. Dans son rapport, Dominique Wolton reproche même aux neurosciences d’avoir « assez naturellement tendance à penser, au nom d’une approche à la fois analytique et fondamentaliste, être le noyau dur à partir duquel se construiront les sciences de la cognition ». à ce stade, les rivalités et les enjeux disciplinaires sont perceptibles : il s’agit de favoriser une collaboration entre chercheurs en informatique et chercheurs en sciences humaines et sociales. Des disciplines considérées comme dominées cherchent à acquérir prestige et autonomie en construisant un nouveau domaine centré sur la connaissance, objet d’étude prestigieux qui cherche à être abordé de façon différente.
10
C’est ainsi que les représentants des SHS et des SPI se sont investis dans le développement de six pôles de recherche : Paris-Centre, Paris-Nord, Paris-Sud, Lyon-Grenoble, Aix-Marseille, Toulouse. Les coordinateurs de ces réseaux étaient des chercheurs en informatique, des linguistes et des psychologues (Jean-Pierre Desclès, Jean-François Richard, Gérard Sabah, Guy Tiberghien, Jean-Paul Caverni et Mario Borillo).
L’action du ministère de la Recherche
    •   
11
Lorsqu’en 1989, le ministère de la Recherche et celui de l’éducation nationale lancent l’action « sciences de la cognition », ils s’adressent cette fois au neurobiologiste Jean-Pierre Changeux, qui va placer le cerveau au centre du domaine. Son rapport insiste sur le rôle déterminant des neurosciences et de la psychologie cognitive7. La place accordée à l’informatique est réduite : encore s’agit-il d’informatique théorique et non d’intelligence artificielle. Cette informatique théorique est intégrée dans un ensemble appelé sciences formelles qui regroupe logique, linguistique et théorie mathématique des systèmes. Un chapitre est consacré aux réseaux neuronaux mais il est très révélateur de constater qu’il est rédigé par des mathématiciens et non par des informaticiens. L’Arc n’est pas mentionnée. à la lecture de ce rapport, les chercheurs en informatique n’apparaissent pas comme des partenaires. L’analyse des objectifs du rapport, bien différents de ceux proposés par Dominique Wolton, laisse entrevoir une stratégie qui consiste à tenter de créer un domaine plus vaste et plus puissant encore que celui des neurosciences en faisant alliance avec des psychologues et des chercheurs de disciplines prestigieuses (mathématique, philosophie).
12
Un an seulement après le rapport Changeux, l’importance de l’informatique et de l’IA est pourtant clairement évoquée dans le second appel d’offres de l’action concertée en sciences cognitives du ministère. Mario Borillo, chercheur en informatique, est alors membre du comité présidé par Jean-Pierre Changeux. Cependant, la même année, ce dernier organise à Lyon, avec le neurobiologiste André Holley, un congrès fortement orienté « neurosciences ». La polémique ne tarde guère. Les informaticiens se rebiffent : la place accordée par Jean-Pierre Changeux aux sciences du cerveau leur paraît disproportionnée et illégitime.
Le programme « cognisciences » du CNRS
13
Deux mois plus tard, en 1990, le CNRS lance le programme interdisciplinaire de recherche (Pir) « cognisciences » qui vise à développer les réseaux mis en place cinq ans auparavant. Il en confie la direction à André Holley et le comité scientifique est présidé par Mario Borillo.
14
Ce programme a financé sept réseaux régionaux, Cogniseine, Paris-Centre, Paris-Sud, Cognisud (Aix, Marseille, Nice-Sophia-Antipolis), Grand Est (Metz, Nancy, Strasbourg), Prescot (Toulouse), Rhône-Alpes. C’est à l’un des responsables du réseau Cogniseine, Alain Berthoz, que le ministère de la Recherche confie l’organisation d’un grand colloque de prospective sur les sciences de la cognition qui a lieu à Paris en janvier 1991.
15
Ingénieur et neurophysiologiste, Alain Berthoz s’intéresse à la physiologie des fonctions sensori-motrices, au contrôle de l’équilibre et à la perception du mouvement. Il organise ce colloque où biologie et informatique sont réunies. À la suite du colloque, un rapport d’un comité de suivi est présenté en novembre 1991 : dans le chapitre sur la technologie de l’intelligence et de la communication, Mario Borillo met l’accent sur les applications industrielles associées au développement des sciences cognitives, et en particulier sur l’imagerie cérébrale et les réseaux neuronaux. L’informatique y est présentée comme la discipline pivot. Le rapport insiste sur les retombées économiques et sociales de l’IA : systèmes d’aide à la décision, communication homme-machine, interprétation d’images, traitement de messages linguistiques, contrôleurs (aéronautique, espace, nucléaire…), télécommunications, industrie de la musique, domaines de l’audiovisuel, parole de synthèse, prothèses acoustiques…
16
Ainsi, en 1991, si une place privilégiée est accordée à l’étude du fonctionnement du cerveau, à l’imagerie cérébrale et la pharmacologie, l’accent est mis sur les retombées économiques et sociales des réseaux de neurones formels et des technologies de l’IA et de la communication. Pour obtenir des financements, il paraissait crucial d’insister sur les applications pratiques et les secteurs prometteurs de nouveaux marchés.
Le rapport Guibert (ministère de la Recherche)
17
À la suite du colloque de 1991 et du rapport d’Alain Berthoz, le ministre de la Recherche et de la Technologie, Hubert Curien, demande un rapport à Bernard Guibert, attaché au service SHS du ministère de la Recherche, pour essayer de répondre à deux questions : « 1) Comment étendre aux sciences sociales les bienfaits de l’interdisciplinarité à l’œuvre de manière spectaculairement féconde dans les sciences de la cognition ? 2) Comment faire un pas en direction des applications et des transferts de technologie ? ». L’effervescence autour de ce qui est appelé « sciences cognitives » a donc atteint des cibles politiques : un ministre est convaincu des « bienfaits » de ces nouvelles orientations et, surtout, des possibilités d’applications.
    •   
18
Dans son rapport8, Bernard Guibert reprend les conceptions de Dominique Wolton, c’est-à-dire la volonté d’alliance entre chercheurs en sciences humaines et chercheurs en informatique. Il voit dans le développement des sciences cognitives un moyen pour « revitaliser les sciences humaines cognitives », renforcer la psychologie et la linguistique. Dans son bilan des actions menées entre 1989 et 1991, il constate, pour le regretter, que les neurosciences ont été trop favorisées par rapport aux autres disciplines.
L’unification des actions du CNRS et du ministère de la Recherche et de l’Enseignement supérieur
19
L’action concertée « sciences de la cognition » du ministère parvenant à la fin de son mandat (cinq ans), une structure provisoire, le programme de recherches coordonnées (PRC) « sciences de la cognition », dirigé par un chercheur en informatique de Paris VI, Jean-Gabriel Ganascia, est mise en place. Alors que pour sa première action en 1989, le ministère avait fait appel à un neurobiologiste, cinq ans plus tard, c’est à un chercheur en informatique qu’elle confie ce PRC destiné à préparer le passage à une unification des actions du CNRS et des deux ministères.
   
20
L’unification annoncée se concrétise en avril 1995 à travers le groupement d’intérêt scientifique (Gis) « science de la cognition ». Associant le ministère, le CNRS, l’Institut national de la recherche en informatique et automatique (Inria), le Commissariat à l’énergie atomique (CEA) et, un an plus tard, l’Institut national de recherche sur les transports et leur sécurité (Inrets), ce Gis est dirigé par Jean-Gabriel Ganascia9. Le projet qu’il rédige suite à sa nomination met en avant les applications industrielles des sciences cognitives : édition, industrie de l’information, interaction homme-machine, traitement d’image, robotique, fabrication de systèmes complexes (trains, satellites, centrales nucléaires…)10. Les neurosciences ne sont pas mentionnées, seule l’imagerie cérébrale est citée. Jean-Gabriel Ganascia se donne pour objectif de « favoriser les transferts de la recherche fondamentale vers le secteur aval, en particulier vers la recherche appliquée et vers l’industrie ». Il a contacté l’Aérospatiale, Dassault-Aviation, Renault, Peugeot, Matra-Hachette, Bull, Thomson-LCR, la SNCF, la RATP, le Cnet, l’Onéra, le ministère de la Culture. Le rapprochement entre chercheurs et industriels est présenté comme essentiel.
  
21
En 1990, cinq ans avant l’écriture de son projet, Jean-Gabriel Ganascia publiait L’Âme-machine, un livre centré sur l’IA11. Dans son ouvrage, il présentait un récit héroïque qui faisait de l’IA une science dont l’évolution était comparée à celle d’un être humain : la période embryonnaire, suivie de l’exubérance, l’enthousiasme et les excès de la jeunesse, s’achevant par la maturité et la sagesse. En 1996, il publiait un ouvrage sur l’IA destiné au grand public où il reprenait ce récit héroïque12. Le début ressemblait à un conte : « à sa naissance en 1956, les fées se sont penchées sur son berceau. On lui attribuait toutes les qualités, on prophétisait : elle devait transformer le travail, changer la vie et donc changer le monde. C’était la période des prophètes. » La date de 1956 correspond au colloque de Dartmouth qui scelle la naissance de l’IA13. Des mathématiciens, des psychologues, des ingénieurs et des économistes se sont retrouvés à ce colloque avec la volonté de produire des machines dites intelligentes. Ils considéraient que les caractéristiques de l’intelligence pouvaient être décrites formellement pour être simulées sur ordinateur.
    
22
À travers les écrits et les propos de Jean-Gabriel Ganascia14 transparaît la volonté de transformer le statut de l’informaticien, pour que ce dernier soit reconnu comme un chercheur à part entière, et de réhabiliter les recherches dites appliquées, comme l’ont fait avant lui Herbert Simon15, l’un des pionniers de l’IA, et Jean-Louis Le Moigne16.
    •   
23
Les aspirations et les orientations de Jean-Gabriel Ganascia, et d’autres chercheurs en informatique, sont en accord avec les demandes du gouvernement de l’époque qui cherche à orienter les recherches vers des objectifs plus finalisés. Avec la consultation nationale sur les grands objectifs de la recherche scientifique lancée par François Fillon en 1994, on constate en effet un désir de contrôle plus grand de l’État sur la recherche et une orientation vers le rapprochement entre laboratoires publics et entreprises. Les chercheurs en informatique proposent des projets à court terme et de nombreuses applications. Ces choix vont les conduire à acquérir davantage d’autonomie vis-à-vis des autres disciplines. Les pressions de concurrence internationale ayant produit une cristallisation autour de l’IA et les responsables politiques s’étant rendu compte que les sciences cognitives pouvaient se structurer autour des technologies de l’information, dont la maîtrise est considérée comme un enjeu majeur, les chercheurs en informatique vont pouvoir obtenir des financements plus conséquents et acquérir davantage de prestige17.
24
L’analyse du processus d’institutionnalisation des sciences cognitives en France montre que les frontières d’un nouveau domaine sont soumises à négociation entre disciplines et que des facteurs extérieurs (économiques, politiques…) contribuent à orienter les contours du domaine. La multi- ou l’interdisciplinarité mise en avant par les chercheurs en sciences cognitives est soumise à rude épreuve : en fonction de leur discipline d’origine, les discours et les modèles sont bien différents. Pour les uns, les neurobiologistes, l’étude du fonctionnement du cerveau est cruciale pour comprendre les processus cognitifs, tandis que pour les autres, les conceptualisations des phénomènes cognitifs s’organisent autour de l’intelligence artificielle et de ses simulations. Pour les chercheurs en IA, l’objectif consiste à obtenir de la machine un comportement « intelligent » ou plutôt qui serait jugé tel si c’était un être humain qui le produisait. Ce but les amène à créer de nouveaux marchés économiques, enjeu essentiel pour les pouvoirs publics et les entreprises.
Le tour de la linguistique et des SHS
      
25
En 1999, c’est au tour des SHS et de la linguistique d’être mises à l’honneur. Le CNRS crée le groupement de recherche (GDR) « diversité et évolution des langues » (1999-2002) et le ministère de la Recherche lance l’action concertée incitative « Cognitique » (1999-2003) dont la direction est confiée à Catherine Fuchs18. L’exemple du langage permet d’illustrer l’intérêt des pratiques interdisciplinaires associant linguistique, psycholinguistique, neurologie, informatique mais aussi orthophonie, phonétique et philosophie. De nouvelles thématiques ont été lancées comme « art et cognition », et des journées ont été organisées pour sensibiliser des chercheurs en SHS aux techniques d’imagerie.
    •   
26
À la question des retombées en terme d’applications pratiques, Catherine Fuchs évoque l’aide aux handicapés, la sécurité routière, la pédagogie, etc. Elle cite, en particulier, la mise au point d’un stylet tactile qui, relié à un dispositif avec caméra, peut permettre aux aveugles de reconnaître des formes dans l’espace19.
    
27
À tour de rôle, chacun des trois secteurs, sciences du cerveau, sciences de l’informatique et SHS, s’est trouvé représenté de façon privilégiée au cours des différentes actions lancées par les pouvoirs publics avec, à chaque fois, un peu plus de recherches en commun. Aujourd’hui, si l’étude de certaines fonctions cognitives arrive à fédérer des recherches interdisciplinaires, les différentes problématiques théoriques et pratiques, les rivalités continuent à constituer des obstacles à une réelle interdisciplinarité mais de nouveaux équilibres s’établissent. Les sciences de l’information et les pratiques de modélisation sur ordinateur prennent de plus en plus de poids au sein d’un nouveau département créé au CNRS en octobre 2000, le département des sciences et technologies de l’information et de la communication (Stic)20 et un Institut de cognitique a été créé en août 2003 à Bordeaux. Les neurosciences cognitives, qui se présentent comme une alliance entre neurosciences et psychologie cognitive, se pratiquent dans différents laboratoires et, notamment, à l’Institut des sciences cognitives de Lyon21.
   
28
Sous l’influence de la psychologie, de nouveaux protocoles expérimentaux sont élaborés par des chercheurs en neurosciences pour aborder l’étude des fonctions cognitives et le développement des techniques de neuro-imagerie oriente les recherches vers l’étude de l’activation des régions cérébrales lorsqu’une fonction cognitive particulière est sollicitée. Ainsi des fonctions telles que l’empathie, capacité à partager les émotions avec autrui, qui n’étaient pas auparavant étudiées en neurosciences, le sont à présent22. Pour étudier les fonctions cognitives, le neurophysiologiste cherche à en caractériser les bases neurales, le psychologue à les aborder du point de vue des comportements et des perceptions, l’informaticien à les simuler. Certains chercheurs en SHS tentent de fournir aux spécialistes des disciplines précédentes des connaissances théoriques spécifiques d’un domaine et peuvent participer à une démarche de modélisation.
29
Partant du principe qu’aucune discipline n’est capable de répondre véritablement aux questions de fond posées par l’étude des fonctions cognitives, une tentative d’interface a été proposée, mais entre le principe d’une collaboration et la mise en application d’un travail en commun s’élèvent de nombreuses difficultés liées aux enjeux disciplinaires, aux différents modes de pensée et de fonctionnement et aux problèmes de concurrence pour les financements et les postes.
Comparaison avec les États-Unis
     
30
Au milieu des années 1980, alors qu’aux États-Unis le psychologue Jerry Fodor vient de proposer sa théorie de la modularité de l’esprit23 et que la théorie computationnelle de l’esprit fait des émules24, en France, c’est le début d’une institutionnalisation qui s’est longtemps fait attendre. La première association en sciences cognitives, l’Arc, n’est créée qu’en 1981 et ce sont essentiellement des chercheurs en informatique, des psychologues et des linguistes qui sont à l’origine de cette création. Les sciences cognitives américaines, qui ont vu le jour vingt ans plus tôt, leur servent de modèle.
La place de l’informatique et de l’intelligence artificielle
    •   
31
Le premier centre en sciences cognitives a été fondé en 1960 à l’université Harvard, par deux psychologues, Jérôme Bruner et George Miller, qui s’intéressaient aux mécanismes mentaux mis en jeu dans le langage. Cherchant à introduire davantage de rigueur formelle dans les sciences sociales, ils collaborent avec des chercheurs en informatique, assimilent la connaissance à une manipulation de symboles et perçoivent l’ordinateur comme un bon modèle de l’esprit humain. Issue de la cybernétique, cette nouvelle façon de concevoir la connaissance va inspirer les pionniers de l’intelligence artificielle et tout un courant des sciences cognitives25.
    •   
32
En France, dix ans plus tard, une initiative semblable a vu le jour mais essentiellement initiée par des chercheurs en informatique. C’est donc dans les années 1970, avant la création de l’Arc, que des informaticiens, des psychologues et des linguistes se sont retrouvés à plusieurs reprises pour développer une informatique théorique orientée vers la compréhension du langage. Ces rencontres étaient financées par l’Inria. L’objectif était celui de l’IA : simuler des fonctions cognitives26.
    •   
33
Quatre chercheurs américains ont joué un rôle majeur dans la construction de l’IA : trois mathématiciens, John McCarthy, Marvin Minsky, Allen Newell, et un économiste, Herbert Simon. En 1957, John McCarthy devint le premier directeur du laboratoire d’IA du MIT. En cette période de guerre froide, il était aisé d’obtenir des financements de l’armée pour travailler sur les interactions homme-machine ou les traductions automatiques. Très rapidement, une concentration des ressources s’est retrouvée dans les centres contrôlés par les pionniers de l’IA27 dont le projet de simuler des processus cognitifs sur ordinateur est devenu celui des sciences cognitives.
34
Contrairement aux pionniers de l’IA aux États-Unis, les informaticiens français n’ont pas bénéficié des financements et du prestige de ces derniers. En France, l’informatique et l’IA n’étaient pas considérées comme des sciences dites nobles et les informaticiens étaient traités comme des techniciens. Si aux États-Unis les informaticiens souffraient également d’un sentiment d’infériorité vis-à-vis des autres disciplines, le contexte historique, l’importance de la technologie et une conception pragmatique de la science constituaient un terreau propice à la construction des sciences cognitives autour de l’informatique et de l’IA. Le pouvoir et les moyens acquis par les quatre pionniers de l’IA ont conduit à une concentration des ressources et des ordinateurs les plus performants leur assurant ainsi une avancée considérable dans ce domaine.
La place des neurosciences
    
35
La mainmise des pionniers de l’IA dans le développement des sciences cognitives aux États-Unis a soulevé, dans les années 1980, de vives réactions de la part de neurobiologistes et de certains philosophes comme Patricia Churchland. Après avoir étudié la neurobiologie, Patricia Churchland proposa, à la fin des années 1980, le réductionnisme éliminativiste, c’est-à-dire la réduction des états mentaux aux phénomènes biologiques sous-jacents et l’élimination du niveau psychologique28. Critiquant la psychologie et les positions fonctionnalistes29 adoptées par Jerry Fodor, Patricia Churchland se rappelle avoir été choquée à la lecture de son ouvrage, Le Langage de la pensée30, qui affirme que la connaissance du cerveau est inutile pour comprendre la psychologie et la cognition. Selon la théorie computationnelle de l’esprit adoptée par Jerry Fodor, la pensée serait un automate traitant des « entrées » et produisant des « sorties » ; l’état interne correspondrait à nos états mentaux et à nos représentations mentales.
    
36
En France, les neurobiologistes tels Jean-Pierre Changeux défendent une théorie neuronale de la pensée. Marc Jeannerod, ancien directeur de l’Institut des sciences cognitives à Lyon, explique, en particulier, qu’il a choisi d’étudier la « cognition naturelle31 ». Il assigne aux neurosciences cognitives l’ambition de voir fonctionner le cerveau au niveau le plus intégré possible, c’est-à-dire au niveau où canaux ioniques, récepteurs, synapses, neurones, réseaux neuronaux entrent en jeu de façon collective32.
     
37
Les conceptions de Gerald Edelman trouvent un large écho auprès de la communauté des neurobiologistes. Prix Nobel de médecine en 1972, Gerald Edelman a édifié une théorie de la mémoire et de la conscience bâtie autour du principe de la sélection progressive des liaisons qui s’établissent entre neurones. Son ouvrage, Neuronal Darwinism, constitue une tentative de synthèse entre neurobiologie, évolutionnisme et génétique où il argumente sa théorie des groupes neuronaux33. Il suppose que les mécanismes de la perception et de la mémoire reposent sur le principe que, parmi le nombre infini de connexions qui peuvent s’établir au cours du développement cérébral, seuls certains réseaux vont être stimulés par les actions du sujet et par les informations qu’il reçoit. En 1992, il propose une Biologie de la conscience en mettant l’accent sur les processus d’acquisition et de modification par rétroaction de l’acquis sur les potentialités innées34.
    •   
38
L’argument d’un colloque sur la « biologie de la conscience », qui s’est tenu en avril 2002, sous la présidence d’honneur de Gerald Edelman, souligne que « deux révolutions ont fait progresser les connaissances anatomiques et biologiques des processus de pensée : la révolution des sciences cognitives inspirée de l’informatique (algorithmes, mémoires, computation) et la révolution neurobiologique (sélection de groupes neuronaux, interconnexion, neuromédiateurs, représentations psychoneurobiologiques) ». La conclusion de l’argument est que « les neurosciences sont la clé des processus d’apprentissage, des comportements sociaux, des dysfonctionnements neurologiques et mentaux. Plus que jamais elles sont le socle de la psychologie, de la neurologie et de la psychiatrie35 ».
39
Les sciences cognitives apparaissent donc comme un domaine hétérogène qui se partage entre deux grandes orientations et deux modèles de référence : l’un, technique, le modèle de l’ordinateur avec, comme disciplines associées, l’informatique et l’IA ; et l’autre, biologique, celui du cerveau exploré par les neurosciences. Les chercheurs en sciences humaines et sociales tentent de se faire une place au sein des sciences cognitives en proposant des problématiques communes. Des collaborations s’établissent parfois entre des chercheurs engagés dans des disciplines différentes mais les domaines restent souvent séparés du fait des objectifs, intérêts et conceptions différentes qui les divisent mais aussi de la compétition pour les financements et les postes.
Conclusion
40
Que ce soit en France ou aux États-Unis, les premiers scientifiques engagés dans la construction des sciences cognitives ont été des informaticiens, des psychologues et des linguistes. Le besoin de reconnaissance des uns et des autres s’est traduit par la volonté de créer un nouveau domaine avec pour objet d’étude la connaissance. Considérée au départ comme une simple technique, l’informatique, intégrée au sein des sciences cognitives, a acquis du prestige et de la reconnaissance sociale. Quant aux psychologues, ils ont cherché dans la collaboration avec les informaticiens, à introduire une rigueur formelle dans les sciences sociales, et ont tenté ainsi d’accroître le prestige de leur discipline.
41
Les neurobiologistes n’ont commencé à s’investir dans ce domaine que bien plus tard. En dépit de quelques caractéristiques communes, la comparaison entre le développement des sciences cognitives en France et aux États-Unis révèle de nettes différences dans le processus institutionnel. La tentative de définir et de construire les sciences cognitives ne commence, en France, qu’au début des années 1980. Un neurobiologiste français a tenté, à la fin des années 1980, d’orienter les sciences cognitives vers l’étude du cerveau mais la mobilisation de quelques chercheurs en informatique, et une politique orientée vers les transferts technologiques et les applications pratiques, ont favorisé, dans les années 1990, l’émergence de sciences cognitives orientées vers l’IA comme aux États-Unis.
42
À la fin des années 1990, les sciences cognitives vont présenter deux aspects : des sciences cognitives orientées vers la production de modèles informatiques et d’applications ouvrant de nouveaux marchés économiques et des neurosciences cognitives qui explorent un modèle biologique associant pensée et cerveau. Des échanges entre ces deux pôles et des chercheurs en SHS se concrétisent parfois, notamment autour des techniques d’imagerie cérébrale, ou de l’étude du langage, mais des divergences demeurent, les objectifs étant différents. L’acquisition de l’autonomie et des financements induit une concurrence qui n’est pas sans effet sur les théories et les pratiques. Avec le temps, et la création de nouvelles structures, comme le département des Stic du CNRS, l’Institut de Cognitique et l’Institut des sciences cognitives, les tensions s’aplanissent, chacun se constituant un territoire qui lui est propre.
43
Les théories d’Andrew Abbott sur le système des professions nous ont permis d’examiner les effets des forces à la fois internes et externes agissant sur la construction d’un nouveau domaine. Parmi les forces externes, les choix politiques et économiques jouent un rôle non négligeable dans la structuration des sciences cognitives. Une forte corrélation est constatée entre l’impact des pressions économiques et politiques et l’orientation des sciences. À l’inverse, les sciences influencent les modes de vie et de pensée. Sciences et technologies sont intégrées dans une stratégie politique et jouent un rôle dans les choix nationaux et internationaux. Sciences, technologies et politique semblent être liées par le biais de la fonction attribuée aux sciences et aux technologies de résoudre des problèmes et de créer de nouveaux marchés.
    •   
44
Les sciences cognitives, définies en 1985 comme les « nouvelles sciences de l’esprit36 », peuvent être adaptées à différents objectifs. Selon leur formation, leurs pratiques et leur discipline, les chercheurs impliqués dans la construction des sciences cognitives donnent des définitions différentes de ce domaine, ou suffisamment floues pour englober des aspects très variés. Tandis qu’ils élaborent des théories de l’esprit, ils définissent une image de la société et des représentations des êtres pensants qu’ils tentent de faire partager. Lorsqu’ils obtiennent la reconnaissance des pouvoirs publics, ils peuvent bénéficier d’un financement qui leur permet d’acquérir pouvoir, prestige et reconnaissance sociale, et d’influer non seulement sur le cours de leur discipline mais aussi sur les représentations.



Document annexe
    •    Encadrés (application/pdf – 34k)
Haut de page
Notes
1 Voir B. Chamak, « Les frères ennemis des sciences cognitives », Cerveau et Psycho, n°1, Pour la Science, 2003.
2 A. Abbott, The System of Professions: An Essay on the Division of Expert Labor, The University of Chicago Press, 1988.
3 Ibid. p. 102.
4 D. Wolton, rapport « Sciences de la communication », CNRS, 1989.
5 Voir B. Chamak, « Étude de la construction d’un nouveau domaine : les sciences cognitives », thèse de doctorat d’histoire des sciences, Paris VII, 1997, p. 170-202 ; B. Chamak, « The Emergence of Cognitive Science in France: a Comparison with the USA », Social Studies of Science, 29 octobre 1999, p. 643-684.
6 Aujourd’hui rebaptisée ARCo.
7 J.-P. Changeux et al., Rapport « Sciences cognitives », 1989, MRT. J.-P. Changeux a fait appel à J. Melher (voir les articles de M. Jeannerod et de R. Plas dans ce numéro) pour traiter de la psychologie cognitive.
8 B. Guibert, rapport « Cognition et modernisation », 1992, MRT.
9 A. Holley est le président du conseil scientifique.
10 J.-G. Ganascia, projet de programme du Gis « sciences de la cognition », 1995.
11 J.-G. Ganascia, L’Âme-machine, Paris, Seuil, 1990.
12 J.-G. Ganascia, L’Intelligence artificielle, Paris, Flammarion, coll. « Dominos », 1996.
13 Voir P. McCorduck, Machines Who Think, San Francisco, Freeman, 1979.
14 Entretien avec J.-G. Ganascia, Paris, 4 mai 1995.
15 H. Simon, The Sciences of Artificial, 1969, deuxième édition 1981, Cambridge, Mass., the MIT Press, 1981. Traduction française : Sciences des systèmes, sciences de l’artificiel, Paris, Dunod, 1991.
16 J.-L. Le Moigne, Le Constructivisme, Paris, ESF Éditeur, 1994.
17 B. Chamak, 1999, op. cit.
18 Directrice de recherche du CNRS, Catherine Fuchs dirige le LaTTICe (Langues, Textes, Traitement Informatique, Cognition), UMR 8094, CNRS, ENS-Ulm, Paris VII (ENS-Montrouge). Alain Berthoz était le président du conseil scientifique de l’action « Cognitique ».
19 C. Fuchs, « Les sciences cognitives en mal de statut », La Recherche, n° 361, 2003, p. 18-19.
20 Arrêté du 5 octobre 2000 modifiant l’arrêté du 10 mai 1991 portant création de départements scientifiques au CNRS.
21 Voir l’article de M. Jeannerod dans ce même numéro.
22 Voir J. Decety, « Naturaliser l’empathie », L’Encéphale, 2002, p. 9-20.
23 J. Fodor, The Modularity of Mind, MIT Press, Cambridge, 1983.
24 Voir B. Chamak, 2003, op. cit.
25 Voir J.-P. Dupuy, Aux origines des sciences cognitives, Paris, La Découverte, 1994.
26 Comme la reconnaissance de formes par exemple.
27 P. McCorduck, Machines Who Think, op. cit.
28 P. Churchland, Neurophilosophy, MIT Press/Bradford Books, 1986.
29 Pour un fonctionnaliste, les processus cognitifs doivent être considérés indépendamment de tout support physique.
30 J. Fodor, The Language of Thought, Brighton, The Harvest Press, 1975.
31 Voir son article dans ce même numéro.
32 M. Jeannerod, Le Cerveau intime, Odile Jacob, 2002.
33 G. Edelman, Neuronal Darwinism: the Theory of Neuronal Group Selection, New York, Basic Books, 1987.
34 G. Edelman, Biologie de la conscience, Odile Jacob, 1992.
35 François Bégon, secrétaire du comité scientifique du colloque, programme à consulter sur www.publihelp.fr
36 H. Gardner, The Mind’s New Science: a History of the Cognitive Revolution, Basic Books, 1985.

#notes
Pour citer cet article
Référence électronique
Brigitte Chamak, « Les sciences cognitives en France », La revue pour l’histoire du CNRS [En ligne], 10 | 2004, mis en ligne le 23 février 2006, consulté le 15 mai 2015. URL : http://histoire-cnrs.revues.org/583
Haut de page
#quotation
Auteur
Brigitte Chamak
Brigitte Chamak est ingénieure de recherche à l’Inserm. Elle est chercheuse en histoire et sociologie des sciences au Cesames (Centre de recherche psychotropes, santé mentale, société). Ses travaux actuels concernent la prise en charge de l’autisme ; il s’agit d’une étude ethnographique dans trois établissements parisiens. Elle a publié récemment : B. Chamak et D. Cohen, « L’autisme : vers une nécessaire révolution culturelle », Médecine et sciences, n° 11, vol. 19, novembre 2003, p. 1152-1159. À paraître : B. Chamak, « Modèles de la pensée : quels enjeux pour les chercheurs en sciences cognitives ? », in « Des lois de la pensée au constructivisme », Intellectica, n° 40, 2004 ; « The Prion Research and the Public Sphere in France », in Eve Seguin and Carol Reeves (éd.), Infectious Processes: Knowledge, Discourse and Politics of Prions, Palgrave Editions, 2004 ; « Un scientifique pendant l’Occupation : le cas d’Antoine Lacassagne », La Revue d’histoire des sciences, 2004.

 

  DOCUMENT     histoire-cnrs.revues.org   LIEN

 
 
 
 

QUAND LE COMPORTEMENT DÉCOUVRIT LES NEURONES ...

 

Quand le comportement découvrit les neurones…
L’institut de neurophysiologie et de psychophysiologie (INP) de Marseille (1963-1986)
François Clarac et Jean Massion


Résumés


Dans les années 1960, Pierre Drach, alors directeur adjoint du CNRS pour les sciences exactes, préconise, dans le cadre du 3e plan, la création d’un institut de psychophysiologie. François Clarac et Jean Massion reviennent sur la genèse d’un institut qui profitait de la décentralisation et de la présence d’un pôle fort en neurologie à Marseille.
François Clarac and Jean Massion recount the creation of an institute dedicated to psychophysiology and neurophysiology in the 1960s in Marseille.
Haut de page

Plan
L’organisation de l’INP
Le département de psychophysiologie générale
Les départements de physiologie
Les départements de comportement
Évolution de l’INP et quelques chiffres
Le rayonnement national et international
Conclusion
Haut de page

Texte intégral

1
L’INP, créé officiellement le 1er janvier 1963, fut initialement composé de sept départements, quatre de neurophysiologie et trois de psychophysiologie. Il en comprendrait dix, dix ans plus tard. Si les choix du doyen Georges Morin (1903-1979), élève d’Henri Hermann (1892-1972) de l’école de physiologie de Lyon, ont intéressé la neurophysiologie, Jacques Paillard (1920-2006) a voulu créer un institut de psychophysiologie comme l’avait conçu son maître Henri Piéron (1881-1964) afin de développer une nouvelle approche du psychisme qui permette à la psychologie de prendre place dans les sciences biologiques. Basée sur une approche pluridisciplinaire, la psychophysiologie devait prendre appui sur la physiologie, s’adresser à l’ensemble des comportements, humains mais aussi animaux, normaux et pathologiques. G. Morin sera le premier directeur de l’INP. J. Paillard, son adjoint, le deviendra en 1969. Les directeurs de départements, connus du doyen Morin, venaient pour certains de la faculté des sciences de Lyon, pour d’autres, du laboratoire que dirigeait à Paris, Pierre Paul Grassé (1895-1985), un des cofondateurs avec Henri Piéron (1881-1964) et Alfred Fessard (1900-1982) du certificat de psychophysiologie à la Sorbonne. Il n’y eut qu’un Marseillais, Robert Naquet (1921-2005).
L’organisation de l’INP
2
L’organisation de l’INP assez révolutionnaire pour l’époque, comprenait à coté des départements, un ensemble très performant de services techniques, communs, placés chacun sous la responsabilité d’un ingénieur ou d’un technicien (ITA). Le service d’animalerie et chirurgie dirigé par Pierre Lucciani (1935-1999) pouvait accueillir de nombreuses espèces animales dont des primates. Il disposait d’une salle d’opération moderne. On comptait aussi un secrétariat de direction, une bibliothèque, un service calcul, la microscopie électronique, le service d’histologie, celui de photographie, d’électronique, de radio-isotopes et de micromécanique.
3
Le conseil de laboratoire, présidé par son directeur, était l’élément clé du fonctionnement de l’ensemble, se composant de représentants nommés et élus des départements et d’élus du collège des chercheurs et des ITA. Il délibérait sur la gestion de l’institut, la répartition des crédits, la gestion du personnel, et sur la politique scientifique. Au cours des conseils, J. Paillard faisait preuve d’une grande patience ; les réunions pouvaient durer la journée entière ; on y voyait se révéler les caractères des uns et des autres et, en fin psychologue, J. Paillard, prenant un certain plaisir, concluait là où il le voulait !
Le département de psychophysiologie générale
    •   
4
Dirigé par J. Paillard, ce département constituait à lui seul un laboratoire pluridisciplinaire comprenant des psychologues, des psychophysiologistes, des neurophysiologistes, des ingénieurs, des physiciens, etc. Sa thématique scientifique consistait en l’étude spatio-temporelle des comportements moteurs et de leurs mécanismes neurophysiologiques, avec les concepts sous-jacents de programmation motrice, de rétroaction sensorielle, de l’organisation de l’espace et sa structuration par le mouvement actif. Ses travaux reposaient sur une réflexion théorique impliquant la notion d’« auto organisation » du vivant et en particulier du système nerveux1.
5
Dans ce cadre, les principales thématiques portaient sur la préparation à l’action, le déclenchement des programmes moteurs et le guidage de l’action, le rôle du mouvement actif dans le sens de la position et de la restructuration de l’espace visuo moteur, dans l’organisation de l’espace chez les jeunes aveugles, chez les handicapés moteurs et dans la modification des messages cutanés qui accompagnent le mouvement actif. Des chatons élevés en lumière stroboscopique ont permis l’analyse du rôle de la vision périphérique comparée à la vision centrale dans le développement du contrôle postural et dynamique. Les études réflexologiques s’appuyaient dans ce cadre général, sur le fuseau neuromusculaire dont J. Paillard faisait un modèle exceptionnel de régulation. Son premier élève marseillais a étudié chez le chat, le contrôle du cortex moteur sur la commande fusimotrice statique et dynamique. Il a même fait analyser la locomotion du crabe pour la présence chez ce crustacé, d’un récepteur comparable ce qui confirmait son intérêt pour les études comparées des comportements.
    •   
6
Issu de ce département, Jean Requin (1938- 1996) s’est vu confier en 1976 la direction du département de psychobiologie expérimentale. Il a su apporter dans l’analyse des processus de préparation à l’action des solutions originales, mettant en parallèle le problème de la localisation des fonctions cognitives et l’activité des ensembles cellulaires neuronaux. L’équipe a abordé aussi l’approche réflexologique de l’organisation du mouvement, l’estimation du temps, la coordination inter hémisphérique des activités bimanuelles et les processus attentionnels. En analysant l’activité unitaire corticale chez le Singe, J. Requin a construit un schéma d’organisation modulaire des processus qui conduisent de la préparation à l’action2.
Les départements de physiologie
    •   
7
Le département de neurophysiologie appliquée a été dirigé par R. Naquet. Élève d’Henri Gastaut (1915-1995), il a poursuivi sa formation chez Giuseppe Moruzzi (1910-1986) à Pise et chez Horace Magoun (1907-1994) à Long Beach. Il s’est ainsi familiarisé avec le système réticulé activateur et les phénomènes de veille, de sommeil et de conscience. Il a développé des études sur l’épilepsie et les drogues antiépileptiques et a mis en évidence, chez le chat, l’action anticonvulsivante des benzodiazépines, élément clé dans les médications antiépileptiques3. La découverte et l’étude de l’épilepsie photosensible du babouin (Papio papio) a été l’autre point fort de ses recherches. Il a lancé des recherches sur l’hyperbarie avec la Comex et a décrit le syndrome nerveux des hautes pressions. Sous-directeur de l’INP, il a quitté Marseille en 1973, pour prendre la direction de l’institut Alfred-Fessard à Gif-sur-Yvette.

Premier conseil de l’institut en 1963. De gauche à droite : Jacques Paillard, Georges Morin et l’administrateur Dupuy. D.R.
    •   
8
Le département de neurophysiologie végétative, dirigé au départ par Michel Dussardier puis par Noël Méi, qui sera sous-directeur à partir de 1977, s’est intéressé à l’exploration des récepteurs vagaux et splanchniques, de leur projection centrale, de la motricité intestinale et de celle du cardia4. Il a favorisé les collaborations avec la faculté de médecine et la faculté d’odontologie et a ouvert la voie à un ensemble de recherches dans le domaine de la neurophysiologie végétative dont il fera un pôle important.
    •   
9
Le département de neurophysiologie générale a été confié au départ à Valentine Bonnet (1902- 1988). Après une thèse sur la rythmicité cellulaire chez Henri Cardot (1886-1942) à Lyon, elle a rejoint Frédéric Brémer (1892-1982) à Bruxelles, où ses travaux ont porté sur le cervelet, la réticulée et le cortex visuel. J. Massion, arrivé en 1967, a repris le département et a été sous-directeur de l’INP de 1973 à 1977. Il a lancé des recherches sur la physiologie des voies motrices (voies pyramidale, rubrospinale, cérébello-thalamo-corticale et ganglions de la base) et sur la coordination entre posture et mouvement, l’apprentissage et la pathologie5.
    •   
10
Le département de neurophysiologie cellulaire a été dirigé par Angélique Arvanitaki (1901- 1983), puis par son mari, Nicolas Chalazonitis (1918-2004). Après une thèse également réalisée chez H. Cardot, A. Arvanitaki a travaillé à la station maritime de Tamaris-sur-Mer où elle a collaboré avec A. Fessard. C’est là qu’elle a développé le modèle de l’aplysie, avec ses neurones géants, dont elle a identifié les activités intracellulaires. Après la disparition d’H. Cardot, elle a poursuivi ses travaux à la station océanographique de Monaco, obtenant une reconnaissance mondiale pour son modèle d’invertébré6. Les recherches du département étaient centrées sur l’électrogenèse des biomembranes.
    •   
11
Le département de neurobiologie comparée créé au 1er janvier 1976 avec l’arrivée à Marseille de Maurice Moulins (1936-1995) à la faculté des sciences de Saint Charles, a regroupé un ensemble de chercheurs intéressés par les activités sensori-motrices des invertébrés et leur substrat neuronique jusqu’à son départ pour Arcachon en 19787. François Clarac, revenu à Marseille en 1988 a succédé à J. Paillard lors de son départ à la retraite. Il s’est consacré principalement à l’étude des bases neurobiologiques de la locomotion.
Les départements de comportement
    •   
    •   
12
Le département du comportement animal dirigé par Édouard Deleurance (1918-1990) comprenait deux thématiques : l’étude de la nidation des guêpes polistes avec une orientation éthologique et une orientation neuroendocrinienne, l’étude des coléoptères cavernicoles en recherchant les hormones régulant la mue de ces Insectes. Le rôle de l’épigenèse dans le contrôle du comportement de ponte a été précisé8, ainsi que l’approche endocrinienne du comportement du Grillon9.
13
De formation mathématique, Henri Durup (1930-2002) a analysé le comportement d’exploration du Hamster doré dans un labyrinthe à choix multiple. Il s’est vu confié en 1973 le département de psychologie animale avec pour thème d’étude l’exploration et l’orientation dans l’espace de lieux et sa modélisation chez les rongeurs.
    •   
14
Une telle approche a été développée aussi chez le Chien, le Chat et le Cheval. Une colonie de Babouins hébergée à Rousset a permis une étude de socio/éthologie chez le primate. Le département de psychophysiologie comparée avait une orientation éthologique affirmée. Il a été dirigé par Georges Le Masne, qui assurait, l’enseignement de psychophysiologie comparée à l’Université. Le département développait les thèmes suivants : le comportement social des Fourmis, le comportement sexuel des poissons amphibies périophthalmes, le comportement sexuel des isopodes terrestres et les rythmes d’activité locomotrice des chilopodes et diplopodes. Des travaux morphologiques et neurophysiologiques chez le comportement antennaire des fourmis, ont aussi été développés10.
Évolution de l’INP et quelques chiffres
15
L’évolution de l’INP s’est concrétisée par le dynamisme de la plupart des équipes et l’apport de nouvelles orientations. D’autres départements sont apparus comme celui d’André Calas et d’André Niéoullon. À la tête du département de neurobiologie cellulaire, de 1974 à 1981, A. Calas a introduit de nouvelles approches dans le domaine de la morphologie par l’utilisation de la radioautographie, de l’immunocytochimie et du traitement d’images sur le modèle du neurone à sérotonine. Il a décrit l’innervation sérotoninergique de la moelle, celle de l’aplysie, la bipotentialité de certains neurones du raphé (sérotonine, GABA). A. Niéoullon, travaillant sur la plasticité du système dopaminergique nigrostrié, occupera le poste universitaire de J. Paillard lors de sa retraite en 1989 et dirigera le département de neurochimie fonctionnelle créé après l’INP. Nicolas Franceschini, arrivé à l’INP en 1979, a développé des modèles adaptés de l’oeil composé de la mouche et de son système visuel. Ces études ont servi de point de départ à la réalisation de robots visuoguidés.
16
L’INP composé au départ de plus de 80 membres (41 chercheurs, 46 ingénieurs et ITA) en comprendra 159 en 1967 (93 chercheurs et 66 techniciens) et 184 la dixième année (104 et 80). Les dix années suivantes, environ 200 personnes seront présentes. En fait, un tel nombre ne montre pas le coté dynamique de cette population dont une grande partie n’était là que transitoirement. Parmi les chercheurs, plus d’une cinquantaine faisaient partie du CNRS. La production scientifique des vingt ans, a représenté pour les dix premières (1963-1972) : 20 doctorats d’État, 24 thèses de 3e cycle et 226 articles scientifiques, et pour les dix suivantes (1973-1982) : 38 thèses d’État, 48 thèses de 3e cycle et 542 articles scientifiques. Des journées thématiques et des colloques internationaux ont assuré le rayonnement de l’institut.
17
La structure a du se réformer en 1986, en se divisant en deux laboratoires, l’un dirigé par N. Méi étudiant les mécanismes plus cellulaires (le laboratoire de neurobiologie, LNB), l’autre, composé d’équipes plus tournées vers la sensori-motricité et le comportement, le laboratoire de neurosciences fonctionnelles (LNF) dirigé par J. Massion.

L’institut en 1963. D. R.
Le rayonnement national et international
    •   
18
L’évolution des concepts avait conduit au niveau européen à créer une nouvelle société, l’European Brain and Behavior Society, dont J. Paillard a été l’un des membres fondateurs. La première réunion a eu lieu à Marseille en 1969. L’INP, devenu lieu de passage pour les spécialistes des fonctions sensori-motrices, était à l’époque avec l’Institut für Hirnforschung de Zürich, dirigé par Konrad Akert, l’une des principales concentrations de scientifiques spécialisés dans ce domaine. Une telle réussite a permis l’organisation en 1973 à Aix-en-Provence d’un grand symposium international, intitulé « Comportement moteur et activités nerveuses programmées »11.
19
Les échanges internationaux ont été très nombreux à cette époque, aussi bien avec la plupart des pays d’Europe, qu’avec les États-Unis, le Japon et le Canada. L’INP comptait près de 15 % d’étrangers parmi ses chercheurs. Il y eut des échanges privilégiés avec le Québec, initiés par Yves Lamarre et par Jean-Pierre Cordeau, directeur à l’époque du Centre de recherche neurologiques de l’université de Montréal. C’est d’ailleurs au Québec que J. Paillard effectuera l’essentiel de ses recherches après sa retraite. Les contacts avec les universités d’Oxford, l’école de Hans Kuypers (1925-1989) en Hollande, celles d’Anders Lundberg en Suède, de G. Moruzzi en Italie, de K. Akert en Suisse, ont concrétisé l’intérêt pour la motricité. Des programmes d’échanges ont été établis avec des laboratoires des pays de l’Est, comme l’école de Konorski, élève de Pavlov à Varsovie, comme les grands centres de recherche en Russie dérivés de l’école de Bernstein, et l’institut des activités nerveuses supérieures. C’est d’ailleurs dans des réunions bisannuelles organisées par l’école bulgare de physiologie à Sophia (Professeur Gantchev), que pouvaient se rencontrer les scientifiques occidentaux et orientaux évitant ainsi la coupure pesante du rideau de fer.
Conclusion
     
20
Le pari de J. Paillard de réaliser un institut pluridisciplinaire de niveau international, a été réussi. L’INP a bénéficié d’un environnement universitaire de 2e et de 3e cycles, de qualité. Il a, en retour, apporté un potentiel d’accueil et de formation essentiel aux structures universitaires et a favorisé l’éclosion de nouvelles formations, comme celle de la faculté des sciences du sport à Luminy12. Au total, alors que le concept de neurosciences émergeait à peine, l’INP a été un acteur puissant dans l’évolution de la pensée scientifique française et internationale dans les années 1960-1980.
Deux figures se détachaient à la faculté de médecine en neurologie, Henri Gastaut (1915-1995), célèbre dans le monde entier pour ses travaux en électroencéphalographie, et le professeur Georges Serratrice qui analysait les maladies dégénératives neuromusculaires. À la faculté des sciences de Saint-Charles, le professeur Paul Benoît, qui avait créé un laboratoire de physiologie sur les fibres nerveuses et musculaires, a favorisé, en 1957, l’installation de J. Paillard, nommé professeur de psychophysiologie et en 1960, celle de M. Dussardier, professeur de neurophysiologie. Ces nouveaux laboratoires universitaires s’installeront peu de temps après, au nord de Marseille sur le campus de Saint-Jérôme. J. Paillard, remplacé par Maurice Hugon, quittera ses fonctions en 1967 pour devenir professeur à Luminy.

Notes
1 Paillard J. « Système nerveux et fonction d’organisation ». In Psychologie, Piaget J., Mounoud P., Bronckart J.-P., eds. Encyclopédie de la Pléiade, Gallimard, 1986, pp. 1378-1441.
2 Requin J., Rielhe A., Seal J. Neuronal activity and information processing in motor control: from stages to continuous flow. Biol. Psychol., 1988, 26(1-3), pp. 179-98.
3 Lanoir J., Plas R., Naquet R. Étude de neurophysiologie comparative de trois substances psychotiques. J. of Physiol., 1963, 55, pp. 281-282.
4 Mei N. Mécanorécepteurs vagaux digestifs chez le chat. Exp. Br. Res., 1970, 11, pp. 502-514.
5 Massion J. The mammalian red nucleus. Physiol. Rev., 1967, 47(3), pp. 383-436.
6 Arvanitaki A., Chalzonitis N. “Excitatory and inhibitory processes initiated by light and infra-red radiation in single nerve cells”. In Nervous inhibition, Florey E. ed. Pergamon Press, 1961, Oxford, London, pp. 194-231.
7 Clarac F., Moulins M., Vedel J.-P. Rhythmical motor activity; central and peripheral neurophysiological mechanisms. J. Physiol., 1977, 73, n°4, pp. 405-616.
8 Gervet J. Oviposition et sa régulation dans la société polygénique de polistes gallicus. Behaviour, 1965, 25 (3), pp. 221-233.
9 Strambi A., Strambi C. Étude histochimique et ultrastructurale de la sécrétion de péricaryons neurosécrétoires de la pars intercerebralis chez la guêpe poliste. Acta Histochemica, 1973, 46 (1), pp. 101-109.
10 Masson C. Mise en évidence au cours de l’ontogénèse d’une fourmi primitive (mesoponera caffraria), d’une prolifération tardive au niveau des cellules globuleuses (’globuli cells’) des corps pédonculés. Z. Zellforsch, 1970, 106, pp. 220-231.
11 Paillard J., Massion J. Motor aspects of Behaviour. Comportement moteur et activités nerveuses programmées. Brain Research special issue, Elsevier, Amsterdam, 1974, 71, N° 2, 3.
12 Niéoullon A. « Marseille et les neurosciences ». In Vingt six siècles de médecine à Marseille. Serratrice G. éd. Jeanne Lafitte, Marseille, 1996, pp. 707-715.
Haut de page
#notes
Pour citer cet article
Référence électronique
François Clarac et Jean Massion, « Quand le comportement découvrit les neurones… », La revue pour l’histoire du CNRS [En ligne], 19 | 2007, mis en ligne le 03 janvier 2010, consulté le 14 mai 2015. URL : http://histoire-cnrs.revues.org/4963
Haut de page
#quotation
Auteurs
François Clarac
François Clarac est directeur de recherche émérite, membre de l’unité « Plasticité et physio-pathologie de la motricité » (P3M).
Jean Massion
Jean Massion est directeur de recherche émérite au CNRS.

 

   DOCUMENT     histoire-cnrs.revues.org   LIEN

 
 
 
 

LE PARTHÉNON

 

Parthénon


Parthénon
Παρθενών



Le Parthénon — en grec ancien Ὁ Παρθενών / Parthenṓn (à l'origine génitif pluriel de παρθένος, nom féminin, « jeune fille, vierge ») littéralement « la salle (ou la demeure) des vierges1 », — est un édifice réalisé entièrement en marbre du Pentélique et situé sur l'acropole d'Athènes.
Le Parthénon était consacré à la déesse Athéna Parthenos2, protectrice de la cité et déesse de la guerre et de la sagesse. Il ne s'agit pas d'un temple au sens strict du terme : la statue ne faisait pas l’objet d’un rite qui avait lieu dans le « vieux temple » de l'Acropole qui abritait un xoanon représentant Athéna Polias. Il s’agissait - mais d'un édifice conçu pour abriter la statue chryséléphantine de la déesse, Athéna Parthénos, œuvre de Phidias à laquelle les Athéniens présentaient leurs offrandes. Il était destiné aussi à abriter le trésor de la cité, sous forme de réserve métallique dans le naos (les 1 150 kilos d’or qui composaient la statue pouvant être fondus en cas de nécessité) et dans l'adyton qui regroupe les fonds de la ville d'Athènes et de la ligue de Délos3.



Édification du bâtiment
Le Parthénon a été bâti à l'instigation de Périclès et construit de -447 à -438 par l'architecte Ictinos ; il fut décoré jusqu'à -432 par le sculpteur Phidias, également à l'initiative de Périclès4. Son raffinement architectural, la perfection de ses proportions et la qualité de sa décoration étaient réputés dès l'antiquité, bien qu'il n'ait pas été considéré comme une des sept merveilles du monde antique.
Les sculptures extérieures n'ont été achevées qu'en 431 av. J.-C.5 sur l'emplacement de deux édifices précédemment détruits6. Le premier est un temple périptère et hexastyle en pōros (sorte de tuf) et est souvent qualifié d’Urparthenon (« Parthénon primitif ») ou d’Arkitektur H 7, probablement bâti au début du vie siècle av. J.-C. et consacré vers -566-565 av. J.-C., lors de l'institution des Grandes Panathénées par Pisistrate8. Le second est ce que les archéologues appellent le « pré-Parthénon », dont le chantier commence probablement vers 500 av. J.-C., initialement en pōros, variété de tuf tendre9. Après la bataille de Marathon, les dimensions du bâtiment sont revues à la baisse (33,68 × 72,31 mètres) et l'on décide d'employer le marbre du Pentélique. Les travaux sont suspendus pendant les guerres médiques, probablement sur décision de Thémistocle9. L'édifice est détruit lors du sac de l'Acropole en 480 av. J.-C. par les Perses de Xerxès lors de la deuxième guerre médique10.
Le troisième bâtiment, le Parthénon actuel a pour architectes Ictinos et Callicratès, Phidias assumant au moins la supervision de l'ensemble des sculptures. Sa construction a nécessité le travail de centaines d'artisans-artistes (les deux notions d'artisanat et d'art n'étaient pas clairement séparées chez les Grecs de l'Antiquité qui utilisaient le vocable « têchné  » pour les deux).
On possède encore quelques-uns des comptes financiers du chantier. Le Parthénon avec la statue d'Athéna et les Propylées aurait coûté 2 000 talents, somme colossale (certains parlent de 400 talents, somme également colossale, équivalant à 400 navires de guerre tout équipés) qui provenait en partie du trésor de la ligue de Délos. Plutarque rapporte dans sa Vie de Périclès (14, 1-2) que celui-ci proposa de prendre à sa charge les dépenses, pourvu qu'on inscrivît son nom sur le monument. L'anecdote est douteuse, mais témoigne des résistances rencontrées à l'époque face à ce projet pharaonique, y compris parmi les alliés d'Athènes. Théophraste indique que les poutres Parthénon étaient faites en bois de cyprès, soulignant au passage la qualité de conservation du bois et de son essence11.
Données architecturales


Plan du Parthénon.
Le Parthénon est un bâtiment dorique, périptère, amphiprostyle et octostyle, construit sur une crépis à trois degrés de 0,55 m de chacun. Le dernier degré sur lequel reposent les colonnes doriques est le stylobate tandis que le stéréobate est réalisé en pôros, variété de tuf tendre. Le temple de 10 mètres de haut mesure 69,51 mètres sur 30,88 mètres, dimensions qui ne peuvent être comparées qu'à celles de grands temples ioniques, comme l’Héraion de Samos, les temples romains de Baalbeck ou l'Artémision d'Éphèse, qui dépassent la centaine de mètres12.
Bien que le nombre d'or ait pu être remarqué dans les rapports de certaines longueurs, il existe un autre rapport qui est de 4/913. En effet, lorsqu'on divise la largeur de l'édifice par sa longueur, le résultat est de l'ordre de 4/9 : on retrouve ce rapport entre la largeur des colonnes et la distance qui les sépare, ainsi qu'entre la hauteur de la façade et sa largeur.14
La façade principale ouvre à l'est, ce qui n'est pas habituel dans les temples doriques15. Elle dispose d'un escalier avec des marches deux fois moins hautes que les degrés du crépis12.
La colonnade extérieure (péristasis) est octostyle et non hexastyle, comme c'est l'usage à l'époque. Elle est dessinée selon un plan rigoureusement dorique et compte 46 colonnes, chacune composée de 10 à 12 tambours de 20 cannelures chacun. Le conflit d'angle propre aux édifices d'ordre dorique est ici résolu par la réduction du dernier entrecolonnement.
Le sékos (partie fermée de l'édifice) est surélevé de deux degrés. Il est amphiprostyle, c'est-à-dire que sa colonnade est limitée aux petits côtés, et hexastyle (6 colonnes). Sa nef centrale a une portée de onze mètres, encore jamais atteinte à l'époque ; ses étroites nefs latérales sont éclairées par deux fenêtres (9,75 x 4,20 m) de part et d’autre de la porte d’entrée, qui éclaire l’espace central. Le naos, large de 9,815 m., est entouré d'une colonnade faisant un retour derrière la statue12.
L'édifice est aménagé de manière à mettre en valeur la statue de Phidias : la péristasis (espace de la colonnade extérieure), le pronaos (vestibule d'entrée dans le naos) et l'opisthodome (symétrique, à l'arrière du pronaos) sont fortement réduits pour ménager de la place. L'opisthodome ouvre sur une quatrième pièce assez rare dans les monuments grecs de l'époque classique : l’oikostôn parthenôn, lieu de réunion des jeunes filles chargées du service d’Athéna et qui donne son nom à l'édifice12.
Le Parthénon est construit en marbre du Pentélique. Son toit était couvert de 8 480 tuiles plates de marbre de 50 kg chacune, agrémentées d'antéfixes en palmettes polychromes et figurant des têtes de lions aux angles, qui faisaient office de gargouilles12.
Corrections optiques

Un système de correction optique très précis permettait de donner l'illusion d'une verticalité et d'une horizontalité parfaites alors que les marches du stylobate convexe sont incurvées, le centre étant situé à 6,75 cm au-dessus des extrémités (stylobate des faces), 11 cm (stylobate des côtés)16 ; les architraves sont incurvés aussi, ceux de la longueur ayant une convexité de 12 cm. En outre, les colonnes ne sont pas parallèles, mais leurs axes verticaux se rencontrent en un point de fuite situé à environ 5 km d'altitude (ce qui se perçoit d'autant plus que la colonne est loin du centre de l'édifice). Enfin, les colonnes elles-mêmes sont modifiées pour ces raisons optiques : les colonnes d'angles sont plus épaisses pour éviter de paraitre trop minces si elles se détachaient sur le vide et ont une inclinaison diagonale accrue (10 cm) de manière à prévenir les poussées plus fortes qui s'exercent sur elles17. Technique courante, toutes les colonnes sont renflées de 4 cm au tiers de leur hauteur en partant du pied (c'est ce qu'on appelle l'entasis (en)), l'œil ayant tendance à voir à cet endroit un étranglement. Le rayon de courbure des renflements dépassant 1,5 km, il semblerait que, pour fabriquer les tambours d'une même colonne, les ouvriers aient utilisé un modèle réduit " saucissonné " de cette colonne, de même largeur, mais n'ayant que le seizième de la hauteur réelle. De même, toujours dans ce souci d'atteindre la perfection visuelle, aucun des blocs de marbre constituant les murs n'était rigoureusement parallélépipédique. Tout cela permet d'expliquer en partie la durée et le coût des travaux de réfection actuels : il est absolument impossible d'intervertir deux constituants de l'édifice sous peine de voir son esthétique et sa stabilité en pâtir.
Une question néanmoins demeure : comment les bâtisseurs du siècle de Périclès ont-ils pu achever cette construction en moins de neuf ans avec des outils beaucoup plus rustiques que les nôtres ? Actuellement on pense qu'ils utilisaient des procédures standardisées permettant une construction modulaire : l'architecte choisit les dimensions de l'ensemble et du détail en fonction d'une unité, le module de construction (en l'occurrence la largeur du triglyphe du Parthénon, sa largeur faisant 36 modules, sa longueur 81, ses colonnes 16 et l'entrecolonnement 5 modules) de façon à obtenir en plan et en élévation l'eurythmie18.
Outre l'aspect esthétique recherché, ces corrections visuelles apportent des avantages techniques : elles facilitent l'écoulement des eaux par la courbure du sol et renforcent la structure de l'ensemble par l'élargissement des colonnes d'angle. Cependant, elles rendent plus délicats non seulement la taille des blocs de pierre, mais aussi leur empilement et tout le travail de jointoiement :
- ainsi, pour le montage d'une colonne, fallait-il être capable de déposer en douceur un tambour de plus d'une tonne suspendu au-dessus de celui qui allait le supporter, tout en ayant la possibilité de le déplacer facilement pour l'ajuster à la perfection ; pour cela, on encastrait les deux parties d'une clavette en bois de cèdre dans des trous cubiques ménagés au centre de chacune des deux faces à mettre en contact (la partie "mâle" dans l'une et la partie "femelle" dans l'autre), le guidage et le positionnement recherchés s'effectuant au cours de l'emboîtement progressif jusqu'au blocage final ².
- de même, après l'analyse d'une fissure qui traversait deux blocs jointés, on a mis en évidence des joints plus fins qu'un cheveu et d'une résistance telle que les deux éléments se sont comportés comme un seul bloc lors d'un tremblement de terre... De plus, selon un modèle de l'époque, on a pu reconstituer une meule métallique qui se manie à deux, qui porte des sortes d'entonnoirs sur le dessus (dans lesquels on verse du sable fin) et qui permet de poncer les faces d'un bloc de marbre sur une épaisseur de l'ordre du vingtième de millimètre.

 

DOCUMENT                WIKIPEDIA         LIEN

 
 
 
 

HISTOIRE DES MESURES DE LA VITESSE DE LA LUMIÈRE

 

Transcription automatique corrigée.


Dans le film que vous allez voir des images de synthèse vont être utilisées pour représenter le trajet de la lumière. Or si la lumière se voit de face lorsque la source lumineuse est devant vous, elle ne se voit pas de profil. Alors nous avons choisi de représenter la lumière de profil de cette façon. Et comme la lumière n'est pas instantanée mais qu'elle se déplace, nous la ferons avancer de cette manière. Bien sûr gardez en tête qu'ici la vitesse est considérablement ralentie. Bon film.
300 000 kilomètres par seconde c'est la vitesse de la lumière, plus exactement 299 792 kilomètres et 458 mètres par seconde. Autrement dit en une seconde la lumière parcourt 299 792 kilomètres et 458 mètres. Il lui faut seulement 8 minutes et 13 secondes pour parvenir du soleil jusqu'à nous. Un peu plus de 4 ans depuis Proxima du Centaure, l'étoile la plus proche du système solaire, et à peine un milliardième de seconde pour aller de l'écran que vous regardez, jusqu'à vos yeux. 300 000 kilomètres par seconde, ça va très vite. Tellement vite que durant des milliers d'années, les hommes ont cru que la lumière était instantanée. Comment vous dire, pour eux, elle ne se déplaçait pas. Il y en avait où il n'y en avait pas.

Un des premiers à avoir douter de l'instantanéité de la lumière c'est Alhazen, un savant arabe du 10ème siècle. Alhazen est un précurseur, il est l'auteur du premier traité d'optique, un ouvrage dans lequel il décrit le phénomène de la réfraction, et l'explique. Vous savez, quand on plonge un bâton dans l'eau par exemple, et bien on a l'impression qu'il est cassé. Alhazen a une intuition. Il pense que la lumière à une vitesse de propagation. Hélas il ne pourra rien prouver et sa géniale intuition ne restera qu'une intuition. En fait c'est Galilée au 17ème siècle qui le premier va tenter de mesurer la vitesse de propagation de la lumière. Galilée, vous connaissez, c'est ce savant italien qui s'est illustré du haut de la tour de Pise en faisant des expériences sur la chute des corps. Galilée pense donc que la lumière à une vitesse finie, et en savant scrupuleux, il est bien décidé à le prouver. Pour cela, il doit mesurer le temps que met la lumière pour parcourir une distance bien précise. Car c'est ça la vitesse, une distance sur une durée. Quand un véhicule roule à 50 kilomètres par heure par exemple, eh bien cela signifie qu'à cette vitesse, il parcourt 50 kilomètres en une heure. Revenons à Galilée, il est également persuadé que la lumière se propage très vite. Comment faire alors dans ces conditions, pour la suivre sur un trajet déterminé avec un point de départ et un point d'arrivée, et mesurer le temps qu'elle met pour effectuer ce trajet. Une chose est sûre, sa mesure ne peut se faire que sur une grande distance. Galilée met en place l'expérience suivante : 2 observateurs se positionnent à environ mille huit cents mètres l'un de l'autre, chacun au sommet d'une colline. Il fait nuit. Tous les 2 sont équipés d'une lanterne dont ils ont masqué la lumière. L'idée de Galilée est simple. Le premier démasque sa lanterne et il déclenche simultanément une clepsydre, l'ancêtre de l'horloge. Sitôt qu'il aperçoit la lueur, le second démasque la sienne, et dès que le premier aperçoit cet éclat, il arrête la clepsydre. Plutôt bien vu, si j'ose dire. Ce dispositif doit en effet permettre de mesurer le temps que met la lumière pour faire l'aller retour entre les 2 observateurs. Hélas les 2 hommes ont beau faire et refaire l'expérience, la lumière semble instantanée. Et pour cause il ne lui faut que quelques millionièmes de secondes pour parcourir trois mille six cents mètres. Pourtant, Galilée ne va pas en déduire que la lumière est instantanée. Non, pour lui, sa vitesse est trop élevée pour pouvoir la mesurer. En fait, il va falloir patienter jusqu'au 18ème siècle pour prouver que la lumière se déplace à une vitesse vertigineuse. Le temps que des savants acquierent les connaissances suffisantes et mettent au point le matériel nécessaire. Le premier, qui sans savoir va apporter sa contribution à cette quête, s'appelle Nicolas Copernic. Son nom vous dit sûrement quelque chose. C'est un astronome prestigieux. Avant lui, on pensait que la terre était au centre de l'univers, c'était comme ça depuis les grecs. Au 16ème siècle, Nicolas Copernic va remettre les choses en place. Enfin les planètes. L'astronome va montrer que le soleil est au centre du système, et que toutes les planètes tournent autour. C'est d'ailleurs en défendant les thèses de Copernic que Galilée aura des problèmes avec l'Eglise.
Le 2ème savant c'est Galilée. En 1609 il met au point une lunette qui permet d'observer les planètes du système solaire. Grâce à cet instrument, il découvre que 4 lunes gravitent autour de Jupiter.
Le 3ème enfin s'appelle  Johannes Kepler. Il observe le ballet des planètes autour du soleil et en comprend la mécanique. Grâce à ses travaux rassemblés dans les fameuses lois de Kepler, les astronomes peuvent dès lors savoir à tout moment où se trouvent les planètes les unes par rapport aux autres. Voilà la boîte à outils est prête. La lumière va pouvoir livrer une partie de son mystère. Imaginez, nous sommes en 1671 sous le règne de Louis XIV. L'observatoire de Paris vient juste d'être achevé. Il est dirigé par l'illustrissimo Jean-Dominique Cassini. A l'époque c'est une personnalité très importante et très respectée en raison de ses tables, les fameuses table de Cassini. Rien à voir avec la gastronomie. Jean-Dominique Cassini a la tête dans les étoiles.
Grâce aux lois de Kepler, il a calculé et déterminé les jours et les horaires des éclipses de Io, un satellite de Jupiter. Autrement dit il sait quand précisément cette lune disparaît dans le cône d'ombre de Jupiter, c'est ce que l'on appelle l'immersion, et quand elle en ressort, c'est l'émersion. Ces données sont rassemblées sur des tableaux, un peu comme les horaires de marées aujourd'hui, les fameuses tables de Cassini.
A l'époque, l'idée c'est d'aider les marins à se positionner sur la mer - ils n'ont pas le gps - mais en comparant l'heure à laquelle ils voient apparaître ou disparaître le satellite de Jupiter et l'horaire qui figure sur les tables au jour J, horaire qui correspond à celui de Paris, et bien ils peuvent en principe déterminer la longitude à laquelle ils se trouvent. Cependant Cassini est perturbé, ça fait pas mal de temps qu'il observe Io, et il ne comprend pas. Parfois Io respecte ses prévisions, et depuis la terre apparaît ou disparaît pile à l'heure, et puis de façon tout à fait incompréhensible, quelques mois plus tard, Io apparaît ou disparaît avec quelques minutes de retard ou d'avance sur ses prévisions. Que se passe-t-il ?  Olaus Roemer, astronome danois invité de Cassini à l'Observatoire de Paris va proposer une solution à ce problème. Les planètes, on l'a vu, tournent autour du soleil dans un étrange ballet. Imaginons : la Terre se trouve ici, Jupiter là. Io entre dans le cône d'ombre puis en ressort à 22 heures, comme prévu par les tables. Quelques mois plus tard, la Terre se trouve maintenant ici, et Jupiter là. La distance qui sépare les 2 planètes a augmenté de 75 millions de kilomètres. Io entre dans l'ombre, l'observateur qui se trouve sur Terre la voit ressortir, mais avec 4 minutes de retard sur l'horaire prévu. Pourquoi ? Eh bien parce que la distance entre Io et la Terre a augmenté, et que les 4 minutes supplémentaires correspondent au temps nécessaire à la lumière pour qu'elle parcoure cette distance supplémentaire. Roemer fait d'une pierre 2 coups, il explique les retards de Io et en déduit que la lumière à une vitesse finie. Après une telle découverte, on pourrait imaginer que la communauté scientifique explosa de joie... et bien pas vraiment. Cassini va très vite remettre en cause les résultats de Roemer. En effet, les éclipses des autres satellites de Jupiter ne sont pas sujettes aux mêmes retards que celle de Io. L'argument c'est vrai est de poids. En fait on sait aujourd'hui que ces écarts sont dus à des mouvements plus complexes des autres satellites, et qu'il était difficile de les déceler à l'époque. Finalement, c'est un anglais, James Bradley qui va clore le débat. 50 ans plus tard, il confirme que Roemer avait raison et que la lumière n'est pas instantanée, mais qu'elle a une vitesse, une vitesse finie qu'il estime proche de 300 000 kilomètres par seconde. Désormais, la course à la mesure de la vitesse de la lumière peut démarrer. Mais ça c'est une autre histoire.

Dans le film que vous allez voir des images de synthèse vont être utilisées pour représenter le trajet de la lumière. Or si la lumière se voit de face, lorsque la source lumineuse est devant vous, elle ne se voit pas de profil. Alors nous avons choisi de représenter la lumière de profil de cette façon, et comme la lumière n'est pas instantanée, mais qu'elle se déplace, nous la ferons avancer de cette manière. Bien sûr gardez en tête qu'ici la vitesse est considérablement ralentie. Bon film.

Au milieu du 19ème siècle, la lumière a livré une partie de son mystère. Après des lustres d'incertitudes, la communauté scientifique sait désormais que la lumière se propage à une vitesse finie. C'est un danois, Olaus Roemer, qui l'a affirmé en 1676. Au début, c'est vrai, l'idée a du mal à passer, jusqu'au moment où 50 ans plus tard, un astronome anglais James Bradley en a apporté la preuve. Il a même estimé la vitesse de la lumière à environ 300 000 kilomètres par seconde. Seulement voilà, en ce milieu de 19ème siècle, la communauté scientifique sait que le résultat de Bradley est approximatif. En effet, Bradley a fait son estimation à partir de la distance qui sépare la Terre du Soleil. Or à cette époque, cette distance est encore incertaine. C'est d'ailleurs l'une des grandes questions qui agitent l'Observatoire de Paris. Une question à laquelle les scientifiques répondraient facilement s'ils connaissaient précisément la vitesse de la lumière. En effet pour obtenir une distance, il suffit de multiplier le temps par la vitesse. Or en ce milieu de 19ème siècle, seul le temps que met la lumière pour parvenir du soleil jusqu'à la Terre est connu. 8 minutes et 12 seconde soit 492 secondes. Autrement dit, vous l'avez compris, d'un côté il y a ceux qui avaient besoin de la distance terre-soleil pour mesurer la vitesse de la lumière, et de l'autre, ceux qui avaient besoin de la vitesse de la lumière pour mesurer la distance terre-soleil. Bref, c'est le chat qui se mord queue. Alors comment s'en sortir ? A l'époque, l'Observatoire de Paris est dirigé par François Arago. Je le précise car c'est un éminent scientifique dont vous entendrez sûrement parler un jour ou l'autre. C'est une sorte de touche-à-tout de génie, et qui en plus aime l'aventure. Il est aussi à l'aise la physique, l'astronomie, qu'à dos de chameau. Il est persuadé qu'il faut commencer par trouver la vitesse de la lumière. Seulement cette fois, les éléments semblent résister. Comment déterminer cette vitesse, ce sésame qui ouvrirait de nouvelles portes vers la compréhension de l'univers ? Continuer à observer le ballet des astres comme le faisaient Roemer et Bradley, surement pas. Pour obtenir une réponse il faut trouver un moyen de mesurer cette vitesse sur Terre. Autrement dit, en laboratoire. Heureusement Arago n'est pas seul.  Il encadre de jeunes prodiges impatients d'en découdre avec ces grandes questions. Parmi eux 2 jeunes physiciens : Hippolyte Fizeau et Léon Foucault. Ce qui est étonnant, c'est que ce sont des autodidactes. Attention ce ne sont pas non plus des premiers venus. Tous les 2 ont quand même fait des études de médecine, mais ils ont abandonné cette discipline pour se consacrer à la physique. Ensemble, ils ont d'ailleurs obtenu la première image du soleil. La photographie venait tout juste d'être inventée. Ils planchent donc. Mais cette fois, chacun de leur côté. Peut être d'ailleurs, les 2 hommes sont-ils un peu en concurrence, mais qu'importe. Ils cherchent. Aidé par Gustave Froment, un habile constructeur mécanicien, Hyppolite Fizeau met au point une machine capable de mesurer la vitesse de la lumière sur Terre. La voilà la machine de Fizeau, pas une reproduction, la vraie machine, celle utilisée par Fizeau lui-même pour réaliser ces mesures. Alors évidemment, on se demande comment Fizeau a bien a pu mesurer la vitesse de la lumière avec ça. Pas de panique, vous allez voir, c'est assez simple. D'abord Hippolyte Fizeau s'est inspiré de ses prédécesseurs, Galilée notamment et son expérience nocturne. Vous savez, 2 observateurs placés au sommet de 2 collines distantes de plusieurs lieux. Il voulait mesurer le temps que la lumière mettait pour faire un aller-retour. Galilée n'avait rien mesuré du tout, mais il avait pressenti que la lumière devait faire un aller-retour.

Fizeau pressent exactement la même chose. Voici le principe de son expérience :  Fizeau place une source lumineuse sur le balcon de sa maison, à Suresnes. A l'époque, pour obtenir une puissance suffisante, on utilise de la craie incandescente. Cette lumière vient ensuite buter contre une lame de verre semi-réfléchissante, inclinée à 45 degrés. De cette manière, elle est déviée direction Montmartre à plus de 8 kilomètres de Suresnes. 8 633 mètres exactement, jusqu'au balcon d'un ami, où Fizeau a installé un miroir. La lumière s'y réfléchit et repart en sens inverse jusqu'à Suresnes où notre physicien la récupère dans son oeilleton, après bien sûr qu'elle ait traversé la lame de verre. Le dispositif de Fizeau comporte également, c'est essentiel, une roue dentée installée au niveau de la station d'émission, sur la trajectoire du faisceau lumineux. En vrai, voilà ce que ça donne. Comme vous pouvez le constater, la machine réelle est un peu plus complexe, avec les différents appareils optiques destinés notamment à focaliser la lumière. La source lumineuse était placée ici, sur le côté. Là c'est la lame de verre semi-réfléchissante et juste derrière, vous reconnaissez la roue dentée. Mais si, la roue est bien dentée, seulement les dents son minuscules, il y en a 720. Cette roue dentée était entraînée par un mécanisme mis en mouvement par un poids qui se trouvait là. Alors à quoi pouvait bien servir cette route dentée ? Pour mieux comprendre nous allons nous concentrer sur 2 dents. Rassurez-vous, ça ne mord pas. Quand le mécanisme est au repos, la lumière passe entre 2 dents, frappe le miroir à Montmartre et revient vers Fizeau, qui observe un point lumineux dans l'oeilleton. Maintenant le physicien fait tourner la roue. Les dents coupent le faisceaux lumineux. Le point lumineux s'évanouit, puis apparaît de nouveau dans l'oeilleton. La roue tourne, de plus en plus vite, jusqu'au moment où la lumière qui à l'aller passe entre 2 dents, vient buter au retour contre une dent. A cette vitesse là, le point lumineux disparaît dans l'oeilleton de Fizeau. Elle est là l'astuce. Revoyons ce qui se passe au ralenti : le temps qu'a mis la dent pour remplacer le trou par lequel la lumière était passée à l'aller, correspond au temps qu'a mis la lumière pour faire l'aller-retour. Fizeau, qui a installé un compte tours sur sa machine, note que le phénomène est observé lorsque la roue atteint 12,6 tours par seconde. La suite, et bien, c'est une histoire de calcul. En fait la roue a été conçue de telle sorte que l'angle auquel correspond une dent soit d'un quart de degré. Connaissant le nombre de tours qu'effectue la roue dentée en une seconde, autrement dit 12,6 tours par seconde, et bien Fiezau en déduit que le temps que met une dent pour remplacer un creux est de 55 micro-secondes. La lumière met dont 55 micro-secondes pour faire l'aller-retour Suresnes-Montmartre, soit 17 266 mètres. Fizeau estime donc la vitesse de la lumière à trois cent quinze mille trois cents kilomètres par seconde. Pourtant Fizeau sait que ces résultats manquent de précision. En effet il a du mal à mesurer avec exactitude la vitesse de rotation de la roue dentée. Alors me direz-vous, pas de quoi sauter au plafond. Et bien si, et je ne suis pas le seul. Fizeau est salué par l'Académie des sciences. Il est même décoré de la légion d'honneur. Pourquoi ? Et bien parce que même si ce résultat manque de précision, Fizeau est le premier à avoir mis au point un dispositif capable de suivre sur Terre, le trajet de la lumière et de mesurer sa vitesse. Nous sommes en 1849. Dix ans plus tard, Léon Foucault, le complice des débuts mettra au point un autre dispositif. Il mesurera la vitesse de la lumière avec encore plus de précision. Mais ça c'est une autre histoire.

Dans le film que vous allez voir, des images de synthèse vont être utilisées pour représenter le trajet de la lumière. Or si la lumière se voit de face, lorsque la source lumineuse est devant vous, elle ne se voit pas de profil. Alors nous avons choisi de représenter la lumière de profil de cette façon, et comme la lumière n'est pas instantanée mais qu'elle se déplace, nous la ferons avancer de cette manière. Bien sûr, gardez en tête qu'ici la vitesse est considérablement ralentie. Bon film.

En 1849, un physicien français Hippolyte Fizeau était parvenu pour la première fois à mesurer la vitesse de la lumière sur Terre. Grâce à un dispositif ingénieux, il l'avait estimée à trois cent quinze mille trois cents kilomètres par seconde. Alors je sais, on est un peu loin de l'estimation faite par l'anglais James Bradley environ 300 000 kilomètres par seconde. Mais qu'importe les chiffres, le succès de Fizeau tenait d'abord et avant tout, au dispositif qu'il avait mis en place. Un dispositif qui prouvait que l'on pouvait mesurer la vitesse de la lumière sur Terre. Fizeau était d'ailleurs parfaitement conscient de cette marge d'erreur, qu'il attribuait à juste titre au manque de précision du matériel qu'il avait utilisé. D'ailleurs il ne publiera même pas ses résultats. Mais ça ne l'a pas empêché d'être salué par l'Académie des sciences, et décoré de la légion d'honneur.

Pour autant ce succès n'avait pas réglé tous les problèmes. A cette époque, je vous rappelle, les astronomes cherchent à déterminer avec précision la distance Terre-Soleil. Or, pour calculer cette distance, ils ont besoin de connaître précisément la vitesse de la lumière. D'où les travaux de Fizeau. Cependant la valeur trouvée par Fizeau étant imprécise,  et bien la question demeurait toujours en suspens. En 1853 Urbain le Verrier prend la tête de l'Observatoire de Paris. Il a toujours regretté que Fizeau n'ait pas poursuivi ses recherche. Il demande donc à Léon Foucault de lui fournir une nouvelle mesure plus précise de la vitesse de la lumière. Léon Foucault, je suis sûr que ce nom vous dit quelque chose, mais si, c'est le compagnon de route d'Hyppolite Fizeau. Comme lui c'est un autodidacte, et ensemble ils ont obtenu la première photographie du soleil.
Léon Foucault c'est aussi le père du pendule. Le fameux pendule de Foucault. Je sais, je sais, ce n'est pas le moment. Pour mesurer la vitesse de la lumière, Foucault reprend en l'améliorant une expérience dans laquelle il utilisait un miroir tournant. Au passage, cette expérience l'avait rendu célèbre, parce qu'elle lui avait permis de conclure que la lumière se déplaçait plus rapidement dans l'air que dans l'eau. Comme Fizeau, Léon Foucault sait qu'il ne peut mesurer cette vitesse qu'en faisant faire un aller-retour à la lumière. Il met donc en place le dispositif suivant : un héliostat capte la lumière du soleil et la renvoie sur une lame semi-réfléchissante. La lumière traverse cette lame, puis est réfléchie par le fameux miroir tournant. Et quand je dis qu'il tourne, je ne plaisante pas. 400 tours par seconde, ça donne le vertige. Le mécanisme est entraîné par une turbine à air comprimé, ce qui rend le mouvement parfaitement régulier, et réduit les imprécisions. Il y a aussi un compte tours extrêmement précis. Pour le moment cependant, le miroir tournant est à l'arrêt. Dans cette position, la lumière est dirigée vers un premier miroir fixe, puis vers un 2ème, un 3ème, un 4ème et enfin un 5ème miroir, conçu et orienté de telle sorte qu'une fois la lumière arrivée ici, elle repart en sens inverse, en suivant exactement le même chemin, jusqu'à la lame de verre semi-réflechissante qui dirige alors la lumière vers un oculaire. En partant du miroir tournant, et en y revenant, la lumière parcourt très exactement 40,4 mètres. Ce dispositif comporte également une mire graduée située ici. Cette mire a été réalisée par Gustave Froment, celui -là même qui a travaillé avec Fizeau. Lorsque la lumière pénètre le dispositif, elle franchit la mire et projette l'image de cette mire sur tout son trajet aller, et sur tout son trajet retour. Si les miroirs sont bien alignés, l'image de la mire apparaît dans l'oculaire. On place alors devant l'oculaire un réticule, autrement-dit un petit repère, et on le positionne précisément afin qu'il se trouve au milieu de la mire sur une graduation. Foucault lance le mécanisme du miroir tournant. La lumière s'y réfléchit. Seulement étant donné que le miroir tourne, la direction de la lumière est sans arrêt modifiée. Concrètement ou bien elle est dirigée vers les autres miroirs, ou bien elle passe à côté. Tout se passe en fait comme si l'image de la mire clignotait dans l'oculaire. J'ai bien dit "comme si". En effet le miroir tourne tellement vite, que l'oeil ne s'en aperçoit même pas. A cause d'un autre phénomène qu'on appelle la persistance rétinienne. Alors à quoi lui sert tout ce dispositif ? Et bien observons au ralenti ce qui se passe au niveau du miroir tournant. Foucault sait que la lumière se propage à une vitesse vertigineuse, de l'ordre de 300 000 kilomètres par seconde. Par conséquent, le temps que la lumière fasse l'aller-retour, le miroir tournant s'est seulement déplacé d'une fraction de degré, la lumière est toujours dirigée vers l'oculaire, mais elle est légèrement décalée par rapport à la lumière qui est réfléchie quand le miroir tournant est à l'arrêt. Du coup l'image de la mire est elle aussi légèrement décalée par rapport au réticule que Foucault avait soigneusement positionné. Et étant donné que la mire est graduée, et bien Foucault va pouvoir mesurer ce décalage. On y est presque. Ce décalage de 0,7 millimètre correspond à un angle de 0,02 degré. Maintenant souvenez-vous le miroir fait 400 tours par seconde. Un tour c'est 360 degrés. 400, c'est 400 fois plus, autrement dit 144 000 degrés en une seconde. Le miroir, lui s'est déplacé de 0,02 degré, il suffit donc de diviser, et on sait en combien de temps le miroir à parcouru cet angle, soit 135 milliardièmes de seconde. Ce temps, c'est le temps qui'a mis la lumière pour faire l'aller-retour à partir du miroir tournant soit 40,4 mètres. Nous sommes en 1862, Léon foucault annonce son résultat, avec une incertitude de 500 kilomètres par seconde. Très vite, la course à la précision allait maintenant commencer. Mais ça c'est une autre histoire.

Dans le film que vous allez voir, des images de synthèse vont être utilisées pour représenter le trajet de la lumière. Or si la lumière se voit de face, lorsque la source lumineuse est devant vous elle, ne se voit pas de profil. Alors nous avons choisi de représenter la lumière de profil de cette façon, et comme la lumière n'est pas instantanée, mais qu'elle se déplace, nous la ferons avancer de cette manière. Bien sûr, gardez en tête qu'ici la vitesse est considérablement ralentie.  Bon film.

Que de chemin parcouru depuis ces temps immémoriaux où les hommes pensaient que la lumière était instantanée, qu'il y en avait, ou qu'il n'y en avait pas. Aux alentours de 1850, tout le monde sait désormais que la lumière a une vitesse de propagation finie. Une vitesse très élevée d'ailleurs, puisqu'elle tourne autour de 300000 kilomètres par seconde. Deux méthodes ont été mises au point pour la calculer : la méthode dite de la roue dentée conçue par Hippolyte Fizeau, et celle du miroir tournant plus précise, mise au point quelques années plus tard, par Léon Foucault. Pour autant, même si la marge d'incertitude se rédui,t elle existe toujours, et c'est bien dommage, car je vous rappelle qu'à l'époque, les scientifiques cherchent à déterminer avec précision la distance terre-soleil. Ils ont plusieurs solutions pour déterminer cette distance. L'une d'elles consiste à utiliser la vitesse de la lumière. En effet depuis James Bradley, on sait combien de temps met la lumière pour parcourir la distance Terre-Soleil : 8 minutes et 12 secondes. Si on savait précisément à quelle vitesse se déplace la lumière, et bien, on en déduirait facilement quelle distance elle parcourt pendant ces 8 minutes et 12 secondes. Et ainsi on connaîtrait la distance Terre-Soleil. Les astronomes pensent qu'enfin ils vont pouvoir déterminer cette distance avec précision. En effet, en 1874, le Soleil, Vénus et la Terre doivent s'aligner. Poursuivant la tâche de Vénus sur le Soleil et en effectuant des mesures en différents points sur la planète, ils peuvent par calcul déterminer cette distance. Urbain le Verrier, qui dirige l'observatoire de paris n'est qu'à moitié satisfait. En effet, il regrette que l'on soit ainsi tributaire de la course des planètes pour déterminer cette distance. Il préférerait 100 fois que l'on puisse faire cette mesure sur Terre à tout moment, et pour cause, le Soleil, Vénus et la Terre ne sont que très rarement alignés. Certaines personnes ne pourront même jamais observer un tel alignement au cours de leur existence, il ne faut donc pas se tromper. Pour déterminer la distance Terre-Soleil, le Verrier préfère utiliser la vitesse de la lumière. Et puisque celle-ci manque de précision, et bien, il demande à un jeune physicien, Alfred Cornu, de se lancer dans une nouvelle campagne de mesures. Alfred Cornu a le choix entre la roue dentée et le miroir tournant. Il doute du miroir tournant. En effet, il juge que le déplacement du miroir pendant le trajet de la lumière n'est pas suffisamment important pour que sa mesure soit fiable. Or c'est justement ce déplacement, qui selon cette méthode permet de déterminer la vitesse de la lumière. Il choisit donc la méthode de la roue dentée. Pour être parfaitement honnête sachez aussi que Cornu a été formé par Fizeau, le père de la roue dentée. Cornu ne fonce pas tête baissée, si j'ose dire. Il est également conscient des limites de cette méthode. Je vous rappelle le principe : la lumière qui part d'un point est réfléchie par un miroir et revient au point de départ. Sur le chemin elle croise une roue dentée. Quand le système est au repos, la lumière passe à l'aller et au retour entre 2 dents. Quand la roue tourne, à partir d'une certaine vitesse, la lumière qui passe entre 2 dents à l'aller, bute contre une de ses dents au retour. C'est grâce à cette vitesse de rotation de la roue dentée que Fizeau a estimé la vitesse de propagation de la lumière. Pour que la lumière rencontre la dent sur son trajet retour, Fizeau a dû faire tourner la roue à 12,6 tours par seconde. Il atteint cette vitesse à tâtons, passant parfois à côté, et quand il y parvient, il a beaucoup de difficultés à la maintenir constante cette vitesse. Il doit reprendre l'expérience a maintes reprises, pour repérer la vitesse de 12,6 tours par seconde. Du coup il ne réalise qu'une vingtaine de mesures. Après un premier essai infructueux en 1871, Cornu va améliorer son dispositif expérimental. Pour cela il utilise une machine qui tourne très vite. Sa vitesse de rotation peut atteindre mille six cents tours par seconde. De plus, cette machine est équipée, et c'est important, d'un mécanisme qui enregistre continuellement la vitesse de rotation de la route dentée, et le moment où la lumière vient buter contre une dent, et disparaît dans l'oculaire de l'observateur. Ainsi il n'est plus besoin de maintenir constante la vitesse de la roue, car l'obturation de la lumière peut se produire pour différentes dents,  donc pour différentes vitesses de rotation.
A chaque fois que la lumière disparaît, Cornu appuie sur une clé électrique, reliée à la machine qui enregistre ce moment et la valeur de la vitesse correspondante. Cornu installe cette machine dans une mansarde de l'école polytechnique sur la montagne Sainte-Geneviève à Paris. Tandis que le miroir réflecteur lui est installé à 10 310 mètres de là, sur le Mont Valérien. Là où Fizeau n'avait fait que quelques dizaines d'essais, Cornu lui effectue plus de mille observations. La moyenne de ces mesures donne une valeur de 298 500 kilomètres par seconde. Cornu est le premier surpris par ce résultat. Alors qu'il trouvait suspecte la méthode de Foucault et son miroir tournant, il obtient une valeur quasi identique à ce dernier. Les méthodes de la roue dentée et du miroir tournant sont réconciliées. Mais la précision est encore insuffisante. Encouragé par Urbain le Verrier, directeur de l'observatoire de paris, Cornu va allonger la distance de l'aller-retour effectué par la lumière pour diminuer l'imprécision. En 1874, il installe sa machine à l'observatoire de  Paris et pointe à 23 kilomètres au sud, la tour médiévale de Montlhéry. Après son départ, la lumière parcourt 46 kilomètres avant de revenir à l'observatoire. Chaque soir Cornu se rend à l'observatoire, il passe des nuits entières à lancer des mesures, attendant des conditions de pureté de l'air et de calme exceptionnel. A force de patience, il finit par accumuler plus de cinq cents mesures, obtenant une valeur de la vitesse de la lumière de trois cent mille quatre cents kilomètres par seconde avec une incertitude de trois cents kilomètres par seconde. Cette méthode sera utilisée pendant de nombreuses années, elle fournira un dernier résultat en 1902, 299 880  kilomètres par seconde avec une incertitude de 84 kilomètres par seconde. Quel progrès ! Entre temps cependant, les français auront perdu le monopole des mesures de la vitesse de la lumière. En 1878, un jeune américain de 25 ans, Albert Michelson, bien décidé à fournir une mesure encore plus précise que celle de Cornu, va perfectionner la méthode du miroir tournant mise au point par Léon Foucault. Ce sont toujours les mêmes fondamentaux. Comme ses prédécesseurs, Michelson va mesurer la vitesse de la lumière sur un parcourt aller-retour, mais là où Foucault lui faisait parcourir 40,4 mètres, l'américain va mesurer la vitesse de la lumière sur une distance de 70,8 kilomètres. Le dispositif est le suivant : une source envoie la lumière sur une face d'un prisme à 8 côtés. La lumière est réfléchie et par un jeu de miroirs est dirigée sur une face opposée du prisme. Elle s'y réfléchit et après avoir parcouru 70,8 kilomètres depuis le départ, elle atteint l'observateur. Pour le moment, le prisme est au repos. Faisons le tourner maintenant. Quand la lumière arrive en bout de course, la face du prisme sur laquelle elle se réfléchit a légèrement tourné. Du coup la lumière n'est plus réfléchie vers l'oculaire. L'observateur ne voit plus rien. En fait, pour que l'observateur voie la lumière, il faut que le prisme fasse un 8ème de tour pendant le trajet de la lumière. Autrement dit, quand  la lumière parcourt 70,8 kilomètres, le prisme lui doit faire un 8ème de tour. De cette manière la lumière qui revient vers le prisme, se réfléchit sur une face qui la renvoie pile dans l'axe de l'oculaire. Michelson calcule que le phénomène se produit quand le prisme tourne à 528 tours par seconde. Autrement dit, le prisme fait un 8ème de tour en 237 millionièmes de seconde. Comme c'est également le temps que met la lumière pour faire 70,8 kilomètres, Michelson en déduit que la lumière se propage à 299 796 kilomètres par seconde avec une incertitude de 4 kilomètres par seconde. Cette valeur va devenir une référence pour les scientifiques pendant plusieurs dizaines d'années. Avec le temps, d'autres scientifiques vont mettre au point de nouvelles méthodes pour en affiner encore la mesure. Mais ça c'est une autre histoire.

Dans le film que vous allez voir, des images de synthèse vont être utilisées pour représenter le trajet de la lumière. Or si la lumière se voit de face, lorsque la source lumineuse devant vous, elle ne se voit pas de profil. Alors nous avons choisi de représenter la lumière de profil de cette façon, et comme la lumière n'est pas instantanée, mais qu'elle se déplace, nous la ferons avancer de cette manière. Bien sûr gardez en tête qu'ici la vitesse est considérablement ralentie. Bon film.

Durant des milliers d'années, l'homme a pensé que la lumière était instantanée. Il y en avait, ou il n'y en avait pas. Certes Halazen, un savant arabe, et plus tard Galilée, avaient bien pensé que la lumière avait une vitesse de propagation, mais ils n'avaient rien pu prouver. En fait il a fallu attendre la fin du 17ème siècle, avec les observations d'Olaus Roemer, un astronome danois, et 50 ans plus tard les travaux de James Bradley, un astronome anglais, pour que le monde soit enfin persuadé que la lumière avait une vitesse de propagation, une vitesse de propagation finie qu'on estimait à l'époque proche de 300 000 kilomètres par seconde. Bien que satisfaite du résultat, la communauté scientifique savait pertinemment que les valeurs obtenues manquaient de précision. Or plus que jamais les savants avaient besoin de précision. Le 19ème siècle va donc être le théâtre d'une course à la précision. Les savants vont mettre au point d'étonnants dispositifs et des machines époustouflantes toutes plus ingénieuses les unes que les autres, permettant de mesurer la vitesse de la lumière, non plus en observant les astres, mais sur Terre, en laboratoire. Des dispositifs libérant les scientifiques des contingences liées à la mécanique céleste et leur permettant de faire de plus en plus de mesures au moment où ils le souhaitaient. I y eu d'abord Hippolyte Fizeau et sa machine à roue dentée avec laquelle il estima la vitesse de la lumière à 315 300 kilomètres par seconde. Puis Léon Foucault et son miroir tournant qui proposa 298 000 kilomètres par seconde. Ces machines furent modifiées, perfectionnées, chaque intervention réduisant l'incertitude. Tant et si bien, qu'au début du 20ème siècle l'américain Michelson parvenait à ce résultat 299 796 kilomètres par seconde avec une incertitude de 4 kilomètres par seconde. C'est cet ordre de précision qui est important. Alors tous les dispositifs mis en place par ces physiciens avaient au moins un point commun : pour calculer la vitesse de la lumière, il faut d'abord déterminer une distance, puis mesurer le temps que met la lumière pour parcourir cette distance. En effet vous connaissez la formule : V =  D / T. La vitesse est égale à la distance sur le temps. Mais plus les scientifiques voulaient être précis, plus cette distance augmentait. Avec Fizeau, la lumière parcourait déjà 17 kilomètres ; avec Michelson 70. Et encore, il y avait toujours une incertitude. Jusqu'où allait-il falloir aller ? Et oui, on n'en voit pas le bout. A la fin du 19ème siècle, de nouvelles avancées sur la nature de la lumière vont révolutionner la mesure de sa vitesse. On comprend alors qu'elle se propage comme une onde, un peu comme l'onde qui se forme à la surface de l'eau quand on y jette un caillou. Attention ce n'est pas l'eau qui avance, c'est l'énergie  produite par la chute du caillou qui se déplace et qui met l'eau en mouvement. La lumière c'est la même chose, c'est de l'énergie qui se propage, à ceci près qu'elle ne met pas l'air qui nous entoure en mouvement. L'air n'ondule pas quand la lumière le traverse, la lumière c'est la propagation d'un champ électromagnétique. Ce sont les valeurs de ce champ électromagnétique qui ondulent et qui forment une vague. Cela dit, puisque la lumière forme une onde, et bien, elle en possède toutes les caractéristiques : la fréquence qu'on note F et la longueur d'onde qu'on note Lambda. La fréquence c'est le nombre d'oscillations qui se forment en une seconde. Cette fréquence se mesure en Hertz. Ici regardez, une, deux, trois. 3 oscillations en une seconde ça fait 3 hertz. La longueur d'onde maintenant, et bien, c'est la distance qui sépare 2 crêtes. Elle se mesure en mètres. Alors, qu'est-ce que cela nous apporte de plus ? Et bien vous allez voir, jusqu'à présent la vitesse était la distance sur le temps, V = D/T. Comme une onde se caractérise par une longueur, autrement dit une distance entre les 2 crêtes d'une oscillation et une fréquence à un nombre d'oscillations en une seconde. Et bien, la vitesse de l'onde, c'est cette longueur multipliée par la fréquence. Soit V = lambda x F. Et ce n'est pas tout. Au début du 20ème siècle on comprend aussi que la lumière visible ne représente qu'une toute petite partie des ondes électromagnétiques. Il y a aussi les ondes radio, les rayons x, les rayons ultraviolets, les rayons infra-rouge. Ces ondes n'ont ni la même longueur d'onde, ni la même fréquence. Mais elles se déplacent toute à la même vitesse, celle de la lumière. Et heureusement pour nous, c'est ce qui nous permet de suivre des matchs de foot en direct à la radio ou a la télévision, de téléphoner ou de jouer en réseau avec des consoles sans fil.

Après la seconde guerre mondiale, ces ondes électromagnétiques deviennent des supports très intéressants, pour les télécommunications notamment. Les scientifiques mettent au point des outils pour mesurer la longueur d'onde et la fréquence des ondes utilisées. Longueur d'ondes et fréquences qu'il suffit ensuite de multiplier pour obtenir la vitesse de la lumière. En un peu moins de 30 ans, on a obtenu plus d'une trentaine de mesures de la vitesse de la lumière, toutes de plus en plus précises. Tenez, en 1973, l'américain Evenson, en mesurant avec une grande précision la fréquence et la longueur d'onde d'un laser hélium-néon, obtient une vitesse de 299 mille 792 kilomètres 458 mètres et 70 centimètres par seconde, avec une incertitude de 1 mètre 10 par seconde. Là les scientifiques vont faire une pause. Ils auraient pu continuer à mesurer, avec une plus grande précision encore des longueurs d'onde et des fréquences, puis à les multiplier et pousser encore plus loin derrière la virgule, mais à quoi bon. A quoi bon obtenir des dizièmes, des centièmes, des millièmes de mètres, quand la valeur du mètre manque elle-même de précision ? J'entends déjà les critiques. Comment ça, le mètre imprécis ? Oui, la définition du mètre avant 1960 était donnée par le mètre étalon déposé à Sèvres, à côté de Paris. Il se présentait sous la forme d'une barre de platine, le mètre était la distance encadrée par 2 traits à zéro celsius. Le problème de ce mètre étalon est qu'il se déforme et qu'il s'use. Et puis, où commence et où finit réellement le mètre ? Au bord extérieur ou au bord intérieur du trait ? A moins que ce ne soit au milieu. Vous mesurez le problème ? Vous le voyez, ce mètre étalon n'était pas à la hauteur de la précision des calculs de la vitesse de la lumière. Il fallait donc redéfinir la notion de mètre, et la rendre universelle, la délocaliser en quelque sorte, afin que ce mètre puisse être consulté en tout point du globe, et que sa valeur ne dépende ni de l'observateur ni des conditions de l'observation. Sachant, d'après la théorie de la relativité restreinte d'Albert Einstein, que la lumière a une vitesse constante dans le vide, que l'on appelle désormais célérité, les scientifiques décidèrent alors d'inverser le problème. Plus question de mesurer la vitesse de la lumière avec ce mètre étalon, en revanche ils vont définir le mètre grâce à la vitesse de la lumière. En 1983, la 17ème conférence générale des poids et mesures stoppe la course à la précision, et fixe la vitesse de la lumière à 299 792 kilomètres et 458 mètres par seconde exactement. Par la même occasion, on donne donc au mètre une valeur universelle. Le mètre est la distance parcourue par la lumière dans le vide pendant 1 / 299 792 458 millionième de seconde. La vitesse de la lumière devenait par conséquent une constante connue, une des constantes universelles qui n'avait désormais plus besoin d'être mesurée. Tout cela, mine de rien, a des applications très concrètes dans notre vie de tous les jours. Tenez, le gps par exemple, le global positioning system, qui dans la voiture nous indique où il faut tourner pour rejoindre le terrain de camping le plus proche. Comment fonctionne -t-il ? Le principe est assez simple. En connaissant la distance séparant le récepteur gps de 3 des 24  satellites gps placés en orbite autour de la planète, eh bien, on connaît la position du récepteur gps sur la Terre. En fait, les satellites émettent des ondes radios qui sont captées par les récepteurs. Ces récepteurs grâce à une horloge très précise connaissent le temps mis par ces ondes radio pour aller du satellite au récepteur. Connaissant la vitesse de la lumière à laquelle se propagent ces ondes radio, eh bien, on en déduit la distance séparant le satellite du récepteur. Et oui, la distance est égale à la célérité que multiplie le temps. On obtient une distance précise au centimètre près. Bien sûr, vous l'aurez sûrement remarqué, la précision d'un gps dépend de la définition de la vitesse de la lumière, on l'a vu, mais aussi de celle du temps, donc de la seconde. Qu'est-ce qu'une seconde ? Certes, ce n'est pas très long, mais malheureusement, nous n'avons plus le temps. Alors, rendez-vous pour une autre...

 

 VIDEO       CANAL  U         LIEN

 

( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon