Human Brain Project : la course au cerveau virtuel est lancée
Elena Sender
Publié le 07-10-2013 à 17h12
Mis à jour à 17h15
Top départ pour le Human Brain Project demain à Lausanne. Retrouvez le reportage de Sciences et Avenir à Neuropolis où les chercheurs veulent créer une version numérique du cerveau humain.
Le supercalculateur "blue gene", joyau de Neuropolis. (IBM)Le supercalculateur "blue gene", joyau de Neuropolis. (IBM)
Sciences et Avenir vous propose de retrouver le reportage d'Elena Sender, envoyée spéciale à Lausanne, qui était paru dans le numéro 790 de décembre 2012.
FUTURISTE. Pour l’instant, ce n’est qu’un pré sur le campus de l’École polytechnique fédérale de Lausanne (EPFL), face au lac Léman, avec vue imprenable sur les Alpes suisses. Dans quatre ans, s’élèvera un bâtiment futuriste de 30.000 m2 d’une valeur de 100 millions de francs suisses (83 millions d’euros) qui abritera un projet exceptionnel baptisé Neuropolis, voulu conjointement par l’EPFL, les universités de Lausanne et de Genève ainsi que les autorités politiques suisses : le futur « Cern » du cerveau, à l’image du grand centre de recherche consacré à la physique des particules, à la frontière franco-suisse.
Il faut en effet imaginer un complexe de simulation faisant « mouliner » jour et nuit un supercalculateur effectuant 1018 opérations à la seconde, avec l’ambition de faire « vivre » un cerveau virtuel ! Nourri par toutes les données disponibles de la neurophysiologie, mais aussi de l’imagerie médicale de pointe, cet encéphale – lorsqu’il sera achevé – réagira (presque) comme un vrai.
JOYSTICK. Imaginons le chercheur dans la salle des commandes telle qu’elle se présentera en 2016 lorsque Neuropolis sera opérationnel : il siégera face à des écrans géants projetant des images cérébrales exceptionnelles. D’un mouvement de joystick, il naviguera dans le tissu virtuel, se promènera entre les neurones, zoomera sur une connexion, pointera un canal ioniqueou une synpase pour y observer les échanges de neuromédiateurs. Selon les besoins de son étude, il enverra un influx électrique ici ou là et regardera le système nerveux réagir en temps réel. Dans un bureau attenant, une équipe de recherche s’apprêtera, quant à elle, à tester un « candidat médicament » modélisé en 3D sur un modèle de cerveau malade d’Alzheimer tandis qu’une autre équipe étudiera, par exemple, le câblage neuronal dans la schizophrénie. Venus du monde entier, des chercheurs disposeront de la plateforme de simulation pour éprouver leurs hypothèses, leurs molécules, leurs traceurs… Le rêve d’un cerveau in silico (voir l'encadré "Repères"), ouvert à tous, est en passe de devenir réalité.
"Être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine ?"
L’idée de ce projet hors normes a germé sur le campus, à une centaine de mètres de là, au
deuxième étage d’un bâtiment métallique aux modules rouge, orange et gris, dans le bureau de Patrick Aebischer, président de l’EPFL depuis 2000. Avant son arrivée, l’École polytechnique n’avait jamais vu le museau d’une souris dans ses laboratoires. C’est ce neurobiologiste qui y a imposé la recherche et l’enseignement en sciences de la vie.
« En dix ans, nous avons embauché 55 professeurs de biologie parmi les meilleurs », raconte fièrement l’homme fort de l’école. Ce qui, il ne s’en cache pas, « a suscité énormément de débats ». Cet entrepreneur, manager « à l’américaine » – il a travaillé pendant huit ans à l’université Brown aux États-Unis – voit grand. Bras croisés, ponctuant ses phrases d’expressions anglaises, il souhaite créer « a big science » pour la biologie.
« Comme les astronomes ont leur grand télescope, les physiciens leur accélérateur de particules, les biologistes doivent avoir leur plateforme de simulation du vivant » - Patrick Aebischer.
Le patron de l’EPFL se penche sur une table basse dont le plateau n’est autre qu’une photo aérienne du campus, et pointe du doigt un carré inoccupé : « Ce sera ici, à
Neuropolis. »
"PATCH-CLAMP". Tout a commencé en 2001, lorsque Patrick Aebischer a rencontré Henry Markram, neurophysiologiste sud-africain, passé maître dans l’art du patch-clamp (la mesure des paramètres électrophysiologiques) des neurones. « Henry a deux cerveaux, rapporte Patrick Aebischer. Celui de l’expérimentateur et celui de l’informaticien, persuadé que le futur des neurosciences passe par la simulation. » Après avoir travaillé à l’Institut Weizmann, à Rehovot (Israël), et aux National Institutes of Health, à Bethesda (États-Unis), puis à l’Institut Max-Planck pour la recherche médicale à Heidelberg (Allemagne), Henry Markram est alors sur le point de signer un contrat en or au Massachusetts Institute of Technology (États-Unis). « Je lui ai posé la question de savoir s’il préférait être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine », se souvient Patrick Aebischer, l’œil malin. Et le tout nouveau patron de l’EPFL a attrapé Markram dans ses filets, lui donnant carte blanche et un gros budget. Celui-ci lance alors son projet Blue Brain, la simulation numérique du fonctionnement cérébral, l’EPFL lui apportant la pièce maîtresse sur un plateau : « Nous avons acheté Blue Gene, puissant supercalculateur », raconte Patrick Aebischer.
Installé en 2005, l’ordinateur fait depuis tourner l’ensemble du programme. En 2011, nouveau bond en avant. L’équipe s’associe à 120 autres laboratoires de 22 pays et devient le consortium Human Brain Project (HBP). Le HBP décide alors de concourir dans un appel à projets du programme Future and Emerging Technologies Flagship Initiatives, lancé par l’Union européenne pour aider le projet scientifique le plus prometteur pour les dix ans à venir. Avec, à la clé, une subvention colossale d’un milliard d’euros ! Fin 2012, HBP figure parmi les six derniers projets en lice, le gagnant devant être désigné au cours de 2013 (le HBP a effectivement été désigné en janvier de cette année co-lauréat de la bourse de l'Union Européenne).
Le calculateur Blue Gene a simulé la première colonne corticale de souris dès 2008
Pour rencontrer le créateur de Blue Brain, il faut marcher dix minutes, sous la pluie, à
travers le campus en chantier. On croise sur le chemin deux énormes grues qui réduisent à néant un building, celui-ci devant être remplacé d’ici à deux ans par le nouveau Centre de neuroprothèses. Viendront s’y installer le laboratoire du Français Grégoire Courtine, dont les équipes ont fait remarcher des souris paraplégiques ; celui de l’Espagnol José Milan, spécialiste des interfaces homme-machine ; ou encore celui de l’Allemand Olaf Blanke, qui travaille sur les illusions produites par le cerveau.
PUIT DE LUMIÈRE. Le QG de Henry Markram apparaît enfin. Un cube blanc, percé d’un puits de lumière. Chemise claire à petits motifs, yeux bleus perçants, le chercheur est habité par son sujet. De sa voix monocorde, il raconte comment la compréhension du cerveau l’a toujours obsédé : « Mon désir est de partir du cerveau entier puis de descendre jusqu’au niveau des neurones, à celui des cellules uniques, puis des canaux ioniques, des protéines et des gènes. » Pour cela, une seule méthode : l’agrégation de toutes les connaissances disponibles dans un seul et même modèle. « 60.000 articles de neurosciences sont publiés chaque année, note-t-il. Il y a trop d’informations pour qu’elles puissent être digérées. La seule façon de progresser est d’intégrer systématiquement toutes ces données sous forme numérique pour créer un modèle le plus complet possible. Cela aidera aussi les chercheurs à repérer les manques et les contradictions dans leurs connaissances et identifier les expérimentations nécessaires pour les combler. » Intégrer la complexité, telle est l’idée maîtresse du projet.
Vers un cerveau artificiel à Neuropolis... par sciencesetavenir
En 2008, le calculateur Blue Gene a fait ainsi « tourner » la première colonne corticale (voir Repères) de souris, un réseau vertical de 10.000 neurones. Cette année, 60 colonnes corticales interconnectées ont été modélisées grâce à la version la plus avancée du supercalculateur, d’une puissance de 54 téraflops (54 x 1012 opérations/s). Il s’agit maintenant de construire 10 000 autres colonnes jusqu’à simuler un cerveau de souris entier, et ses 100 millions de neurones. Ce qui demandera une puissance de calcul de un pétaflop (1015), à l’horizon 2014. Puis, l’équipe s’attellera à l’ultime tâche. Faire de même avec le cerveau humain, vers 2023, ce qui exigera un exaflop (1018).
"SALLES DES MACHINES". Pour comprendre concrètement comment ça marche, il faut pousser la porte de la « salle des machines », le laboratoire. Ici, une quinzaine de jeunes chercheurs de 12 pays sont à l’œuvre. Le Danois Jesper Ryge place un échantillon de cerveau de souris sous un étrange microscope, encerclé par une couronne de seringues, le fameux patch-clamp, cher à Henry Markram.
« On stimule l’échantillon avec une électrode, explique-t-il, puis on enregistre les réponses électriques de chaque neurone. » À côté, sur un écran, on peut voir les neurones « répondre » à la stimulation électrique par des tracés rouges réguliers qui s’affichent en temps réel. Une fois des milliers d’enregistrement réalisés, les chercheurs sont en mesure de passer à la modélisation. Là, les biologistes cèdent la place aux physiciens et aux mathématiciens.
« Nous simulons la biophysique des cellules nerveuses, expose l’Allemand Felix Schürmann, physicien, auparavant à l’université de Heidelberg, et désormais bras droit de Henry Markram. Cela signifie que nous décrivons la physique des propriétés électriques des neurones, comme la propagation des courants et du voltage à travers l’arbre dendritique (voir Repères) des neurones, avec différentes équations. Les paramètres de ces équations ayant été extraits de données expérimentales décrites dans de multiples publications. »
CORTEX. Tandis que l’activité intime du neurone est simulée artificiellement, d’autres chercheurs reproduisent sa morphologie. Il existe, en effet, quelque 200 types différents de neurones dans le cortex. C’est ainsi, en agrégeant les données issues de près de 20.000 expérimentations sur vingt ans, que l’équipe a réussi à reconstituer en 3D la cartographie précise d’une petite portion de cortex de souris avec ses caractéristiques physiologiques, géométriques et ses connexions.
« Il faudrait des décennies, voire un siècle, pour cartographier un cerveau entier avec les connexions précises. Il y a en effet 3000 routes différentes possibles pour chaque neurone. On ne peut les explorer toutes ! » reconnaît Henry Markram qui, heureusement, a trouvé le moyen d’accélérer son travail de bénédictin grâce à une découverte publiée dans les Pnas en août 2012. L’équipe a tenté une expérience en positionnant 298 neurones virtuels de différents types selon la disposition et la répartition observées dans un échantillon de cortex vivant. Puis elle a « lancé la machine » et laissé les neurones se connecter comme bon leur semblait ! Résultat ? En comparant l’organisation virtuelle obtenue et le circuit cortical réel de la souris, les chercheurs ont observé une chose extraordinaire : de 75 % à 95 % des points de connexions étaient similaires. « Ça a été un choc, assure Henry Markram. Cela signifie que l’on peut prédire les schémas de connexions synaptiques [le connectome, voir Repères] à partir du moment où la composition et la répartition des neurones du cortex sont connues. »
"BAT LAB". Mais pour construire le futur modèle de cerveau, il n’y a pas que les observations tirées du patch-clamp qui comptent. En cela, une autre branche de Neuropolis va être d’une grande aide. Pour la découvrir, il faut se rendre cette fois aux hôpitaux universitaires de Genève, à trois quarts d’heure de train du campus. Là aussi les grues s’activent. Un nouveau bâtiment, le Bat Lab, va bientôt sortir de terre, au sixième étage duquel s’installera le nouvel Institut d’imagerie moléculaire translationnelle.
Cette unité, placée sous l’égide du professeur Osman Ratib, spécialiste d’imagerie moléculaire, sera un satellite de Neuropolis. Objectif ? « Nous développons des nouveaux outils diagnostiques mais aussi thérapeutiques pour voir les molécules agir dans le cerveau animal, explique Osman Ratib. Nous cherchons par exemple des biomarqueurs spécifiques à certaines sous-catégories de tumeurs cérébrales pour mettre au point des thérapies personnalisées et prédire la réponse au traitement. » Tous ces résultats sont déjà – et seront encore davantage – injectés dans le cerveau virtuel du campus de Lausanne. Dans le cadre de Neuropolis, l’équipe d’Osman Ratib va d’ailleurs se focaliser sur la modélisation d’un cerveau vieillissant et sur les effets des maladies neurodégénératives. Ici aussi, on mise sur la bourse européenne du HBP.
Trop complexe pour certains, le HBP a suscité la polémique
Un autre médecin-chercheur britannique attend beaucoup de Neuropolis. C’est le professeur Richard Frackowiak, spécialiste de l’imagerie clinique au Centre hospitalier universitaire vaudois de Lausanne, autre satellite du projet. Lui, travaille sur le cerveau humain malade. Il est sûr que la méthode de neuro-sciences intégrée « à la Markram » est la solution pour avancer dans la compréhension de maladies comme Alzheimer. « Pour l’instant, on est dans l’impasse car on se focalise sur des petites parties du problème comme les plaques amyloïdes. Grâce au modèle global, nous allons prendre la maladie dans son ensemble. Il en émergera une véritable théorie du cerveau sain mais aussi du cerveau malade. »
"TROP COMPLEXE". Même si cette approche n’est pas partagée par toute la communauté scientifique, des voix s’élevant en Suisse comme ailleurs contre cette démarche jugée « trop complexe ». De fait, dans un article paru dans Nature en février 2012, le HBP a suscité la polémique. Rodney Douglas codirecteur de l’Institut de neuro-informatique de Zurich (Suisse), y exprime son inquiétude : « Nous avons besoin de variance en neurosciences, nous avons besoin de personnes qui expriment des idées différentes, une diversité qui peut être menacée si autant d’argent est consacré à un seul projet. »
Sollicité par courriel, Rodney Douglas n’a cependant pas souhaité répondre à nos questions, préférant jouer l’apaisement. « Clairement, je ne suis pas d’accord avec Henry sur certains problèmes. Néanmoins, il demeure mon collègue et il est regrettable que nos désaccords scientifiques soient polarisés dans la presse. » Il n’empêche : certains scientifiques pensent effectivement que le modèle Blue Brain, trop fourni et détaillé, ne sera pas forcément plus facile à comprendre qu’un cerveau réel. La question qui se pose : que va nous montrer un modèle complexe ? Ou encore, la modélisation du vivant est-elle là pour prédire – comme Blue Brain – ou pour faire comprendre des phénomènes ? Car, s’il s’agit de comprendre, ne vaut-il pas mieux avoir un système simplifié avec un minimum de données à faire varier ?
« Aujourd’hui, nous possédons les mathématiques qui correspondent à cette complexité, il faut cesser d’en avoir peur », rétorque Richard Frackowiak. Patrick Aebischer, lui, estime que les débats sont sains. « La “grande science” a toujours évolué à travers de grands débats, comme pour le séquençage du génome qu’on estimait impensable. » Quant à Henry Markram, il joue la conciliation, affirmant que « notre plateforme sera ouverte à toutes les propositions ».
REPÈRES. Canal ionique : protéine transmembranaire qui permet le mouvement des ions, créant des courants électriques. Neuromédiateur : molécules chimiques libérées par les neurones et agissant au niveau des synapses. In silico : effectué avec l’outil informatique. La bio-informatique correspond à l’approche in silico de la biologie traditionnelle. Colonne corticale : groupe de 10 000 neurones environ situés dans le cortex cérébral qui forme une unité fonctionnelle. Il en existe environ 100.000 dans le cerveau humain. Arbre dendritique : les dendrites (fibres réceptrices des neurones) peuvent former une arborescence très dense. Connectome : carte complète des connexions dans le cerveau.
Long de 13,3 m pour un diamètre de 4,3 m, et pesant 11,3 t, Hubble est l'un des grands observatoires spatiaux conçus par la NASA. Emporté dans l'espace par l'orbiteur Discovery, il a été satellisé le 25 avril 1990 autour de la Terre, à 612 km d'altitude, sur une orbite inclinée de 28,5° sur l'équateur, qu'il décrit en 95 minutes.
Instrumentation
Sa charge utile comprend un télescope de type Cassegrain, de 2,40 m de diamètre, muni, à son foyer, de deux chambres photographiques : l'une, à grand champ, pour l'observation des planètes, l'autre pour celle des astres de faible luminosité ; de deux spectographes : l'un à haute résolution, l'autre pour les objets faiblement lumineux ; et d'un photomètre ultrarapide. Cette instrumentation focale rend le télescope utilisable dans une gamme d'énergie allant de l'ultraviolet à l'infrarouge. L'Europe a contribué pour 15 % au coût du satellite en développant les panneaux solaires (qui fournissent plus de 4,5 kW de puissance électrique) et la caméra pour objets faiblement lumineux, ou FOC (Faint Objects Camera), capable, grâce à son dispositif de comptage de photons, d'observer des objets 30 fois moins lumineux que ceux qu'on peut observer au sol et, grâce à sa capacité d'agrandissement des images, d'atteindre la limite de résolution du télescope, soit 0,1 seconde d'arc. En échange de leur contribution, les Européens ont accès à 15 % du temps d'observation. Un groupe de chercheurs européens participe aussi à l'exploitation du télescope à l'Institut du télescope spatial, à Baltimore (États-Unis). Conçu pour rester opérationnel pendant au moins 15 ans, le télescope peut être réparé en orbite par des astronautes ou ramené au sol à bord de la navette spatiale pour révision ou une remise en état complètes. On a découvert après sa mise en orbite que son miroir primaire était affecté d'un défaut de courbure (sphéricité trop faible de deux millièmes de millimètre à la circonférence). Cette aberration de sphéricité rendait inexécutables certains programmes d'observation prévus, même si des images remarquables ont pu être obtenues grâce à un traitement informatique poussé.
Maintenance
Un dispositif correcteur appelé COSTAR a été installé à la place du photomètre en décembre 1993, lors d'une mission de la navette. À cette occasion, on a remplacé également la caméra planétaire à grand champ par une autre dotée de composants plus élaborés et d'une optique correctrice intégrée, et l'on a changé les panneaux solaires, dont les vibrations dues aux effets thermiques des passages du satellite d'une zone de jour à une zone de nuit perturbaient le pointage du télescope et réduisaient la partie utilisable de l'orbite. Cette mission correctrice a parfaitement réussi et a rendu à l'instrument ses qualités d'origine ; en particulier, la résolution angulaire et la sensibilité atteignent les valeurs théoriques.
Lors d'une deuxième mission de service, en février 1997, les astronautes ont installé un spectrographe imageur (STIS) ainsi qu'un ensemble de trois caméras associées à un spectromètre opérant dans le proche infrarouge (NICMOS) à la place d'un spectrographe pour objets faiblement lumineux (FOS) et d'un spectrographe à haute résolution (GHRS). Ils ont également changé divers dispositifs des systèmes d'orientation, de stabilisation, de protection thermique ou d'enregistrement des données.
Une troisième mission de service, en décembre 1999, a permis de procéder au remplacement des gyroscopes de l'émetteur radio et d'un des trois capteurs de guidage fin, à l'installation d'un nouvel ordinateur de bord et de régulateurs de puissance pour les batteries, et à la pose de panneaux d'isolation thermique.
En mars 2002, une quatrième mission a poursuivi la maintenance et la modernisation des équipements avec, notamment, l'installation de nouveaux panneaux solaires et d'un nouveau système électrique central, le remplacement de la caméra pour objets faiblement lumineux par une caméra à l'acuité visuelle décuplée (ACS, Advanced Camera for Surveys) et la réactivation du spectromètre infrarouge NICMOS grâce à la réparation de son système de refroidissement.
Une cinquième et ultime mission de service devait intervenir en 2004. Après avoir été annulée, pour des raisons d'économie, elle a été à nouveau acceptée en 2006, pour assurer la mise à niveau et le maintien opérationnel du télescope jusqu'au lancement de son successeur. Intervenue en mai 2009, elle a permis notamment de remplacer les batteries et les gyroscopes défaillants et d'installer deux nouveaux instruments scientifiques plus performants : un spectrographe ultraviolet et une caméra à grand champ.
Pluton et Charon
Les images fournies par le télescope Hubble ont permis de nouvelles découvertes sur les planètes du système solaire. À l'échelle de notre galaxie, elles ont permis d'affiner les connaissances sur la naissance et la mort des étoiles. À plus grande échelle, Hubble a scruté en détail des galaxies actives ou en interaction ; il a permis de mesurer avec précision la distance de galaxies proches et il a découvert des milliers de galaxies lointaines, révélant que la population de galaxies de l'Univers est encore plus nombreuse qu'on ne le pensait.
Le successeur du télescope Hubble, appelé JWST (James Webb Space Telescope, en hommage à celui qui fut l'administrateur de la NASA de 1961 à 1968) est déjà en cours de développement. Celui-ci sera doté d'un miroir segmenté de 6,5 m de diamètre (replié lors du lancement et qui se déploiera après sa mise en orbite), refroidi à très basse température pour opérer principalement dans l'infrarouge, à des longueurs d'onde inaccessibles aux instruments installés au sol. Satellisé à l'un des points de Lagrange du système Terre-Soleil, à 1,5 million de kilomètres de la Terre, il ne pourra être réparé dans l'espace. Son lancement est prévu en 2013.
ONDE
1. Les différents types d’ondes
1.1. Les ondes mécaniques progressives
1.1.1. Les vagues
1.1.2. Les cordes
1.1.3. Les ondes sonores ou acoustiques
1.2. Les ondes mécaniques stationnaires
1.3. La lumière et les ondes électromagnétiques
1.3.1. La nature ondulatoire de la lumière
1.3.2. Les ondes électromagnétiques
1.3.3. La dualité onde-corpuscule
2. Caractéristiques physico-mathématiques des ondes
2.1. Généralités
2.2. Grandeurs caractéristiques
2.2.1. Période et fréquence
2.2.2. Longueur d'onde
2.3. Les ondes sinusoïdales
2.4. Aspects énergétiques
3. Le spectre des ondes électromagnétiques
Voir plus
onde
(latin unda)
Signal sonore
Cet article fait partie du dossier consacré à la lumière.
Modification de l'état physique d'un milieu matériel ou immatériel, qui se propage à la suite d'une action locale avec une vitesse finie, déterminée par les caractéristiques des milieux traversés.
Modulation, AM et FM
Modulation, AM et FM Constitution d'un téléphone mobile Radiodiffusion
Les techniques de télécommunication – radio, télévision, téléphone – nous ont rendu familière la présence des ondes. Avant de donner lieu à des utilisations de cette importance, les phénomènes ondulatoires ont progressivement occupé une place de plus en plus grande en physique. Ils ont révélé leur présence dans les domaines les plus divers, au point d'apparaître comme intimement liés, d'une certaine façon, à la constitution de la nature en ses aspects fondamentaux. Si l'onde sonore s'explique en termes mécanistes par les mouvements des particules dont l'air est constitué, il n'y a rien de tel, par exemple, pour les ondes hertziennes. Leur analyse mathématique n'en revêt que plus d'importance. Avec la mécanique ondulatoire, on est même tenté de dire qu'il ne s'agit plus que de mathématiques.
1. Les différents types d’ondes
1.1. Les ondes mécaniques progressives
1.1.1. Les vagues
Vagues Ondes étales dans un courant de marée
Un objet – une simple goutte – qui tombe sur la surface d'une eau calme y produit des ondulations. Ce train d'ondes est constitué de quelques cercles qui, issus de la source du phénomène, vont en s'agrandissant et qui finissent par s'affaiblir. Si un corps flotte immobile, les ondes, en l'atteignant, ne le déplacent pas à la surface de l'eau dans le sens de leur mouvement. Elles l'agitent verticalement, tout comme le feraient les vagues de la mer. « Onde » vient d'ailleurs de unda, qui désigne l'eau de la mer, avec les mouvements qui s'y peuvent voir. Les rides circulaires à la surface de l’eau se propageant dans deux directions sont qualifiées d’ondes mécaniques progressives à deux dimensions.
1.1.2. Les cordes
Une autre manière de produire un phénomène semblable consiste à déployer une corde, sans nécessairement attacher l'une de ses extrémités, et à secouer l'autre assez vigoureusement. Chaque secousse engendre une déformation que l'on voit se propager le long de la corde. En faisant se succéder les secousses, on obtient un train d'ondes. Ces ondes se propageant dans une seule direction sont qualifiées d’ondes mécaniques progressives à une dimension.
1.1.3. Les ondes sonores ou acoustiques
Signal sonore Écho
C'est un phénomène analogue qui a servi à expliquer la nature physique du son et à étudier en finesse ses propriétés. La corde de lyre que l'on pince vibre rapidement. Ses vibrations se transmettent à l'air, s'éloignant dans toutes les directions. Les ondes acoustiques se propageant dans trois directions sont qualifiées d’ondes mécaniques progressives à trois dimensions. Une oreille, placée n'importe où autour, reçoit des ondes (→ audition). Les vibrations sont communiquées par l'air au tympan. La source peut être n'importe quelle membrane susceptible de vibrer : la peau d'un tambour, mais aussi les cordes vocales.
Mur du son
Mur du son Radio, récepteur radio Sonar
En vibrant, la membrane pousse l'air tout proche ; les particules d'air déplacées poussent à leur tour leurs voisines et ainsi de suite. Si l'on pouvait voir un petit corps flotter dans cet air, on observerait toutefois que l'agitation très rapide qu'il subit sur place ne se fait pas comme celle d'un bouchon sur l'eau. Ce dernier oscille verticalement, tandis que les ondes s'éloignent horizontalement de leur source : de telles ondes sont dites transversales. Dans le cas de l'air, l'objet est agité dans la direction même du mouvement des ondes : celles-ci sont dites longitudinales.
1.2. Les ondes mécaniques stationnaires
Les ondes des trois genres mentionnés auparavant peuvent donner lieu à des phénomènes stationnaires. Si un caillou tombe dans l'eau d'un bassin, les ondes se réfléchissent sur le bord. De même, si l'on secoue sans cesse le bout d'une corde qui est fixée à l'autre extrémité et légèrement tendue, les ondes repartent de cette extrémité. Certains points de la corde peuvent ne pas bouger du tout, alors que tout s'agite autour d'eux, parce que le mouvement qui y est créé par les ondes allant dans un sens est constamment contrarié par celui qu'y induisent les ondes allant dans l'autre sens. Les points pour lesquels l'oscillation est maximale sont appelés les ventres ; ceux pour lesquels elle est nulle, les nœuds.
Semblablement, si deux pointes vibrent ensemble à la surface d'un liquide, les deux trains d'ondes ainsi entretenus laissent immobiles des points de cette surface formant des lignes entières, des hyperboles très précisément. C'est le phénomène des interférences, difficile à observer sans un éclairage adapté.
1.3. La lumière et les ondes électromagnétiques
1.3.1. La nature ondulatoire de la lumière
Augustin Fresnel Interférences lumineuses
Thomas Young (1773-1829) montra que des interférences peuvent s'observer aussi en optique : une lumière monochromatique passant par deux fentes parallèles donne sur un écran une alternance de franges brillantes et de franges sombres. L'apparition de ces dernières ne s'expliquerait pas si la lumière était constituée de corpuscules en mouvement, comme Isaac Newton (1642-1727) en avait fait admettre l'idée.
Augustin Fresnel (1788-1827) montra que, au contraire, si la lumière est de nature ondulatoire, les interférences s'expliquent jusque dans leurs aspects quantitatifs. Ainsi s'installa l'idée que l'espace est rempli par un milieu imperceptible, l'éther, dont les vibrations constituent la lumière, tout comme les vibrations de l'air et d'autres milieux matériels constituent le son. La découverte du phénomène de polarisation par Étienne Malus (1775-1812) contraria rapidement l'idée qu'il s'agissait, comme dans le cas du son, d'ondes longitudinales.
Formation d'un arc-en-ciel
Un autre phénomène bien connu, la diffraction, s'explique mieux dans une théorie ondulatoire que dans une théorie corpusculaire de la lumière. On l'obtient en faisant passer de la lumière par un trou que l'on rétrécit. Le pinceau de lumière commence par s'affiner mais, à partir d'une certaine petitesse du trou, au lieu de continuer de se rétrécir, le pinceau se disperse.
1.3.2. Les ondes électromagnétiques
Heinrich Hertz
Un demi-siècle plus tard, James Maxwell (1831-1879) ayant réduit l'électricité et le magnétisme à quelques formules, il apparut par le calcul que la propagation des actions électromagnétiques devait prendre la forme d'ondes. Heinrich Hertz (1857-1894) les produisit et les étudia expérimentalement. Transversales elles aussi, elles se déplacent à une vitesse qui se trouve être celle de la lumière. Ainsi s'achemina-t-on vers la conclusion que la lumière n'est elle-même qu'une onde électromagnétique, occupant une modeste place dans la gamme des cas possibles. Si l'on préfère, ces ondes constituent une lumière généralement invisible, c'est-à-dire insensible à l'œil, à l'exception d'une petite partie. L'éther que l'on cherchait à mieux connaître n'était plus le siège des seules ondes lumineuses, mais celui des ondes électromagnétiques en général. Les diverses propriétés qu'il se devait de posséder étaient si difficiles à accorder entre elles qu'il constituait une grande énigme. On a fini par renoncer à cette notion.
On accepte l'idée qu'il puisse y avoir de telles ondes sans qu'elles soient les ondulations d'un milieu. On sait seulement que ce sont des charges électriques en mouvement qui les produisent.
Pour en savoir plus, voir l'article ondes électromagnétiques [santé].
1.3.3. La dualité onde-corpuscule
r
Erwin Schrödinger Louis de Broglie
Albert Einstein (1879-1955), l'année même où il proposa la théorie de la relativité restreinte (1905), donna une explication de l'effet photoélectrique. Elle consistait à revenir à la conception corpusculaire de la lumière, sans renoncer pour autant à son aspect ondulatoire. Plus généralement, l'onde électromagnétique s'est vu associer un flux de photons, association purement mathématique et qui rendait encore plus intenable l'hypothèse d'un éther. Louis de Broglie (1892-1987), en l'inversant, étendit l'idée à toutes les particules : à chacune on associe une onde. L'expérience a confirmé la justesse de cette hypothèse : il fut établi qu'un faisceau d'électrons est susceptible de donner lieu au phénomène de diffraction.
Dualité onde particuleDualité onde particule
La mécanique quantique prend désormais pour objets des quantons, qui se comportent comme des corpuscules dans certains contextes expérimentaux et comme des ondes dans d'autres. La fonction d'onde de la particule, obtenue par la résolution de l'équation de Schrödinger, sert à calculer les caractéristiques de son mouvement, mais en termes de probabilité seulement. On ne peut pas annoncer qu'à tel instant la particule sera en tel point, comme on le fait en mécanique classique. On peut seulement calculer avec quelle probabilité elle se trouvera dans telle portion d'espace.
2. Caractéristiques physico-mathématiques des ondes
2.1. Généralités
Propagation des ondesPropagation des ondes
Un mécanisme de production et de propagation des ondes peut être détaillé dans le cas de la surface d'un liquide ou dans celui du son, parce que l'on peut analyser le comportement d'un milieu – le liquide, l'air – en termes mécanistes. Il n'en va plus de même pour les ondes électromagnétiques, et encore moins pour celles de la mécanique ondulatoire, puisqu'il n'y a plus de milieu connu dans ces cas-ci. Une étude générale des ondes doit donc se rabattre sur la description mathématique de la propagation.
→ mécanique.
Il convient de remarquer que, lorsqu'une description mécaniste est possible, elle n'explique pas la toute première apparence. Une onde, qu'il s'agisse d'une vague ou de la déformation d'une corde, se présente spontanément comme quelque chose qui se déplace. C'est ce déplacement qui est désigné par le terme « propagation ». Il ne se présente pas comme le déplacement d'un objet (navire avançant sur l'eau ou anneau coulissant sur une corde). Le phénomène offre le spectacle de quelque chose qui se meut et ne se meut pas à la fois.
Le mécanisme de la production de la perturbation à la source, et de sa transmission par le milieu, explique qu'un corps flottant ainsi que l'eau qui l'entoure montent et descendent alternativement. Il n'explique pas complètement l'illusion que constitue le déplacement de la vague. On peut dire néanmoins que c'est le déplacement transversal de l'eau qui se décale dans la direction de propagation.
2.2. Grandeurs caractéristiques
Nature d'une ondeNature d'une onde
Lorsqu'aucun milieu n'est le siège de la propagation, on peut néanmoins concevoir qu'il y ait, attachée à chaque point de l'espace, une certaine grandeur qui soit l'analogue de l'altitude de la surface de l'eau. En prenant pour niveau de référence celui de la surface liquide au repos par exemple, le phénomène de l'ondulation peut être décrit mathématiquement en donnant, pour chacun des points de la surface, son altitude en fonction du temps. Pour une onde d'une autre nature, le rôle joué précédemment par l'altitude peut l'être par la valeur d'un champ, électrique ou magnétique.
De façon plus générale, en se plaçant en un point P de l'espace, a (t) désignera la valeur, à l'instant t, de la grandeur qui varie.
2.2.1. Période et fréquence
On se place dans l'hypothèse d'une onde entretenue et périodique : en P, la grandeur oscille sans cesse et elle reprend toujours la même valeur au bout d'un même temps T, appelé la période de l'onde. Autrement dit, quel que soit l'instant t,
a (t + T) = a (t)
On appelle alors fréquence de l'onde le nombre d'oscillations complètes que P effectue pendant une unité de temps. La fréquence f (aussi notée N, ou encore ν) est reliée à la période par
f = 1 / T
Si l'on adopte la seconde comme unité de temps, la fréquence s'exprime en hertz, de symbole Hz (ou cycles par seconde).
2.2.2. Longueur d'onde
La longueur d'onde λ est la distance parcourue par l'onde pendant le temps T. Si V est la vitesse de propagation, supposée constante, on a
λ = VT
soit encore
λ = V / f
C'est ainsi que, dans un cas comme celui de la lumière, où la vitesse de propagation est connue (près de 300 000 km.s−1 dans le vide), la détermination expérimentale d'une longueur d'onde permet de trouver la fréquence correspondante.
2.3. Les ondes sinusoïdales
Joseph Fourier
Une situation particulière de grande importance est celle des ondes sinusoïdales, pour lesquelles
a (t) = A (sin ω t + ϕ)
L'importance des ondes sinusoïdales tient à ce qu'elles fournissent un modèle mathématique satisfaisant pour nombre de phénomènes. C'est le cas pour les ondes électromagnétiques en particulier, où se rencontre une complication par rapport aux situations envisagées jusqu'à présent : il n'y a pas, en un point, une grandeur a qui varie sinusoïdalement, mais deux, le champ électrique et le champ magnétique, vecteurs orthogonaux entre eux ainsi qu'à la direction de propagation (le rayon lumineux).
Fonctions sinus
Fonctions sinus Onde électromagnétique
Une autre raison de l'intérêt porté aux ondes sinusoïdales est que l'on sait, depuis les travaux mathématiques de Joseph Fourier (1768-1830), que pour toute fonction périodique, on peut envisager une décomposition sous la forme d'une somme de fonctions sinusoïdales. La connaissance de ces dernières fournit donc la clef de l'analyse d'un phénomène périodique quelconque.
Lorsque t varie, a (t) varie perpétuellement entre − A et A.
• Amplitude. La constante positive A est l'amplitude de l'onde au point P.
• Phase. L'expression ω t + ϕ est appelée la phase ; ϕ est la phase à l'origine, c'est-à-dire la valeur de la phase à l'instant 0.
• Pulsation. Le coefficient ω est la pulsation ; il est lié à la période par T = 2 π / ω et à la fréquence par ω = 2πf ; il s'exprime en radians par seconde (rad / s ou rad.s−1).
La valeur de ϕ est propre au point P où l'on se place. Pour un point P′ autre, la phase à l'origine a une valeur ϕ′, alors que ω et A sont les mêmes partout. Mais si l'on prend pour P′ un point situé à une distance de P égale à la longueur d'onde λ, ϕ′ = ϕ + 2π, de sorte que la grandeur a prend à tout instant la même valeur en P et en P′. On dit que ces points vibrent en phase.
2.4. Aspects énergétiques
Four à micro-ondes
Le déplacement d'une onde est en un sens une illusion. Le point de vue énergétique permet au physicien de donner une certaine consistance à ce déplacement. À la source S, on fournit une énergie essentiellement cinétique aux parties de la corde qu'on y agite, celle du mouvement transversal. Cette énergie se transmet de proche en proche. Lorsque l'agitation atteint les parties les plus proches de l'extrémité S′, on peut l'utiliser pour mettre un objet en mouvement, ou pour obtenir d'autres sortes d'effets. Au total, il y a eu transfert progressif d'énergie de la source à l'extrémité. La quantité d'énergie qui se propage est, pourrait-on dire, un pseudo-objet qui s'éloigne de la source. Dans une perspective de communication, on préfère dire qu'un signal est émis en S et propagé jusqu'en S′.
Pour ce qui est de la mécanique quantique, la prise en compte de l'énergie est à la base même de l'association entre l'onde et la particule. Si ν et E sont respectivement la fréquence de la première et l'énergie dont la seconde est porteuse,
E = hν
(relation de Planck-Einstein, où h est la constante de Planck).
De manière analogue, si λ et p sont respectivement la longueur d'onde et la quantité de mouvement,
p = h / λ (relation de de Broglie)
3. Le spectre des ondes électromagnétiques
Spectre des ondes électromagnétiquesSpectre des ondes électromagnétiques
La première application pratique des ondes électromagnétiques a été la télégraphie sans fil, bientôt rebaptisée radiophonie (→ radiocommunication). La télévision devait suivre. Le radar, quant à lui, n'est rien d'autre que l'utilisation de la propriété qu'ont les ondes électromagnétiques, à l'instar de la lumière, de se réfléchir sur un obstacle. Le fonctionnement s'apparente étroitement à celui de l'écho sonore.
scanner du cerveau
scanner du cerveau Image satellitaire Météosat dans l’infrarouge
Chacune de ces applications fait appel à un certain domaine des ondes caractérisé par ses longueurs d'onde extrêmes (ou, ce qui revient au même, par ses fréquences-limites). Les cas évoqués ci-dessus sont des exemples d'ondes hertziennes. On désigne ainsi celles dont la longueur d'onde s'étend entre le centimètre et quelques kilomètres. La lumière visible correspond à la bande qui va de 0,4 à 0,8 micromètre. Entre celle-ci et les précédentes se situe le domaine de l'infrarouge. Au-delà, on passe dans l'ultraviolet, puis, entre 3 nanomètres et 0,01 nanomètre, aux rayons X. Enfin viennent les rayons gamma (γ) et le rayonnement cosmique. Les derniers cités, ayant la plus petite longueur d'onde, ont la fréquence la plus élevée. Conformément à la relation E = hν, ce sont leurs photons qui sont porteurs de l'énergie la plus grande. De fait, ultraviolet, rayons X et rayons γ sont connus pour le danger qu'ils représentent pour les organismes vivants, plus grand même pour les derniers que pour les premiers.
→ ondes électromagnétiques [santé].
Mais c'est aussi par l'analyse de la diffraction qu'un cristal impose aux rayons X que l'on a pu y étudier de manière précise, à partir de 1912, l'arrangement des atomes (→ cristallographie).