ecole de musique piano
     
menu
 
 
 
 
 
 

L'ÉNERGIE NUCLÉAIRE

 

 

 

 

 

 

 

L’ÉNERGIE  NUCLÉAIRE

Consulter aussi dans le dictionnaire : nucléaire
Cet article fait partie du dossier consacré à l'énergie.
Énergie mise en jeu dans les transitions d'un niveau énergétique d'un noyau à un autre niveau énergétique et dans les réactions nucléaires ; dans un sens plus restreint, énergie libérée lors des réactions de fission ou de fusion nucléaires.


1. Une source d'énergie considérable

Les atomes sont constitués d'un noyau, assemblage de protons et de neutrons, autour duquel gravitent des électrons. L'énergie nucléaire correspond à l'énergie de liaison qui assure la cohésion des protons et des neutrons au sein du noyau. Cette énergie est effectivement libérée lors des phénomènes de fission ou de fusion. Elle est énorme par rapport à la masse de matière subissant la transformation. C'est ainsi que la fission d'un gramme d'uranium 235 produit autant d'énergie que la combustion de trois tonnes de charbon. Cette concentration de puissance est la caractéristique fondamentale de l'énergie nucléaire lorsqu'on la compare aux autres formes d'énergie.

       

L'énergie de fission est utilisée d'une part pour les usages civils, dans les réacteurs nucléaires, d'autre part pour les usages militaires dans les bombes atomiques, dites « bombes A », qui sont agencées pour que la libération d'énergie soit aussi brutale et complète que possible.
L'énergie de fusion est mise en œuvre pour les usages militaires dans la bombe à hydrogène, dite « bombe H », où la température nécessaire à l'amorçage de la réaction est obtenue par l'explosion d'une bombe atomique. Des recherches sont en cours pour réaliser des réacteurs thermonucléaires qui permettraient de produire industriellement de l'énergie (de l’électricité) pour les usages civils à partir des réactions de fusion (réacteur expérimental ITER).
L’identification des moyens permettant d'extraire l'énergie concentrée dans les noyaux atomiques a constitué un des principaux enjeux des recherches conduites par les physiciens dans la première moitié du xxe s. Après des essais préalables effectués sur des « piles » atomiques aux États-Unis en 1942 et en France en 1948, ces recherches ont abouti, dans le domaine civil, à un résultat majeur : la première production d'électricité grâce à l'énergie nucléaire, intervenue en 1951 sur un petit réacteur expérimental construit dans l'Idaho. Durant les années suivantes, les premières centrales nucléaires de taille dite « commerciale » ont vu le jour en ex-U.R.S.S., au Royaume-Uni, aux États-Unis et en France. Depuis lors, un développement technologique et industriel soutenu a fait de l'énergie nucléaire une des principales sources d'énergie utilisée dans le monde pour la production de courant électrique : en 2011 (avant la catastrophe de Fukushima), 440 réacteurs installés (et 67 en construction), répartis dans 31 pays et représentant une puissance installée de 2 518 TWh, ont fourni environ 13,5 % de l’électricité produite dans le monde. En 2013, la production mondiale d’électricité d’origine nucléaire n’est plus que de 11 %.
En Europe, 18 pays produisent de l’électricité nucléaire. La France, deuxième producteur mondial avec la moitié de la production étatsunienne, vient en tête. Suivent par ordre décroissant, la Russie, l’Allemagne (qui devrait stopper sa production en 2021), l’Ukraine, la Suède, le Royaume-Uni, l’Espagne, la Belgique, la Suisse, la république Tchèque, la Finlande, la Slovaquie, la Hongrie, la Bulgarie, la Lituanie, la Roumanie, la Slovénie et les Pays-Bas.

2. Les réactions nucléaires
Les réactions nucléaires étudiées en laboratoire sont le plus souvent induites par des particules provenant d'un accélérateur ou par les neutrons d'un réacteur. La première fut réalisée par Rutherford en 1919 grâce aux particules α émises par le radium :

.

Comme dans toute réaction nucléaire, il y a conservation de la charge, de l'énergie et du nombre de nucléons, mais une faible variation de masse. De telles transmutations d'un élément en un autre servent à produire le plutonium à partir de l'uranium, le tritium à partir du lithium et d’autres isotopes radioactifs à partir d'éléments stables.

2.1. La fission

La fission consiste en la cassure d'un noyau lourd en deux fragments plus légers sous l'impact d'un neutron. Spontanée ou provoquée, elle s'accompagne de l'émission de deux ou trois neutrons. Ces neutrons peuvent provoquer à leur tour la fission d'autres noyaux… et ainsi de suite dans une réaction en chaîne. Des atomes fissiles en quantité suffisante et agencés selon une géométrie particulière peuvent donner lieu à une réaction en chaîne se propageant si rapidement qu'elle conduit à une réaction explosive. C'est ce qui se produit dans les bombes atomiques. Dans le cas des centrales nucléaires, la proportion beaucoup plus faible de matière fissile et des dispositifs de régulation appropriés permettent de contrôler la réaction en chaîne et d'obtenir un dégagement d'énergie continu et prédéterminé.

De tous les atomes existant à l'état naturel, seul l'atome d'uranium, dans sa variété – ou isotope – uranium 235 est susceptible de subir la fission. L'uranium constitue ainsi le combustible de base des réacteurs nucléaires. D'autres éléments lourds, tel le plutonium, obtenu par transmutation de l'uranium, sont également susceptibles de fission. Le plutonium est utilisé dans les réacteurs dits « à neutrons rapides », ou surgénérateurs, et associé à de l’uranium dans les réacteurs à eau ordinaire (combustibles MOX).

2.2. La fusion

La fusion est l'autre forme de libération de l'énergie nucléaire. Elle correspond à l'agglomération de deux noyaux légers se fondant l'un dans l'autre pour former un noyau plus lourd.
À l'œuvre dans les étoiles, les réactions de fusion sont provoquées par l'agitation thermique des atomes portés à très haute température (plusieurs dizaines de millions de degrés). Les engins militaires dits « thermonucléaires » (bombes H) opèrent la fusion quasi instantanée de noyaux d'hydrogène dans une réaction explosive. Des recherches sont en cours pour tenter de maîtriser l'énergie de fusion dans une réaction contrôlée. Mais la faisabilité technologique d'un tel projet, qui permettrait d'accéder à une source d'énergie pratiquement inépuisable, reste à démontrer. C’est l’objet du réacteur expérimental ITER (International Thermonuclear Experimental Reactor), dont un prototype pourrait voir le jour à l’horizon 2050.

3. Les centrales nucléaires

       
Dans une centrale nucléaire, on utilise la chaleur dégagée par la fission de l'uranium pour produire de l'électricité. Ce principe de fonctionnement est identique à celui des centrales thermiques classiques dans lesquelles la chaleur provient de la combustion du charbon, du gaz ou du fioul.
3.1. Le processus de production d'électricité

Dans les réacteurs nucléaires à eau sous pression (REP), le modèle le plus répandu dans le monde, le processus de production d'électricité se déroule de la manière suivante : l'uranium, enrichi (dans une proportion de 3,5 à 4 %) en isotope 235, conditionné sous forme de petites pastilles, est enfermé dans des assemblages métalliques étanches baignant dans une cuve en acier remplie d'eau ordinaire. La chaleur intense dégagée par la fission des noyaux d'uranium porte les assemblages à haute température. À leur contact, l'eau de la cuve s'échauffe (à environ 300 °C) et, maintenue sous pression pour ne pas bouillir, circule en boucle dans un circuit fermé appelé circuit primaire. Par l'intermédiaire d'un générateur de vapeur, le circuit primaire communique sa chaleur à l'eau d'un autre circuit fermé : le circuit secondaire. L'eau se vaporise et la vapeur obtenue entraîne le groupe turboalternateur qui produit l'électricité. La vapeur est ensuite condensée à la sortie de la turbine, retransformée en eau et renvoyée dans le générateur de vapeur pour un nouveau cycle.

3.2. Le refroidissement
Le refroidissement de la vapeur sortant de la turbine est assuré par un condenseur, dans lequel circule de l'eau froide puisée à une source extérieure : fleuve ou mer. Dans certaines centrales, des tours de réfrigération, ou aéroréfrigérants, équipent le circuit de refroidissement, ce qui permet de diminuer les quantités d'eau prélevée à l'extérieur.

3.3. Architecture d'une centrale nucléaire

La cuve du réacteur, les trois ou quatre générateurs de vapeur qui y sont reliés, le pressuriseur ainsi que les tuyauteries du circuit primaire forment l'îlot nucléaire. Ces composants sont enfermés dans le bâtiment réacteur, enceinte cylindrique étanche en béton d'environ 75 mètres de hauteur et 50 mètres de diamètre. Le groupe turboalternateur est installé dans un bâtiment attenant.
L'ensemble formé par l'îlot nucléaire et son groupe turboalternateur constitue une tranche. Une centrale est généralement constituée du regroupement, sur le même site, d'au moins deux tranches.

3.4. Pilotage et exploitation
Le pilotage d’un réacteur s'effectue au moyen de barres de contrôle constituées de matériaux absorbant les neutrons. En enfonçant ces barres plus ou moins profondément dans la cuve du réacteur, au milieu des assemblages contenant l'uranium, on peut faire varier l'intensité de la réaction en chaîne et régler ainsi la puissance du réacteur au niveau souhaité. En cas d'urgence, des barres de sécurité chutent automatiquement, stoppant la réaction en chaîne ayant lieu au sein du réacteur. Ces opérations de pilotage et toutes celles qui concourent à la surveillance et à la conduite d'une tranche nucléaire sont effectuées depuis la salle de commande, à l'aide de systèmes largement automatisés et télécommandés. Pour assurer au quotidien l'ensemble des tâches d'exploitation d'une tranche, il faut en général entre 500 et 600 personnes.

3.5. L'uranium et le cycle du combustible

Métal très dense relativement abondant dans l'écorce terrestre, l'uranium doit à ses exceptionnelles capacités de fission d'être le combustible de base des centrales nucléaires. Avant et après son passage dans le réacteur, il fait l'objet d'un certain nombre de transformations et d'opérations au long d'un processus couramment appelé « cycle du combustible ». Extrait de la mine, l'uranium naturel est concentré sous forme de poudre, puis purifié et converti en un composé chimique adapté. Lorsqu'il est destiné aux centrales de la filière à eau ordinaire, il est légèrement « enrichi » (3,5-4 %) dans sa variété uranium 235, la seule capable de subir la fission. En effet, l’uranium 235 ne représente que 0,72 % de l’uranium naturel.

Les assemblages combustibles, dans lesquels l'uranium est conditionné, séjournent trois ou quatre ans en réacteur. Au terme de ce délai, le combustible « usé » contient encore 96 à 97 % de matières énergétiques : l'uranium ainsi que du plutonium formé lors des réactions nucléaires. Le retraitement permet de récupérer ces matières en vue de leur recyclage. L'uranium, issu du retraitement qui contient encore 0,85 % d'isotope 235, peut être ré-enrichi en économisant des services d’enrichissement très coûteux, pour fabriquer de nouveaux combustibles. Le plutonium pourra être recyclé sous forme d'oxyde, associé à de l'oxyde d'uranium pour fabriquer des combustibles mixtes (MOX).
Les déchets ou « produits de fission » restants sont traités et entreposés avant stockage définitif. (Si certains pays, dont la France, pratiquent le retraitement, d'autres stockent, en l'état, les assemblages combustibles usés sans en récupérer les matières énergétiques.)

3.6. Radioactivité et radioprotection

L'uranium, le plutonium et les produits de fission engendrés par les réactions nucléaires sont des éléments radioactifs. Il en résulte une contrainte majeure pour l'industrie nucléaire qui doit assurer, à tous les stades de ses activités, la protection des individus et de l'environnement contre les risques dus aux rayonnements (→  irradiation).
La radioactivité est un phénomène affectant certains types d'atomes instables. Pour acquérir une meilleure stabilité, ces atomes expulsent une partie de la matière et de l'énergie qu'ils contiennent. Les rayonnements issus des composés radioactifs revêtent des formes différentes – particulaire ou électromagnétique – selon le type d'atome subissant la transformation. Bien que la radioactivité soit une composante naturelle de l'environnement, des doses excessives de rayonnement – perturbant l'organisation et le fonctionnement des cellules – peuvent être gravement nuisibles à la santé des personnes. Manipulant de grandes quantités de matières radioactives, l'industrie nucléaire doit donc faire face à l'impératif de la radioprotection. Elle est organisée en conséquence selon des dispositions techniques, des procédures d'exploitation et des réglementations destinées à limiter l'exposition à la radioactivité des travailleurs et du public. Le système de surveillance de la radioprotection est assuré par l’Institut de radioprotection et de sûreté nucléaire (IRSN), entité indépendante du Commissariat à l’énergie atomique (CEA) depuis 2002.

3.7. La sûreté des centrales nucléaires
L'impératif essentiel que s'assignent les agences de la sûreté nucléaire est d'empêcher en toutes circonstances la dispersion vers l'extérieur de quantités excessives de produits radioactifs. En France, la sûreté nucléaire des sites est assurée par l’Autorité de sûreté nucléaire française (ASN) – et l’IRSN –, de manière indépendante du CEA depuis la loi relative à la transparence et à la sécurité en matière nucléaire (TSN) de 2006.

3.7.1. Les dispositifs de sûreté nucléaire
Cet objectif a conduit à une démarche globale de sûreté fondée sur la mise en place de plusieurs « lignes de défense » successives : la conception des centrales intègre les différentes hypothèses d'accident ainsi que les systèmes de sauvegarde capables d'y faire face ; l'exploitation des centrales en appelle à des procédures strictement définies et à des équipes hautement spécialisées ; les actions et interventions à engager en cas d'accident sont codifiées en détail dans des « plans d'urgence » qui doivent être régulièrement testés.

→  accident nucléaire.
Ces différentes préventions et parades, dont la combinaison est appelée « défense en profondeur », s'articulent autour d'un dispositif technique majeur destiné à empêcher la dispersion des produits radioactifs. Ceux-ci sont enfermés à l'intérieur de trois barrières de confinement superposées : les gaines de métal contenant le combustible nucléaire ; la cuve en acier du réacteur (prolongée par les tuyauteries du circuit primaire) ; l'enceinte en béton entourant l'îlot nucléaire. Ce dispositif, appelé à garantir l'étanchéité globale du système, équipe la quasi-totalité des centrales nucléaires de technologie occidentale.
3.7.2. Le bilan de sûreté des centrales nucléaires

À l'examen des données statistiques réunies depuis soixante ans, si le nombre des accidents graves entraînés par la production d'électricité nucléaire s'est révélé limité, leurs conséquences s'établissent à long terme et sur une échelle très large.
→ accident nucléaire.
L'accident de Tchernobyl a longtemps été qualifié d'exceptionnel. Les causes qui l'ont provoqué (modèle de réacteur au fonctionnement instable ; non-respect des procédures de sûreté ; absence d'enceinte de confinement destinée à empêcher la dispersion de produits radioactifs dans l'environnement) ne semblaient en tout cas pas transposables aux centrales de technologie occidentale exploitées selon les procédures appropriées. Mais l'accident de Fukushima survenu au Japon le 11 mars 2010, à la suite d'un tsunami, a montré la vulnérabilité de certaines installations, et surtout la défaillance à la fois de la compagnie d’électricité japonaise exploitant la centrale de Fukushima (TEPCO – Tokyo Electric Power Company) dans sa gestion de la catastrophe et de l’agence de sûreté japonaise. Ces accidents montrent les limites de la sûreté de ce type de centrales nucléaires qui nécessitent, a minima, une absolue vigilance à toutes les étapes de leur fonctionnement, des contrôles de sûreté accrus et des autorités de contrôle indépendantes pour éviter tout conflit d’intérêt.
D’autres types de réacteurs, dits de quatrième génération, moins polluants et plus sûrs, sont actuellement à l’étude dans le cadre du Forum international génération IV, tels que les réacteurs à sels fondus ou les réacteurs à neutrons rapides de type Superphénix et dont un nouveau prototype français, baptisé Astrid, est prévu à l’horizon 2020. Toutefois, il est important de noter que l’éventuel déploiement d’une filière de réacteurs de quatrième génération n’est possible que si les réacteurs de générations II et III se déploient considérablement au préalable de manière à disposer de suffisamment de combustible (notamment de plutonium).

Pour en savoir plus, voir l'article risques naturels et technologiques.

3.8. Énergie nucléaire et environnement
Dans le cours normal de leur exploitation, les centrales nucléaires et les installations du cycle du combustible rejettent dans l'environnement des effluents liquides ou gazeux. Les réglementations nationales fixent des limites impératives aux quantités de rejets autorisés afin de maintenir à des niveaux acceptables les nuisances potentielles qu'ils représentent.
Ces rejets sont de nature thermique, chimique et radioactive.

3.8.1. Les rejets thermiques
 Les rejets thermiques sont dus à l'eau des circuits de refroidissement qui est restituée, légèrement échauffée, au fleuve ou à la mer. Il en résulte une augmentation de quelques degrés de la température du milieu aquatique aux abords du site. Dans certains cas, ces rejets s'effectuent aussi dans l'atmosphère par l'intermédiaire de tours de refroidissement.

3.8.2. Les rejets chimiques
Les rejets chimiques, constitués de sodium, chlorures, sulfates, résultent des opérations de déminéralisation de l'eau des circuits de la centrale. Leur impact sur la faune et la flore aquatiques est négligeable.

3.8.3. Les rejets radioactifs
Les rejets radioactifs, liquides ou gazeux, en provenance des circuits d'épuration et de filtration de l'installation font l'objet d'une surveillance particulière. Les quantités de rejets autorisés sont fixées à des niveaux très largement inférieurs aux seuils de risques. En France, ces rejets représentent moins de 1 % de la radioactivité naturelle et n'entraînent pas de nuisance mesurable sur la santé des populations et sur l'environnement.
En fonctionnement normal, une caractéristique écologique majeure des installations nucléaires est de ne provoquer aucune pollution de l'atmosphère, contrairement aux centrales électriques à combustibles fossiles qui rejettent de grandes quantités de poussières, de gaz à effet de serre et autres produits polluants (gaz carbonique, oxydes de soufre et d'azote, etc.). Cependant, les nuages radioactifs (iode 131, césium 137) qui ont résultés des catastrophes nucléaires de Tchernobyl et de Fukushima ont mis en lumière les risques pour la santé (→ irradiation) et pour l'environnement (à l’échelle planétaire dans le cas de Tchernobyl). Enfin, le problème des déchets nucléaires produits lors de la fabrication d'énergie est matière à débat.

3.9. Énergie nucléaire et santé
En temps normal, la radioactivité est confinée à l’intérieur des centrales. Les populations vivant à proximité de ces dernières sont exposées à une radioactivité négligeable, d’environ 0,002 à 0,004 Sv (sievert)/an. À titre de comparaison, la radioactivité naturelle (émise par les sols, les roches et l’atmosphère) s’élève – en France – à 2,5 mSv par an en moyenne, tandis que l’exposition à la radioactivité artificielle (médicale principalement) est estimée à 1,16 mSv par an (soit une exposition totale de 3,66 mSv annuels). → radioactivité
La législation française veut que l'exposition du personnel travaillant dans les centrales nucléaires ne dépasse pas les limites sanitaires fixées par les principes de radioprotection du Code de la santé publique (à savoir, pour le corps entier, 20 mSv maximum sur douze mois consécutifs). Le dosage de la radioactivité à laquelle une personne est soumise est effectué par des instruments appelés dosimètres.
En cas d’incident ou d’accident nucléaire, les risques pour la santé des personnels et des populations sont fonction de l’ampleur et de la localisation de l’événement, ainsi que du type de rayonnement émis (tous n’ont pas les mêmes effets sur les tissus vivants).

4. Les déchets nucléaires

L'innocuité des centrales nucléaires vis-à-vis de l'atmosphère a une contrepartie négative : la présence, à la fin du cycle de production, de résidus solides radioactifs constitués par les « cendres » de combustion de l'uranium et par divers objet et matériels contaminés. Bien que de volume réduit, ces déchets sont la contrainte écologique majeure que doit gérer l'industrie nucléaire. Niveau de radioactivité et « durée de vie » déterminent trois grandes catégories de déchets (« A », « B », « C ») qui font l'objet en France d'une gestion spécifique du point de vue de leur traitement, de leur conditionnement, de leur entreposage et de leur stockage.

4.1. Les déchets à vie courte (déchets « A »)
Environ 90 % des déchets nucléaires voient leur radioactivité décroître assez rapidement avec le temps. Compactés et conditionnés dans des fûts de métal ou de béton, ils sont stockés en surface dans des cases étanches et deviendront pratiquement inoffensifs au bout de 200 à 300 ans.

4.2. Les déchets à vie longue (déchets « B » et « C »)
Environ 10 % des déchets nucléaires sont à vie longue. Ceux qui présentent une radioactivité faible ou moyenne (déchets « B ») sont compactés et entreposés sur leur lieu de production. Les déchets très radioactifs ou « produits de fission » (déchets « C ») récupérés lors du retraitement des combustibles usés sont vitrifiés, enfermés dans des conteneurs en acier et entreposés dans des puits spécialement aménagés en attendant un stockage définitif. Même si la radioactivité de ces déchets diminue avec le temps, leur longue durée de vie impose de leur trouver un confinement sûr pendant des milliers d'années. Un assez large consensus existe entre experts pour considérer comme une solution adaptée l'enfouissement en profondeur de ces déchets, dans des entrepôts de stockage aménagés à plusieurs centaines de mètres sous la terre, dans des couches géologiques stables et imperméables. Une autre option possible est celle d'un stockage réversible, en sub-surface, ce qui permettrait la récupération future de ces déchets dans le cas où l'on découvrirait un procédé permettant leur complète neutralisation.
En France, l’option d’un stockage en profondeur sous le territoire de la commune de Bure dans la Meuse a été privilégiée dans le cadre de la loi Bataille relative aux recherches sur la gestion des déchets radioactifs de haute activité. Selon l’ANDRA, le coût d’un site comme celui du site de Bure est actuellement estimé à 35 milliards d’euros (pour l’ensemble du parc électronucléaire français actuel jusqu’à fin de vie du parc, c’est-à-dire environ 40-45 ans).

5. Le programme nucléaire français
Engagé dans les années 1950 et massivement relancé en 1974, un programme d'équipement méthodique a fait de la France la deuxième puissance nucléaire « civile » du monde après les États-Unis, et la première au regard de la part occupée par le nucléaire dans la production d'électricité (78 %). Fondées sur une technologie d'origine américaine progressivement et complètement francisée, les centrales exploitant des réacteurs de type à « eau sous pression » (REP) ont été construites en séries standardisées correspondant à trois paliers différents de puissance (900 MW, 1 300 MW, 1 450 MW).
Les cinquante-huit tranches en service ont démontré une fiabilité technique satisfaisante et une bonne disponibilité. Ce parc électronucléaire a permis une amélioration spectaculaire de l'indépendance énergétique du pays ainsi qu'un abaissement d'environ 25 % du coût de revient du kilowattheure. Par ailleurs, grâce à une forte activité exportatrice, l'industrie nucléaire s'est révélée un facteur déterminant de la consolidation de la balance commerciale française.
Suivant cet argument économique, la France a réaffirmé en 2004 sa politique énergétique basée sur le nucléaire en décidant la construction d’un nouveau type de réacteur, dit de troisième génération : l’EPR (European Pressurized water Reactor). D’une puissance de 1 650 MW, ce réacteur présente des caractéristiques de sûreté accrues et une consommation d’uranium plus faible (15 % en moins) que les réacteurs REP.

6. L'avenir du nucléaire
De la fin des années 1980 au début des années 2000, le développement nucléaire mondial marque un premier ralentissement, dû notamment aux craintes ravivées par l'accident de Tchernobyl. Certains scénarios prospectifs prévoyaient cependant son redémarrage à plus long terme, lorsque, face à une demande énergétique en constante augmentation, les opinions et les gouvernements prendraient conscience de la nécessité d'économiser les combustibles fossiles et de restreindre plus sévèrement le dégagement des gaz à effet de serre  responsables du changement climatique ; l'énergie nucléaire pourrait alors être relancée, à condition qu'elle fournisse le gage incontestable de sa sûreté de fonctionnement et de sa compétitivité économique. Au début des années 2000 s'est manifesté, au plan mondial, un nouvel intérêt pour les réacteurs électrogènes, qu’il s’agisse des réalisations (réacteurs de troisième génération) ou des études prospectives (réacteurs de quatrième génération). Cependant, la catastrophe de Fukushima de 2010 a entièrement remis en cause cet intérêt, notamment en Allemagne où l’arrêt du nucléaire est prévu pour 2022. Toutefois, le cas de l’Allemagne est finalement assez isolé à l’échelle mondiale, puisque les États-Unis, la Russie et les grands pays émergents que sont la Chine, l’Inde et le Brésil – et même probablement le Japon à moyen terme – ont plutôt tendance à développer leur parc électronucléaire

 

   DOCUMENT   larousse.fr    LIEN

 

 
 
 
 

LUMIÈRE

 


 

 

 

 

 

PLAN
      *         LUMIÈRE
      *         OPTIQUE
      *         1. Historique de la notion de lumière
      *         1.1. Les conceptions antiques et médiévales de la lumière
      *         1.2. Les premières théories scientifiques de la lumière
      *         1.2.1. La lumière selon Descartes, Huygens et Malebranche
      *         1.2.2. La lumière selon Newton
      *        1.3. L'optique moderne
      *         1.4. La conception quantique de la lumière
      *         2. Sources et récepteurs de lumière
      *         2.1. Les sources primaires de lumière
      *         2.2. Les sources secondaires et la diffusion de la lumière
      *         2.3. Les récepteurs de lumière
      *         3. Propagation de la lumière
      *         3.1. Diffusion et réflexion de la lumière
      *         3.2. Absorption et réfraction de la lumière
      *         4. Interaction lumière-matière
      *        4.1. Niveaux d’énergie des atomes
      *         4.2. Émission ou absorption d’une radiation par un atome
      *         5. Spectres lumineux
      *         5.1. Les spectres d’émission
      *         5.2. Les spectres d’absorption
      *         6. La vitesse de la lumière
      *         7. Applications de la lumière
      *         BOTANIQUE
Voir plus
lumière
(latin ecclésiastique luminaria, du latin classique lumen, -inis)

Cet article fait partie du dossier consacré à la lumière.
Rayonnement électromagnétique dont la longueur d'onde, comprise entre 400 et 780 nm, correspond à la zone de sensibilité de l'œil humain, entre l'ultraviolet et l'infrarouge.
OPTIQUE
1. Historique de la notion de lumière
1.1. Les conceptions antiques et médiévales de la lumière

La théorie de la lumière a introduit, tout au long de l'histoire des sciences, un questionnement fondamental sur la nature des objets que la physique étudie : ondes ou particules ? Dans les premières descriptions mythiques du monde, la lumière est une sorte de « brume claire », opposée à la « brume sombre » des ténèbres qui, le soir, montent du sol. Puis les Grecs commencent à s'interroger sur la nature physique du monde. Parménide, remarquant que la partie brillante de la Lune est toujours tournée vers le Soleil, en déduit que la lumière vient du Soleil, c'est-à-dire qu'elle se déplace. Les ténèbres, elles, sont une absence de lumière. La propagation de la lumière est expliquée par l'émission de petites particules, conception qui sera largement développée au Moyen Âge. Pour Aristote, les couleurs résultent d'un mélange de lumière et d'obscurité.

1.2. Les premières théories scientifiques de la lumière
1.2.1. La lumière selon Descartes, Huygens et Malebranche

René Descartes, Discours de la méthode
       


Au début du xviie s., avec R. Descartes, s'amorce vraiment une théorie scientifique de la propagation de la lumière. Si Descartes conçoit la lumière comme un ébranlement d'une matière subtile se transmettant instantanément, donc avec une vitesse infinie et sans transport de matière, on rencontre aussi chez lui une conception corpusculaire. Ces idées seront reprises et améliorées par deux théories longtemps rivales : la théorie ondulatoire et la théorie corpusculaire.

La première ne reçoit un véritable développement scientifique qu'avec C. Huygens. Selon celui-ci, chaque point d'une surface lumineuse émet une onde sphérique qui se propage à une vitesse finie dans un milieu non vraiment matériel, l'éther, d'une manière analogue au son. Huygens explique ainsi les phénomènes de réflexion de la lumière, de réfraction (déviation d'un rayon lumineux lors de son passage d'un milieu à un autre), etc. (→ optique). Toutefois, sa théorie ondulatoire ignore les notions de fréquence et d'amplitude des vibrations lumineuses et donc n'explique ni la diversité des couleurs, ni les phénomènes d'interférence, ni la propagation rectiligne de la lumière.
Au début du xviiie s., N. de Malebranche, partisan lui aussi de la théorie ondulatoire présente une conception plus précise des vibrations lumineuses de l'éther et de leur fréquence qu'il distingue de leur amplitude, ce qui le conduit à la reconnaissance de la diversité continue des couleurs. Mais, pour lui, comme pour Huygens, la vibration est longitudinale.

1.2.2. La lumière selon Newton

La théorie de la lumière d'I. Newton est mixte, bien qu'y domine l'explication corpusculaire, qui sera la source d'une vive polémique avec R. Hooke, défenseur de la pure théorie ondulatoire. Pour Newton, la lumière est constituée par des corpuscules qui se déplacent dans l'éther à une vitesse finie, où ils produisent des vibrations. Comme Malebranche, il introduit la notion de fréquence variant avec les couleurs, mais, à la différence de celui-ci, il ne la distingue pas clairement de l'amplitude des vibrations. Cette fréquence est expliquée par la variation du comportement des corpuscules durant leur parcours, et la diversité des couleurs, par des différences de taille des corpuscules. La théorie corpusculaire de Newton rend bien compte de la propagation rectiligne de la lumière, mais ce n'est que par des raisonnements mécaniques imaginatifs et peu scientifiques qu'il explique la diffraction (phénomène typiquement de nature ondulatoire).

1.3. L'optique moderne

C'est seulement au début du xixe s., avec T. Young, qu'est introduit le principe fondamental d'interférences des ondes lumineuses, au cours de l'expérience dite des « fentes de Young », qui constitue une preuve patente du caractère ondulatoire de la lumière. Cette théorie ne sera vraiment développée que par A. Fresnel, qui substitue, le premier, la vibration transversale à la vibration longitudinale. Toutefois, à la même époque, de nombreux savants demeurent attachés à la théorie corpusculaire, principalement Laplace et J.-B. Biot, qui la défendent sur la base de la mécanique newtonienne. Mais, lorsque les mesures de H. Fizeau (1849) et de L. Foucault (1850) démontrent, ainsi que l'avait prévu Fresnel, que la lumière se propage plus vite dans l'air que dans l'eau, la théorie corpusculaire, qui affirmait le contraire, est abandonnée.

En 1865, J. C. Maxwell établit la nature électromagnétique de la lumière, théorie que H. A. Lorentz développe à la fin du xixe s., démontrant notamment que l'on peut expliquer la réflexion et la réfraction par les théories électromagnétiques de Maxwell.

1.4. La conception quantique de la lumière

   
Avec la découverte du photon et l'interprétation de l'effet photoélectrique par A. Einstein en 1905, et avec la mécanique ondulatoire de L. de Broglie en 1924, qui associe onde et corpuscule, les deux théories – corpusculaire et ondulatoire – se trouvent « réconciliées », mais sous un mode qui les modifie l'une et l'autre. Comme toute révolution scientifique, celle-ci entraîne un dépassement des théories précédentes. Aujourd'hui, dans le cadre de la physique quantique, le photon n'est plus ni une onde ni une particule mais un quanton, objet d'étude de la théorie quantique. Cependant, lorsque celle-ci peut être approchée par la théorie classique, un quanton manifeste un comportement soit corpusculaire (effet photoélectrique), soit ondulatoire (interférences lumineuses). La théorie quantique relie les aspects corpusculaire et ondulatoire de la lumière par la relation E = hν = hc/λ (l'énergie d'un photon E est proportionnelle à la fréquence ν de l'onde (ou inversement proportionnelle à la longueur d'onde λ) qui lui est associée, h étant la constante de Planck dont la valeur est 6,626 176 × 10−34 J s et c la célérité de la lumière).

2. Sources et récepteurs de lumière
Les grandeurs photométriques (relatives à la lumière) usuelles sont l'intensité lumineuse, le flux lumineux, la luminance et l'éclairement, les unités correspondantes étant la candela, le lumen, la candela par mètre carré et le lux.

2.1. Les sources primaires de lumière

Les sources primaires produisent de la lumière par elles-mêmes en convertissant de l’énergie (chimique pour les bougies, électrique pour les lampes, nucléaire pour les étoiles) en énergie lumineuse.

2.2. Les sources secondaires et la diffusion de la lumière

Les sources secondaires sont des objets éclairés qui renvoient dans toutes les directions une partie de la lumière qu’ils reçoivent (la Lune, les planètes, les objets qui nous entourent) : on dit que la lumière est diffusée par l’objet. Seuls les objets totalement noirs ne réfléchissent pas de lumière.

2.3. Les récepteurs de lumière

   


L’œil humain est un récepteur de lumière particulièrement sophistiqué : il s’adapte aux conditions de luminosité, permet de voir de près comme de loin et distingue les couleurs. Mais il en existe de plus simples comme la pellicule d’un appareil photo (photographie) qui convertit la lumière en énergie chimique, ou une cellule photoélectrique qui convertit la lumière en signal électrique (→ capteur, CCD).
Pour en savoir plus, voir les articles œil [zoologie], vision [zoologie], vision [médecine].
3. Propagation de la lumière

Le trajet de la lumière dans un milieu peut être représenté par un segment de droite appelé rayon lumineux. La lumière se propage en ligne droite dans les milieux homogènes (les milieux qui ont la même composition en tout point) ; si le milieu est également transparent (comme l’eau, l’air, le verre, etc.), la lumière se propage en ligne droite sans être atténuée, ou très peu. Néanmoins, l'intensité lumineuse par unité de surface diminue avec le carré de la distance à la source. Lorsque la lumière rencontre un corps, elle est absorbée, réfléchie ou transmise (l'un des cas n'excluant pas les autres).

3.1. Diffusion et réflexion de la lumière

Lorsqu’elle rencontre un objet, la lumière est partiellement diffusée par cet objet (qui devient une source secondaire de lumière) : c’est la réflexion de la lumière. La lumière réfléchie par une surface irrégulière est renvoyée dans toutes les directions. Certaines fréquences sont réfléchies plus fortement que d'autres, donnant ainsi aux objets leur couleur caractéristique. Les surfaces blanches réfléchissent la lumière de façon égale pour toutes les longueurs d'onde ; les surfaces noires absorbent pratiquement toute la lumière.

3.2. Absorption et réfraction de la lumière


L’autre partie du rayon lumineux est absorbée par l’objet. Si l’objet est opaque, la lumière absorbée ne peut traverser l’objet. Si l’objet est translucide ou transparent, une partie de la lumière absorbée traverse l’objet en changeant généralement de direction : c’est la réfraction de la lumière. C’est la raison pour laquelle il est difficile de déterminer l’emplacement exact d’un objet plongé dans l’eau : il semble plus proche de la surface qu’il ne l’est vraiment, du fait de la réfraction des rayons lumineux.

4. Interaction lumière-matière
4.1. Niveaux d’énergie des atomes

Au début du xxe siècle, la physique quantique transforme radicalement la vision que l'on a jusque-ici de l'énergie ainsi que de la matière. En effet, dans un atome, les électrons gravitent autour du noyau. Chaque électron possède une énergie qui est d’autant plus faible qu’il se trouve proche du noyau. Par définition, l’énergie de l’atome est égale à la somme des énergies de tous ses électrons. Ainsi, l’énergie qui était jusque-ici considérée comme une grandeur continue, devient discontinue à l’échelle atomique : Niels Bohr parle de quantification de l’énergie des atomes dès 1913.

Niveaux d'énergie d'un atome
Pour représenter les différents niveaux d’énergie associés à un atome, on utilise un diagramme avec un axe vertical où sont spécifiés les niveaux d’énergie associés à l’atome : l’état de plus basse énergie est appelé état fondamental ; les états d’énergie supérieurs sont des états excités. À chaque état est associé une énergie (notée E) : l’atome ne peut prendre que des niveaux d’énergie bien déterminés (E1, E2, E3, E4…).



4.2. Émission ou absorption d’une radiation par un atome
Pour passer d'un niveau d'énergie à un autre, un atome doit absorber un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité et l’énergie de l’état fondamental. Si l’énergie du photon est supérieure ou inférieure à la différence d’énergie, l’atome ne peut pas absorber le photon et reste dans son état d’énergie fondamental :


Prenons l’exemple de la transition entre le niveau 1 (fondamental) et le niveau 2. Pour être absorbé, le photon doit avoir une énergie E strictement égale à la différence entre E2 et E1 :
E = E2 – E1 = hν, soit E = ΔE = hν.
Tous les photons qui ne possèdent pas cette énergie ne pourront pas être absorbés par l’atome et la transition de niveaux d’énergie ne se fera pas.
Inversement, un atome (ou une molécule) excité(e) retourne à son état fondamental (ou à un état d’énergie inférieur) en émettant un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité de départ et l’énergie de l’état fondamental (ou d’un état d’énergie inférieur).



5. Spectres lumineux

Produite par incandescence ou par luminescence, la lumière est généralement composée d'une infinité de radiations de longueurs d'onde (ou de fréquences) différentes, dont l'ensemble constitue le spectre lumineux. Le spectre d’une lumière peut être obtenu en décomposant cette lumière à l’aide d’un prisme. Lors de la traversée du prisme, la lumière est déviée par réfraction. Chaque radiation lumineuse constituant la lumière est déviée différemment selon sa longueur d’onde, formant ainsi le spectre de cette lumière.

5.1. Les spectres d’émission

En fonction de la source lumineuse, le spectre d’émission sera continu pour des solides et des liquides chauffés (le filament d’une lampe par exemple) ou discret (spectre de raies) pour des gaz portés à haute température (une lampe à vapeur de mercure par exemple). Les raies d’émission sont caractéristiques des éléments chimiques présents dans le gaz.
Si le spectre obtenu est constitué de plusieurs radiations lumineuses, il s’agit d’une lumière polychromatique (lumière émise par une lampe à incandescence par exemple). En revanche, si la lumière n’est constituée que d’une seule radiation lumineuse, il s’agit alors d’une lumière monochromatique (lumière émise par un laser par exemple).

5.2. Les spectres d’absorption

Spectres d'absorption et d'émission
L'étude d'un spectre (spectrométrie) renseigne ainsi non seulement sur la nature chimique de la source, mais aussi sur la nature du milieu traversé par la lumière, qui absorbe certaines radiations. Le spectre de la lumière ayant traversé ce milieu est appelé spectre d’absorption : les raies noires représentent les radiations absorbées. Elles sont caractéristiques des éléments chimiques présents dans le gaz. Le spectre d’absorption et le spectre d’émission d’un même élément chimique sont complémentaires (voir les spectres d’absorption et d’émission du mercure). En effet, les raies d’absorption et d’émission d’une même espèce chimique ont la même longueur d’onde : un élément chimique absorbe les radiations qu’il est capable d’émettre.

Par exemple, l’analyse du spectre de la lumière provenant du Soleil a permis d’identifier les éléments chimiques présents dans l’atmosphère solaire : toutes les raies noires observées correspondent aux radiations absorbées par les atomes présents. Cette analyse, réalisée dès 1814 par J. von Fraunhofer, puis complétée successivement par R. Bunsen et G. Kirchhoff (en 1851) a permis de trouver les éléments chimiques responsables des raies noires du spectre solaire (476 raies au total). En particulier, ces travaux ont mené à la découverte en 1868 d’un élément chimique encore inconnu à cette époque sur Terre : l’hélium. Cette méthode d’analyse spectroscopique est encore utilisée pour étudier l’atmosphère des étoiles.

6. La vitesse de la lumière

La lumière se déplace à une vitesse finie. Par exemple, la lumière émise à la surface du Soleil met environ 8 minutes pour parvenir jusqu'à nous, autrement dit elle se déplace à une vitesse d'environ 300 000 kilomètres par seconde dans le vide. À l’échelle humaine, cette vitesse est vertigineuse – les sondes spatiales envoyées dans l’espace ne se déplacent qu’à environ 20 km/s ; mais à l’échelle de l’Univers, elle devient « manipulable » : il faut par exemple 4 ans à la lumière de l'étoile la plus proche du Soleil (Proxima Centauri) pour nous parvenir et plus de 2 millions d'années pour celle émanant de la galaxie d'Andromède…

La vitesse (ou célérité) de la lumière dans le vide est une constante fondamentale de la physique : c = 299 792 458 m/s. Le premier à montrer expérimentalement que la lumière se déplace à une vitesse finie fut l'astronome O. Römer, en 1676, à partir d'observations des éclipses de certains satellites de Jupiter réalisées à l'Observatoire de Paris. Les premières déterminations précises de la vitesse de la lumière ont été effectuées au xixe s. par H. Fizeau (1849) et L. Foucault (1850). En 1887, les physiciens américains A. Michelson et E. Morley réalisèrent une expérience qui fit date dans l’histoire des sciences : leur objectif était de comparer par interférométrie la vitesse de la lumière se propageant dans le sens de révolution de la Terre et perpendiculairement à ce mouvement, de manière à mettre en évidence l’existence de l’éther dans lequel était censée se déplacer la lumière (comme le son dans l’air). Les résultats de l’expérience de Michelson-Morley permirent d’affirmer que la vitesse de la lumière était la même dans toutes les directions. Cette invariance de la vitesse de la lumière fut interprétée par certains physiciens comme une preuve de l’inexistence du fameux éther. En 1905, A. Einstein interpréta cette expérience dans le cadre de sa théorie de la relativité restreinte : la vitesse de la lumière est indépendante du référentiel, c’est une constante universelle de la physique.

Ainsi, quand une source de lumière s'approche ou s'éloigne, la lumière qui parvient à l'observateur a toujours la même vitesse, mais sa fréquence augmente ou diminue : c’est l’effet Doppler-Fizeau. Cet effet permet notamment de mesurer la vitesse d'éloignement des galaxies dans l'Univers (mesure de décalage vers le rouge ou redshift en anglais).
→ expansion de l'Univers.

Par ailleurs, si la vitesse de la lumière c est invariante dans le vide, elle décroît dans les milieux matériels, ce qui se manifeste par un changement de l'indice de réfraction (noté n) en fonction du milieu (n = c/v, où v est la vitesse de la lumière dans le milieu considéré). Par exemple, la vitesse de la lumière est d’environ 225 000 km/s dans l’eau, de 200 000  km/s dans le verre, le diamant à 125 000 km/s, etc. De plus, l’indice de réfraction (et donc la vitesse) dépend également de la longueur d'onde de la lumière : le bleu est plus dévié que le rouge… Ceci explique la dispersion de la lumière blanche dans un prisme ou dans les gouttes d'eau d'un arc-en-ciel.
Enfin, la vitesse de lumière (et l’indice de réfraction) dépend également de la température du milieu traversé : par exemple, dans l’expérience réalisée en 2000 par Lene Hau (université de Harvard, États-Unis), la vitesse de la lumière traversant un condensat de Bose-Einstein (milieu particulier dans lequel les atomes sont refroidis à une température très proche du zéro absolu, environ –273 °C) a été ralentie à 1,5 km/h.

7. Applications de la lumière
L'énergie du rayonnement lumineux peut être convertie en énergie thermique (fours solaires, effet de serre, etc.), en énergie chimique (photosynthèse, réactions photochimiques utilisées en photographie argentique) et surtout en énergie électrique (cellules photoélectriques, photopiles). L’énergie solaire constitue d’ailleurs une source d’énergie renouvelable intéressante pour répondre au défi énergétique de cette fin de siècle, en raison de l’épuisement rapide des énergies fossiles.
Par ailleurs, la lumière peut être amplifiée et rassemblée en un étroit faisceau dit cohérent, formant la lumière laser, utilisée dans l’ensemble des domaines de la recherche fondamentale (médecine, astrophysique, métrologie, etc.) ainsi que dans l’industrie (lecture de DVD ou de code-barres, découpe de matériaux, armement, etc.).

BOTANIQUE

Influence de la lumière sur la floraison
Comme source d'énergie, la lumière est absorbée principalement au niveau des feuilles (photosynthèse). La lumière verte seule n'est pas absorbée, mais réfléchie, d'où l'aspect vert des feuilles. Comme stimulus efficace, la lumière favorise la germination de certaines espèces et gêne celle d'autres espèces, ralentit la croissance des tiges, faisant s'incliner l'axe vers le côté le plus éclairé (phototropisme), règle l'ouverture des stomates foliaires et gouverne par sa durée la date de la floraison (photopériodisme).

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

L'inimaginable chaînon manquant

 

 

 

 

 

 

 

L'inimaginable chaînon manquant

Rodney Brooks dans mensuel 350
daté février 2002 -

Ni l'intelligence artificielle ni la vie artificielle n'ont réellement réussi jusqu'à présent à concevoir des robots autonomes capables de simuler des organismes vivants. Il se pourrait qu'un concept fondamental, ou une notion mathématique nous fasse encore défaut pour réussir à faire enfin le pont entre la matière et la vie.

Même s'ils paraissent plus proches des êtres vivants que les robots issus uniquement de l'intelligence artificielle IA classique, force est de reconnaître que les artefacts issus de la robotique comportementale et de l'imitation biologique ne sont pas aussi « vivants » qu'on osait l'espérer. La modélisation en biologie est en effet loin de donner les mêmes résultats qu'en physique. Nous savons effectivement très bien simuler par exemple la dynamique des fluides, la trajectoire des planètes, ou encore les explosions nucléaires. Mais en biologie, nous ne parvenons pas à des résultats aussi probants. Quelque chose ne va pas. Mais qu'est-ce ? Il existe beaucoup de réponses possibles à cette question. Peut-être, seuls quelques paramètres sont faux. Ou bien nos modèles n'ont pas atteint le niveau de complexité nécessaire. Ou encore manquons-nous de puissance informatique. Mais il se pourrait aussi qu'un concept fondamental que nous n'avons pas encore imaginé dans les modèles biologiques nous fasse défaut. Examinons chacune de ces causes possibles.

Si seuls quelques paramètres étaient erronés, cela signifierait que nous avons déjà modélisé l'essentiel correctement. Nous aurions seulement joué de malchance ou d'ignorance pour certains détails. En poursuivant notre travail, les choses devraient s'arranger. Par exemple, nos modèles neuronaux habituels travailleraient peut-être beaucoup mieux si nous utilisions cinq couches de neurones artificiels au lieu des trois employés ordinairement. Ou encore nos programmes d'évolution artificielle voir l'article de Dario Floreano dans ce numéro seraient plus efficaces s'ils généraient des populations de cent mille individus ou plus, au lieu de mille ou moins comme il est d'usage aujourd'hui. Mais tout cela semble improbable. Si c'était le cas, quelqu'un aurait déjà trouvé une combinaison de paramètres fonctionnant mieux que les autres. Et cette avancée aurait conduit à de nouvelles analyses théoriques qui nous auraient déjà permis d'observer un progrès rapide.
La deuxième explication - nos modèles biologiques n'ont pas atteint un certain seuil de complexité - signifie aussi que nous aurions en principe déjà tout compris de l'intelligence et des organismes vivants. Nous aurions déjà tous les concepts et les composants nécessaires, mais nous ne les aurions pas agrégés suffisamment pour en obtenir un seul modèle. Lorsque nous y parviendrons et si nous y parvenons, tout commencera à fonctionner mieux. Mais à nouveau il paraît improbable que nous ayons déjà compris tous les aspects de la biologie sans faire plus de progrès.
Un manque de puissance informatique ? Nous avons déjà assisté à un tel exemple. Après avoir été battu par Deep Blue en 1997, Garry Kasparov dit qu'il fut surpris par sa capacité à jouer comme s'il avait une stratégie et comprenait la signification de chaque déplacement. Deep Blue n'était pas par essence différent des logiciels précédents avec lesquels il avait joué à la fin des années 1980. Il n'avait toujours pas de module de planification stratégique, comme en possèdent d'autres logiciels conçus pour simuler le jeu humain. Il avait toujours un moteur d'inférence tactique, mais cette fois très rapide et profond. Kasparov a cru que Deep Blue possédait un module stratégique tout simplement parce que l'augmentation de sa puissance informatique changeait la qualité de son jeu. La même chose pourrait arriver à nos modèles biologiques intelligents avec plus de puissance informatique.

Théorie fondamentale. Si l'une de ces trois explications est la bonne, nous devons nous attendre à un grand progrès en matière d'IA et de vie artificielle dès que quelqu'un trouvera les détails qui manquent encore. Cela entraînera de nouveaux développements avec une floraison d'applications. Mais personne ne sera vraiment surpris. Toutes les sciences qui étudient les organismes vivants connaîtront de nouvelles avancées. Nous aurons de nouveaux types de modèles informatiques avec lesquels nous pourrons tester un flot de nouvelles hypothèses sur la façon dont fonctionne le vivant.
Mais s'il nous manquait une théorie fondamentale que nous n'avons jamais imaginée dans nos modèles actuels ? Nous devrions alors trouver de nouvelles façons de réfléchir au vivant pour continuer à avancer. Et ce sera beaucoup plus perturbant pour toute la biologie. Pour faire une analogie, supposons que nous soyons en train de construire en physique des simulations d'objets élastiques qui tombent et entrent en collision. Si nous ne comprenons pas bien la physique, nous pourrions laisser de côté un attribut spécifique de ces objets, leur masse par exemple. Dans ce cas, leur comportement lorsqu'ils tombent en chute libre nous paraîtrait correct, mais dès que nous analyserions les collisions, nous serions forcés de reconnaître que nous avons mal modélisé leur environnement physique.

Expliquer la conscience. Mais quelle pourrait bien être la nature de cette caractéristique de la vie qui nous échappe ? L'une des possibilités serait que certains aspects du vivant soient invisibles pour nous aujourd'hui. Selon la vision scientifique actuelle, les organismes vivants sont des machines dont les composants sont des molécules. Ce n'est pas complètement impossible que nous découvrions de nouvelles propriétés chez les molécules du vivant ou quelques nouveaux éléments. On pourrait imaginer quelque chose de parallèle à ce qui s'est produit avec la découverte des rayons X il y a un siècle et qui a conduit à notre compréhension encore en évolution de la mécanique quantique. La théorie de la relativité générale, deuxième découverte du XXe siècle de la même ampleur, a tout autant perturbé notre compréhension des lois de base de la physique. Une découverte aussi majeure pourrait bien bouleverser à son tour notre compréhension fondamentale du vivant.

Appelons cette découverte à venir l'hypothèse. Le mathématicien britannique Roger Penrose1 a déjà émis une hypothèse, mais plutôt faible, sur un nouveau concept qui expliquerait la conscience. Il suggère que les effets quantiques observés dans les microtubules des cellules nerveuses pourraient être l'endroit où se crée la conscience au niveau cellulaire, avant de se combiner en fonctions de plus grande ampleur au niveau de l'organisme. Roger Penrose n'a pas dégagé une véritable théorie sur la façon dont tout cela pourrait fonctionner. En fait, il a juste suggéré que son hypothèse pouvait être un élément critique à prendre en compte pour parvenir à une compréhension plus globale de la conscience. Mais cette hypothèse reste assez faible : elle ne s'appuie pas sur autre chose que sur les connaissances actuelles en physique. Pour certains, elle peut avoir un intérêt parce qu'elle fait un pont entre une grande découverte en physique et une grande question de biologie, la nature de la conscience. David Chalmers2 a émis une hypothèse un peu plus solide comme autre voie à l'explication de la conscience. Il suggère qu'une nouvelle caractéristique, aussi importante que le spin* des particules élémentaires, pourrait être nécessaire pour expliquer la conscience. Ce serait un nouveau type de propriété physique des objets dans l'Univers, sujet à des lois de physique que nous ne comprenons pas encore. D'autres philosophes, naturalistes ou religieux, pourraient émettre l'hypothèse d'une entité plus indescriptible comme l'âme ou l'élan vital - la force vitale.
Cette découverte inimaginable aujourd'hui pourrait aussi venir des « nouvelles mathématiques ». Dans ce cas, on n'aurait pas besoin de trouver des phénomènes physiques inédits dans les organismes vivants. Peut-être que nous n'avons pas découvert une description mathématique fondamentale qui modéliserait ce qui se passe dans un organisme vivant et que, du coup, nous ne l'avons pas incluse dans nos modèles d'IA et de vie artificielle. Que pourraient être ces « nouvelles mathématiques » ? Il y a déjà eu plusieurs candidats comme la théorie des catastrophes, du chaos, des ondelettes et des systèmes dynamiques. Chaque fois qu'une de ces nouvelles techniques mathématiques sort du bois, des chercheurs étudient de quelle manière on pourrait l'appliquer à la compréhension du vivant et essaient de l'incorporer à leurs modèles informatiques. Mais on ne sait pas si ces techniques seront mieux utilisées comme des outils de description ou - ce qui est moins probable - comme des composants génériques. De toute façon, aucune de ces merveilleuses techniques n'a réellement soulevé un véritable espoir d'améliorer nos modèles. Si on s'intéresse à l'aspect physique du vivant, il semble qu'il y ait certaines propriétés mathématiques qui ne soient prises en compte par aucune de ces nouvelles techniques, ni aucun des modèles actuels. L'une de ces propriétés est que la matière qui constitue les organismes vivants obéit aux lois de la physique d'une manière qui est très coûteuse à simuler sur un ordinateur. Par exemple, les membranes des cellules ont une forme déterminée par la minimisation constante des forces entre les molécules à l'intérieur et à l'extérieur de la membrane. Une autre propriété - le fait que la matière ni n'apparaît ni ne disparaît dans le monde physique - est aussi très délicate à modéliser dans un programme informatique.

Pour tenter de mieux comprendre quelle est la nature de ce qui nous manque, nous pouvons faire une analogie avec l'invention de l'informatique. Pendant la majeure partie du XXe siècle, nous avons placé des électrodes dans le système nerveux des organismes vivants pour étudier les corrélations entre des signaux que l'on peut mesurer et les réactions qui se produisent dans d'autres parties de leurs corps. Ces données sont utilisées pour tester des hypothèses sur la façon dont l'organisme vivant calcule au sens large du terme. Imaginons une civilisation qui serait restée isolée pendant les cent dernières années et hors de portée de l'informatique. Si les scientifiques de cette civilisation sont mis en présence d'un ordinateur, seront-ils capables de comprendre ce qu'il fait alors qu'ils n'ont aucune notion d'informatique ? Ou bien est-ce que nos scientifiques isolés auraient besoin de réinventer la notion d'informatique avant de pouvoir comprendre ce que fait l'ordinateur ? Je suspecte fortement qu'ils y seraient contraints. Pourtant rien dans les théories mathématiques de Turing ou de Von Neumann n'avait à proprement parler un caractère déroutant. Un bon mathématicien de la fin du XIXe siècle pourrait les comprendre en quelques jours d'étude, sans être profondément surpris, comme le serait un physicien de la même époque confronté à la mécanique quantique et à la relativité.

Nouvelle mathématique. Mais revenons à l'inimaginable. Il pourrait exister un principe d'organisation, une notion mathématique dont nous aurions besoin pour comprendre vraiment le fonctionnement des systèmes perceptifs. Si c'est le cas, en la découvrant, nous pourrions alors construire des systèmes de vision artificiels capables de séparer des objets de leur arrière-plan, de comprendre les expressions du visage, de distinguer entre le vivant et l'inerte et de reconnaître tous les objets. Aucun des systèmes de vision artificielle actuels n'en est vraiment capable. Quelle forme pourrait prendre cette théorie mathématique ? Elle n'a pas besoin de perturber notre compréhension actuelle du vivant : elle pourrait être tout aussi peu dérangeante que la notion d'informatique, juste différente de tout ce que nous envisageons aujourd'hui. Peut-être que de nouveaux principes ou notions mathématiques, nécessaires pour comprendre vraiment tous les détails de l'évolution, de la cognition, de la conscience et de l'apprentissage seront découverts et inventés tout en continuant à laisser s'épanouir les sous-domaines que sont l'IA et la vie artificielle. Ou peut-être y aura-t-il une seule nouvelle idée mathématique qui unira ces deux domaines, et les fera beaucoup progresser tout en révolutionnant de multiples aspects de la recherche sur le vivant. Ce serait surprenant, délicieux et excitant. Evidemment, que cela arrive ou non est totalement imprévisible.

1 R. Penrose, Shadows of the Mind , Oxford University Press, New York, 1994.
2 S. Chalmers, Conscious Stud., 2, 200-219, 1995.

NOTES
*Un spin est une grandeur quantique des particules élémentaires.

SAVOIR
:
-P. McCorduck, Machines Who Think , Freeman, New York, 1979.
-C. Langton, Artificial Life , Addison-Wesley, 1989.


DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

 

 

 

 

 

 

 

LES TROUS NOIRS ET LA FORME DE L'ESPACE


La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.


Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet
Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.

Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien

Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).

Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.

Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !
Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.
Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.
Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !

La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.

Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.

Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).
Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.

Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.
Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.

Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.
COMMENTAIRES

AJOUTER UN COMMENTAIRE LIRE LES COMMENTAIRES
Alain MOCCHETTI 14/02/2018 00H09
QU'EST-CE QU’UN VORTEX ESPACE - TEMPS ET UN TROU DE VER ?
Un Vortex Espace – Temps ou Porte Spatio-Temporelle est un 4ème type de VORTEX qui permet de voyager à la fois dans l’Espace et dans le Temps :
- Voyager dans l’Espace en reliant un Univers Multiple à un autre,
- Voyager dans l’Espace en reliant un Univers Parallèle à un autre,
- Voyager dans l’Espace en reliant 2 points au sein du même Univers Multiple ou du même Univers Parallèle.
Il permet de voyager également dans le Temps :
- Du Futur vers le Passé,
- Du Passé vers le Futur.
Certains Vortex qui permettent de voyager dans l’Espace Temps sont appelés TROU DE VER.
Définition d’un Trou de Ver :
Un trou de ver est, en physique, un objet hypothétique qui relierait deux feuillets distincts ou deux régions distinctes de l'espace-temps et se manifesterait, d'un côté, comme un trou noir et, de l'autre côté, comme un trou blanc. Un trou de ver formerait un raccourci à travers l'espace-temps. Pour le représenter plus simplement, on peut se représenter l'espace-temps non en quatre dimensions mais en deux dimensions, à la manière d'un tapis ou d'une feuille de papier. La surface de cette feuille serait pliée sur elle-même dans un espace à trois dimensions. L'utilisation du raccourci « trou de ver » permettrait un voyage du point A directement au point B en un temps considérablement réduit par rapport au temps qu'il faudrait pour parcourir la distance séparant ces deux points de manière linéaire, à la surface de la feuille. Visuellement, il faut s'imaginer voyager non pas à la surface de la feuille de papier, mais à travers le trou de ver, la feuille étant repliée sur elle-même permet au point A de toucher directement le point B. La rencontre des deux points serait le trou de ver. L'utilisation d'un trou de ver permettrait le voyage d'un point de l'espace à un autre (déplacement dans l'espace), le voyage d'un point à l'autre du temps (déplacement dans le temps) et le voyage d'un point de l'espace-temps à un autre (déplacement à travers l'espace et en même temps à travers le temps). Les trous de ver sont des concepts purement théoriques : l'existence et la formation physique de tels objets dans l'Univers n'ont pas été vérifiées. Il ne faut pas les confondre avec les trous noirs, dont l'existence tend à être confirmée par de nombreuses observations, dont le champ gravitationnel est si intense qu’il empêche toute forme de matière de s'en échapper.

Alain Mocchetti
Ingénieur en Construction Mécanique & en Automatismes
Diplômé Bac + 5 Universitaire (1985)
UFR Sciences de Metz
alainmocchetti@sfr.fr
alainmocchetti@gmail.com
@AlainMocchetti

 

VIDEO     canal U       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon