|
|
|
|
 |
|
À la source des rayons cosmiques |
|
|
|
|
|
À la source des rayons cosmiques
Antoine Letessier-Selvon dans mensuel 424
daté novembre 2008 -
On inaugure ce mois-ci l'observatoire Auger, le détecteur le plus vaste jamais conçu. Ses premières observations éclairent déjà l'une des grandes énigmes de l'astrophysique : l'origine des particules cosmiques de très haute énergie.
Ce sont les particules les plus puissantes de l'Univers : leur énergie extrême dépasse les 1020, soit des centaines de milliards de milliards, électronvolts * eV. En comparaison, les particules étudiées dans les plus grands accélérateurs, y compris celles attendues au tout nouveau LHC à Genève, sont dix millions de fois moins énergétiques. Pourtant, le mystère entourant la nature et l'origine des « rayons cosmiques de très haute énergie », c'est ainsi qu'on les nomme, constitue l'une des grandes énigmes en astrophysique. D'où viennent-ils ? Que sont-ils ? Des protons, des noyaux d'atomes lourds, des particules exotiques ? Comment atteignent-ils des énergies aussi extrêmes ? Autant de questions qui restent ouvertes.
Particules secondaires
C'est pour tenter d'y répondre que le plus vaste observatoire astronomique du monde, l'observatoire Pierre-Auger, a été déployé dans la Pampa argentine, par 35º de latitude sud et 65º de longitude ouest, au pied de la cordillère des Andes. Sa construction vient de s'achever. Au final, c'est un ensemble de 1 600 capteurs et 24 télescopes répartis sur 3 000 kilomètres carrés, soit un quart de l'Ile-de-France, que l'on inaugure ce mois-ci. Pas moins de 450 physiciens de 17 pays participent à ce défi tant scientifique que technologique.
C'est que les rayons cosmiques de très haute énergie sont très rares puisque à peine un par siècle et par kilomètre carré atteint la surface de la Terre. De plus on ne les détecte pas directement : arrivés au sommet de l'atmosphère, ils interagissent violemment avec celle-ci et produisent une cascade de milliards de particules. Et ce n'est qu'à travers cette cascade de particules secondaires qui bombardent le sol que l'on peut espérer découvrir la nature et la provenance du rayon cosmique qui l'a déclenchée, ainsi que la source de son énergie extrême.
Revenons un instant sur la découverte de ces mystérieux messagers qui traversent l'Univers. En 1912, à bord de son ballon à hydrogène et à 5 000 mètres d'altitude, l'Autrichien Victor Hess découvre qu'un flux de particules chargées venu de l'espace pénètre l'atmosphère terrestre. Ensuite, en 1938, grâce à des détecteurs installés dans les Alpes, le Français Pierre Auger enregistre l'arrivée de particules simultanément à différents endroits : c'est la première observation d'une cascade atmosphérique de particules secondaires, nées de la collision de la particule initiale avec les molécules de l'atmosphère. Il évalue à 1015 eV, l'énergie de l'événement. C'est à l'époque le rayon cosmique le plus puissant connu. Le seuil de 1020 eV est dépassé en 1962 : le premier rayon cosmique de très haute énergie est en effet détecté par les capteurs d'un réseau déployé au Nouveau Mexique [1] .
Mais plus leur énergie est élevée, plus les rayons cosmiques sont rares. Et ces nouvelles données ne dissipent guère le mystère de leur origine. De nombreuses hypothèses sont avancées, mais aucune n'est satisfaisante.
En revanche, en 1966, les rayons cosmiques font l'objet d'une prédiction théorique très intéressante. L'existence d'un fond diffus cosmologique, héritage du premier rayonnement émis par l'Univers 380 000 ans après le Big Bang, vient d'être prouvée un an plus tôt. L'Américain Kenneth Greisen d'un côté et les Russes Georgiy Zatsepin et Vadim Kuz'min, de l'autre, remarquent que les rayons cosmiques doivent forcément interagir avec les photons de ce fond diffus. Or une telle interaction devrait réduire considérablement leur énergie. Ainsi des rayons cosmiques voyageant sur des distances intergalactiques ne devraient jamais dépasser les 60 X 1018 eV. Un seuil connu aujourd'hui sous le nom de limite « GZK ». Si cette prédiction est juste, une particule qui atteint la Terre avec une énergie supérieure à 60 X 1018 eV proviendrait d'une région relativement proche, c'est-à-dire située à moins de 500 millions d'années-lumière. Quand cette prédiction a été énoncée, aucune expérience n'était capable de la tester de manière fiable, et cela jusqu'au début des années 1990. Au milieu de cette décennie, deux expériences, très différentes dans leur principe, Fly's Eye aux États-Unis et Agasa au Japon, y parvinrent enfin. Mais leurs résultats étaient contradictoires. D'un côté Fly's Eye n'avait enregistré que quelques événements au-delà de 100 X 1018 eV dont un, record, dépassant les 300 X 1018 eV, ce qui est cohérent avec la limite GZK, étant donné que les sources susceptibles d'accélérer des particules à un tel niveau dans notre voisinage sont très rares. De l'autre, selon l'expérience Agasa, le spectre des rayons cosmiques semblait se prolonger sans changement notable, y compris aux énergies les plus hautes. Cette contradiction a provoqué un intense débat.
3 000 kilomètres carrés
D'autant plus qu'un autre point de désaccord existait entre les deux expériences. Agasa observait plusieurs agrégats de deux ou trois rayons cosmiques de 40 X 1018 eV provenant de la même direction, alors que Fly's Eye ne voyait rien de tel. Mais elles s'accordaient au moins sur une chose : aucune source astrophysique au voisinage de notre galaxie n'était visible dans la direction d'arrivée des rayons. Avec seulement une grosse dizaine d'événements détectés au-delà de 100.1018 eV, les chances d'avancer sur ces questions restaient cependant très minces. Seule une forte augmentation des mesures, et donc un dispositif bien plus étendu pouvaient donner l'espoir de lever ces contradictions. Jim Cronin, Prix Nobel de physique, et Alan Watson, de l'université de Leeds, ont alors entrepris d'explorer les moyens d'y parvenir.
En 1992, au cours d'une réunion à Paris sur le campus de Jussieu, les deux chercheurs présentent leur projet, le futur observatoire Auger. Les grandes lignes y sont édifiées. L'année suivante le concept hybride, qui associe les deux techniques de détection utilisées par Fly's Eye et Agasa au sein du même capteur, est mis au point. Et, en 1995, un document de 250 pages précise les objectifs scientifiques et les choix techniques pour la construction. Il décrit un observatoire constitué de deux dispositifs expérimentaux : un réseau de 1 600 capteurs Cherenkov lire « Des cuves par milliers », ci-dessous, répartis sur un maillage de triangles de 1,5 kilomètre de côté, couvre un total de 3 000 kilomètres carrés. Ce déploiement est nécessaire pour maximiser les chances d'enregistrer les particules d'une même cascade réparties sur de très grandes surfaces et remonter ainsi jusqu'au rayon cosmique initial. Ce réseau fonctionne en permanence. Un ensemble de 24 télescopes à fluorescence lire « Lumière fluorescente » ci-contre, installés sur 4 sites du maillage triangulaire, dont les mesures sont plus précises, permet de mieux calibrer l'ensemble des mesures. De plus mesurer le même phénomène par deux instruments différents aide à mieux comprendre les éventuels biais expérimentaux. Tel est le projet sur le papier.
Restait à le mettre en oeuvre, et pour cela satisfaire des critères exigeants et parfois contradictoires : par exemple, couvrir la plus grande surface possible sans pour autant effrayer nos agences de financement ; trouver un site au ciel pur, en altitude, loin de toute pollution, et néanmoins facile d'accès et riche en infrastructures ; et bien sûr convaincre une communauté scientifique internationale aussi large que possible sur un projet très risqué [2] .
Cette même année 1995, Ken Gibbs, de l'université de Chicago, et moi-même sommes partis à la recherche du site idéal avec un cahier des charges très précis. En novembre, l'Argentine est choisie pour accueillir l'observatoire lors d'une réunion fondatrice au siège de l'Unesco à Paris. Et le document final est remis aux agences de financement fin 1996 : le prix à payer s'élève à 50 millions de dollars.
27 événements
Trois ans plus tard, en 1999, le financement en grande partie assuré, la construction commence. Et après quatre ans d'installation, de tests et de validation de nos prototypes, une centaine de cuves sont opérationnelles. L'observatoire enregistre ses premières données exploitables début 2004. Il nous a donc fallu un peu plus de dix ans pour passer de l'idée d'un détecteur grand comme un département à sa réalisation. Mais nos efforts sont vite récompensés. Dès juillet 2005, les analyses préliminaires des premières données, présentées à la Conférence internationale sur les rayons cosmiques de Pune en Inde, prouvent la pertinence de l'observatoire Auger, avec un rythme de détection trente fois plus élevé que les expériences précédentes. Et, en novembre 2007, alors que l'installation du réseau de surface n'est pas encore achevée, les données accumulées suffisent déjà à publier dans le magazine Science des résultats remarquables [3] .
L'observatoire a alors détecté 27 événements d'énergie supérieure à 60 1018 eV, c'est-à-dire dépassant la limite GZK. Ces données et les plusieurs milliers d'enregistrements de rayons cosmiques de moindre énergie, mais tout de même au-dessus de 3 X 1018 eV, ont conduit à des observations fondamentales. En premier lieu, les 27 événements ne sont pas répartis au hasard sur le ciel : pour 20 d'entre eux, il existe dans un rayon de 3 degrés autour de leur direction d'arrivée une galaxie active située à moins de 300 millions d'années-lumière de la Terre, ce qui, à l'échelle de l'Univers, correspond à notre proche banlieue. Une galaxie dite « active » possède un noyau central extrêmement brillant - on parle d'un noyau actif de galaxie. Or, ces objets sont les sources de lumière stables les plus puissantes de l'Univers et le siège de phénomènes mettant en jeu des énergies gigantesques.
Cette découverte a des conséquences. Tout d'abord, elle démontre que l'origine des rayons cosmiques les plus énergétiques, bien que proche, se situe hors de notre galaxie. Ensuite, elle conforte l'une des hypothèses avancées quant au mécanisme qui leur confère une telle énergie. Celle selon laquelle les rayons cosmiques correspondraient à des particules chargées et au repos, accélérées par les champs électriques et magnétiques colossaux entourant certains objets ou phénomènes astrophysiques comme les trous noirs avaleurs de galaxies, les jeunes étoiles à neutrons ou les collisions de galaxies. Dans ces environnements, les particules en question seraient vraisemblablement des protons ou des noyaux de fer. La plupart des rayons cosmiques de très haute énergie seraient donc issus de sources astrophysiques dites proches, probablement des galaxies actives, ou, tout au moins, des objets ayant une distribution similaire dans le ciel. Un rayon angulaire de 3 degrés sur le ciel est en effet très vaste - pour fixer les idées, le diamètre de la pleine lune mesure 0,5 degré. De nombreux objets peuvent s'y trouver, et la proximité des galaxies actives ne suffit pas à les désigner comme les sources certaines des rayons cosmiques.
EN DEUX MOTS D'où viennent les rayons cosmiques, les particules les plus énergétiques qui nous parviennent de l'Univers ? Un observatoire a été déployé depuis 1999 dans la Pampa argentine pour les détecter. À peine achevé, il a déjà enregistré 27 rayons cosmiques dont l'énergie dépasse 60 X 1018 eV. Et ces rayons ne sont pas répartis au hasard. Au voisinage de chacun d'entre se trouve une galaxie active.
Prédiction vérifiée
La mesure du flux de rayons cosmiques en fonction de l'énergie apporte aussi un nouvel éclairage. Elle montre une chute brusque au-delà de 60 X 1018 eV, qui coïncide avec la limite GZK. Ainsi, avant même l'inauguration officielle de l'observatoire, la première collection d'événements commence non seulement à lever le voile sur l'origine de ces fameuses particules, mais apporte la première observation indiscutable de la limite GZK.
Une nouvelle fenêtre sur l'Univers vient de s'ouvrir. À l'instar de la lumière en astronomie classique, les rayons cosmiques très énergétiques pourraient faire figure de nouveaux messagers pour une astronomie alternative. La construction d'un observatoire encore plus grand dans l'hémisphère Nord pour couvrir l'ensemble du ciel, et l'extension de l'observatoire Auger dans le sud pour multiplier les événements détectés devraient nous y aider dans les cinq prochaines années.
[1] J. Linsley, Phys. Rev. Lett., 10, 146, 1963.
[2] M. Boratav, « Des scientifiques dans la pampa », La Recherche, novembre 1999, p. 46.
[3] The Pierre Auger Collaboration, Science, 318, 938, 2007.
NOTES
* Un électronvolt est l'unité d'énergie. Elle équivaut à 1,6 X 10-19 joule, soit l'énergie d'un électron soumis à une différence de potentiel de 1 volt.
CAPTEURS : DES CUVES PAR MILLIERS
LES CAPTEURS CHERENKOV sont des cuves de plastique, de 1,2 mètre de haut et 3 mètres de diamètre, remplies d'eau ultrapure . Les particules de la cascade atmosphérique provoquée par les rayons cosmiques produisent au contact de l'eau un rayonnement lumineux, appelé rayonnement Cherenkov. Ce rayonnement, très faible, est détecté par un ensemble de 3 photomultiplicateurs, sorte de tube cathodique fonctionnant à l'envers, qui transforme la lumière en électricité. Le signal électrique est alors daté grâce à une horloge synchronisée sur les horloges atomiques des satellites du Global Positioning System GPS, au dix milliardième de seconde près et numérisé. Chaque seconde, des milliers de particules traversent les cuves et laissent un petit signal. Seuls les enregistrements pertinents, c'est-à-dire ceux qui comptabilisent le plus de particules, sont stockés localement. Et, pour les vingt qui semblent les plus intéressants, l'heure d'occurrence est envoyée par radio au système central, situé à plusieurs dizaines de kilomètres. Après analyse et comparaison avec les autres enregistrements effectués sur le réseau au même instant, le système central demandera éventuellement l'enregistrement complet stocké par les cuves. C'est cette centralisation qui permet de découvrir a posteriori d'éventuelles corrélations à très grandes distances sur le réseau, et donc de reconstituer les cascades de particules.
OBSERVATION : LUMIÈRE FLUORESCENTE
LES TÉLESCOPES À FLUORESCENCE sont des instruments optiques de très haute sensibilité . Ils permettraient de détecter, à plus de 40 kilomètres, une ampoule de quelques dizaines de watts traversant le ciel à la vitesse de la lumière. Lors du développement de la cascade de particules dans l'atmosphère, les atomes d'azote sont ionisés, et leur désexcitation produit une lumière de fluorescence que détectent nos télescopes. Naturellement, de tels instruments ne peuvent pas fonctionner en plein jour, ni même lorsque la Lune est visible. Alors que le réseau de surface fonctionne 24 heures sur 24 et 365 jours par an, les télescopes ne recueillent des données que 10 % du temps. Mais ils donnent un accès plus direct à l'énergie de la particule incidente et sont donc indispensables pour étalonner l'ensemble du dispositif.
SAVOIR
Le site de l'observatoire Auger.
www.auger.org
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
L'ÉNERGIE NUCLÉAIRE |
|
|
|
|
|
L’ÉNERGIE NUCLÉAIRE
Consulter aussi dans le dictionnaire : nucléaire
Cet article fait partie du dossier consacré à l'énergie.
Énergie mise en jeu dans les transitions d'un niveau énergétique d'un noyau à un autre niveau énergétique et dans les réactions nucléaires ; dans un sens plus restreint, énergie libérée lors des réactions de fission ou de fusion nucléaires.
1. Une source d'énergie considérable
Les atomes sont constitués d'un noyau, assemblage de protons et de neutrons, autour duquel gravitent des électrons. L'énergie nucléaire correspond à l'énergie de liaison qui assure la cohésion des protons et des neutrons au sein du noyau. Cette énergie est effectivement libérée lors des phénomènes de fission ou de fusion. Elle est énorme par rapport à la masse de matière subissant la transformation. C'est ainsi que la fission d'un gramme d'uranium 235 produit autant d'énergie que la combustion de trois tonnes de charbon. Cette concentration de puissance est la caractéristique fondamentale de l'énergie nucléaire lorsqu'on la compare aux autres formes d'énergie.
L'énergie de fission est utilisée d'une part pour les usages civils, dans les réacteurs nucléaires, d'autre part pour les usages militaires dans les bombes atomiques, dites « bombes A », qui sont agencées pour que la libération d'énergie soit aussi brutale et complète que possible.
L'énergie de fusion est mise en œuvre pour les usages militaires dans la bombe à hydrogène, dite « bombe H », où la température nécessaire à l'amorçage de la réaction est obtenue par l'explosion d'une bombe atomique. Des recherches sont en cours pour réaliser des réacteurs thermonucléaires qui permettraient de produire industriellement de l'énergie (de l’électricité) pour les usages civils à partir des réactions de fusion (réacteur expérimental ITER).
L’identification des moyens permettant d'extraire l'énergie concentrée dans les noyaux atomiques a constitué un des principaux enjeux des recherches conduites par les physiciens dans la première moitié du xxe s. Après des essais préalables effectués sur des « piles » atomiques aux États-Unis en 1942 et en France en 1948, ces recherches ont abouti, dans le domaine civil, à un résultat majeur : la première production d'électricité grâce à l'énergie nucléaire, intervenue en 1951 sur un petit réacteur expérimental construit dans l'Idaho. Durant les années suivantes, les premières centrales nucléaires de taille dite « commerciale » ont vu le jour en ex-U.R.S.S., au Royaume-Uni, aux États-Unis et en France. Depuis lors, un développement technologique et industriel soutenu a fait de l'énergie nucléaire une des principales sources d'énergie utilisée dans le monde pour la production de courant électrique : en 2011 (avant la catastrophe de Fukushima), 440 réacteurs installés (et 67 en construction), répartis dans 31 pays et représentant une puissance installée de 2 518 TWh, ont fourni environ 13,5 % de l’électricité produite dans le monde. En 2013, la production mondiale d’électricité d’origine nucléaire n’est plus que de 11 %.
En Europe, 18 pays produisent de l’électricité nucléaire. La France, deuxième producteur mondial avec la moitié de la production étatsunienne, vient en tête. Suivent par ordre décroissant, la Russie, l’Allemagne (qui devrait stopper sa production en 2021), l’Ukraine, la Suède, le Royaume-Uni, l’Espagne, la Belgique, la Suisse, la république Tchèque, la Finlande, la Slovaquie, la Hongrie, la Bulgarie, la Lituanie, la Roumanie, la Slovénie et les Pays-Bas.
2. Les réactions nucléaires
Les réactions nucléaires étudiées en laboratoire sont le plus souvent induites par des particules provenant d'un accélérateur ou par les neutrons d'un réacteur. La première fut réalisée par Rutherford en 1919 grâce aux particules α émises par le radium :

.
Comme dans toute réaction nucléaire, il y a conservation de la charge, de l'énergie et du nombre de nucléons, mais une faible variation de masse. De telles transmutations d'un élément en un autre servent à produire le plutonium à partir de l'uranium, le tritium à partir du lithium et d’autres isotopes radioactifs à partir d'éléments stables.
2.1. La fission
La fission consiste en la cassure d'un noyau lourd en deux fragments plus légers sous l'impact d'un neutron. Spontanée ou provoquée, elle s'accompagne de l'émission de deux ou trois neutrons. Ces neutrons peuvent provoquer à leur tour la fission d'autres noyaux… et ainsi de suite dans une réaction en chaîne. Des atomes fissiles en quantité suffisante et agencés selon une géométrie particulière peuvent donner lieu à une réaction en chaîne se propageant si rapidement qu'elle conduit à une réaction explosive. C'est ce qui se produit dans les bombes atomiques. Dans le cas des centrales nucléaires, la proportion beaucoup plus faible de matière fissile et des dispositifs de régulation appropriés permettent de contrôler la réaction en chaîne et d'obtenir un dégagement d'énergie continu et prédéterminé.
De tous les atomes existant à l'état naturel, seul l'atome d'uranium, dans sa variété – ou isotope – uranium 235 est susceptible de subir la fission. L'uranium constitue ainsi le combustible de base des réacteurs nucléaires. D'autres éléments lourds, tel le plutonium, obtenu par transmutation de l'uranium, sont également susceptibles de fission. Le plutonium est utilisé dans les réacteurs dits « à neutrons rapides », ou surgénérateurs, et associé à de l’uranium dans les réacteurs à eau ordinaire (combustibles MOX).
2.2. La fusion
La fusion est l'autre forme de libération de l'énergie nucléaire. Elle correspond à l'agglomération de deux noyaux légers se fondant l'un dans l'autre pour former un noyau plus lourd.
À l'œuvre dans les étoiles, les réactions de fusion sont provoquées par l'agitation thermique des atomes portés à très haute température (plusieurs dizaines de millions de degrés). Les engins militaires dits « thermonucléaires » (bombes H) opèrent la fusion quasi instantanée de noyaux d'hydrogène dans une réaction explosive. Des recherches sont en cours pour tenter de maîtriser l'énergie de fusion dans une réaction contrôlée. Mais la faisabilité technologique d'un tel projet, qui permettrait d'accéder à une source d'énergie pratiquement inépuisable, reste à démontrer. C’est l’objet du réacteur expérimental ITER (International Thermonuclear Experimental Reactor), dont un prototype pourrait voir le jour à l’horizon 2050.
3. Les centrales nucléaires
Dans une centrale nucléaire, on utilise la chaleur dégagée par la fission de l'uranium pour produire de l'électricité. Ce principe de fonctionnement est identique à celui des centrales thermiques classiques dans lesquelles la chaleur provient de la combustion du charbon, du gaz ou du fioul.
3.1. Le processus de production d'électricité
Dans les réacteurs nucléaires à eau sous pression (REP), le modèle le plus répandu dans le monde, le processus de production d'électricité se déroule de la manière suivante : l'uranium, enrichi (dans une proportion de 3,5 à 4 %) en isotope 235, conditionné sous forme de petites pastilles, est enfermé dans des assemblages métalliques étanches baignant dans une cuve en acier remplie d'eau ordinaire. La chaleur intense dégagée par la fission des noyaux d'uranium porte les assemblages à haute température. À leur contact, l'eau de la cuve s'échauffe (à environ 300 °C) et, maintenue sous pression pour ne pas bouillir, circule en boucle dans un circuit fermé appelé circuit primaire. Par l'intermédiaire d'un générateur de vapeur, le circuit primaire communique sa chaleur à l'eau d'un autre circuit fermé : le circuit secondaire. L'eau se vaporise et la vapeur obtenue entraîne le groupe turboalternateur qui produit l'électricité. La vapeur est ensuite condensée à la sortie de la turbine, retransformée en eau et renvoyée dans le générateur de vapeur pour un nouveau cycle.
3.2. Le refroidissement
Le refroidissement de la vapeur sortant de la turbine est assuré par un condenseur, dans lequel circule de l'eau froide puisée à une source extérieure : fleuve ou mer. Dans certaines centrales, des tours de réfrigération, ou aéroréfrigérants, équipent le circuit de refroidissement, ce qui permet de diminuer les quantités d'eau prélevée à l'extérieur.
3.3. Architecture d'une centrale nucléaire
La cuve du réacteur, les trois ou quatre générateurs de vapeur qui y sont reliés, le pressuriseur ainsi que les tuyauteries du circuit primaire forment l'îlot nucléaire. Ces composants sont enfermés dans le bâtiment réacteur, enceinte cylindrique étanche en béton d'environ 75 mètres de hauteur et 50 mètres de diamètre. Le groupe turboalternateur est installé dans un bâtiment attenant.
L'ensemble formé par l'îlot nucléaire et son groupe turboalternateur constitue une tranche. Une centrale est généralement constituée du regroupement, sur le même site, d'au moins deux tranches.
3.4. Pilotage et exploitation
Le pilotage d’un réacteur s'effectue au moyen de barres de contrôle constituées de matériaux absorbant les neutrons. En enfonçant ces barres plus ou moins profondément dans la cuve du réacteur, au milieu des assemblages contenant l'uranium, on peut faire varier l'intensité de la réaction en chaîne et régler ainsi la puissance du réacteur au niveau souhaité. En cas d'urgence, des barres de sécurité chutent automatiquement, stoppant la réaction en chaîne ayant lieu au sein du réacteur. Ces opérations de pilotage et toutes celles qui concourent à la surveillance et à la conduite d'une tranche nucléaire sont effectuées depuis la salle de commande, à l'aide de systèmes largement automatisés et télécommandés. Pour assurer au quotidien l'ensemble des tâches d'exploitation d'une tranche, il faut en général entre 500 et 600 personnes.
3.5. L'uranium et le cycle du combustible
Métal très dense relativement abondant dans l'écorce terrestre, l'uranium doit à ses exceptionnelles capacités de fission d'être le combustible de base des centrales nucléaires. Avant et après son passage dans le réacteur, il fait l'objet d'un certain nombre de transformations et d'opérations au long d'un processus couramment appelé « cycle du combustible ». Extrait de la mine, l'uranium naturel est concentré sous forme de poudre, puis purifié et converti en un composé chimique adapté. Lorsqu'il est destiné aux centrales de la filière à eau ordinaire, il est légèrement « enrichi » (3,5-4 %) dans sa variété uranium 235, la seule capable de subir la fission. En effet, l’uranium 235 ne représente que 0,72 % de l’uranium naturel.
Les assemblages combustibles, dans lesquels l'uranium est conditionné, séjournent trois ou quatre ans en réacteur. Au terme de ce délai, le combustible « usé » contient encore 96 à 97 % de matières énergétiques : l'uranium ainsi que du plutonium formé lors des réactions nucléaires. Le retraitement permet de récupérer ces matières en vue de leur recyclage. L'uranium, issu du retraitement qui contient encore 0,85 % d'isotope 235, peut être ré-enrichi en économisant des services d’enrichissement très coûteux, pour fabriquer de nouveaux combustibles. Le plutonium pourra être recyclé sous forme d'oxyde, associé à de l'oxyde d'uranium pour fabriquer des combustibles mixtes (MOX).
Les déchets ou « produits de fission » restants sont traités et entreposés avant stockage définitif. (Si certains pays, dont la France, pratiquent le retraitement, d'autres stockent, en l'état, les assemblages combustibles usés sans en récupérer les matières énergétiques.)
3.6. Radioactivité et radioprotection
L'uranium, le plutonium et les produits de fission engendrés par les réactions nucléaires sont des éléments radioactifs. Il en résulte une contrainte majeure pour l'industrie nucléaire qui doit assurer, à tous les stades de ses activités, la protection des individus et de l'environnement contre les risques dus aux rayonnements (→ irradiation).
La radioactivité est un phénomène affectant certains types d'atomes instables. Pour acquérir une meilleure stabilité, ces atomes expulsent une partie de la matière et de l'énergie qu'ils contiennent. Les rayonnements issus des composés radioactifs revêtent des formes différentes – particulaire ou électromagnétique – selon le type d'atome subissant la transformation. Bien que la radioactivité soit une composante naturelle de l'environnement, des doses excessives de rayonnement – perturbant l'organisation et le fonctionnement des cellules – peuvent être gravement nuisibles à la santé des personnes. Manipulant de grandes quantités de matières radioactives, l'industrie nucléaire doit donc faire face à l'impératif de la radioprotection. Elle est organisée en conséquence selon des dispositions techniques, des procédures d'exploitation et des réglementations destinées à limiter l'exposition à la radioactivité des travailleurs et du public. Le système de surveillance de la radioprotection est assuré par l’Institut de radioprotection et de sûreté nucléaire (IRSN), entité indépendante du Commissariat à l’énergie atomique (CEA) depuis 2002.
3.7. La sûreté des centrales nucléaires
L'impératif essentiel que s'assignent les agences de la sûreté nucléaire est d'empêcher en toutes circonstances la dispersion vers l'extérieur de quantités excessives de produits radioactifs. En France, la sûreté nucléaire des sites est assurée par l’Autorité de sûreté nucléaire française (ASN) – et l’IRSN –, de manière indépendante du CEA depuis la loi relative à la transparence et à la sécurité en matière nucléaire (TSN) de 2006.
3.7.1. Les dispositifs de sûreté nucléaire
Cet objectif a conduit à une démarche globale de sûreté fondée sur la mise en place de plusieurs « lignes de défense » successives : la conception des centrales intègre les différentes hypothèses d'accident ainsi que les systèmes de sauvegarde capables d'y faire face ; l'exploitation des centrales en appelle à des procédures strictement définies et à des équipes hautement spécialisées ; les actions et interventions à engager en cas d'accident sont codifiées en détail dans des « plans d'urgence » qui doivent être régulièrement testés.
→ accident nucléaire.
Ces différentes préventions et parades, dont la combinaison est appelée « défense en profondeur », s'articulent autour d'un dispositif technique majeur destiné à empêcher la dispersion des produits radioactifs. Ceux-ci sont enfermés à l'intérieur de trois barrières de confinement superposées : les gaines de métal contenant le combustible nucléaire ; la cuve en acier du réacteur (prolongée par les tuyauteries du circuit primaire) ; l'enceinte en béton entourant l'îlot nucléaire. Ce dispositif, appelé à garantir l'étanchéité globale du système, équipe la quasi-totalité des centrales nucléaires de technologie occidentale.
3.7.2. Le bilan de sûreté des centrales nucléaires
À l'examen des données statistiques réunies depuis soixante ans, si le nombre des accidents graves entraînés par la production d'électricité nucléaire s'est révélé limité, leurs conséquences s'établissent à long terme et sur une échelle très large.
→ accident nucléaire.
L'accident de Tchernobyl a longtemps été qualifié d'exceptionnel. Les causes qui l'ont provoqué (modèle de réacteur au fonctionnement instable ; non-respect des procédures de sûreté ; absence d'enceinte de confinement destinée à empêcher la dispersion de produits radioactifs dans l'environnement) ne semblaient en tout cas pas transposables aux centrales de technologie occidentale exploitées selon les procédures appropriées. Mais l'accident de Fukushima survenu au Japon le 11 mars 2010, à la suite d'un tsunami, a montré la vulnérabilité de certaines installations, et surtout la défaillance à la fois de la compagnie d’électricité japonaise exploitant la centrale de Fukushima (TEPCO – Tokyo Electric Power Company) dans sa gestion de la catastrophe et de l’agence de sûreté japonaise. Ces accidents montrent les limites de la sûreté de ce type de centrales nucléaires qui nécessitent, a minima, une absolue vigilance à toutes les étapes de leur fonctionnement, des contrôles de sûreté accrus et des autorités de contrôle indépendantes pour éviter tout conflit d’intérêt.
D’autres types de réacteurs, dits de quatrième génération, moins polluants et plus sûrs, sont actuellement à l’étude dans le cadre du Forum international génération IV, tels que les réacteurs à sels fondus ou les réacteurs à neutrons rapides de type Superphénix et dont un nouveau prototype français, baptisé Astrid, est prévu à l’horizon 2020. Toutefois, il est important de noter que l’éventuel déploiement d’une filière de réacteurs de quatrième génération n’est possible que si les réacteurs de générations II et III se déploient considérablement au préalable de manière à disposer de suffisamment de combustible (notamment de plutonium).
Pour en savoir plus, voir l'article risques naturels et technologiques.
3.8. Énergie nucléaire et environnement
Dans le cours normal de leur exploitation, les centrales nucléaires et les installations du cycle du combustible rejettent dans l'environnement des effluents liquides ou gazeux. Les réglementations nationales fixent des limites impératives aux quantités de rejets autorisés afin de maintenir à des niveaux acceptables les nuisances potentielles qu'ils représentent.
Ces rejets sont de nature thermique, chimique et radioactive.
3.8.1. Les rejets thermiques
Les rejets thermiques sont dus à l'eau des circuits de refroidissement qui est restituée, légèrement échauffée, au fleuve ou à la mer. Il en résulte une augmentation de quelques degrés de la température du milieu aquatique aux abords du site. Dans certains cas, ces rejets s'effectuent aussi dans l'atmosphère par l'intermédiaire de tours de refroidissement.
3.8.2. Les rejets chimiques
Les rejets chimiques, constitués de sodium, chlorures, sulfates, résultent des opérations de déminéralisation de l'eau des circuits de la centrale. Leur impact sur la faune et la flore aquatiques est négligeable.
3.8.3. Les rejets radioactifs
Les rejets radioactifs, liquides ou gazeux, en provenance des circuits d'épuration et de filtration de l'installation font l'objet d'une surveillance particulière. Les quantités de rejets autorisés sont fixées à des niveaux très largement inférieurs aux seuils de risques. En France, ces rejets représentent moins de 1 % de la radioactivité naturelle et n'entraînent pas de nuisance mesurable sur la santé des populations et sur l'environnement.
En fonctionnement normal, une caractéristique écologique majeure des installations nucléaires est de ne provoquer aucune pollution de l'atmosphère, contrairement aux centrales électriques à combustibles fossiles qui rejettent de grandes quantités de poussières, de gaz à effet de serre et autres produits polluants (gaz carbonique, oxydes de soufre et d'azote, etc.). Cependant, les nuages radioactifs (iode 131, césium 137) qui ont résultés des catastrophes nucléaires de Tchernobyl et de Fukushima ont mis en lumière les risques pour la santé (→ irradiation) et pour l'environnement (à l’échelle planétaire dans le cas de Tchernobyl). Enfin, le problème des déchets nucléaires produits lors de la fabrication d'énergie est matière à débat.
3.9. Énergie nucléaire et santé
En temps normal, la radioactivité est confinée à l’intérieur des centrales. Les populations vivant à proximité de ces dernières sont exposées à une radioactivité négligeable, d’environ 0,002 à 0,004 Sv (sievert)/an. À titre de comparaison, la radioactivité naturelle (émise par les sols, les roches et l’atmosphère) s’élève – en France – à 2,5 mSv par an en moyenne, tandis que l’exposition à la radioactivité artificielle (médicale principalement) est estimée à 1,16 mSv par an (soit une exposition totale de 3,66 mSv annuels). → radioactivité
La législation française veut que l'exposition du personnel travaillant dans les centrales nucléaires ne dépasse pas les limites sanitaires fixées par les principes de radioprotection du Code de la santé publique (à savoir, pour le corps entier, 20 mSv maximum sur douze mois consécutifs). Le dosage de la radioactivité à laquelle une personne est soumise est effectué par des instruments appelés dosimètres.
En cas d’incident ou d’accident nucléaire, les risques pour la santé des personnels et des populations sont fonction de l’ampleur et de la localisation de l’événement, ainsi que du type de rayonnement émis (tous n’ont pas les mêmes effets sur les tissus vivants).
4. Les déchets nucléaires
L'innocuité des centrales nucléaires vis-à-vis de l'atmosphère a une contrepartie négative : la présence, à la fin du cycle de production, de résidus solides radioactifs constitués par les « cendres » de combustion de l'uranium et par divers objet et matériels contaminés. Bien que de volume réduit, ces déchets sont la contrainte écologique majeure que doit gérer l'industrie nucléaire. Niveau de radioactivité et « durée de vie » déterminent trois grandes catégories de déchets (« A », « B », « C ») qui font l'objet en France d'une gestion spécifique du point de vue de leur traitement, de leur conditionnement, de leur entreposage et de leur stockage.
4.1. Les déchets à vie courte (déchets « A »)
Environ 90 % des déchets nucléaires voient leur radioactivité décroître assez rapidement avec le temps. Compactés et conditionnés dans des fûts de métal ou de béton, ils sont stockés en surface dans des cases étanches et deviendront pratiquement inoffensifs au bout de 200 à 300 ans.
4.2. Les déchets à vie longue (déchets « B » et « C »)
Environ 10 % des déchets nucléaires sont à vie longue. Ceux qui présentent une radioactivité faible ou moyenne (déchets « B ») sont compactés et entreposés sur leur lieu de production. Les déchets très radioactifs ou « produits de fission » (déchets « C ») récupérés lors du retraitement des combustibles usés sont vitrifiés, enfermés dans des conteneurs en acier et entreposés dans des puits spécialement aménagés en attendant un stockage définitif. Même si la radioactivité de ces déchets diminue avec le temps, leur longue durée de vie impose de leur trouver un confinement sûr pendant des milliers d'années. Un assez large consensus existe entre experts pour considérer comme une solution adaptée l'enfouissement en profondeur de ces déchets, dans des entrepôts de stockage aménagés à plusieurs centaines de mètres sous la terre, dans des couches géologiques stables et imperméables. Une autre option possible est celle d'un stockage réversible, en sub-surface, ce qui permettrait la récupération future de ces déchets dans le cas où l'on découvrirait un procédé permettant leur complète neutralisation.
En France, l’option d’un stockage en profondeur sous le territoire de la commune de Bure dans la Meuse a été privilégiée dans le cadre de la loi Bataille relative aux recherches sur la gestion des déchets radioactifs de haute activité. Selon l’ANDRA, le coût d’un site comme celui du site de Bure est actuellement estimé à 35 milliards d’euros (pour l’ensemble du parc électronucléaire français actuel jusqu’à fin de vie du parc, c’est-à-dire environ 40-45 ans).
5. Le programme nucléaire français
Engagé dans les années 1950 et massivement relancé en 1974, un programme d'équipement méthodique a fait de la France la deuxième puissance nucléaire « civile » du monde après les États-Unis, et la première au regard de la part occupée par le nucléaire dans la production d'électricité (78 %). Fondées sur une technologie d'origine américaine progressivement et complètement francisée, les centrales exploitant des réacteurs de type à « eau sous pression » (REP) ont été construites en séries standardisées correspondant à trois paliers différents de puissance (900 MW, 1 300 MW, 1 450 MW).
Les cinquante-huit tranches en service ont démontré une fiabilité technique satisfaisante et une bonne disponibilité. Ce parc électronucléaire a permis une amélioration spectaculaire de l'indépendance énergétique du pays ainsi qu'un abaissement d'environ 25 % du coût de revient du kilowattheure. Par ailleurs, grâce à une forte activité exportatrice, l'industrie nucléaire s'est révélée un facteur déterminant de la consolidation de la balance commerciale française.
Suivant cet argument économique, la France a réaffirmé en 2004 sa politique énergétique basée sur le nucléaire en décidant la construction d’un nouveau type de réacteur, dit de troisième génération : l’EPR (European Pressurized water Reactor). D’une puissance de 1 650 MW, ce réacteur présente des caractéristiques de sûreté accrues et une consommation d’uranium plus faible (15 % en moins) que les réacteurs REP.
6. L'avenir du nucléaire
De la fin des années 1980 au début des années 2000, le développement nucléaire mondial marque un premier ralentissement, dû notamment aux craintes ravivées par l'accident de Tchernobyl. Certains scénarios prospectifs prévoyaient cependant son redémarrage à plus long terme, lorsque, face à une demande énergétique en constante augmentation, les opinions et les gouvernements prendraient conscience de la nécessité d'économiser les combustibles fossiles et de restreindre plus sévèrement le dégagement des gaz à effet de serre responsables du changement climatique ; l'énergie nucléaire pourrait alors être relancée, à condition qu'elle fournisse le gage incontestable de sa sûreté de fonctionnement et de sa compétitivité économique. Au début des années 2000 s'est manifesté, au plan mondial, un nouvel intérêt pour les réacteurs électrogènes, qu’il s’agisse des réalisations (réacteurs de troisième génération) ou des études prospectives (réacteurs de quatrième génération). Cependant, la catastrophe de Fukushima de 2010 a entièrement remis en cause cet intérêt, notamment en Allemagne où l’arrêt du nucléaire est prévu pour 2022. Toutefois, le cas de l’Allemagne est finalement assez isolé à l’échelle mondiale, puisque les États-Unis, la Russie et les grands pays émergents que sont la Chine, l’Inde et le Brésil – et même probablement le Japon à moyen terme – ont plutôt tendance à développer leur parc électronucléaire
DOCUMENT larousse.fr LIEN
|
|
|
|
|
 |
|
LUMIÈRE |
|
|
|
|
|
PLAN
* LUMIÈRE
* OPTIQUE
* 1. Historique de la notion de lumière
* 1.1. Les conceptions antiques et médiévales de la lumière
* 1.2. Les premières théories scientifiques de la lumière
* 1.2.1. La lumière selon Descartes, Huygens et Malebranche
* 1.2.2. La lumière selon Newton
* 1.3. L'optique moderne
* 1.4. La conception quantique de la lumière
* 2. Sources et récepteurs de lumière
* 2.1. Les sources primaires de lumière
* 2.2. Les sources secondaires et la diffusion de la lumière
* 2.3. Les récepteurs de lumière
* 3. Propagation de la lumière
* 3.1. Diffusion et réflexion de la lumière
* 3.2. Absorption et réfraction de la lumière
* 4. Interaction lumière-matière
* 4.1. Niveaux d’énergie des atomes
* 4.2. Émission ou absorption d’une radiation par un atome
* 5. Spectres lumineux
* 5.1. Les spectres d’émission
* 5.2. Les spectres d’absorption
* 6. La vitesse de la lumière
* 7. Applications de la lumière
* BOTANIQUE
Voir plus
lumière
(latin ecclésiastique luminaria, du latin classique lumen, -inis)
Cet article fait partie du dossier consacré à la lumière.
Rayonnement électromagnétique dont la longueur d'onde, comprise entre 400 et 780 nm, correspond à la zone de sensibilité de l'œil humain, entre l'ultraviolet et l'infrarouge.
OPTIQUE
1. Historique de la notion de lumière
1.1. Les conceptions antiques et médiévales de la lumière
La théorie de la lumière a introduit, tout au long de l'histoire des sciences, un questionnement fondamental sur la nature des objets que la physique étudie : ondes ou particules ? Dans les premières descriptions mythiques du monde, la lumière est une sorte de « brume claire », opposée à la « brume sombre » des ténèbres qui, le soir, montent du sol. Puis les Grecs commencent à s'interroger sur la nature physique du monde. Parménide, remarquant que la partie brillante de la Lune est toujours tournée vers le Soleil, en déduit que la lumière vient du Soleil, c'est-à-dire qu'elle se déplace. Les ténèbres, elles, sont une absence de lumière. La propagation de la lumière est expliquée par l'émission de petites particules, conception qui sera largement développée au Moyen Âge. Pour Aristote, les couleurs résultent d'un mélange de lumière et d'obscurité.
1.2. Les premières théories scientifiques de la lumière
1.2.1. La lumière selon Descartes, Huygens et Malebranche
René Descartes, Discours de la méthode
Au début du xviie s., avec R. Descartes, s'amorce vraiment une théorie scientifique de la propagation de la lumière. Si Descartes conçoit la lumière comme un ébranlement d'une matière subtile se transmettant instantanément, donc avec une vitesse infinie et sans transport de matière, on rencontre aussi chez lui une conception corpusculaire. Ces idées seront reprises et améliorées par deux théories longtemps rivales : la théorie ondulatoire et la théorie corpusculaire.
La première ne reçoit un véritable développement scientifique qu'avec C. Huygens. Selon celui-ci, chaque point d'une surface lumineuse émet une onde sphérique qui se propage à une vitesse finie dans un milieu non vraiment matériel, l'éther, d'une manière analogue au son. Huygens explique ainsi les phénomènes de réflexion de la lumière, de réfraction (déviation d'un rayon lumineux lors de son passage d'un milieu à un autre), etc. (→ optique). Toutefois, sa théorie ondulatoire ignore les notions de fréquence et d'amplitude des vibrations lumineuses et donc n'explique ni la diversité des couleurs, ni les phénomènes d'interférence, ni la propagation rectiligne de la lumière.
Au début du xviiie s., N. de Malebranche, partisan lui aussi de la théorie ondulatoire présente une conception plus précise des vibrations lumineuses de l'éther et de leur fréquence qu'il distingue de leur amplitude, ce qui le conduit à la reconnaissance de la diversité continue des couleurs. Mais, pour lui, comme pour Huygens, la vibration est longitudinale.
1.2.2. La lumière selon Newton
La théorie de la lumière d'I. Newton est mixte, bien qu'y domine l'explication corpusculaire, qui sera la source d'une vive polémique avec R. Hooke, défenseur de la pure théorie ondulatoire. Pour Newton, la lumière est constituée par des corpuscules qui se déplacent dans l'éther à une vitesse finie, où ils produisent des vibrations. Comme Malebranche, il introduit la notion de fréquence variant avec les couleurs, mais, à la différence de celui-ci, il ne la distingue pas clairement de l'amplitude des vibrations. Cette fréquence est expliquée par la variation du comportement des corpuscules durant leur parcours, et la diversité des couleurs, par des différences de taille des corpuscules. La théorie corpusculaire de Newton rend bien compte de la propagation rectiligne de la lumière, mais ce n'est que par des raisonnements mécaniques imaginatifs et peu scientifiques qu'il explique la diffraction (phénomène typiquement de nature ondulatoire).
1.3. L'optique moderne
C'est seulement au début du xixe s., avec T. Young, qu'est introduit le principe fondamental d'interférences des ondes lumineuses, au cours de l'expérience dite des « fentes de Young », qui constitue une preuve patente du caractère ondulatoire de la lumière. Cette théorie ne sera vraiment développée que par A. Fresnel, qui substitue, le premier, la vibration transversale à la vibration longitudinale. Toutefois, à la même époque, de nombreux savants demeurent attachés à la théorie corpusculaire, principalement Laplace et J.-B. Biot, qui la défendent sur la base de la mécanique newtonienne. Mais, lorsque les mesures de H. Fizeau (1849) et de L. Foucault (1850) démontrent, ainsi que l'avait prévu Fresnel, que la lumière se propage plus vite dans l'air que dans l'eau, la théorie corpusculaire, qui affirmait le contraire, est abandonnée.
En 1865, J. C. Maxwell établit la nature électromagnétique de la lumière, théorie que H. A. Lorentz développe à la fin du xixe s., démontrant notamment que l'on peut expliquer la réflexion et la réfraction par les théories électromagnétiques de Maxwell.
1.4. La conception quantique de la lumière
Avec la découverte du photon et l'interprétation de l'effet photoélectrique par A. Einstein en 1905, et avec la mécanique ondulatoire de L. de Broglie en 1924, qui associe onde et corpuscule, les deux théories – corpusculaire et ondulatoire – se trouvent « réconciliées », mais sous un mode qui les modifie l'une et l'autre. Comme toute révolution scientifique, celle-ci entraîne un dépassement des théories précédentes. Aujourd'hui, dans le cadre de la physique quantique, le photon n'est plus ni une onde ni une particule mais un quanton, objet d'étude de la théorie quantique. Cependant, lorsque celle-ci peut être approchée par la théorie classique, un quanton manifeste un comportement soit corpusculaire (effet photoélectrique), soit ondulatoire (interférences lumineuses). La théorie quantique relie les aspects corpusculaire et ondulatoire de la lumière par la relation E = hν = hc/λ (l'énergie d'un photon E est proportionnelle à la fréquence ν de l'onde (ou inversement proportionnelle à la longueur d'onde λ) qui lui est associée, h étant la constante de Planck dont la valeur est 6,626 176 × 10−34 J s et c la célérité de la lumière).
2. Sources et récepteurs de lumière
Les grandeurs photométriques (relatives à la lumière) usuelles sont l'intensité lumineuse, le flux lumineux, la luminance et l'éclairement, les unités correspondantes étant la candela, le lumen, la candela par mètre carré et le lux.
2.1. Les sources primaires de lumière
Les sources primaires produisent de la lumière par elles-mêmes en convertissant de l’énergie (chimique pour les bougies, électrique pour les lampes, nucléaire pour les étoiles) en énergie lumineuse.
2.2. Les sources secondaires et la diffusion de la lumière
Les sources secondaires sont des objets éclairés qui renvoient dans toutes les directions une partie de la lumière qu’ils reçoivent (la Lune, les planètes, les objets qui nous entourent) : on dit que la lumière est diffusée par l’objet. Seuls les objets totalement noirs ne réfléchissent pas de lumière.
2.3. Les récepteurs de lumière
L’œil humain est un récepteur de lumière particulièrement sophistiqué : il s’adapte aux conditions de luminosité, permet de voir de près comme de loin et distingue les couleurs. Mais il en existe de plus simples comme la pellicule d’un appareil photo (photographie) qui convertit la lumière en énergie chimique, ou une cellule photoélectrique qui convertit la lumière en signal électrique (→ capteur, CCD).
Pour en savoir plus, voir les articles œil [zoologie], vision [zoologie], vision [médecine].
3. Propagation de la lumière
Le trajet de la lumière dans un milieu peut être représenté par un segment de droite appelé rayon lumineux. La lumière se propage en ligne droite dans les milieux homogènes (les milieux qui ont la même composition en tout point) ; si le milieu est également transparent (comme l’eau, l’air, le verre, etc.), la lumière se propage en ligne droite sans être atténuée, ou très peu. Néanmoins, l'intensité lumineuse par unité de surface diminue avec le carré de la distance à la source. Lorsque la lumière rencontre un corps, elle est absorbée, réfléchie ou transmise (l'un des cas n'excluant pas les autres).
3.1. Diffusion et réflexion de la lumière
Lorsqu’elle rencontre un objet, la lumière est partiellement diffusée par cet objet (qui devient une source secondaire de lumière) : c’est la réflexion de la lumière. La lumière réfléchie par une surface irrégulière est renvoyée dans toutes les directions. Certaines fréquences sont réfléchies plus fortement que d'autres, donnant ainsi aux objets leur couleur caractéristique. Les surfaces blanches réfléchissent la lumière de façon égale pour toutes les longueurs d'onde ; les surfaces noires absorbent pratiquement toute la lumière.
3.2. Absorption et réfraction de la lumière
L’autre partie du rayon lumineux est absorbée par l’objet. Si l’objet est opaque, la lumière absorbée ne peut traverser l’objet. Si l’objet est translucide ou transparent, une partie de la lumière absorbée traverse l’objet en changeant généralement de direction : c’est la réfraction de la lumière. C’est la raison pour laquelle il est difficile de déterminer l’emplacement exact d’un objet plongé dans l’eau : il semble plus proche de la surface qu’il ne l’est vraiment, du fait de la réfraction des rayons lumineux.
4. Interaction lumière-matière
4.1. Niveaux d’énergie des atomes
Au début du xxe siècle, la physique quantique transforme radicalement la vision que l'on a jusque-ici de l'énergie ainsi que de la matière. En effet, dans un atome, les électrons gravitent autour du noyau. Chaque électron possède une énergie qui est d’autant plus faible qu’il se trouve proche du noyau. Par définition, l’énergie de l’atome est égale à la somme des énergies de tous ses électrons. Ainsi, l’énergie qui était jusque-ici considérée comme une grandeur continue, devient discontinue à l’échelle atomique : Niels Bohr parle de quantification de l’énergie des atomes dès 1913.

Niveaux d'énergie d'un atome
Pour représenter les différents niveaux d’énergie associés à un atome, on utilise un diagramme avec un axe vertical où sont spécifiés les niveaux d’énergie associés à l’atome : l’état de plus basse énergie est appelé état fondamental ; les états d’énergie supérieurs sont des états excités. À chaque état est associé une énergie (notée E) : l’atome ne peut prendre que des niveaux d’énergie bien déterminés (E1, E2, E3, E4…).

4.2. Émission ou absorption d’une radiation par un atome
Pour passer d'un niveau d'énergie à un autre, un atome doit absorber un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité et l’énergie de l’état fondamental. Si l’énergie du photon est supérieure ou inférieure à la différence d’énergie, l’atome ne peut pas absorber le photon et reste dans son état d’énergie fondamental :

Prenons l’exemple de la transition entre le niveau 1 (fondamental) et le niveau 2. Pour être absorbé, le photon doit avoir une énergie E strictement égale à la différence entre E2 et E1 :
E = E2 – E1 = hν, soit E = ΔE = hν.
Tous les photons qui ne possèdent pas cette énergie ne pourront pas être absorbés par l’atome et la transition de niveaux d’énergie ne se fera pas.
Inversement, un atome (ou une molécule) excité(e) retourne à son état fondamental (ou à un état d’énergie inférieur) en émettant un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité de départ et l’énergie de l’état fondamental (ou d’un état d’énergie inférieur).
5. Spectres lumineux
Produite par incandescence ou par luminescence, la lumière est généralement composée d'une infinité de radiations de longueurs d'onde (ou de fréquences) différentes, dont l'ensemble constitue le spectre lumineux. Le spectre d’une lumière peut être obtenu en décomposant cette lumière à l’aide d’un prisme. Lors de la traversée du prisme, la lumière est déviée par réfraction. Chaque radiation lumineuse constituant la lumière est déviée différemment selon sa longueur d’onde, formant ainsi le spectre de cette lumière.
5.1. Les spectres d’émission
En fonction de la source lumineuse, le spectre d’émission sera continu pour des solides et des liquides chauffés (le filament d’une lampe par exemple) ou discret (spectre de raies) pour des gaz portés à haute température (une lampe à vapeur de mercure par exemple). Les raies d’émission sont caractéristiques des éléments chimiques présents dans le gaz.
Si le spectre obtenu est constitué de plusieurs radiations lumineuses, il s’agit d’une lumière polychromatique (lumière émise par une lampe à incandescence par exemple). En revanche, si la lumière n’est constituée que d’une seule radiation lumineuse, il s’agit alors d’une lumière monochromatique (lumière émise par un laser par exemple).
5.2. Les spectres d’absorption
Spectres d'absorption et d'émission
L'étude d'un spectre (spectrométrie) renseigne ainsi non seulement sur la nature chimique de la source, mais aussi sur la nature du milieu traversé par la lumière, qui absorbe certaines radiations. Le spectre de la lumière ayant traversé ce milieu est appelé spectre d’absorption : les raies noires représentent les radiations absorbées. Elles sont caractéristiques des éléments chimiques présents dans le gaz. Le spectre d’absorption et le spectre d’émission d’un même élément chimique sont complémentaires (voir les spectres d’absorption et d’émission du mercure). En effet, les raies d’absorption et d’émission d’une même espèce chimique ont la même longueur d’onde : un élément chimique absorbe les radiations qu’il est capable d’émettre.
Par exemple, l’analyse du spectre de la lumière provenant du Soleil a permis d’identifier les éléments chimiques présents dans l’atmosphère solaire : toutes les raies noires observées correspondent aux radiations absorbées par les atomes présents. Cette analyse, réalisée dès 1814 par J. von Fraunhofer, puis complétée successivement par R. Bunsen et G. Kirchhoff (en 1851) a permis de trouver les éléments chimiques responsables des raies noires du spectre solaire (476 raies au total). En particulier, ces travaux ont mené à la découverte en 1868 d’un élément chimique encore inconnu à cette époque sur Terre : l’hélium. Cette méthode d’analyse spectroscopique est encore utilisée pour étudier l’atmosphère des étoiles.
6. La vitesse de la lumière
La lumière se déplace à une vitesse finie. Par exemple, la lumière émise à la surface du Soleil met environ 8 minutes pour parvenir jusqu'à nous, autrement dit elle se déplace à une vitesse d'environ 300 000 kilomètres par seconde dans le vide. À l’échelle humaine, cette vitesse est vertigineuse – les sondes spatiales envoyées dans l’espace ne se déplacent qu’à environ 20 km/s ; mais à l’échelle de l’Univers, elle devient « manipulable » : il faut par exemple 4 ans à la lumière de l'étoile la plus proche du Soleil (Proxima Centauri) pour nous parvenir et plus de 2 millions d'années pour celle émanant de la galaxie d'Andromède…
La vitesse (ou célérité) de la lumière dans le vide est une constante fondamentale de la physique : c = 299 792 458 m/s. Le premier à montrer expérimentalement que la lumière se déplace à une vitesse finie fut l'astronome O. Römer, en 1676, à partir d'observations des éclipses de certains satellites de Jupiter réalisées à l'Observatoire de Paris. Les premières déterminations précises de la vitesse de la lumière ont été effectuées au xixe s. par H. Fizeau (1849) et L. Foucault (1850). En 1887, les physiciens américains A. Michelson et E. Morley réalisèrent une expérience qui fit date dans l’histoire des sciences : leur objectif était de comparer par interférométrie la vitesse de la lumière se propageant dans le sens de révolution de la Terre et perpendiculairement à ce mouvement, de manière à mettre en évidence l’existence de l’éther dans lequel était censée se déplacer la lumière (comme le son dans l’air). Les résultats de l’expérience de Michelson-Morley permirent d’affirmer que la vitesse de la lumière était la même dans toutes les directions. Cette invariance de la vitesse de la lumière fut interprétée par certains physiciens comme une preuve de l’inexistence du fameux éther. En 1905, A. Einstein interpréta cette expérience dans le cadre de sa théorie de la relativité restreinte : la vitesse de la lumière est indépendante du référentiel, c’est une constante universelle de la physique.
Ainsi, quand une source de lumière s'approche ou s'éloigne, la lumière qui parvient à l'observateur a toujours la même vitesse, mais sa fréquence augmente ou diminue : c’est l’effet Doppler-Fizeau. Cet effet permet notamment de mesurer la vitesse d'éloignement des galaxies dans l'Univers (mesure de décalage vers le rouge ou redshift en anglais).
→ expansion de l'Univers.
Par ailleurs, si la vitesse de la lumière c est invariante dans le vide, elle décroît dans les milieux matériels, ce qui se manifeste par un changement de l'indice de réfraction (noté n) en fonction du milieu (n = c/v, où v est la vitesse de la lumière dans le milieu considéré). Par exemple, la vitesse de la lumière est d’environ 225 000 km/s dans l’eau, de 200 000 km/s dans le verre, le diamant à 125 000 km/s, etc. De plus, l’indice de réfraction (et donc la vitesse) dépend également de la longueur d'onde de la lumière : le bleu est plus dévié que le rouge… Ceci explique la dispersion de la lumière blanche dans un prisme ou dans les gouttes d'eau d'un arc-en-ciel.
Enfin, la vitesse de lumière (et l’indice de réfraction) dépend également de la température du milieu traversé : par exemple, dans l’expérience réalisée en 2000 par Lene Hau (université de Harvard, États-Unis), la vitesse de la lumière traversant un condensat de Bose-Einstein (milieu particulier dans lequel les atomes sont refroidis à une température très proche du zéro absolu, environ –273 °C) a été ralentie à 1,5 km/h.
7. Applications de la lumière
L'énergie du rayonnement lumineux peut être convertie en énergie thermique (fours solaires, effet de serre, etc.), en énergie chimique (photosynthèse, réactions photochimiques utilisées en photographie argentique) et surtout en énergie électrique (cellules photoélectriques, photopiles). L’énergie solaire constitue d’ailleurs une source d’énergie renouvelable intéressante pour répondre au défi énergétique de cette fin de siècle, en raison de l’épuisement rapide des énergies fossiles.
Par ailleurs, la lumière peut être amplifiée et rassemblée en un étroit faisceau dit cohérent, formant la lumière laser, utilisée dans l’ensemble des domaines de la recherche fondamentale (médecine, astrophysique, métrologie, etc.) ainsi que dans l’industrie (lecture de DVD ou de code-barres, découpe de matériaux, armement, etc.).
BOTANIQUE
Influence de la lumière sur la floraison
Comme source d'énergie, la lumière est absorbée principalement au niveau des feuilles (photosynthèse). La lumière verte seule n'est pas absorbée, mais réfléchie, d'où l'aspect vert des feuilles. Comme stimulus efficace, la lumière favorise la germination de certaines espèces et gêne celle d'autres espèces, ralentit la croissance des tiges, faisant s'incliner l'axe vers le côté le plus éclairé (phototropisme), règle l'ouverture des stomates foliaires et gouverne par sa durée la date de la floraison (photopériodisme).
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
L'inimaginable chaînon manquant |
|
|
|
|
|
L'inimaginable chaînon manquant
Rodney Brooks dans mensuel 350
daté février 2002 -
Ni l'intelligence artificielle ni la vie artificielle n'ont réellement réussi jusqu'à présent à concevoir des robots autonomes capables de simuler des organismes vivants. Il se pourrait qu'un concept fondamental, ou une notion mathématique nous fasse encore défaut pour réussir à faire enfin le pont entre la matière et la vie.
Même s'ils paraissent plus proches des êtres vivants que les robots issus uniquement de l'intelligence artificielle IA classique, force est de reconnaître que les artefacts issus de la robotique comportementale et de l'imitation biologique ne sont pas aussi « vivants » qu'on osait l'espérer. La modélisation en biologie est en effet loin de donner les mêmes résultats qu'en physique. Nous savons effectivement très bien simuler par exemple la dynamique des fluides, la trajectoire des planètes, ou encore les explosions nucléaires. Mais en biologie, nous ne parvenons pas à des résultats aussi probants. Quelque chose ne va pas. Mais qu'est-ce ? Il existe beaucoup de réponses possibles à cette question. Peut-être, seuls quelques paramètres sont faux. Ou bien nos modèles n'ont pas atteint le niveau de complexité nécessaire. Ou encore manquons-nous de puissance informatique. Mais il se pourrait aussi qu'un concept fondamental que nous n'avons pas encore imaginé dans les modèles biologiques nous fasse défaut. Examinons chacune de ces causes possibles.
Si seuls quelques paramètres étaient erronés, cela signifierait que nous avons déjà modélisé l'essentiel correctement. Nous aurions seulement joué de malchance ou d'ignorance pour certains détails. En poursuivant notre travail, les choses devraient s'arranger. Par exemple, nos modèles neuronaux habituels travailleraient peut-être beaucoup mieux si nous utilisions cinq couches de neurones artificiels au lieu des trois employés ordinairement. Ou encore nos programmes d'évolution artificielle voir l'article de Dario Floreano dans ce numéro seraient plus efficaces s'ils généraient des populations de cent mille individus ou plus, au lieu de mille ou moins comme il est d'usage aujourd'hui. Mais tout cela semble improbable. Si c'était le cas, quelqu'un aurait déjà trouvé une combinaison de paramètres fonctionnant mieux que les autres. Et cette avancée aurait conduit à de nouvelles analyses théoriques qui nous auraient déjà permis d'observer un progrès rapide.
La deuxième explication - nos modèles biologiques n'ont pas atteint un certain seuil de complexité - signifie aussi que nous aurions en principe déjà tout compris de l'intelligence et des organismes vivants. Nous aurions déjà tous les concepts et les composants nécessaires, mais nous ne les aurions pas agrégés suffisamment pour en obtenir un seul modèle. Lorsque nous y parviendrons et si nous y parvenons, tout commencera à fonctionner mieux. Mais à nouveau il paraît improbable que nous ayons déjà compris tous les aspects de la biologie sans faire plus de progrès.
Un manque de puissance informatique ? Nous avons déjà assisté à un tel exemple. Après avoir été battu par Deep Blue en 1997, Garry Kasparov dit qu'il fut surpris par sa capacité à jouer comme s'il avait une stratégie et comprenait la signification de chaque déplacement. Deep Blue n'était pas par essence différent des logiciels précédents avec lesquels il avait joué à la fin des années 1980. Il n'avait toujours pas de module de planification stratégique, comme en possèdent d'autres logiciels conçus pour simuler le jeu humain. Il avait toujours un moteur d'inférence tactique, mais cette fois très rapide et profond. Kasparov a cru que Deep Blue possédait un module stratégique tout simplement parce que l'augmentation de sa puissance informatique changeait la qualité de son jeu. La même chose pourrait arriver à nos modèles biologiques intelligents avec plus de puissance informatique.
Théorie fondamentale. Si l'une de ces trois explications est la bonne, nous devons nous attendre à un grand progrès en matière d'IA et de vie artificielle dès que quelqu'un trouvera les détails qui manquent encore. Cela entraînera de nouveaux développements avec une floraison d'applications. Mais personne ne sera vraiment surpris. Toutes les sciences qui étudient les organismes vivants connaîtront de nouvelles avancées. Nous aurons de nouveaux types de modèles informatiques avec lesquels nous pourrons tester un flot de nouvelles hypothèses sur la façon dont fonctionne le vivant.
Mais s'il nous manquait une théorie fondamentale que nous n'avons jamais imaginée dans nos modèles actuels ? Nous devrions alors trouver de nouvelles façons de réfléchir au vivant pour continuer à avancer. Et ce sera beaucoup plus perturbant pour toute la biologie. Pour faire une analogie, supposons que nous soyons en train de construire en physique des simulations d'objets élastiques qui tombent et entrent en collision. Si nous ne comprenons pas bien la physique, nous pourrions laisser de côté un attribut spécifique de ces objets, leur masse par exemple. Dans ce cas, leur comportement lorsqu'ils tombent en chute libre nous paraîtrait correct, mais dès que nous analyserions les collisions, nous serions forcés de reconnaître que nous avons mal modélisé leur environnement physique.
Expliquer la conscience. Mais quelle pourrait bien être la nature de cette caractéristique de la vie qui nous échappe ? L'une des possibilités serait que certains aspects du vivant soient invisibles pour nous aujourd'hui. Selon la vision scientifique actuelle, les organismes vivants sont des machines dont les composants sont des molécules. Ce n'est pas complètement impossible que nous découvrions de nouvelles propriétés chez les molécules du vivant ou quelques nouveaux éléments. On pourrait imaginer quelque chose de parallèle à ce qui s'est produit avec la découverte des rayons X il y a un siècle et qui a conduit à notre compréhension encore en évolution de la mécanique quantique. La théorie de la relativité générale, deuxième découverte du XXe siècle de la même ampleur, a tout autant perturbé notre compréhension des lois de base de la physique. Une découverte aussi majeure pourrait bien bouleverser à son tour notre compréhension fondamentale du vivant.
Appelons cette découverte à venir l'hypothèse. Le mathématicien britannique Roger Penrose1 a déjà émis une hypothèse, mais plutôt faible, sur un nouveau concept qui expliquerait la conscience. Il suggère que les effets quantiques observés dans les microtubules des cellules nerveuses pourraient être l'endroit où se crée la conscience au niveau cellulaire, avant de se combiner en fonctions de plus grande ampleur au niveau de l'organisme. Roger Penrose n'a pas dégagé une véritable théorie sur la façon dont tout cela pourrait fonctionner. En fait, il a juste suggéré que son hypothèse pouvait être un élément critique à prendre en compte pour parvenir à une compréhension plus globale de la conscience. Mais cette hypothèse reste assez faible : elle ne s'appuie pas sur autre chose que sur les connaissances actuelles en physique. Pour certains, elle peut avoir un intérêt parce qu'elle fait un pont entre une grande découverte en physique et une grande question de biologie, la nature de la conscience. David Chalmers2 a émis une hypothèse un peu plus solide comme autre voie à l'explication de la conscience. Il suggère qu'une nouvelle caractéristique, aussi importante que le spin* des particules élémentaires, pourrait être nécessaire pour expliquer la conscience. Ce serait un nouveau type de propriété physique des objets dans l'Univers, sujet à des lois de physique que nous ne comprenons pas encore. D'autres philosophes, naturalistes ou religieux, pourraient émettre l'hypothèse d'une entité plus indescriptible comme l'âme ou l'élan vital - la force vitale.
Cette découverte inimaginable aujourd'hui pourrait aussi venir des « nouvelles mathématiques ». Dans ce cas, on n'aurait pas besoin de trouver des phénomènes physiques inédits dans les organismes vivants. Peut-être que nous n'avons pas découvert une description mathématique fondamentale qui modéliserait ce qui se passe dans un organisme vivant et que, du coup, nous ne l'avons pas incluse dans nos modèles d'IA et de vie artificielle. Que pourraient être ces « nouvelles mathématiques » ? Il y a déjà eu plusieurs candidats comme la théorie des catastrophes, du chaos, des ondelettes et des systèmes dynamiques. Chaque fois qu'une de ces nouvelles techniques mathématiques sort du bois, des chercheurs étudient de quelle manière on pourrait l'appliquer à la compréhension du vivant et essaient de l'incorporer à leurs modèles informatiques. Mais on ne sait pas si ces techniques seront mieux utilisées comme des outils de description ou - ce qui est moins probable - comme des composants génériques. De toute façon, aucune de ces merveilleuses techniques n'a réellement soulevé un véritable espoir d'améliorer nos modèles. Si on s'intéresse à l'aspect physique du vivant, il semble qu'il y ait certaines propriétés mathématiques qui ne soient prises en compte par aucune de ces nouvelles techniques, ni aucun des modèles actuels. L'une de ces propriétés est que la matière qui constitue les organismes vivants obéit aux lois de la physique d'une manière qui est très coûteuse à simuler sur un ordinateur. Par exemple, les membranes des cellules ont une forme déterminée par la minimisation constante des forces entre les molécules à l'intérieur et à l'extérieur de la membrane. Une autre propriété - le fait que la matière ni n'apparaît ni ne disparaît dans le monde physique - est aussi très délicate à modéliser dans un programme informatique.
Pour tenter de mieux comprendre quelle est la nature de ce qui nous manque, nous pouvons faire une analogie avec l'invention de l'informatique. Pendant la majeure partie du XXe siècle, nous avons placé des électrodes dans le système nerveux des organismes vivants pour étudier les corrélations entre des signaux que l'on peut mesurer et les réactions qui se produisent dans d'autres parties de leurs corps. Ces données sont utilisées pour tester des hypothèses sur la façon dont l'organisme vivant calcule au sens large du terme. Imaginons une civilisation qui serait restée isolée pendant les cent dernières années et hors de portée de l'informatique. Si les scientifiques de cette civilisation sont mis en présence d'un ordinateur, seront-ils capables de comprendre ce qu'il fait alors qu'ils n'ont aucune notion d'informatique ? Ou bien est-ce que nos scientifiques isolés auraient besoin de réinventer la notion d'informatique avant de pouvoir comprendre ce que fait l'ordinateur ? Je suspecte fortement qu'ils y seraient contraints. Pourtant rien dans les théories mathématiques de Turing ou de Von Neumann n'avait à proprement parler un caractère déroutant. Un bon mathématicien de la fin du XIXe siècle pourrait les comprendre en quelques jours d'étude, sans être profondément surpris, comme le serait un physicien de la même époque confronté à la mécanique quantique et à la relativité.
Nouvelle mathématique. Mais revenons à l'inimaginable. Il pourrait exister un principe d'organisation, une notion mathématique dont nous aurions besoin pour comprendre vraiment le fonctionnement des systèmes perceptifs. Si c'est le cas, en la découvrant, nous pourrions alors construire des systèmes de vision artificiels capables de séparer des objets de leur arrière-plan, de comprendre les expressions du visage, de distinguer entre le vivant et l'inerte et de reconnaître tous les objets. Aucun des systèmes de vision artificielle actuels n'en est vraiment capable. Quelle forme pourrait prendre cette théorie mathématique ? Elle n'a pas besoin de perturber notre compréhension actuelle du vivant : elle pourrait être tout aussi peu dérangeante que la notion d'informatique, juste différente de tout ce que nous envisageons aujourd'hui. Peut-être que de nouveaux principes ou notions mathématiques, nécessaires pour comprendre vraiment tous les détails de l'évolution, de la cognition, de la conscience et de l'apprentissage seront découverts et inventés tout en continuant à laisser s'épanouir les sous-domaines que sont l'IA et la vie artificielle. Ou peut-être y aura-t-il une seule nouvelle idée mathématique qui unira ces deux domaines, et les fera beaucoup progresser tout en révolutionnant de multiples aspects de la recherche sur le vivant. Ce serait surprenant, délicieux et excitant. Evidemment, que cela arrive ou non est totalement imprévisible.
1 R. Penrose, Shadows of the Mind , Oxford University Press, New York, 1994.
2 S. Chalmers, Conscious Stud., 2, 200-219, 1995.
NOTES
*Un spin est une grandeur quantique des particules élémentaires.
SAVOIR
:
-P. McCorduck, Machines Who Think , Freeman, New York, 1979.
-C. Langton, Artificial Life , Addison-Wesley, 1989.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante |
|
|
|
|
|
|