|
|
|
|
 |
|
LANGAGE - INFORMATIQUE |
|
|
|
|
|
langage
Cet article fait partie du dossier consacré à l'informatique.
actères, de symboles et de règles qui permettent de les assembler, utilisé pour donner des instructions à un ordinateur.
INFORMATIQUE
Le principe d'un langage de programmation
Comme les « langages naturels » (le français, l'anglais…), les langages de programmation sont des systèmes d'expression et de communication. Mais les « phrases » utilisées par ces langages, appelées programmes, forment des textes destinés à être compris par des ordinateurs. Cependant, les langages utilisés pour communiquer avec les ordinateurs ne sont pas tous considérés comme des langages de programmation. Il s'agit seulement des langages qui, théoriquement, sont suffisamment universels pour exprimer tous les traitements possibles (algorithmes) qu'un ordinateur peut effectuer. Ne sont pas considérés comme des langages de programmation, les langages d'interrogation de bases de données, et plus généralement les langages dits « de quatrième génération » (L4G en abrégé) – langages SQL (Structured Query Language) et Java – qui permettent de réaliser de façon conviviale des applications particulières.
On peut considérer qu'un programme est un texte dépourvu de toute ambiguïté et qui doit être écrit en respectant scrupuleusement les « règles de grammaire » du langage.
Les niveaux de langage
Un programme est constitué d'instructions destinées à être exécutées par la machine. Seules les instructions qu'une machine, ou plus précisément le processeur de l'ordinateur, est capable d'interpréter directement sont celles d'un langage de nature binaire (les programmes sont des combinaisons de nombres binaires 0 et 1). Ce langage est appelé « langage machine ». C'est le langage de plus « bas niveau ». Sur les premiers ordinateurs, c'était le seul moyen d'écrire un programme. Mais, très vite est apparue la nécessité d'utiliser des langages de programmation plus évolués, de plus « haut niveau », c'est-à-dire plus proches de l'esprit humain, et cela pour deux raisons : la première raison est qu'écrire un programme en langage machine est une tâche extrêmement minutieuse et fastidieuse, ce qui entraîne un risque d'erreurs très élevé ; la deuxième raison est que chaque processeur a son propre langage machine, ce qui empêche de transporter le même programme d'un matériel à un autre.
Un programme écrit dans un langage de plus haut niveau que le langage machine ne peut pas être exécuté directement par l'ordinateur. Il doit être préalablement traduit en langage machine. Cette traduction est effectuée automatiquement par l'ordinateur lui-même. C'est un programme appelé « traducteur » qui effectue ce travail.
Les langages d'assemblage
Un premier niveau de langage au-dessus du langage machine a commencé à être utilisé dans les années 1950. Il s'agit du langage d'assemblage qui, en gros, remplace des suites de 0 et de 1 par des notations symboliques. La traduction d'un tel langage s'appelle l'assemblage. Mais ce genre de langage dépend encore de la famille d'ordinateurs pour laquelle il a été développé. De plus, il reste peu facile à lire et à comprendre et il ne convient donc pas pour écrire de gros programmes fiables.
Les langages évolués
On appelle « langages évolués » les langages de haut niveau qui non seulement sont indépendants de toute machine mais aussi sont plus faciles à lire et à comprendre parce qu'ils regroupent en une seule instruction de haut niveau des suites d'opérations élémentaires de bas niveau, par exemple additionner deux variables numériques sans se préoccuper des détails de transfert entre mémoire centrale et registres du processeur. Il y a essentiellement deux sortes de programmes traducteurs pour ce genre de langage : les compilateurs et les interpréteurs.
Le programme en langage évolué qui doit être traduit est appelé programme source. Un interpréteur traduit les instructions du programme source l'une après l'autre et les exécute au fur et à mesure. Le compilateur traduit la totalité du programme source en produisant une nouvelle version exécutable. Comme un programme est en général destiné à être exécuté de nombreuses fois, l'avantage de la compilation est que cette traduction est faite une fois pour toutes et sollicite beaucoup moins le processeur. Mais l'interprétation peut aussi avoir des avantages : d'une part, il est plus facile de produire un interpréteur qu'un compilateur et d'autre part, l'interprétation rend plus aisée la mise en place des méthodes d'aide à la mise au point des programmes.
Les langages algorithmiques/déclaratifs/objets
L'évolution des langages décrite précédemment a conduit à des langages de haut niveau qui restent liés à un style de programmation dit algorithmique ou encore impératif ou procédural. Tout se passe comme si on programmait dans le langage machine d'une machine virtuelle de très haut niveau. Par exemple, la notion de variable est une abstraction de la notion de case mémoire et l'instruction d'affectation décrit l'action fondamentale qui consiste à modifier la valeur d'une variable. De façon générale, un programme décrit une suite d'actions que la machine doit effectuer.
Quelques langages algorithmiques classiques
Parmi les langages algorithmiques classiques, on peut citer en particulier FORTRAN apparu dès 1954 et encore utilisé pour la programmation de calculs scientifiques, COBOL (1959) utilisé pour des applications de gestion, BASIC (1964). Le langage Pascal (1969) a marqué une étape dans la structuration rigoureuse des programmes et est encore largement utilisé pour l'enseignement de la programmation. Le langage Ada est particulièrement adapté à la production de très gros programmes vus comme des assemblages de « composants logiciels ». Le langage C est aussi largement utilisé, en liaison avec l'essor du système d'exploitation Unix.
Le langage déclaratif ou descriptif
Au style de programmation algorithmique, largement dominant, on peut opposer un style de programmation dit déclaratif ou encore descriptif, qui cherche à atteindre un niveau encore plus haut. Un programme est alors vu comme la définition de fonctions (on parle alors de « programmation fonctionnelle ») ou de relations (on parle alors de « programmation logique »). Le langage LISP (1959) peut être considéré comme un précurseur des langages fonctionnels. Parmi les langages fonctionnels, on peut aussi citer les différents dialectes actuels du langage ML. La famille des langages de programmation logique est composée principalement de PROLOG (1973) et de ses successeurs. Les langages fonctionnels ou logiques sont surtout utilisés pour certaines applications relevant de ce qu'on appelle « l'intelligence artificielle ».
La programmation « orientée objets »
Le style de programmation « orientée objets » constitue une autre avancée importante dans l'évolution des langages de programmation et connaît actuellement un essor considérable. L'idée fondamentale est de permettre au mieux la conception et la réutilisation de composants logiciels et, pour cela, de structurer les programmes en fonction des objets qu'ils manipulent. On peut citer en particulier Smalltalk, Eiffel, mais le langage orienté objets le plus utilisé est certainement C++, extension du langage C. Ada 95 se veut aussi une extension de Ada adaptée à la programmation objets. Le langage Java, dont la vogue actuelle est liée à des applications au World Wide Web (Internet) est aussi un langage orienté objets. Il présente l'immense avantage d'être portable, c'est-à-dire qu'un programme écrit en Java peut fonctionner sur des machines de constructeurs différents et sous plusieurs systèmes d'exploitation sans aucune modification.
Les programmes Java sont soit interprétés soit compilés. Les versions interprétées sollicitent beaucoup l'unité centrale de l'ordinateur et cela peut avoir des conséquences fâcheuses pour les temps de réponse des applications interactives.
Le parallélisme
Citons aussi, sans entrer dans les détails, le parallélisme, c'est-à-dire les techniques qui permettent d'accroître les performances d'un système grâce à l'utilisation simultanée de plusieurs processeurs. Des problèmes difficiles se posent pour exprimer le parallélisme dans des langages de programmation et pour compiler ces langages. Le langage HPF (High Performance FORTRAN ) est un exemple récent de tentative pour résoudre ces difficultés.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
PARTICULES ÉLÉMENTAIRES |
|
|
|
|
|
PARTICULES ÉLÉMENTAIRES
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière apparaissant, dans l'état actuel des connaissances, comme indivisible.
PHYSIQUE
1. Vers l'infiniment petit
De tout temps les scientifiques ont sondé la structure de la matière pour trouver unité et simplicité dans un monde qui nous frappe par sa diversité et sa complexité apparentes. N'est-il pas remarquable de découvrir que tous les objets qui nous entourent ne sont que les multiples assemblages, parfois fort complexes, d'un petit nombre de constituants fondamentaux, qui nous apparaissent aujourd'hui comme les particules élémentaires du monde ? N'est-il pas remarquable que toutes les forces que nous voyons en jeu dans la nature ne soient que les différentes manifestations d'un tout petit nombre de mécanismes fondamentaux prenant une forme particulièrement simple au niveau des particules élémentaires ?
L'atome est tout petit (environ 10–10 m). Un gramme de matière contient près d'un million de milliards de milliards d'atomes (1024). Cependant, grâce aux instruments dont ils disposent, les physiciens peuvent maintenant décrire et comprendre la structure intime des atomes.
La physique des particules se pratique auprès de grands accélérateurs. Elle requiert de plus en plus d'importantes collaborations internationales, nécessaires pour réaliser et exploiter ces machines extrêmement coûteuses ainsi que les détecteurs qui permettent d'analyser les événements observés. Ces collaborations sont des milieux particulièrement favorables à l'éclosion de nouvelles technologies. C'est comme cela qu'est né le World Wide Web au Cern de Genève (→ Internet).
La physique des particules s'efforce de découvrir les constituants fondamentaux de la matière et de comprendre leurs interactions, c'est-à-dire la façon dont ces constituants se lient entre eux pour réaliser les structures souvent très complexes et variées que nous observons dans le monde qui nous entoure.
Dans les années 1980, le pouvoir de résolution des instruments les plus performants pour étudier la structure intime de la matière atteignait le millionième de milliardième de mètre (10–15 m), autrement dit la dimension du proton et du neutron, les constituants du noyau atomique. Ce dernier est beaucoup plus petit que l'atome, car les nucléons y sont tassés les uns contre les autres. L'atome a un rayon 100 000 fois plus grand et son volume est rempli par le mouvement incessant des électrons qui entourent le noyau.=
Aujourd'hui, le pouvoir de résolution atteint le milliardième de milliardième de mètre (10–18 m), ce qui permet de sonder l’intérieur des nucléons. En effet, les protons et les neutrons sont constitués de particules appelées quarks, qui etcomptent désormais parmi les constituants fondamentaux de la matière. Il y a 18 types de quarks, qui se distinguent par leur « saveur » et leur « couleur ». Il s'agit là de nouveaux concepts pour lesquels on a préféré ces appellations imagées aux racines grecques en faveur auparavant. L'électron est aussi l'un des constituants fondamentaux de la matière. Il fait partie d'un ensemble de six particules élémentaires appelées leptons.
Les forces présentes dans la nature résultent des symétries entre quarks et entre leptons. Tout cela est résumé par le modèle standard des particules élémentaires et des interactions fondamentales. C’est une théorie quantique des champs, autrement dit une théorie à la fois quantique et relativiste. Or, maintenir la causalité dans un monde quantique et relativiste implique l'existence d'antimatière, dont la prédiction et l'observation ont constitué un grand succès. À chaque particule correspond une antiparticule de même masse mais de charge opposée. Toutefois, si le modèle standard permet de décrire l'ensemble des particules élémentaires de la matière et les interactions fondamentales qui s'exercent entre elles, il n’inclut toujours pas l'interaction gravitationnelle. Ainsi, le modèle standard n'est pas la théorie ultime de la physique.
2. Les moyens d'étude
Pour atteindre la résolution qui est nécessaire pour plonger à l'intérieur du noyau, puis à l'intérieur des nucléons, il faut des rayons gamma de très faible longueur d'onde, autrement dit de très haute énergie. On peut les obtenir par rayonnement de particules chargées, comme l'électron ou le proton, quand ils sont accélérés à des vitesses proches de celle de la lumière (3 × 108 km.s-1). On peut cependant opérer plus directement en utilisant le fait que l'électron et le proton se comportent comme des ondes aussi bien que comme des particules. Cela traduit la description quantique qu'il faut adopter au niveau des particules. La longueur d'onde associée à une particule de très haute énergie est inversement proportionnelle à son énergie : électrons et protons de hautes énergies sont donc aussi des sondes qui se comportent comme de la lumière de très petite longueur d'onde. Ce sont eux qui permettent d'observer la structure fine de la matière, avec un pouvoir de résolution d'autant meilleur que leur énergie est plus élevée.
2.1. Les accélérateurs de particules
En étudiant les résultats de collisions à très hautes énergies, on peut explorer la structure intime de la matière, reconnaître les particules élémentaires et étudier leurs propriétés. Le pouvoir de résolution est déterminé par la puissance des accélérateurs.
Le principe de l'observation reste le même que celui utilisé avec la lumière visible, en aidant l'œil avec un instrument d'optique. Un accélérateur communique une grande énergie aux particules qu'il accélère. Les plus performants sont des collisionneurs, où des faisceaux de particules sont simultanément accélérés dans des directions opposées et amenés en collisions frontales dans des zones où l'on dispose les détecteurs. Les produits des collisions étudiées sont analysés par les détecteurs qui rassemblent les données permettant de déterminer la nature et les propriétés des particules issues de la collision. Ces collisions de haute énergie engendrent en général un véritable feu d'artifice de particules nouvelles. Une partie de l'énergie de collision se transforme en matière et en antimatière.
On exprime les énergies de collision en électronvolts (eV). L'électronvolt est l'énergie acquise par un électron sous une différence de potentiel de un volt. C'est en gros l'énergie par électron fournie par une pile électrique, car c'est aussi l'ordre de grandeur de la variation d'énergie par électron impliquée dans une réaction chimique typique (1 eV = 1,6 × 10-19 J). Vers 1960, les accélérateurs permettaient d'obtenir des énergies de collision de l'ordre d'une centaine de millions d'électronvolts (100 MeV). On pouvait ainsi descendre jusqu'à 10–15 m. Aujourd'hui, les énergies de collision atteintes dépassent le millier de milliards d'électronvolts (1 000 GeV, soient 1 TeV). Le collisionneur de Fermilab, près de Chicago, aux États-Unis, permet d'atteindre des énergies de collision de 2 TeV entre proton et antiproton.
Mais la machine la plus puissante du monde est désormais le LHC (Large Hadron Collider), grand collisionneur de hadrons de 27 km de circonférence mis en service en septembre 2008 au Cern, près de Genève. Il a atteint une énergie de collision de 8 TeV en juillet 2012, qui a permis de découvrir une particule qui présente toutes les caractéristiques du fameux boson de Higgs. Le LHC devrait fonctionner à 7 TeV par faisceau à partir de 2015, soit une énergie de collision de 14 TeV qui permettra de confirmer définitivement la découverte du boson de Higgs et d’aller encore plus loin dans l’exploration de l’infiniment petit.
Analyser et comprendre la structure intime de la matière, c'est donc aussi comprendre la physique des hautes énergies. C'est savoir décrire et prédire ce qui se passe au cours de telles collisions.
2.2. Les détecteurs de particules
Comment parvient-on à observer les particules malgré leur taille extrêmement réduite ? On ne voit en réalité que des effets secondaires liés à leur présence et l'on déduit de l'observation de ces phénomènes le passage et les propriétés d'une ou plusieurs particules. En utilisant plusieurs phénomènes secondaires et en courbant les trajectoires des particules dans des champs magnétiques, d'autant plus facilement que les particules ont moins d'énergie, on peut connaître la nature et les propriétés des particules qui traversent un détecteur.
Les détecteurs de particules modernes (comme les détecteurs Atlas ou CMS du LHC) sont composés de couches de sous-détecteurs, chacun étant spécialisé dans un type de particules ou de propriétés. Il existe trois grands types de sous-détecteurs :
• les trajectographes, qui permettent de suivre la trajectoire des particules chargées électriquement ;
• les calorimètres, qui arrêtent une particule et en absorbent l'énergie, ce qui permet de mesurer l’énergie de la particule ;
• les identificateurs de particules, qui permettent d’identifier le type de la particule par détection du rayonnement émis par les particules chargées.
Les détecteurs sont toujours soumis à un champ magnétique, qui courbe la trajectoire des particules. À partir de la courbure de la trajectoire, les physiciens peuvent calculer l’impulsion de la particule, ce qui les aide à l’identifier. Les particules à impulsion élevée se déplacent quasiment en ligne droite, alors que celles à impulsion plus faible décrivent de petites spirales.
3. Physique des particules et cosmologie
Selon le modèle du big bang, l'Univers tel que nous l'observons est né, semble-t-il, d'une sorte de grande explosion, le « big bang », qui s'est produite il y a environ 15 milliards d'années. L'Univers est en expansion et les galaxies semblent se fuir les unes les autres avec des vitesses proportionnelles à leurs distances respectives. Sa densité et sa température n'ont cessé de décroître depuis le big bang ; aujourd'hui, elles sont toutes deux très faibles : la densité moyenne correspond à un atome par mètre cube et la température moyenne est de l'ordre 3 K (soit –270 °C).
La relativité générale nous permet de suivre l'évolution de l'Univers et de retrouver les conditions proches de celles qui ont dû exister aux premiers instants de l’Univers à partir des données actuelles. Mais le modèle se heurte à une limite, une singularité, appelée « mur de Planck », qui correspond à l’instant 10-43 s après le big bang : il est impossible de connaître ce qui s’est passé avant cet instant car les lois de la physique que nous connaissons ne sont plus applicables, la densité et la température de l’Univers étant alors infinies. Or, en physique, des quantités infinies n’ont plus grand sens… Néanmoins, de cet instant jusqu’à nos jours, le modèle permet de décrire l’évolution de l’Univers – composé cependant à 96 % de matière et d’énergie noires inconnues !
Comme la température est proportionnelle à l'énergie moyenne par particule, au début de l'Univers, ses constituants avaient des énergies colossales et, du fait de la densité extrêmement forte, ils étaient en collision constante les uns avec les autres.
La physique qui prévalait à cette époque est donc la physique des hautes énergies que l'on explore à l'aide des accélérateurs : comprendre la structure intime de la matière, c'est aussi pouvoir décrire et comprendre ce qui se passait au début de l'Univers.
Vers 1970, les spécialistes maîtrisaient la physique à des énergies de l'ordre de 100 MeV, correspondant à la température de l'Univers quand il était âgé d'un dixième de millième de seconde (10-4 s). Aujourd'hui, les progrès réalisés permettent de comprendre la physique au niveau de 1 TeV, et, donc, les phénomènes qui se déroulaient dans l'Univers un centième de milliardième de seconde après le big bang (10-11 s). Ainsi, le facteur dix mille gagné dans les énergies par particule (ou les températures) en passant de 100 MeV à 1 TeV a permis de reculer d'un facteur dix millions dans l'histoire des premiers instants de l'Univers. C'est dire combien la physique des particules et la cosmologie sont intimement liées.
4. Le modèle standard
Le modèle standard de la physique des particules est la théorie de référence qui décrit les constituants élémentaires de la matière et les interactions fondamentales auxquelles ils participent.
La description de la structure de la matière fait appel à deux familles de particules élémentaires : les quarks et les leptons. À chaque constituant de la matière est associée son antiparticule, une particule de même masse et de charge opposée (par exemple, l’antiparticule de l’électron est le positon).
4.1. Quarks et leptons
Les quarks, découverts dans les années 1960, sont les constituants des nucléons (protons et neutrons), les particules constitutives des noyaux atomiques. Ils participent à toutes les interactions. Il en existe six espèces différentes. Pour décrire leurs propriétés, on a choisi d'utiliser des noms imagés, faute d'analogie avec quoi que ce soit de connu. Ainsi, la caractéristique qui, en dehors de la charge électrique, permet de distinguer les quarks est appelée « saveur ». Les six saveurs, caractéristiques des six espèces de quarks, sont dénommées : up (u), down (d), strange (s), charm (c), bottom (b) et top (t). Par ailleurs, chaque saveur peut exister en trois variétés, qui portent les noms de « couleurs » : rouge, vert et bleu. De même que la masse permet à une particule de réagir à la gravitation et la charge électrique à la force électromagnétique, la couleur rend les quarks sensibles à l'interaction nucléaire forte, responsable de leurs associations et de la cohésion des noyaux atomiques. Cette force ne se manifeste pas au niveau macroscopique : les trois couleurs se compensent mutuellement pour former la matière globalement « incolore ».
Une autre particularité des quarks est leur confinement : il est impossible de les obtenir individuellement à l'état libre. La famille des leptons rassemble les particules insensibles à la force nucléaire forte : l'électron ; deux particules analogues à l’électron, mais plus lourdes et instables, le muon et le tauon (ou tau) ; et trois particules électriquement neutres associées aux trois précédentes, les neutrinos électronique, muonique et tauique.
Les quarks et les leptons se présentent en doublets. Il existe un doublet de quarks (u et d) auquel fait pendant un doublet de leptons (neutrino et électron). L'électron a une charge électrique (prise par convention égale à –1), contrairement au neutrino. Il y a aussi une différence d'une unité entre la charge du quark d (–1/3) et celle du quark u (+2/3). Deux quarks u et un quark d forment un proton (charge globale +1). Deux quarks d et un quark u forment un neutron (charge globale nulle). Les protons et les neutrons sont à la base de tous les noyaux atomiques. En ajoutant suffisamment d'électrons pour compenser la charge électrique du noyau, on obtient les atomes.
L'électron, le quark u et le quark d sont les constituants exclusifs de la matière ordinaire.
4.2. Création et destruction de particules
Au cours de certains processus de désintégration radioactive, un quark d peut se transformer en quark u, mais simultanément un neutrino se transforme en électron, ou un électron est créé avec un antineutrino. La charge globale est conservée.
Dans un proton, les trois quarks ont des couleurs différentes et le proton est globalement « incolore ». C'est aussi le cas d'une multitude de particules instables qui apparaissent dans les collisions de protons quand une partie de l'énergie de collision se transforme en matière et antimatière : ces particules sont des hadrons, qui peuvent être soit des baryons – formés de trois quarks, soit des mésons – formés d'un quark et d'un antiquark. Les antiquarks ont des couleurs opposées à celles des quarks qui leur correspondent.
Quand l'énergie devient matière, il se crée autant de quarks que d'antiquarks et autant de leptons que d'antileptons. La même règle s'applique lors de l'annihilation de la matière et de l'antimatière en énergie.
Les collisions de haute énergie entre quarks ou leptons font apparaître d'autres quarks et d'autres leptons. La nature répète ainsi deux fois la famille initiale en présentant deux doublets supplémentaires de quarks, auxquels sont associés deux nouveaux doublets de leptons. Le deuxième doublet renferme le quark strange (s) et le quark charm (c), le troisième le quark bottom (b) et le quark top (t). Ce dernier a longtemps échappé aux investigations par sa masse très élevée, de l'ordre de 180 fois supérieure à celle du proton. Il a été finalement découvert au Fermilab, près de Chicago (États-Unis), en 1995, après que sa masse eut été prédite à partir de résultats obtenus à l'aide du LEP (Large Electron Positron collider) du Cern, près de Genève (Suisse). Les quarks c et b sont aussi beaucoup plus lourds que les quarks u et d, mais néanmoins nettement plus légers que le quark t.
De même, le muon et son neutrino ainsi que le tauon et son neutrino constituent les deux autres doublets de leptons associés aux deux doublets précédents de quarks. Le muon est environ 200 fois plus lourd que l'électron et le tauon près de 3 000 fois plus lourd. Ces quarks et ces leptons lourds sont instables et très éphémères à l'échelle humaine. Ils se désintègrent en se transformant en quarks ou en leptons de masse inférieure. Toutefois, la manifestation des forces entre quarks et leptons ne demande que des temps extrêmement faibles par rapport à la durée de vie de ces particules. À leur échelle, les quarks et les leptons sont donc tous aussi stables les uns que les autres et peuvent tous être considérés comme des constituants fondamentaux de la matière. Si la constitution de la matière stable de l'Univers ne fait appel qu'à la première famille de ces particules, les forces qui permettent de construire la matière à partir des éléments de la première famille font, elles, appel à la présence de tous les quarks et de tous les leptons.
4.3. Les quatre forces fondamentales
Si l'on a découvert une assez grande diversité de particules, toutes les forces présentes dans la nature se ramènent en revanche à un nombre très restreint d'interactions fondamentales. D'après la mécanique quantique, pour qu'il y ait une interaction, il faut qu'au moins une particule élémentaire, un boson, soit émise, absorbée ou échangée.
Interactions auxquelles sont soumises les particules fondamentales
4.3.1. L'interaction électromagnétique
Considérons l'interaction entre deux charges électriques. Dans la description usuelle du phénomène, on dit qu'une particule chargée crée un champ électrique qui remplit tout l'espace tout en décroissant comme l'inverse du carré de la distance à la charge. Une autre particule chargée est sensible à ce champ. Cela crée une force entre les deux particules. Si ces dernières se déplacent à une certaine vitesse, il faut introduire aussi le champ magnétique. On parle donc globalement de l'interaction électromagnétique (→ électromagnétisme). En physique quantique, ce champ présente également une forme corpusculaire : c'est une superposition de photons. Le processus fondamental de l'interaction électromagnétique correspond à l'émission d'un photon par un électron et à son absorption par un autre électron. Il implique la charge mais ne la modifie pas, puisque le photon échangé n'a pas de charge. C'est la base de l'électrodynamique quantique, qui permet de calculer tous les phénomènes mettant en jeu des échanges de photons au cours desquels peuvent aussi apparaître des paires électron-positon.
4.3.2. L’interaction forte
L'interaction forte repose sur la « couleur » des quarks. Le processus fondamental est très semblable à celui rencontré en électrodynamique. Deux quarks exercent une force l'un sur l'autre, et elle est associée à l'échange d'un gluon. Le gluon distingue la couleur mais peut aussi la changer car il porte lui-même de la couleur. Ce processus est à la base de la chromodynamique quantique, qui permet de calculer les phénomènes associés à l'échange de gluons, capables de se transformer en paires de quarks et d'antiquarks. Contrairement à l’interaction électromagnétique qui porte à l’infini, l’interaction forte ne s’exerce qu’à des distances très courtes, à quelques diamètres de noyaux
4.3.3. L’interaction faible
L'interaction électromagnétique et l'interaction forte ne peuvent pas changer la « saveur ». Mais il existe une autre interaction fondamentale qui peut le faire : c'est l'interaction faible. Elle existe sous deux formes. L'une peut changer la « saveur » et la charge et correspond à l'échange d'un boson W. L'autre peut agir sans changer la « saveur » ni la charge et correspond à l'échange d'un boson Z. Les neutrinos, qui n'ont ni charge ni « couleur », ne sont sensibles qu'à l'interaction faible. L’interaction faible (également appelée force nucléaire faible), qui permet de transformer un neutron en proton ou inversement – donc de changer la composition d'un noyau –, est ainsi responsable de certains phénomènes de la radioactivité, en particulier la radioactivité bêta.
L'interaction électromagnétique et les deux formes de l'interaction faible ne sont en fait que trois aspects d'un mécanisme unique : l'interaction électrofaible. En effet, en comprenant leur mode d'action, on s'est aperçu qu'on ne pouvait pas avoir l'une sans avoir les deux autres.
Mais il a fallu du temps pour parvenir à cette découverte car, si le photon a une masse nulle, les bosons W et Z sont très lourds, atteignant chacun près de cent fois la masse du proton, dont l'énergie de masse est proche de 1 GeV. Ce sont ces grandes masses échangées qui minimisent les effets de l'interaction et lui valent le qualificatif de faible. Ce n'est qu'au cours de collisions où l'énergie est comparable à l'énergie de masse du boson W ou du boson Z que la présence de ces masses élevées devient moins importante et que les interactions électromagnétiques et faibles peuvent montrer au grand jour leur étroite parenté.
4.3.4. L’interaction gravitationnelle
C'est une force universelle, en ce sens qu'elle est subie par toutes les particules connues. Elle est de loin la plus faible des forces, elle est toujours attractive et, de plus, elle a une portée infinie. C'est grâce à ces deux dernières caractéristiques qu'elle est détectable macroscopiquement : l'addition des forces gravitationnelles qui s'exercent entre les particules de notre corps et la Terre, par exemple, produit une force appelée poids.
→ gravitation.
Au niveau des particules élémentaires, cette force devient importante seulement lorsque des énergies considérables entrent en jeu. Dans un noyau atomique, par exemple, la force d'attraction gravitationnelle entre deux protons est 1036 fois plus faible que celle de la répulsion électrostatique. C'est à partir d'une énergie de 1019 GeV (1 GeV est l'énergie cinétique qu'acquiert un électron quand il est accéléré par une différence de potentiel de 1 000 millions de volts) qu'elle devient comparable à l'interaction électromagnétique.
Ainsi, malgré le grand nombre d'acteurs en présence, les thèmes de base de leurs jeux sont donc très peu nombreux et très semblables. C'est à ce niveau que se rencontrent l'unité et la simplicité. Qui plus est, on sait aujourd'hui déduire l'existence et les propriétés des forces fondamentales des symétries que les quarks et les leptons manifestent entre eux. La présence des forces est une conséquence du fait que ces particules sont nombreuses, mais qu'on peut dans une large mesure les mettre les unes à la place des autres sans modifier la description du monde : les quarks et les leptons sont groupés en doublets de « saveur » et les quarks en triplets de « couleur ». La compréhension de la nature profonde des forces est l'un des grands succès de la physique contemporaine. C'est le domaine des théories de jauge. L'existence et la propriété des forces sont impliquées par les symétries.
4.4. Points forts et points faibles du modèle standard
Le modèle standard consiste en un ensemble d'algorithmes, appelé développement perturbatif, permettant de calculer, par approximations successives, à l'aide d'un nombre fini et fixé de paramètres déterminés expérimentalement, les probabilités des réactions des leptons et des quarks, du photon et des bosons intermédiaires en interactions électromagnétique et faible, et les probabilités des réactions des quarks et des gluons en interaction forte à grand transfert d'énergie. Ce modèle a passé avec succès tous les tests expérimentaux auxquels il a été soumis et il a permis d'anticiper de très nombreuses découvertes expérimentales décisives : les réactions d'interaction faible à courants neutres en 1973, le quark charm en 1975, le gluon en 1979, les bosons intermédiaires de l'interaction faible (bosons W+, W– et Z0) en 1983, et le quark top en 1995. Toutes ses prédictions ont été confirmées par l'expérience et ce jusqu’à la très probable découverte en 2012 du boson de Higgs, la fameuse particule permettant d’expliquer l’origine de la masse de toutes les autres particules.
La chasse au boson de Higgs
Le boson de Higgs (ou de Brout-Englert-Higgs) est la particule élémentaire dont l'existence, postulée indépendamment par Robert Brout, François Englert et Peter Higgs dans les années 1960, permet d’expliquer l’origine de la masse de toutes les autres particules. En effet, les particules n’acquièrent une masse qu’en interagissant avec un champ de force invisible (appelé champ de Higgs) par l’intermédiaire du boson de Higgs. Plus les particules interagissent avec ce champ et plus elles deviennent lourdes. Au contraire, les particules qui n’interagissent pas avec ce champ ne possèdent aucune masse (comme le photon).
Pour mettre au jour le boson de Higgs, on provoque des milliards de chocs entre protons qui se déplacent quasiment à la vitesse de la lumière et on analyse les gerbes de particules produites. La découverte de ce boson, très probablement détecté dans le LHC du Cern en 2012, validerait ainsi le modèle standard de la physique des particules. Il faudra attendre 2015 et la remise en service du LHC dont les faisceaux de particules atteindront l’énergie nominale de 7 TeV par faisceau pour conclure définitivement sur la découverte du fameux boson.
Le modèle standard comporte cependant des points faibles.En particulier, il est en échec face au traitement quantique de la gravitation.Par ailleurs, il ne fournit pas d'explication à la propriété fondamentale du confinement qui interdit aux quarks de se propager à l'état libre hors des particules dont ils sont les constituants, etc. Ce modèle doit être considéré comme une théorie susceptible d'être améliorée et approfondie, voire remplacée dans l'avenir par une théorie radicalement nouvelle.
4.5. Vers la « théorie du tout » ?
Le modèle standard permet de décrire avec précision la structure de la matière avec une résolution de 10–18 m et d'évoquer ce qui se passait au début de l'Univers, dès 10–10 seconde après le big bang.
On pense aujourd'hui que l'interaction forte et l'interaction électrofaible ne sont que deux aspects d'un phénomène unique. Ce dernier ne devrait cependant se manifester ouvertement qu'à de très grandes énergies, que l'on situe vers 1016 GeV. On verra sans doute alors apparaître au grand jour d'autres mécanismes transformant les quarks en leptons et mettant en jeu l'échange de particules, encore hypothétiques, dont la masse est de l'ordre de 1016 GeV. Ce n'est que pour des énergies de collision dépassant largement ce seuil que les différents modes d'interaction devraient apparaître sur un pied d'égalité, dévoilant ainsi explicitement leur grande unité.
De telles énergies sont encore hors de notre portée et le resteront pour longtemps. Mais c'était celles qui prévalaient théoriquement 10–38 seconde seulement après le big bang. C'est à ce moment que les quarks et les leptons sont apparus, figés pour toujours dans leur état de quark ou de lepton avec un très léger excès, déjà mentionné, de quarks par rapport aux antiquarks et de leptons par rapport aux antileptons. On explique ainsi pourquoi l'Univers contient autant de protons que d'électrons, en étant globalement neutre. C'est le domaine de la théorie de Grande Unification, encore très spéculative. Aux énergies qui nous sont accessibles, la gravitation qui s'exerce entre des particules individuelles reste tout à fait négligeable en regard des autres forces fondamentales. Mais, à des énergies de l'ordre de 1019 GeV, elle devient aussi importante qu'elles, car ses effets croissent avec l'énergie. On pense même pouvoir l'associer aux autres modes d'interaction actuels dans le cadre d'une théorie unique. Celle-ci incorporerait une formulation quantique de la gravitation qui manque encore aujourd'hui mais dont la théorie des supercordes donne déjà un aperçu. La mise au point de cette « théorie du tout » constitue l'un des grands sujets de recherche actuels de la physique. L'Univers n'était âgé que de 10–43 seconde quand l'énergie y était de l'ordre de 1019 GeV. C'est à ce moment que le temps et l'espace prirent la forme que nous leur connaissons. Nous manquons encore de concepts plus profonds pour remonter au-delà.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
À la source des rayons cosmiques |
|
|
|
|
|
À la source des rayons cosmiques
Antoine Letessier-Selvon dans mensuel 424
daté novembre 2008 -
On inaugure ce mois-ci l'observatoire Auger, le détecteur le plus vaste jamais conçu. Ses premières observations éclairent déjà l'une des grandes énigmes de l'astrophysique : l'origine des particules cosmiques de très haute énergie.
Ce sont les particules les plus puissantes de l'Univers : leur énergie extrême dépasse les 1020, soit des centaines de milliards de milliards, électronvolts * eV. En comparaison, les particules étudiées dans les plus grands accélérateurs, y compris celles attendues au tout nouveau LHC à Genève, sont dix millions de fois moins énergétiques. Pourtant, le mystère entourant la nature et l'origine des « rayons cosmiques de très haute énergie », c'est ainsi qu'on les nomme, constitue l'une des grandes énigmes en astrophysique. D'où viennent-ils ? Que sont-ils ? Des protons, des noyaux d'atomes lourds, des particules exotiques ? Comment atteignent-ils des énergies aussi extrêmes ? Autant de questions qui restent ouvertes.
Particules secondaires
C'est pour tenter d'y répondre que le plus vaste observatoire astronomique du monde, l'observatoire Pierre-Auger, a été déployé dans la Pampa argentine, par 35º de latitude sud et 65º de longitude ouest, au pied de la cordillère des Andes. Sa construction vient de s'achever. Au final, c'est un ensemble de 1 600 capteurs et 24 télescopes répartis sur 3 000 kilomètres carrés, soit un quart de l'Ile-de-France, que l'on inaugure ce mois-ci. Pas moins de 450 physiciens de 17 pays participent à ce défi tant scientifique que technologique.
C'est que les rayons cosmiques de très haute énergie sont très rares puisque à peine un par siècle et par kilomètre carré atteint la surface de la Terre. De plus on ne les détecte pas directement : arrivés au sommet de l'atmosphère, ils interagissent violemment avec celle-ci et produisent une cascade de milliards de particules. Et ce n'est qu'à travers cette cascade de particules secondaires qui bombardent le sol que l'on peut espérer découvrir la nature et la provenance du rayon cosmique qui l'a déclenchée, ainsi que la source de son énergie extrême.
Revenons un instant sur la découverte de ces mystérieux messagers qui traversent l'Univers. En 1912, à bord de son ballon à hydrogène et à 5 000 mètres d'altitude, l'Autrichien Victor Hess découvre qu'un flux de particules chargées venu de l'espace pénètre l'atmosphère terrestre. Ensuite, en 1938, grâce à des détecteurs installés dans les Alpes, le Français Pierre Auger enregistre l'arrivée de particules simultanément à différents endroits : c'est la première observation d'une cascade atmosphérique de particules secondaires, nées de la collision de la particule initiale avec les molécules de l'atmosphère. Il évalue à 1015 eV, l'énergie de l'événement. C'est à l'époque le rayon cosmique le plus puissant connu. Le seuil de 1020 eV est dépassé en 1962 : le premier rayon cosmique de très haute énergie est en effet détecté par les capteurs d'un réseau déployé au Nouveau Mexique [1] .
Mais plus leur énergie est élevée, plus les rayons cosmiques sont rares. Et ces nouvelles données ne dissipent guère le mystère de leur origine. De nombreuses hypothèses sont avancées, mais aucune n'est satisfaisante.
En revanche, en 1966, les rayons cosmiques font l'objet d'une prédiction théorique très intéressante. L'existence d'un fond diffus cosmologique, héritage du premier rayonnement émis par l'Univers 380 000 ans après le Big Bang, vient d'être prouvée un an plus tôt. L'Américain Kenneth Greisen d'un côté et les Russes Georgiy Zatsepin et Vadim Kuz'min, de l'autre, remarquent que les rayons cosmiques doivent forcément interagir avec les photons de ce fond diffus. Or une telle interaction devrait réduire considérablement leur énergie. Ainsi des rayons cosmiques voyageant sur des distances intergalactiques ne devraient jamais dépasser les 60 X 1018 eV. Un seuil connu aujourd'hui sous le nom de limite « GZK ». Si cette prédiction est juste, une particule qui atteint la Terre avec une énergie supérieure à 60 X 1018 eV proviendrait d'une région relativement proche, c'est-à-dire située à moins de 500 millions d'années-lumière. Quand cette prédiction a été énoncée, aucune expérience n'était capable de la tester de manière fiable, et cela jusqu'au début des années 1990. Au milieu de cette décennie, deux expériences, très différentes dans leur principe, Fly's Eye aux États-Unis et Agasa au Japon, y parvinrent enfin. Mais leurs résultats étaient contradictoires. D'un côté Fly's Eye n'avait enregistré que quelques événements au-delà de 100 X 1018 eV dont un, record, dépassant les 300 X 1018 eV, ce qui est cohérent avec la limite GZK, étant donné que les sources susceptibles d'accélérer des particules à un tel niveau dans notre voisinage sont très rares. De l'autre, selon l'expérience Agasa, le spectre des rayons cosmiques semblait se prolonger sans changement notable, y compris aux énergies les plus hautes. Cette contradiction a provoqué un intense débat.
3 000 kilomètres carrés
D'autant plus qu'un autre point de désaccord existait entre les deux expériences. Agasa observait plusieurs agrégats de deux ou trois rayons cosmiques de 40 X 1018 eV provenant de la même direction, alors que Fly's Eye ne voyait rien de tel. Mais elles s'accordaient au moins sur une chose : aucune source astrophysique au voisinage de notre galaxie n'était visible dans la direction d'arrivée des rayons. Avec seulement une grosse dizaine d'événements détectés au-delà de 100.1018 eV, les chances d'avancer sur ces questions restaient cependant très minces. Seule une forte augmentation des mesures, et donc un dispositif bien plus étendu pouvaient donner l'espoir de lever ces contradictions. Jim Cronin, Prix Nobel de physique, et Alan Watson, de l'université de Leeds, ont alors entrepris d'explorer les moyens d'y parvenir.
En 1992, au cours d'une réunion à Paris sur le campus de Jussieu, les deux chercheurs présentent leur projet, le futur observatoire Auger. Les grandes lignes y sont édifiées. L'année suivante le concept hybride, qui associe les deux techniques de détection utilisées par Fly's Eye et Agasa au sein du même capteur, est mis au point. Et, en 1995, un document de 250 pages précise les objectifs scientifiques et les choix techniques pour la construction. Il décrit un observatoire constitué de deux dispositifs expérimentaux : un réseau de 1 600 capteurs Cherenkov lire « Des cuves par milliers », ci-dessous, répartis sur un maillage de triangles de 1,5 kilomètre de côté, couvre un total de 3 000 kilomètres carrés. Ce déploiement est nécessaire pour maximiser les chances d'enregistrer les particules d'une même cascade réparties sur de très grandes surfaces et remonter ainsi jusqu'au rayon cosmique initial. Ce réseau fonctionne en permanence. Un ensemble de 24 télescopes à fluorescence lire « Lumière fluorescente » ci-contre, installés sur 4 sites du maillage triangulaire, dont les mesures sont plus précises, permet de mieux calibrer l'ensemble des mesures. De plus mesurer le même phénomène par deux instruments différents aide à mieux comprendre les éventuels biais expérimentaux. Tel est le projet sur le papier.
Restait à le mettre en oeuvre, et pour cela satisfaire des critères exigeants et parfois contradictoires : par exemple, couvrir la plus grande surface possible sans pour autant effrayer nos agences de financement ; trouver un site au ciel pur, en altitude, loin de toute pollution, et néanmoins facile d'accès et riche en infrastructures ; et bien sûr convaincre une communauté scientifique internationale aussi large que possible sur un projet très risqué [2] .
Cette même année 1995, Ken Gibbs, de l'université de Chicago, et moi-même sommes partis à la recherche du site idéal avec un cahier des charges très précis. En novembre, l'Argentine est choisie pour accueillir l'observatoire lors d'une réunion fondatrice au siège de l'Unesco à Paris. Et le document final est remis aux agences de financement fin 1996 : le prix à payer s'élève à 50 millions de dollars.
27 événements
Trois ans plus tard, en 1999, le financement en grande partie assuré, la construction commence. Et après quatre ans d'installation, de tests et de validation de nos prototypes, une centaine de cuves sont opérationnelles. L'observatoire enregistre ses premières données exploitables début 2004. Il nous a donc fallu un peu plus de dix ans pour passer de l'idée d'un détecteur grand comme un département à sa réalisation. Mais nos efforts sont vite récompensés. Dès juillet 2005, les analyses préliminaires des premières données, présentées à la Conférence internationale sur les rayons cosmiques de Pune en Inde, prouvent la pertinence de l'observatoire Auger, avec un rythme de détection trente fois plus élevé que les expériences précédentes. Et, en novembre 2007, alors que l'installation du réseau de surface n'est pas encore achevée, les données accumulées suffisent déjà à publier dans le magazine Science des résultats remarquables [3] .
L'observatoire a alors détecté 27 événements d'énergie supérieure à 60 1018 eV, c'est-à-dire dépassant la limite GZK. Ces données et les plusieurs milliers d'enregistrements de rayons cosmiques de moindre énergie, mais tout de même au-dessus de 3 X 1018 eV, ont conduit à des observations fondamentales. En premier lieu, les 27 événements ne sont pas répartis au hasard sur le ciel : pour 20 d'entre eux, il existe dans un rayon de 3 degrés autour de leur direction d'arrivée une galaxie active située à moins de 300 millions d'années-lumière de la Terre, ce qui, à l'échelle de l'Univers, correspond à notre proche banlieue. Une galaxie dite « active » possède un noyau central extrêmement brillant - on parle d'un noyau actif de galaxie. Or, ces objets sont les sources de lumière stables les plus puissantes de l'Univers et le siège de phénomènes mettant en jeu des énergies gigantesques.
Cette découverte a des conséquences. Tout d'abord, elle démontre que l'origine des rayons cosmiques les plus énergétiques, bien que proche, se situe hors de notre galaxie. Ensuite, elle conforte l'une des hypothèses avancées quant au mécanisme qui leur confère une telle énergie. Celle selon laquelle les rayons cosmiques correspondraient à des particules chargées et au repos, accélérées par les champs électriques et magnétiques colossaux entourant certains objets ou phénomènes astrophysiques comme les trous noirs avaleurs de galaxies, les jeunes étoiles à neutrons ou les collisions de galaxies. Dans ces environnements, les particules en question seraient vraisemblablement des protons ou des noyaux de fer. La plupart des rayons cosmiques de très haute énergie seraient donc issus de sources astrophysiques dites proches, probablement des galaxies actives, ou, tout au moins, des objets ayant une distribution similaire dans le ciel. Un rayon angulaire de 3 degrés sur le ciel est en effet très vaste - pour fixer les idées, le diamètre de la pleine lune mesure 0,5 degré. De nombreux objets peuvent s'y trouver, et la proximité des galaxies actives ne suffit pas à les désigner comme les sources certaines des rayons cosmiques.
EN DEUX MOTS D'où viennent les rayons cosmiques, les particules les plus énergétiques qui nous parviennent de l'Univers ? Un observatoire a été déployé depuis 1999 dans la Pampa argentine pour les détecter. À peine achevé, il a déjà enregistré 27 rayons cosmiques dont l'énergie dépasse 60 X 1018 eV. Et ces rayons ne sont pas répartis au hasard. Au voisinage de chacun d'entre se trouve une galaxie active.
Prédiction vérifiée
La mesure du flux de rayons cosmiques en fonction de l'énergie apporte aussi un nouvel éclairage. Elle montre une chute brusque au-delà de 60 X 1018 eV, qui coïncide avec la limite GZK. Ainsi, avant même l'inauguration officielle de l'observatoire, la première collection d'événements commence non seulement à lever le voile sur l'origine de ces fameuses particules, mais apporte la première observation indiscutable de la limite GZK.
Une nouvelle fenêtre sur l'Univers vient de s'ouvrir. À l'instar de la lumière en astronomie classique, les rayons cosmiques très énergétiques pourraient faire figure de nouveaux messagers pour une astronomie alternative. La construction d'un observatoire encore plus grand dans l'hémisphère Nord pour couvrir l'ensemble du ciel, et l'extension de l'observatoire Auger dans le sud pour multiplier les événements détectés devraient nous y aider dans les cinq prochaines années.
[1] J. Linsley, Phys. Rev. Lett., 10, 146, 1963.
[2] M. Boratav, « Des scientifiques dans la pampa », La Recherche, novembre 1999, p. 46.
[3] The Pierre Auger Collaboration, Science, 318, 938, 2007.
NOTES
* Un électronvolt est l'unité d'énergie. Elle équivaut à 1,6 X 10-19 joule, soit l'énergie d'un électron soumis à une différence de potentiel de 1 volt.
CAPTEURS : DES CUVES PAR MILLIERS
LES CAPTEURS CHERENKOV sont des cuves de plastique, de 1,2 mètre de haut et 3 mètres de diamètre, remplies d'eau ultrapure . Les particules de la cascade atmosphérique provoquée par les rayons cosmiques produisent au contact de l'eau un rayonnement lumineux, appelé rayonnement Cherenkov. Ce rayonnement, très faible, est détecté par un ensemble de 3 photomultiplicateurs, sorte de tube cathodique fonctionnant à l'envers, qui transforme la lumière en électricité. Le signal électrique est alors daté grâce à une horloge synchronisée sur les horloges atomiques des satellites du Global Positioning System GPS, au dix milliardième de seconde près et numérisé. Chaque seconde, des milliers de particules traversent les cuves et laissent un petit signal. Seuls les enregistrements pertinents, c'est-à-dire ceux qui comptabilisent le plus de particules, sont stockés localement. Et, pour les vingt qui semblent les plus intéressants, l'heure d'occurrence est envoyée par radio au système central, situé à plusieurs dizaines de kilomètres. Après analyse et comparaison avec les autres enregistrements effectués sur le réseau au même instant, le système central demandera éventuellement l'enregistrement complet stocké par les cuves. C'est cette centralisation qui permet de découvrir a posteriori d'éventuelles corrélations à très grandes distances sur le réseau, et donc de reconstituer les cascades de particules.
OBSERVATION : LUMIÈRE FLUORESCENTE
LES TÉLESCOPES À FLUORESCENCE sont des instruments optiques de très haute sensibilité . Ils permettraient de détecter, à plus de 40 kilomètres, une ampoule de quelques dizaines de watts traversant le ciel à la vitesse de la lumière. Lors du développement de la cascade de particules dans l'atmosphère, les atomes d'azote sont ionisés, et leur désexcitation produit une lumière de fluorescence que détectent nos télescopes. Naturellement, de tels instruments ne peuvent pas fonctionner en plein jour, ni même lorsque la Lune est visible. Alors que le réseau de surface fonctionne 24 heures sur 24 et 365 jours par an, les télescopes ne recueillent des données que 10 % du temps. Mais ils donnent un accès plus direct à l'énergie de la particule incidente et sont donc indispensables pour étalonner l'ensemble du dispositif.
SAVOIR
Le site de l'observatoire Auger.
www.auger.org
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
L'ÉNERGIE NUCLÉAIRE |
|
|
|
|
|
L’ÉNERGIE NUCLÉAIRE
Consulter aussi dans le dictionnaire : nucléaire
Cet article fait partie du dossier consacré à l'énergie.
Énergie mise en jeu dans les transitions d'un niveau énergétique d'un noyau à un autre niveau énergétique et dans les réactions nucléaires ; dans un sens plus restreint, énergie libérée lors des réactions de fission ou de fusion nucléaires.
1. Une source d'énergie considérable
Les atomes sont constitués d'un noyau, assemblage de protons et de neutrons, autour duquel gravitent des électrons. L'énergie nucléaire correspond à l'énergie de liaison qui assure la cohésion des protons et des neutrons au sein du noyau. Cette énergie est effectivement libérée lors des phénomènes de fission ou de fusion. Elle est énorme par rapport à la masse de matière subissant la transformation. C'est ainsi que la fission d'un gramme d'uranium 235 produit autant d'énergie que la combustion de trois tonnes de charbon. Cette concentration de puissance est la caractéristique fondamentale de l'énergie nucléaire lorsqu'on la compare aux autres formes d'énergie.
L'énergie de fission est utilisée d'une part pour les usages civils, dans les réacteurs nucléaires, d'autre part pour les usages militaires dans les bombes atomiques, dites « bombes A », qui sont agencées pour que la libération d'énergie soit aussi brutale et complète que possible.
L'énergie de fusion est mise en œuvre pour les usages militaires dans la bombe à hydrogène, dite « bombe H », où la température nécessaire à l'amorçage de la réaction est obtenue par l'explosion d'une bombe atomique. Des recherches sont en cours pour réaliser des réacteurs thermonucléaires qui permettraient de produire industriellement de l'énergie (de l’électricité) pour les usages civils à partir des réactions de fusion (réacteur expérimental ITER).
L’identification des moyens permettant d'extraire l'énergie concentrée dans les noyaux atomiques a constitué un des principaux enjeux des recherches conduites par les physiciens dans la première moitié du xxe s. Après des essais préalables effectués sur des « piles » atomiques aux États-Unis en 1942 et en France en 1948, ces recherches ont abouti, dans le domaine civil, à un résultat majeur : la première production d'électricité grâce à l'énergie nucléaire, intervenue en 1951 sur un petit réacteur expérimental construit dans l'Idaho. Durant les années suivantes, les premières centrales nucléaires de taille dite « commerciale » ont vu le jour en ex-U.R.S.S., au Royaume-Uni, aux États-Unis et en France. Depuis lors, un développement technologique et industriel soutenu a fait de l'énergie nucléaire une des principales sources d'énergie utilisée dans le monde pour la production de courant électrique : en 2011 (avant la catastrophe de Fukushima), 440 réacteurs installés (et 67 en construction), répartis dans 31 pays et représentant une puissance installée de 2 518 TWh, ont fourni environ 13,5 % de l’électricité produite dans le monde. En 2013, la production mondiale d’électricité d’origine nucléaire n’est plus que de 11 %.
En Europe, 18 pays produisent de l’électricité nucléaire. La France, deuxième producteur mondial avec la moitié de la production étatsunienne, vient en tête. Suivent par ordre décroissant, la Russie, l’Allemagne (qui devrait stopper sa production en 2021), l’Ukraine, la Suède, le Royaume-Uni, l’Espagne, la Belgique, la Suisse, la république Tchèque, la Finlande, la Slovaquie, la Hongrie, la Bulgarie, la Lituanie, la Roumanie, la Slovénie et les Pays-Bas.
2. Les réactions nucléaires
Les réactions nucléaires étudiées en laboratoire sont le plus souvent induites par des particules provenant d'un accélérateur ou par les neutrons d'un réacteur. La première fut réalisée par Rutherford en 1919 grâce aux particules α émises par le radium :

.
Comme dans toute réaction nucléaire, il y a conservation de la charge, de l'énergie et du nombre de nucléons, mais une faible variation de masse. De telles transmutations d'un élément en un autre servent à produire le plutonium à partir de l'uranium, le tritium à partir du lithium et d’autres isotopes radioactifs à partir d'éléments stables.
2.1. La fission
La fission consiste en la cassure d'un noyau lourd en deux fragments plus légers sous l'impact d'un neutron. Spontanée ou provoquée, elle s'accompagne de l'émission de deux ou trois neutrons. Ces neutrons peuvent provoquer à leur tour la fission d'autres noyaux… et ainsi de suite dans une réaction en chaîne. Des atomes fissiles en quantité suffisante et agencés selon une géométrie particulière peuvent donner lieu à une réaction en chaîne se propageant si rapidement qu'elle conduit à une réaction explosive. C'est ce qui se produit dans les bombes atomiques. Dans le cas des centrales nucléaires, la proportion beaucoup plus faible de matière fissile et des dispositifs de régulation appropriés permettent de contrôler la réaction en chaîne et d'obtenir un dégagement d'énergie continu et prédéterminé.
De tous les atomes existant à l'état naturel, seul l'atome d'uranium, dans sa variété – ou isotope – uranium 235 est susceptible de subir la fission. L'uranium constitue ainsi le combustible de base des réacteurs nucléaires. D'autres éléments lourds, tel le plutonium, obtenu par transmutation de l'uranium, sont également susceptibles de fission. Le plutonium est utilisé dans les réacteurs dits « à neutrons rapides », ou surgénérateurs, et associé à de l’uranium dans les réacteurs à eau ordinaire (combustibles MOX).
2.2. La fusion
La fusion est l'autre forme de libération de l'énergie nucléaire. Elle correspond à l'agglomération de deux noyaux légers se fondant l'un dans l'autre pour former un noyau plus lourd.
À l'œuvre dans les étoiles, les réactions de fusion sont provoquées par l'agitation thermique des atomes portés à très haute température (plusieurs dizaines de millions de degrés). Les engins militaires dits « thermonucléaires » (bombes H) opèrent la fusion quasi instantanée de noyaux d'hydrogène dans une réaction explosive. Des recherches sont en cours pour tenter de maîtriser l'énergie de fusion dans une réaction contrôlée. Mais la faisabilité technologique d'un tel projet, qui permettrait d'accéder à une source d'énergie pratiquement inépuisable, reste à démontrer. C’est l’objet du réacteur expérimental ITER (International Thermonuclear Experimental Reactor), dont un prototype pourrait voir le jour à l’horizon 2050.
3. Les centrales nucléaires
Dans une centrale nucléaire, on utilise la chaleur dégagée par la fission de l'uranium pour produire de l'électricité. Ce principe de fonctionnement est identique à celui des centrales thermiques classiques dans lesquelles la chaleur provient de la combustion du charbon, du gaz ou du fioul.
3.1. Le processus de production d'électricité
Dans les réacteurs nucléaires à eau sous pression (REP), le modèle le plus répandu dans le monde, le processus de production d'électricité se déroule de la manière suivante : l'uranium, enrichi (dans une proportion de 3,5 à 4 %) en isotope 235, conditionné sous forme de petites pastilles, est enfermé dans des assemblages métalliques étanches baignant dans une cuve en acier remplie d'eau ordinaire. La chaleur intense dégagée par la fission des noyaux d'uranium porte les assemblages à haute température. À leur contact, l'eau de la cuve s'échauffe (à environ 300 °C) et, maintenue sous pression pour ne pas bouillir, circule en boucle dans un circuit fermé appelé circuit primaire. Par l'intermédiaire d'un générateur de vapeur, le circuit primaire communique sa chaleur à l'eau d'un autre circuit fermé : le circuit secondaire. L'eau se vaporise et la vapeur obtenue entraîne le groupe turboalternateur qui produit l'électricité. La vapeur est ensuite condensée à la sortie de la turbine, retransformée en eau et renvoyée dans le générateur de vapeur pour un nouveau cycle.
3.2. Le refroidissement
Le refroidissement de la vapeur sortant de la turbine est assuré par un condenseur, dans lequel circule de l'eau froide puisée à une source extérieure : fleuve ou mer. Dans certaines centrales, des tours de réfrigération, ou aéroréfrigérants, équipent le circuit de refroidissement, ce qui permet de diminuer les quantités d'eau prélevée à l'extérieur.
3.3. Architecture d'une centrale nucléaire
La cuve du réacteur, les trois ou quatre générateurs de vapeur qui y sont reliés, le pressuriseur ainsi que les tuyauteries du circuit primaire forment l'îlot nucléaire. Ces composants sont enfermés dans le bâtiment réacteur, enceinte cylindrique étanche en béton d'environ 75 mètres de hauteur et 50 mètres de diamètre. Le groupe turboalternateur est installé dans un bâtiment attenant.
L'ensemble formé par l'îlot nucléaire et son groupe turboalternateur constitue une tranche. Une centrale est généralement constituée du regroupement, sur le même site, d'au moins deux tranches.
3.4. Pilotage et exploitation
Le pilotage d’un réacteur s'effectue au moyen de barres de contrôle constituées de matériaux absorbant les neutrons. En enfonçant ces barres plus ou moins profondément dans la cuve du réacteur, au milieu des assemblages contenant l'uranium, on peut faire varier l'intensité de la réaction en chaîne et régler ainsi la puissance du réacteur au niveau souhaité. En cas d'urgence, des barres de sécurité chutent automatiquement, stoppant la réaction en chaîne ayant lieu au sein du réacteur. Ces opérations de pilotage et toutes celles qui concourent à la surveillance et à la conduite d'une tranche nucléaire sont effectuées depuis la salle de commande, à l'aide de systèmes largement automatisés et télécommandés. Pour assurer au quotidien l'ensemble des tâches d'exploitation d'une tranche, il faut en général entre 500 et 600 personnes.
3.5. L'uranium et le cycle du combustible
Métal très dense relativement abondant dans l'écorce terrestre, l'uranium doit à ses exceptionnelles capacités de fission d'être le combustible de base des centrales nucléaires. Avant et après son passage dans le réacteur, il fait l'objet d'un certain nombre de transformations et d'opérations au long d'un processus couramment appelé « cycle du combustible ». Extrait de la mine, l'uranium naturel est concentré sous forme de poudre, puis purifié et converti en un composé chimique adapté. Lorsqu'il est destiné aux centrales de la filière à eau ordinaire, il est légèrement « enrichi » (3,5-4 %) dans sa variété uranium 235, la seule capable de subir la fission. En effet, l’uranium 235 ne représente que 0,72 % de l’uranium naturel.
Les assemblages combustibles, dans lesquels l'uranium est conditionné, séjournent trois ou quatre ans en réacteur. Au terme de ce délai, le combustible « usé » contient encore 96 à 97 % de matières énergétiques : l'uranium ainsi que du plutonium formé lors des réactions nucléaires. Le retraitement permet de récupérer ces matières en vue de leur recyclage. L'uranium, issu du retraitement qui contient encore 0,85 % d'isotope 235, peut être ré-enrichi en économisant des services d’enrichissement très coûteux, pour fabriquer de nouveaux combustibles. Le plutonium pourra être recyclé sous forme d'oxyde, associé à de l'oxyde d'uranium pour fabriquer des combustibles mixtes (MOX).
Les déchets ou « produits de fission » restants sont traités et entreposés avant stockage définitif. (Si certains pays, dont la France, pratiquent le retraitement, d'autres stockent, en l'état, les assemblages combustibles usés sans en récupérer les matières énergétiques.)
3.6. Radioactivité et radioprotection
L'uranium, le plutonium et les produits de fission engendrés par les réactions nucléaires sont des éléments radioactifs. Il en résulte une contrainte majeure pour l'industrie nucléaire qui doit assurer, à tous les stades de ses activités, la protection des individus et de l'environnement contre les risques dus aux rayonnements (→ irradiation).
La radioactivité est un phénomène affectant certains types d'atomes instables. Pour acquérir une meilleure stabilité, ces atomes expulsent une partie de la matière et de l'énergie qu'ils contiennent. Les rayonnements issus des composés radioactifs revêtent des formes différentes – particulaire ou électromagnétique – selon le type d'atome subissant la transformation. Bien que la radioactivité soit une composante naturelle de l'environnement, des doses excessives de rayonnement – perturbant l'organisation et le fonctionnement des cellules – peuvent être gravement nuisibles à la santé des personnes. Manipulant de grandes quantités de matières radioactives, l'industrie nucléaire doit donc faire face à l'impératif de la radioprotection. Elle est organisée en conséquence selon des dispositions techniques, des procédures d'exploitation et des réglementations destinées à limiter l'exposition à la radioactivité des travailleurs et du public. Le système de surveillance de la radioprotection est assuré par l’Institut de radioprotection et de sûreté nucléaire (IRSN), entité indépendante du Commissariat à l’énergie atomique (CEA) depuis 2002.
3.7. La sûreté des centrales nucléaires
L'impératif essentiel que s'assignent les agences de la sûreté nucléaire est d'empêcher en toutes circonstances la dispersion vers l'extérieur de quantités excessives de produits radioactifs. En France, la sûreté nucléaire des sites est assurée par l’Autorité de sûreté nucléaire française (ASN) – et l’IRSN –, de manière indépendante du CEA depuis la loi relative à la transparence et à la sécurité en matière nucléaire (TSN) de 2006.
3.7.1. Les dispositifs de sûreté nucléaire
Cet objectif a conduit à une démarche globale de sûreté fondée sur la mise en place de plusieurs « lignes de défense » successives : la conception des centrales intègre les différentes hypothèses d'accident ainsi que les systèmes de sauvegarde capables d'y faire face ; l'exploitation des centrales en appelle à des procédures strictement définies et à des équipes hautement spécialisées ; les actions et interventions à engager en cas d'accident sont codifiées en détail dans des « plans d'urgence » qui doivent être régulièrement testés.
→ accident nucléaire.
Ces différentes préventions et parades, dont la combinaison est appelée « défense en profondeur », s'articulent autour d'un dispositif technique majeur destiné à empêcher la dispersion des produits radioactifs. Ceux-ci sont enfermés à l'intérieur de trois barrières de confinement superposées : les gaines de métal contenant le combustible nucléaire ; la cuve en acier du réacteur (prolongée par les tuyauteries du circuit primaire) ; l'enceinte en béton entourant l'îlot nucléaire. Ce dispositif, appelé à garantir l'étanchéité globale du système, équipe la quasi-totalité des centrales nucléaires de technologie occidentale.
3.7.2. Le bilan de sûreté des centrales nucléaires
À l'examen des données statistiques réunies depuis soixante ans, si le nombre des accidents graves entraînés par la production d'électricité nucléaire s'est révélé limité, leurs conséquences s'établissent à long terme et sur une échelle très large.
→ accident nucléaire.
L'accident de Tchernobyl a longtemps été qualifié d'exceptionnel. Les causes qui l'ont provoqué (modèle de réacteur au fonctionnement instable ; non-respect des procédures de sûreté ; absence d'enceinte de confinement destinée à empêcher la dispersion de produits radioactifs dans l'environnement) ne semblaient en tout cas pas transposables aux centrales de technologie occidentale exploitées selon les procédures appropriées. Mais l'accident de Fukushima survenu au Japon le 11 mars 2010, à la suite d'un tsunami, a montré la vulnérabilité de certaines installations, et surtout la défaillance à la fois de la compagnie d’électricité japonaise exploitant la centrale de Fukushima (TEPCO – Tokyo Electric Power Company) dans sa gestion de la catastrophe et de l’agence de sûreté japonaise. Ces accidents montrent les limites de la sûreté de ce type de centrales nucléaires qui nécessitent, a minima, une absolue vigilance à toutes les étapes de leur fonctionnement, des contrôles de sûreté accrus et des autorités de contrôle indépendantes pour éviter tout conflit d’intérêt.
D’autres types de réacteurs, dits de quatrième génération, moins polluants et plus sûrs, sont actuellement à l’étude dans le cadre du Forum international génération IV, tels que les réacteurs à sels fondus ou les réacteurs à neutrons rapides de type Superphénix et dont un nouveau prototype français, baptisé Astrid, est prévu à l’horizon 2020. Toutefois, il est important de noter que l’éventuel déploiement d’une filière de réacteurs de quatrième génération n’est possible que si les réacteurs de générations II et III se déploient considérablement au préalable de manière à disposer de suffisamment de combustible (notamment de plutonium).
Pour en savoir plus, voir l'article risques naturels et technologiques.
3.8. Énergie nucléaire et environnement
Dans le cours normal de leur exploitation, les centrales nucléaires et les installations du cycle du combustible rejettent dans l'environnement des effluents liquides ou gazeux. Les réglementations nationales fixent des limites impératives aux quantités de rejets autorisés afin de maintenir à des niveaux acceptables les nuisances potentielles qu'ils représentent.
Ces rejets sont de nature thermique, chimique et radioactive.
3.8.1. Les rejets thermiques
Les rejets thermiques sont dus à l'eau des circuits de refroidissement qui est restituée, légèrement échauffée, au fleuve ou à la mer. Il en résulte une augmentation de quelques degrés de la température du milieu aquatique aux abords du site. Dans certains cas, ces rejets s'effectuent aussi dans l'atmosphère par l'intermédiaire de tours de refroidissement.
3.8.2. Les rejets chimiques
Les rejets chimiques, constitués de sodium, chlorures, sulfates, résultent des opérations de déminéralisation de l'eau des circuits de la centrale. Leur impact sur la faune et la flore aquatiques est négligeable.
3.8.3. Les rejets radioactifs
Les rejets radioactifs, liquides ou gazeux, en provenance des circuits d'épuration et de filtration de l'installation font l'objet d'une surveillance particulière. Les quantités de rejets autorisés sont fixées à des niveaux très largement inférieurs aux seuils de risques. En France, ces rejets représentent moins de 1 % de la radioactivité naturelle et n'entraînent pas de nuisance mesurable sur la santé des populations et sur l'environnement.
En fonctionnement normal, une caractéristique écologique majeure des installations nucléaires est de ne provoquer aucune pollution de l'atmosphère, contrairement aux centrales électriques à combustibles fossiles qui rejettent de grandes quantités de poussières, de gaz à effet de serre et autres produits polluants (gaz carbonique, oxydes de soufre et d'azote, etc.). Cependant, les nuages radioactifs (iode 131, césium 137) qui ont résultés des catastrophes nucléaires de Tchernobyl et de Fukushima ont mis en lumière les risques pour la santé (→ irradiation) et pour l'environnement (à l’échelle planétaire dans le cas de Tchernobyl). Enfin, le problème des déchets nucléaires produits lors de la fabrication d'énergie est matière à débat.
3.9. Énergie nucléaire et santé
En temps normal, la radioactivité est confinée à l’intérieur des centrales. Les populations vivant à proximité de ces dernières sont exposées à une radioactivité négligeable, d’environ 0,002 à 0,004 Sv (sievert)/an. À titre de comparaison, la radioactivité naturelle (émise par les sols, les roches et l’atmosphère) s’élève – en France – à 2,5 mSv par an en moyenne, tandis que l’exposition à la radioactivité artificielle (médicale principalement) est estimée à 1,16 mSv par an (soit une exposition totale de 3,66 mSv annuels). → radioactivité
La législation française veut que l'exposition du personnel travaillant dans les centrales nucléaires ne dépasse pas les limites sanitaires fixées par les principes de radioprotection du Code de la santé publique (à savoir, pour le corps entier, 20 mSv maximum sur douze mois consécutifs). Le dosage de la radioactivité à laquelle une personne est soumise est effectué par des instruments appelés dosimètres.
En cas d’incident ou d’accident nucléaire, les risques pour la santé des personnels et des populations sont fonction de l’ampleur et de la localisation de l’événement, ainsi que du type de rayonnement émis (tous n’ont pas les mêmes effets sur les tissus vivants).
4. Les déchets nucléaires
L'innocuité des centrales nucléaires vis-à-vis de l'atmosphère a une contrepartie négative : la présence, à la fin du cycle de production, de résidus solides radioactifs constitués par les « cendres » de combustion de l'uranium et par divers objet et matériels contaminés. Bien que de volume réduit, ces déchets sont la contrainte écologique majeure que doit gérer l'industrie nucléaire. Niveau de radioactivité et « durée de vie » déterminent trois grandes catégories de déchets (« A », « B », « C ») qui font l'objet en France d'une gestion spécifique du point de vue de leur traitement, de leur conditionnement, de leur entreposage et de leur stockage.
4.1. Les déchets à vie courte (déchets « A »)
Environ 90 % des déchets nucléaires voient leur radioactivité décroître assez rapidement avec le temps. Compactés et conditionnés dans des fûts de métal ou de béton, ils sont stockés en surface dans des cases étanches et deviendront pratiquement inoffensifs au bout de 200 à 300 ans.
4.2. Les déchets à vie longue (déchets « B » et « C »)
Environ 10 % des déchets nucléaires sont à vie longue. Ceux qui présentent une radioactivité faible ou moyenne (déchets « B ») sont compactés et entreposés sur leur lieu de production. Les déchets très radioactifs ou « produits de fission » (déchets « C ») récupérés lors du retraitement des combustibles usés sont vitrifiés, enfermés dans des conteneurs en acier et entreposés dans des puits spécialement aménagés en attendant un stockage définitif. Même si la radioactivité de ces déchets diminue avec le temps, leur longue durée de vie impose de leur trouver un confinement sûr pendant des milliers d'années. Un assez large consensus existe entre experts pour considérer comme une solution adaptée l'enfouissement en profondeur de ces déchets, dans des entrepôts de stockage aménagés à plusieurs centaines de mètres sous la terre, dans des couches géologiques stables et imperméables. Une autre option possible est celle d'un stockage réversible, en sub-surface, ce qui permettrait la récupération future de ces déchets dans le cas où l'on découvrirait un procédé permettant leur complète neutralisation.
En France, l’option d’un stockage en profondeur sous le territoire de la commune de Bure dans la Meuse a été privilégiée dans le cadre de la loi Bataille relative aux recherches sur la gestion des déchets radioactifs de haute activité. Selon l’ANDRA, le coût d’un site comme celui du site de Bure est actuellement estimé à 35 milliards d’euros (pour l’ensemble du parc électronucléaire français actuel jusqu’à fin de vie du parc, c’est-à-dire environ 40-45 ans).
5. Le programme nucléaire français
Engagé dans les années 1950 et massivement relancé en 1974, un programme d'équipement méthodique a fait de la France la deuxième puissance nucléaire « civile » du monde après les États-Unis, et la première au regard de la part occupée par le nucléaire dans la production d'électricité (78 %). Fondées sur une technologie d'origine américaine progressivement et complètement francisée, les centrales exploitant des réacteurs de type à « eau sous pression » (REP) ont été construites en séries standardisées correspondant à trois paliers différents de puissance (900 MW, 1 300 MW, 1 450 MW).
Les cinquante-huit tranches en service ont démontré une fiabilité technique satisfaisante et une bonne disponibilité. Ce parc électronucléaire a permis une amélioration spectaculaire de l'indépendance énergétique du pays ainsi qu'un abaissement d'environ 25 % du coût de revient du kilowattheure. Par ailleurs, grâce à une forte activité exportatrice, l'industrie nucléaire s'est révélée un facteur déterminant de la consolidation de la balance commerciale française.
Suivant cet argument économique, la France a réaffirmé en 2004 sa politique énergétique basée sur le nucléaire en décidant la construction d’un nouveau type de réacteur, dit de troisième génération : l’EPR (European Pressurized water Reactor). D’une puissance de 1 650 MW, ce réacteur présente des caractéristiques de sûreté accrues et une consommation d’uranium plus faible (15 % en moins) que les réacteurs REP.
6. L'avenir du nucléaire
De la fin des années 1980 au début des années 2000, le développement nucléaire mondial marque un premier ralentissement, dû notamment aux craintes ravivées par l'accident de Tchernobyl. Certains scénarios prospectifs prévoyaient cependant son redémarrage à plus long terme, lorsque, face à une demande énergétique en constante augmentation, les opinions et les gouvernements prendraient conscience de la nécessité d'économiser les combustibles fossiles et de restreindre plus sévèrement le dégagement des gaz à effet de serre responsables du changement climatique ; l'énergie nucléaire pourrait alors être relancée, à condition qu'elle fournisse le gage incontestable de sa sûreté de fonctionnement et de sa compétitivité économique. Au début des années 2000 s'est manifesté, au plan mondial, un nouvel intérêt pour les réacteurs électrogènes, qu’il s’agisse des réalisations (réacteurs de troisième génération) ou des études prospectives (réacteurs de quatrième génération). Cependant, la catastrophe de Fukushima de 2010 a entièrement remis en cause cet intérêt, notamment en Allemagne où l’arrêt du nucléaire est prévu pour 2022. Toutefois, le cas de l’Allemagne est finalement assez isolé à l’échelle mondiale, puisque les États-Unis, la Russie et les grands pays émergents que sont la Chine, l’Inde et le Brésil – et même probablement le Japon à moyen terme – ont plutôt tendance à développer leur parc électronucléaire
DOCUMENT larousse.fr LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|