ecole de musique piano
     
menu
 
 
 
 
 
 

Le calcul et l'ordinateur quantiques

 


 

 

 

 

 

Le calcul et l'ordinateur quantiques

Publié le 18 mai 2021

Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

QU'EST-CE QU'UN BIT QUANTIQUE ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.


Le fonctionnement d'un ordinateur quantique
    
Atouts et difficultés de la recherche sur le calcul quantique
La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.


L'INTRICATION QUANTIQUE
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.


Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.

L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.
    

QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*         Le Data Mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*         L’optimisation de procédés de l’industrie 4.0 : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.<
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*         Enfin, le qubit photonique est, quant à lui, lui codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.


Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.
Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.
Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

 

  DOCUMENT     cea         LIEN

 
 
 
 

Propriétés physico-chimiques de la matière

 

 

 

 

 

 

 

Propriétés physico-chimiques de la matière


Les propriétés chimiques d’un atome dépendent seulement du nombre et de la disposition des électrons dans leur nuage ; tous les isotopes d’un même élément ont donc les mêmes propriétés chimiques. Cependant, la légère différence de masse de leur noyau fait que leurs propriétés physiques se différencient quelque peu.

Publié le 1 juillet 2014


Du nuage électronique dépend la diversité matérielle.


PROPRIÉTÉS CHIMIQUES DE L'ATOME
Les électrons du nuage électronique d’un atome ne peuvent se comporter n’importe comment. S’il n’est pas possible de leur assigner des trajectoires bien définies, on peut en revanche décrire l’état dans lequel chacun se trouve grâce à quatre propriétés : leur énergie, leur moment cinétique, la projection de ce moment cinétique sur une direction donnée et leur spin.
La structure du nuage électronique qui résulte de la distribution de ces propriétés a deux conséquences.
*         La première est la répartition des symboles chimiques dans le tableau de Mendeleïev.
*         La seconde est la nature des propriétés chimiques des différents éléments.
*        
Certaines configurations de nuages électroniques sont particulièrement stables. De tels atomes ne réagissent pas chimiquement, ils sont inertes. Ce sont les atomes des gaz rares dont les symboles sont écrits dans la colonne la plus à droite du tableau de Mendeleïev.


Les molécules de l’aspirine (image 1) et du paracétamol (image 2) se ressemblent beaucoup. Elles sont toutes deux composées d’atomes de carbone (en gris), d’hydrogène (en blanc) et d’oxygène (en rouge). En bleu, un atome d’azote.


Les atomes à proximité des gaz rares tendent à modifier leur nuage électronique de façon à ce qu’il ressemble à celui d’un gaz rare. Pour cela, ils s’ionisent, en gagnant ou perdant un ou plusieurs électrons, ou établissent une liaison covalente avec d’autres atomes. Ils partagent alors la propriété de certains électrons.
La matière dite « organique », c’est-à-dire construite autour de la covalence des atomes de carbone, oxygène, azote et hydrogène, est une mine inépuisable de molécules.
Les autres atomes du tableau périodique ont des structures électroniques plus complexes. Ils s’organisent collectivement en s’associant par liaison métallique. Le métal obtenu est solide à température normale et conducteur de courant électrique.

PROPRIÉTÉS PHYSIQUES DE LA MATIÈRE
Toutes les propriétés physiques de la matière : dureté, malléabilité, ductilité, transparence, couleur, températures de changements d’états, caractère conducteur ou isolant… ainsi que toutes ses propriétés chimiques : acide ou base, oxydant ou réducteur, solvant ou soluté… sont dues aux différents comportements adoptés par les électrons dans les nuages électroniques.

On sait aujourd’hui organiser ces atomes de façon à obtenir des propriétés nouvelles, comme la supraconduction à haute température, des propriétés magnétiques renforcées, une miniaturisation des circuits électriques ou la possibilité d’y stocker de l’information.

Voir et sonder les atomes
De notre échelle à celle du micromètre, il est possible de former des images à l’aide des ondes lumineuses, en utilisant un microscope optique. Pour former les images d’objets plus petits, il faut utiliser des particules, comme des électrons, dont la longueur d’onde associée est plus petite que le micromètre. Le principe des microscopes électroniques est le même que celui des microscopes optiques (par exemple les microscopes électroniques à balayages MEB).

En poussant leurs performances à l’extrême, les chercheurs sont parvenus à descendre jusqu’à l’échelle atomique (0,1 nm). Depuis le début des années 1980, les microscopes à sonde locale ont vu le jour. Leur principe repose sur l’exploration d’une surface relativement plane par une sonde très fine qui interagit avec les atomes. On peut citer le microscope à effet tunnel (STM pour Scanning tunneling microscope) qui utilise un faible courant électrique passant entre l’échantillon et une pointe, le microscope à force atomique (AFM) qui utilise l’interaction mécanique entre l’échantillon et une pointe montée sur levier souple, et le microscope optique à champ proche qui exploite, à l’aide d’une fibre optique très fine, les ondes évanescentes au voisinage de la surface de l’échantillon.

Un dernier type est apparu récemment : le microscope à luminescence induite par effet tunnel (STL).

Tous ces microscopes permettent l’étude, à l’échelle atomique, de diverses molécules et de leur comportement sur différents substrats. Il n’est guère possible de former des images des noyaux atomiques. Il est cependant possible d’en produire en calculant la répartition des masses et des charges à l’intérieur des noyaux et en confrontant ces calculs à la mesure de certaines de leurs propriétés.

LES QUATRE INTERACTIONS FONDAMENTALES
Vidéo
Zoom sur deux instruments qui permettent de caractériser la matière à l'échelle nanométrique : le microscope à effet tunnel et le microscope à force atomique.
     

Pour rendre compte de tous les phénomènes auxquels ils ont accès, les physiciens ont besoin de ne faire intervenir que quatre forces, qu’ils jugent « fondamentales ». Quelles sont-elles ?
*         La gravitation, bien sûr, identifiée par Isaac Newton il y a plus de trois siècles ;
*         l’interaction électromagnétique, identifiée en tant que telle par James Clerk Maxwell dans la seconde moitié du XIXe siècle, et qui rend compte de la cohésion de la matière à notre échelle ;
*         l’interaction nucléaire faible, découverte dans les années 1930, qui gère certains processus radioactifs, notamment la radioactivité bêta ;
*         l’interaction nucléaire forte - découverte à peu près au même moment que l’interaction nucléaire faible - qui lie très solidement entre eux les constituants des noyaux atomiques.


La gravitation
La gravitation gouverne bien d’autres phénomènes, de la chute des corps au mouvement des planètes. Elle est également à l’origine de la formation des étoiles à partir du gaz primordial, qu’elle oblige à se contracter. Et, grâce à elle encore, les étoiles, une fois formées, s’attirent les unes les autres, formant ainsi des galaxies.
L’interaction gravitationnelle est attractive et de portée infinie (c’est-à-dire que la force qui existe entre deux masses n’est nulle que si ces deux masses sont séparées d’une distance infinie).
Nul écran ne pouvant en stopper l’influence, il est vain d’espérer l’amoindrir ou la supprimer. Mais son intensité est beaucoup plus faible que celle des autres interactions, si bien qu’on peut négliger ses effets à l’échelle des particules, soumises par ailleurs à des forces beaucoup plus intenses.

L’interaction électromagnétique
L'interaction électromagnétique est beaucoup plus intense que la gravitation. Elle agit de façon manifeste autour de nous puisqu’elle fait fonctionner tous nos appareils électroménagers.
Mais à un niveau plus fondamental, elle assure surtout la cohésion des atomes et des molécules, gouverne toutes les réactions chimiques et aussi les phénomènes optiques (puisque la lumière est constituée d’ondes électromagnétiques, structurées en photons). À l’instar de l’interaction gravitationnelle, elle a une portée infinie, mais, étant tantôt attractive, tantôt répulsive (selon le signe des charges électriques en présence), ses effets cumulatifs sont annulés à grande distance du fait de la neutralité globale de la matière.

L’interaction nucléaire faible
L'interaction nucléaire faible a une portée très courte, d’environ un milliardième de milliardième de mètre. Autant dire qu’il s’agit, comme la colle, d’une interaction de contact : deux particules ne peuvent interagir par elle que si elles se touchent quasiment. Elle est notamment responsable de la radioactivité bêta, par laquelle un neutron se désintègre en un proton et un électron. Comme son nom l’indique, l’interaction faible est caractérisée par une très faible intensité qui la rend difficile à observer. Mais cela ne l’empêche pas de jouer un rôle capital, notamment dans le Soleil, où elle régit les réactions de fusion des noyaux d’hydrogène.
Si elle disparaissait de l’Univers, notre étoile cesserait de briller…

L'interaction nucléaire forte
L’interaction nucléaire forte est la plus intense des quatre interactions fondamentales, mais elle est restée longtemps cachée. Les physiciens ont deviné son existence dans les années 1930, lorsqu’ils se sont rendus compte que la stabilité des noyaux atomiques avait quelque chose d’étonnant. Puisqu’ils portent des charges électriques de même signe, les protons au sein d’un noyau atomique se repoussent du fait de la force électrique qui tend à les séparer. Et pourtant, ils semblent très solidement attachés les uns aux autres. Par quoi donc est combattue leur répulsion électrique ? Aucune force classique ne pouvait expliquer cette cohésion nucléaire.
De là l’hypothèse, vérifiée depuis, qu’il existe au sein des noyaux atomiques une force très intense, l’interaction nucléaire forte, de portée très courte, environ un millionième de milliardième de mètre…
Cette force agit comme une sorte de glu entre deux nucléons (proton ou neutron) en contact l’un avec l’autre, mais dont la force s’affaiblit très rapidement dès qu’on les écarte un tant soit peu l’un de l’autre. Cela ne l’empêche pas d’être incroyablement puissante. Elle est par exemple capable d’arrêter, sur quelques millionièmes de milliardième de mètres, un proton lancé à cent mille kilomètres par seconde…


    DOCUMENT     cea         LIEN

 
 
 
 

LA FUSION NUCLÉAIRE

 


 

 

 

 

 

La fusion nucléaire

publié  le 8 février 2015

La fusion nucléaire est une réaction physique qui se déroule au cœur des étoiles : des noyaux atomiques fusionnent, dégageant l’énergie à l’origine de la lumière et de la chaleur qu’émettent les étoiles. Les quantités d’énergie libérée sont très importantes, ce qui pousse les scientifiques à chercher le moyen d’exploiter la fusion comme nouvelle source d’énergie durable, puisque les matières premières nécessaires sont pratiquement illimitées.


LE PRINCIPE PHYSIQUE

Le noyau des atomes est composé de neutrons et protons, qui tiennent ensemble grâce à la force la plus intense de la nature : l’interaction forte, responsable de « l’énergie de liaison nucléaire ». Cette énergie peut être libérée de deux façons :
*         soit en cassant des noyaux lourds : c'est ainsi que fonctionne une centrale nucléaire actuellement ;
*        
*         soit en fusionnant des noyaux légers : ce qui se passe dans les étoiles

Dans des conditions de température extrême (des millions de degrés Celsius), la matière se présente sous forme de plasma : ni solide, ni liquide, ni gazeuse, la matière est comparable à une « soupe » où noyaux et électrons ne sont plus liés, ils circulent librement. Lorsque deux noyaux « légers » se percutent à grande vitesse, ils peuvent fusionner, créant un noyau plus lourd : c’est la fusion nucléaire. Durant l’opération, une partie de l’énergie de liaison des composants du noyau est libérée sous forme de chaleur ou de lumière.
Dans le cœur des étoiles, ce sont deux noyaux d’hydrogène, composés uniquement d’un proton, qui fusionnent pour donner un noyau plus lourd : l’hélium dont le noyau contient deux protons et un ou plusieurs neutrons. Dans le Soleil, cette transformation se déroule en plusieurs étapes. Sur Terre, pour récupérer de l'énergie, les scientifiques tentent d’utiliser la fusion de deutérium et de tritium, deux isotopes de l’hydrogène (noyaux contenant un proton et un ou deux neutrons). Cette réaction donne elle aussi naissance à un noyau d'hélium très chaud, et libère un neutron de grande énergie.


ENJEU :
CRÉER ET MAINTENIR
UN PLASMA DE FUSION SUR TERRE
Pour imaginer récupérer de l’énergie à partir de la fusion nucléaire, il faut être capable de créer des conditions physiques similaires à celles des étoiles, et atteindre des températures de 150 millions de degrés (dix fois la température interne du Soleil). Ce défi scientifique et technologique posé aux chercheurs représente un important enjeu stratégique : la fusion pourrait devenir une nouvelle ressource d’énergie illimitée, sans risque majeur, et sans déchets hautement radioactifs à stocker.

ZOOM SUR...
Le tokamak
À la fin des années 1960, la communauté scientifique - à commencer par les scientifiques russes, qui furent précurseurs - est parvenue à développer une machine capable de contenir le plasma dans une enceinte fermée et à le chauffer pendant une fraction de seconde : le tokamak.
En forme d'anneau (ou « tore »), les particules qui y sont injectées subissent des champs magnétiques si intenses qu’elles restent maintenues dans la partie centrale de l’anneau, sans contact avec les parois. Leur chauffage est assuré par différents moyens : l’injection de matière chaude et le chauffage par ondes sont les plus utilisés actuellement. Il existe d’autres façons de faire la fusion, par exemple en employant des faisceaux lasers intenses qui compressent une microbille contenant le mélange deutérium-tritium.


R&D :
AMÉLIORER LES TECHNOLOGIES
POUR RÉUSSIR À METTRE
LE SOLEIL EN BOÎTE
De nombreux organismes de recherche, à travers le monde, étudient la fusion. L’expérience d’envergure de cette thématique, le projet Iter, requiert des partenariats internationaux, pour compléter les expérimentations menées à plus petite échelle à travers le monde.
Le but du réacteur est de pouvoir récupérer en continu suffisamment de puissance issue des réactions de fusion pour assurer, d’une part, le fonctionnement du réacteur et, d’autre part, la fourniture en électricité.
Le CEA, au sein d’Euratom, dispose d’un tokamak : Tore Supra, devenu West, situé sur le centre de Cadarache. Tore Supra a fonctionné de 1988 à 2013. Cette machine, dans le contexte européen, avait pour objectif l'étude de plasmas en régime permanents, c'est-à-dire sur plusieurs dizaines -voire centaines- de secondes. Pour cela de nouvelles technologies y ont été déployées :
*         l’utilisation de « câbles supraconducteurs », pour créer des aimants qui vont confiner le plasma en continu ;
*        
*         l’utilisation de micro-ondes pour chauffer et générer du courant dans le plasma ;
*        
*         la mise en place d’éléments de première paroi situés immédiatement autours du plasma refroidis et capables de supporter de haut flux de chaleur.

Tore Supra détient le record du monde de durée d’un plasma performant (c’est-à-dire représentant un certain niveau de température et de densité), parfaitement maîtrisé, pendant 6mn30. La machine européenne JET, la plus grande du monde, située à Culham (Angleterre), à laquelle participe les équipes du CEA, détient quant à elle le record mondial de « puissance fusion » (16 MégaWatt pendant 1s, 1 mégawatt correspond à près de vingt mille ampoules allumées en même temps). Tous les résultats innovants fournis par ces machines ont été intégrés dans la construction du tokamak Iter.
De par sa configuration particulière, notamment le refroidissement « actif » des composants, Tore Supra a constitué une base unique d’expérimentation des composants face au plasma. Le projet WEST a consisté à modifier, entre 2013 et 2016, Tore Supra pour en faire une plateforme unique de tests pour ce composant « critique » du tokamak ITER, le divertor tungstène activement refroidi.
De par sa nouvelle configuration magnétique, ses équipements spécifiques et son environnement entièrement métallique, WEST va tester des composants en tungstène, identiques à ceux que l’on installera sur ITER. En effet, si la température et la densité au cœur du plasma de WEST sont plus faibles que dans ITER, les conditions à la périphérie du plasma sont très similaires, avec des flux de chaleur et de particules dans le divertor pouvant atteindre 20 MW / m2 – soit dix fois plus intenses que ce que subit le bouclier d’une navette spatiale à son entrée dans l’atmosphère. WEST permettra également d’explorer les problématiques de physique des plasmas sur des longues durées en environnement tungstène.

ET DEMAIN ?
Jusqu’à maintenant, les recherches menées ont permis aux scientifiques de mieux comprendre les plasmas, de les maîtriser et d’en augmenter les performances énergétiques. Ces thématiques regroupent aussi bien l’infiniment petit (compréhension du comportement de la matière qui nous entoure) que l’infiniment grand.
Le Tokamak international Iter, à proximité du centre CEA de Cadarache, est une nouvelle étape qui succède à une longue lignée de machine. Elle est la première installation à réunir toutes les conditions pour obtenir et étudier un plasma en combustion, c’est-à-dire d’un plasma dominé par les réactions de fusion. La suite, avec la conception de futurs réacteurs comme Demo, en intégrant de nouveaux concepts de matériaux de bord et la fourniture de tritium in situ, devrait mener, en délivrant pour la première fois du courant électrique, à la naissance d’une nouvelle filière énergétique : l’énergie nucléaire de fusion.
Les défis technologiques posés par la fusion nucléaire sont énormes : le cryomagnétisme, le contrôle-commande du plasma et de la machine en temps réel ; concevoir des matériaux de paroi capables de supporter des hauts flux de chaleur et la percussion de neutrons ; intégrer à ces matériaux du lithium, pour assurer l’auto-alimentation du réacteur…
Afin de développer une exploitation industrielle de la fusion, les limites, risques ou verrous technologiques à surmonter pour la construction de réacteurs à fusion sont déjà identifiés : la maintenance de l’ensemble, le vieillissement, la tenue des matériaux de structures et la gestion des déchets radioactifs de la première paroi…
De nature différente, toutes ces problématiques sont déjà présentes dans la filière nucléaire actuelle (qui exploite la fission nucléaire), et déjà en cours d’étude pour une exploitation industrielle de la fusion nucléaire. Diversifier nos ressources énergétiques permettra ainsi d’assurer l’approvisionnement énergétique des pays et de trouver des alternatives aux énergies fossiles carbonées (pétrole, gaz, charbon…), qui constituent encore l’essentiel de l’énergie consommée sur Terre.

 

  DOCUMENT     cea         LIEN
 

 
 
 
 

Les étoiles

 


 

 

 

 

 

Les étoiles

Publié le 7 juin 2017
       
Une étoile est une boule de gaz, lumineuse, principalement composée d’hydrogène et d’hélium. Le cœur d’une étoile atteint une température extrêmement élevée (plusieurs millions de degrés). Cette forte température permet la réaction de fusion des noyaux d’hydrogène qui maintient, sur des temps pouvant atteindre des dizaines de milliards d’années, l’énergie lumineuse qui nous permet de les voir de si loin.
COMPOSITION D’UNE ÉTOILE

Le gaz composant les étoiles est « ionisé », c’est-à-dire que les électrons électriquement chargés négativement sont totalement ou partiellement séparés des noyaux électriquement chargés positivement. On appelle ce gaz un plasma.

A l’œil nu ou au télescope en lumière visible, on ne voit que la surface lumineuse des astres. Grâce aux télescopes scientifiques terrestres et spatiaux, l’ensemble du spectre électromagnétique de l’étoile peut être observé. Chaque domaine du spectre apporte des informations spécifiques sur l’origine, l’évolution et  le fonctionnement des astres. Par exemple, les rayons infrarouges nous apprennent où et comment les étoiles se forment, la lumière visible nous renseigne sur la composition chimique des étoiles et les ondes radio sur leur activité magnétique. Enfin les rayons X et les gammas révèlent les très hautes températures atteintes lors des explosions qui ont lieu à la fin de la vie des étoiles.
L’ensemble des données provenant de tous ces rayonnements permet de mesurer précisément quelle est la quantité d’énergie produite par une étoile, la température à sa surface ou encore sa composition chimique et son impact sur l’environnement interstellaire.

POURQUOI LES ÉTOILES BRILLENT-ELLES ?
L’équilibre des étoiles dans l’Univers est régi par deux effets opposés : la gravitation, qui tend à compresser le gaz qui compose l’étoile et la pression thermique de ce gaz qui tend à le dilater.
Le cœur d’une étoile est extrêmement chaud. La différence de température entre le cœur et la surface de l’étoile entraîne un flux de chaleur, donc d’énergie, du centre vers l’extérieur. Cette chaleur est finalement rayonnée par l’étoile à sa surface et fait que nous la voyons briller.

L’énergie des étoiles est due aux réactions nucléaires de fusion qui ont lieu en leur centre. Les étoiles évoluent en transformant l’hydrogène en éléments plus lourds. A la fin de leur vie, les réactions nucléaires s ‘emballent et les étoiles se gonflent avant finalement de se contracter définitivement, pour la plupart d’entres elles, en un astre très dense lorsque leurs ressources internes tarissent. Celui-ci va se refroidir lentement jusqu’à ce qu’il ne brille presque plus. La durée de vie d’une étoile varie ainsi en fonction de sa masse. Plus une étoile est grosse, plus elle consomme rapidement son énergie. Une étoile massive peut vivre quelques dizaines de millions d’années alors que les étoiles plus petites peuvent vivre des dizaines, voire même des centaines de milliards d’années.

NAISSANCE D’UNE ÉTOILE
A l’intérieur des galaxies, on trouve de gigantesques nuages de gaz et de poussières, appelés nuages moléculaires. Leur forme a récemment été révélée dans l’infrarouge. Loin d’être sphériques, ils se structurent en un réseau de filaments interstellaires. Probablement sous l’effet conjugué de la turbulence et de la gravitation, une partie de ces filaments peut se condenser, se contracter puis se fragmenter en poches de gaz : les cœurs protostellaires. Dans ces cœurs, la masse de gaz s’accumule progressivement, l’agitation des particules augmente et la température du gaz s’élève jusqu’à environ un million de degrés. A ce stade, on considère qu’il s’agit d’une protoétoile. Chaque protoétoile devient ensuite de plus en plus dense en s’effondrant sur elle-même sous l’effet de la gravité. La température augmente encore jusqu’à ce qu’elle soit suffisamment élevée pour produire des réactions de fusion thermonucléaire. Avec ces réactions, la protoétoile devient une étoile.
La formation d’une étoile peut être observée par les astrophysiciens grâce aux rayonnements infrarouge et submillimétrique émis par le gaz et la poussière composant les cœurs protostellaires.

VIE ET MORT D’UNE ÉTOILE
Durant leur vie, la structure interne des étoiles évolue comme leur taux de rotation et leur activité magnétique. Ces deux processus sont intimement liés via un effet appelé dynamo fluide qui convertit de l’énergie mécanique en énergie électrique. A l’intérieur d’une étoile, les zones turbulentes et convectives, où l’énergie est transportée, non pas par la lumière, mais par les mouvements à grande échelle de la matière, génèrent des courants électriques. Ces courants, combinés à la rotation de l’étoile, génèrent à leur tour, via l’effet dynamo, des champs magnétiques dont l’intensité et la structure changent au cours du temps. Dans le cas du Soleil par exemple, le fameux cycle de 11 ans et l’apparition périodique des taches solaires sont une illustration de cette activité magnétique des étoiles.

Le Soleil passe par des maximums puis par des minimums d’activité et cela a un impact direct sur la Terre, car des éruptions très énergétiques peuvent impacter notre planète.  Cette activité magnétique est très intense dans les étoiles jeunes et se calme au fur et à mesure de l’évolution de l’étoile, lorsque sa rotation ralentit. La durée des cycles magnétiques s’allonge alors et leur intensité s’amenuise. Ce ralentissement, important pour les étoiles de type solaire, est dû au vent de particules appelé "vent solaire", qui extrait de la masse et de la "quantité de rotation" (plus précisément du "moment cinétique") de l’étoile. On parle alors de gyrochronologie ou de magnétochronologie, pour désigner l’évaluation de l’âge des étoiles en fonction de leur rotation ou de leur magnétisme.

Le magnétisme solaire nous permet donc de comprendre le magnétisme des étoiles et vice-versa.
Une autre manière de comprendre les étoiles est d’en sonder l'intérieur profond. Ceci est possible grâce à une technique dite de "sismologie stellaire" ou "héliosismologie", qui, par l’étude des vibrations (ondes sonores ou mixtes) se propageant dans les étoiles, nous renseigne sur leur intérieur, un peu comme la comparaison du son d’un tambour ou d’une trompette, nous permet de distinguer la taille et la nature du matériau composant de l’instrument de musique.

La sismologie solaire et stellaire a permis de grandes avancées en décrivant la structure et la dynamique interne des étoiles, amenant les scientifiques à réviser la compréhension classique des étoiles. Dans le Soleil, cette technique d’observation indirecte, « de l’intérieur », a mis en évidence la rotation interne solaire et la présence d’une forte zone de mélange appelée la tachocline, à la séparation entre le cœur radiatif du Soleil en rotation rigide (rotation en bloc solide) et la zone convective, la région plus extérieure, animée de forts mouvements de convection.

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon