ecole de musique piano
     
menu
 
 
 
 
 
 

Technologies pour l'information et la communication

 

 

 

 

 

 

 

Technologies pour l'information et la communication

Spintronique, photonique, électronique moléculaire… autant de technologies à l’étude pour miniaturiser davantage les transistors.

Publié le 1 juillet 2012

Les technologies pour l’information et la communication recourent comme matériau de base aux nanocomposants. Ceux-ci sont fabriqués de deux manières.
*         La voie descendante, ou top-down, permet de réduire le plus possible les dimensions du composant que l’on veut fabriquer. C’est la voie suivie par l’électronique depuis quarante ans. L’exemple le plus remarquable en est le circuit intégré sur puce.
*         La voie ascendante, ou bottom-up, permet de construire des molécules ou des assemblages atomiques complexes, intégrés ensuite dans de plus grands systèmes. Elle vise à fabriquer plus petit, moins cher et avec une qualité accrue. C’est l’une des voies d’avenir à plus ou moins long terme pour dépasser les limitations de la loi de Moore.

L’ÉVOLUTION DE LA MICROÉLECTRONIQUE
Le silicium, matériau de base de toute l’industrie électronique, est un élément abondant, puisqu’il est extrait du sable par purification (94 % de la croûte terrestre est composée de silice !). Il est cristallisé sous la forme de barreaux de 20 à 30 cm de diamètre, lesquels seront découpés en tranches de moins d’un millimètre d’épaisseur. Sur ces tranches sont fabriquées en même temps des centaines de puces, par photolithographie. Celle-ci consiste à reproduire, dans une résine photosensible, le dessin des circuits à réaliser, à l’image de pochoirs que l’on pourrait superposer pour obtenir des circuits de plus en plus complexes.
     
Ces motifs compliqués sont générés en une seule exposition. Les détails sont imprimés sur le substrat quand la lumière passe à travers les ouvertures d’un masque, définissant d’une manière précise et reproductible des millions de transistors. Les traits les plus fins obtenus aujourd’hui industriellement ont une épaisseur de 45 nanomètres, ce qui permet de disposer et de connecter des millions de composants de base – les transistors – par circuit et de multiplier ainsi les fonctionnalités. Cette technique de photolithographie est limitée par les phénomènes de diffraction et de longueur d’onde du faisceau de lumière utilisé. Des améliorations sont en cours de test pour augmenter la précision. Par exemple, la longueur d’onde des lumières utilisées à travers les pochoirs a été diminuée pour descendre du bleu au bleu profond puis à l’ultraviolet.

Mais de nouvelles lentilles doivent être mises au point pour focaliser cette lumière de plus en plus énergétique. La résolution spatiale a été doublée en tirant parti du caractère ondulatoire de la lumière et du principe d’interférence. Le renforcement sélectif des ondes lumineuses mène à une exposition accrue de la résine photosensible, tandis que leur annulation laisse des structures dans l’obscurité. On peut également graver des motifs sur les puces au moyen de faisceaux d’électrons, mais les dessins doivent alors être tracés les uns après les autres. La lithographie à faisceau d’électrons (e-beam) permet d’atteindre une résolution nanométrique, car la longueur d’onde des électrons est de l’ordre de quelques nanomètres. C’est idéal pour produire le pochoir initial qui sera réutilisé des milliers de fois en lithographie optique, ou pour la fabrication de circuits expérimentaux en laboratoire… mais pas pour la production en masse de puces.
La photolithographie atteindra ses limites techniques lorsque les détails les plus fins mesureront de 10 à 20 nm, ce qui devrait arriver à l’horizon de 2015.  À cette échelle, des effets dus à la physique quantique se manifesteront et perturberont le fonctionnement des circuits ; par exemple, des électrons pourront sauter d’un « fil » à l’autre par effet tunnel (voir la page “La physique quantique”). Outre les limites physiques, les investissements nécessaires pour construire des usines capables de graver des circuits aussi fins deviendront prohibitifs (estimés aujourd’hui à plus de 5 milliards d’euros). La voie top-down, qui aura poussé jusqu’à l’extrême la miniaturisation du transistor MOS (Metal oxide semiconductor), devrait atteindre ses limites vers 2020.
Un changement de technologie devrait alors s’imposer : ce sera le début de la véritable nanoélectronique, qui prendra en compte les propriétés de la matière à cette échelle. Les composants de base ne seront plus les mêmes.


COMMENT REPOUSSER LES LIMITES DE LA LOI DE MOORE ?
Plusieurs options sont possibles pour prolonger la voie de la miniaturisation, dont voici deux exemples.
La spintronique réalise le mariage entre l’électronique et le magnétisme. Alors que l’électronique actuelle est entièrement basée sur la manipulation de la charge électrique portée par les électrons, la spintronique utilise leur spin. Les électrons ont trois particularités physiques : leur masse, leur charge et leur spin. Pour cette dernière caractéristique intrinsèque, tout se passe comme si le moment magnétique de l’électron s’apparentait au sens de rotation interne de celui-ci autour d’un axe fixe imaginaire. Pour les électrons, le spin ne peut prendre que deux valeurs : +1/2 spin dit « up » ou -1/2 spin dit « down », correspondant ainsi au fait qu’il ne peut tourner que dans un sens ou dans l’autre. On peut utiliser cette propriété pour obtenir des fonctionnalités nouvelles, par exemple pour coder, traiter ou transmettre une information.

Focus sur Minatec

Pôle d’excellence européen en micro et nanotechnologies.

Autour de l’Institut Léti* du CEA est organisé un campus regroupant institutions universitaires et entreprises privées. Officiellement inauguré en juin 2006 et situé à Grenoble, Minatec met à leur disposition des salles blanches et une plateforme de nanocaractérisation unique en Europe, pour un investissement d’un milliard d’euros sur dix ans.
* Laboratoire d’électronique et des technologies de l’information.

Une grande variété de dispositifs innovants utilisant le spin des électrons peut être réalisée. Ces dispositifs combinent des matériaux magnétiques qui servent de polariseur ou analyseur en spin et des matériaux conducteurs, isolants ou semiconducteurs.
Des dispositifs spintroniques sont déjà utilisés dans les disques durs d’ordinateur. Il s’agit de capteurs dont la résistance électrique varie en fonction du champ magnétique appliqué. Ils permettent de relire l’information magnétique enregistrée sur le disque magnétique. La spintronique permet d’envisager de pousser la capacité de stockage sur les disques durs au-delà du térabit (1015 bits) par pouce carré, c’est-à-dire 155 milliards de bits/cm2.
D’autres applications industrielles sont en train de voir le jour. Ainsi, des mémoires magnétiques peuvent être réalisées sans aucune pièce mobile (contrairement aux disques durs). Ces mémoires sont formées d’un réseau de piliers magnétiques de dimension nanométrique, eux-mêmes constitués de couches magnétiques dont le sens de l’aimantation (+1/2 ou -1/2) détermine l’état du bit (respectivement 0 ou 1). Non seulement ces mémoires vives ne disparaissent pas en cas de coupure d’alimentation (non-volatilité), mais elles sont très rapides (écriture et lecture ne durent que quelques nanosecondes) et sont insensibles aux rayonnements ionisants. Elles permettent de concevoir des ordinateurs que l’on pourrait éteindre et allumer instantanément en gardant toute l’information à l’écran. D’autres applications sont en cours de développement pour la réalisation de composants radiofréquence pour les télécommunications et les réseaux sans fil.
La photonique utilise la lumière pour coder l’information. Tous les systèmes actuels (une puce d’ordinateur, un circuit intégré, un transistor) sont basés sur le transport, le confinement et les propriétés physiques de l’électron. Mais si, pour aller plus vite, il était remplacé par le photon ? Celui-ci, outre qu’il se déplace à la vitesse de la lumière (300 000 km/s), provoque peu de dissipation de chaleur lors de son déplacement.
Mais, avant d’employer les photons comme moyen de codage d’information dans une puce, il faut mettre au point tous les composants de la chaîne, de l’émetteur au récepteur, en passant par les guides et les modulateurs. Le silicium, vedette de la microélectronique, est une piètre source de lumière… à l’état macroscopique. La solution est venue de la nanostructuration : soumis aux lois étranges du monde quantique, un cristal de silicium, réduit à une dizaine de nanomètres, voit ses performances d’émission fortement modifiées ! Pour guider ces photons, pas question d’utiliser des fibres optiques ou des miroirs aux dimensions millimétriques, mais un dispositif bien plus efficace : le cristal photonique. Constitués en perçant de minuscules trous de manière périodique dans un semi-conducteur, ces cristaux réfléchissent et dirigent la lumière. Ils peuvent aussi la filtrer, en agissant sur des longueurs d’onde particulières et permettent de la confiner dans un volume extrêmement faible (quelques centaines de nm). La modulation, le multiplexage et le décodage des signaux sont les trois domaines où de nombreux progrès sont en cours pour aller vers l’ordinateur à photons. C’est cette possibilité de multiplexage qui, en permettant les calculs parallèles, représente le « plus » de l’ordinateur photonique.


Des mémoires vives persistantes et rapides grâce à la spintronique.

Le photon, qui se déplace à la vitesse
de la lumière, pourrait remplacer l’électron
pour coder les informations dans une puce.

Graphène et nanotube de carbone
En chimie et en science des matériaux, l'allotropie est la propriété de certains corps simples d'exister sous plusieurs formes cristallines ou moléculaires. Par exemple le carbone, qui apparaît sous une forme non structurée : la mine de crayon, ou structurée: le diamant. La mine de crayon est composée d’un empilement de feuillets monoatomiques d’atomes de carbone disposés en hexagones. Si l’on isole un seul feuillet de la structure, on obtient du graphène, qui présente des propriétés de transport électronique remarquables. Si l’on enroule ce feuillet sur lui-même, il peut prendre la forme d’un nanotube. Le nanotube a des propriétés mécaniques et électriques surprenantes qui promettent des applications nombreuses et une industrialisation dans un avenir proche :
- Le nanotube est 100 fois plus résistant et 6 fois plus léger que l’acier. Il peut donc être utilisé pour fabriquer des matériaux composites hautes performances et remplacer les traditionnelles fibres de carbone: raquettes de tennis ou clubs de golf sont des exemples d’applications grand public.
- En fonction de l’angle d’enroulement du feuillet de graphite, le nanotube est soit un excellent conducteur d’électricité, soit un semi-conducteur. Les conducteurs pourront être utilisés dans la fabrication de nanofils électriques, ou comme nano-électrodes dans les écrans plats de télévision ou d’ordinateur. Un nanotube semi-conducteur et un conducteur assemblés pourront être utilisés comme éléments de base pour fabriquer des composants électroniques nanométriques.

LA DÉMARCHE BOTTOM-UP À PARTIR DE NANOCOMPOSANTS

Cette nouvelle approche est envisageable pour surmonter les obstacles de la miniaturisation. Elle fait appel à des connaissances fonda­mentales de physique et de chimie et permet de concevoir les composants entièrement nouveaux de l’électronique moléculaire.
Si la fabrication atome par atome de nanocomposants est possible, elle est inenvisageable industriellement sans la maîtrise de procédés d’auto-assemblage de la matière, car elle prendrait un temps infini. À défaut de construire un circuit et ses nanocomposants, ce qui serait trop long et trop cher, les chercheurs envisagent la conception d’entités moléculaires dotées de fonctions électroniques capables de s’organiser seules. Pour les fabriquer, ils disposent de quatre briques de base : les molécules de synthèse, faciles à obtenir, les biomolécules comme l’ADN, les nanoparticules métalliques ou semi-conductrices et les nanotubes de carbone. Mais la voie de l’auto-assemblage est difficile : il faut réussir à contrôler le positionnement des briques.
Des charges positives et négatives s’attirent : si l’on ajoute des molécules chargées négativement à la surface d’un wafer, elles vont attirer les molécules chargées positivement greffées à la surface de nanotubes, créant ainsi des nanocomposants. Reste à résoudre le problème des jonctions entre ces composants et le reste du circuit ; faute de quoi, l’électronique moléculaire en restera là, malgré des perspectives très séduisantes.

 
Lorsque l’on applique une tension déterminée sur la grille, un électron peut entrer dans « l’île de Coulomb » tandis qu’un autre en sort. Il s’établit dans le transistor un courant dont l’intensité dépend du nombre d’électrons présents dans l’île. © Yuvanoé/CEA

En 1974, la première diode moléculaire a été réalisée sur une couche de molécules individuelles. Non plus faite en silicium, elle a été obtenue par la mise en contact de deux morceaux de semi-conducteurs : l’un des matériaux comporte de nombreux électrons, alors que le deuxième en est extrêmement pauvre. Des molécules qui présentent cette même asymétrie ont ensuite été conçues ; puis un transistor dans lequel le canal était formé d’une de ces molécules.
Ce dispositif a donné des preuves flagrantes du comportement quantique des électrons.
On peut aussi concevoir un transistor à un seul électron. Le principe consiste à ajouter un espace en matériau semi-conducteur entre la source et le drain du transistor, où seul un nombre déterminé d’électrons peut s’accumuler. Quand une tension électrique est appliquée entre la source et le drain, l’espace se remplit, puis le courant ne passe plus (phénomène de blocage de Coulomb). Lorsque l’on applique une tension sur la grille du transistor, un nouvel électron peut entrer, tandis qu’un autre sort de cet espace. Ainsi, en modifiant la tension de grille, on réalise de l’électronique à un seul électron.

 

 DOCUMENT     cea         LIEN
 

 
 
 
 

Plongée dans le nanomonde

 

 

 

 

 

 

 

Plongée dans le nanomonde

L’essor constant de la miniaturisation va de pair avec la mise au point de nouveaux microscopes, ouvrant la voie aux nanosciences et aux nanotechnologies.
Publié le 1 juillet 2012

Les possibilités offertes par la miniaturisation avaient été perçues très en amont, dès 1959, par le physicien Richard Phillips Feynman. Celui-ci avait émis l’hypothèse que l’homme pouvait manipuler les atomes et les utiliser soit pour stocker de l’information, soit pour créer des systèmes fonctionnels. L’idée était là, mais pas les instruments permettant de vérifier cette hypothèse.
En appliquant à l’électronique une loi économique datant de la fin du XIXe siècle, Gordon Moore, cofondateur d’Intel, estimait en 1965 que la cadence de miniaturisation des transistors intégrés sur une même puce suivrait une pente régulière. En 1974, une puce contenait 4 transistors intégrés. Aujourd’hui, cette même puce en contient des dizaines de millions, chacun de la taille de 100 nm. En 2020, selon la courbe de cette « loi de Moore », les transistors devraient atteindre 10 nm !
Grâce à cette miniaturisation, les industriels fractionnent le cœur des processeurs en plusieurs sous-unités travaillant parallèlement, augmentant ainsi les fonctionnalités des processeurs.

Selon la loi de Moore, d’ici à 2020, la taille des transistors devrait atteindre 10 nm, contre 100 nm aujourd’hui.


Pour en savoir plus

*         Focus sur la physique quantique
*         Dossier sur les microscopes

TOP-DOWN ET BOTTOM-UP
Cette volonté de miniaturisation est celle de la voie descendante, ou top-down. Le matériau est découpé, sculpté, gravé pour atteindre la dimension souhaitée, grâce à l’instrumentation élaborée et améliorée par l’homme, en vue d’atteindre le micromètre, puis le nanomètre. À l’inverse, la voie ascendante, ou bottom-up, permet d’assembler atome par atome des agrégats, puis des molécules, pour construire la matière. Cette voie est similaire à celle suivie par la Nature qui, à partir de molécules simples, a formé le monde du vivant durant les 4 milliards d’années d’évolution.
L’étude du nanomonde englobe :
*         les nanosciences, qui étudient la composition de la matière, son assemblage et ses propriétés intimes à l’échelle du nanomètre ;
*         les nanotechnologies, qui correspondent aux techniques et outils utilisés pour étudier ces nouvelles propriétés de la matière et pour réaliser de nouveaux dispositifs, objets et systèmes qui les exploitent.


DES OUTILS TRÈS FINS ET PRÉCIS
Pour manipuler des objets aussi petits, les outils doivent être très fins et précis. Le microscope à effet tunnel est l’un des premiers instruments créés afin de « voir » les atomes à la surface de la matière. Cet instrument comporte une pointe métallique extrêmement fine qui permet de cartographier, atome par atome, la surface d’un matériau. Il est uniquement utilisé pour l’observation de la surface des matériaux conducteurs. Une tension électrique, créant un courant d’électrons, est exercée entre la pointe et la surface. La surface est donc balayée à une distance de quelques nanomètres, la pointe capture les électrons qui transitent grâce à l’effet tunnel. Les variations de ce « courant tunnel » sont enregistrées et traitées par un ordinateur fournissant une image du relief de la matière, atome par atome (voir schéma ci-dessous). Ses inventeurs, les Suisses Gerd Binnig et Heinrich Rohrer, du laboratoire de recherche d’IBM à Zurich, ont été couronnés par le prix Nobel de physique en 1986.


Superposition d’images : la surface observée au microscope à effet tunnel s’accorde avec le modèle des seuls atomes d’aluminium la composant. © L.Barbier/CEA

Le microscope à effet tunnel

Le microscope à force atomique permet d’obser­ver des matériaux non conducteurs, tels que les matériaux céramiques, polymères ou biologiques.
S’appuyant sur un dispositif semblable à celui qui équipait la tête de lecture des tourne-disques, il est 100 % mécanique. La pointe de ce microscope est fixée sur un bras de levier flexible, qui est en interaction avec la surface du matériau. Elle balaye la surface en suivant à très faible distance le relief. La déformation du levier, éclairé par un laser, est mesurée par un photodétecteur et enregistrée sur un ordinateur.
Dans un grand nombre d’expériences, les chercheurs ont recours à la puissance de calcul des supercalculateurs pour modéliser l’assemblage atomique et restituer ses propriétés propres. L’objectif est d’augmenter les connaissances en sciences de la matière ou du vivant et de constituer en amont des assemblages inédits ou de contrôler certaines propriétés.

 

 DOCUMENT     cea         LIEN

 
 
 
 

les supercalculateurs

 


 

 

 

 

 

les supercalculateurs

Publié le 29 mai 2017

Un supercalculateur est un très grand ordinateur, réunissant plusieurs dizaines de milliers de processeurs, et capable de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. Les superordinateurs sont utilisés par les scientifiques et les industriels pour concevoir de nouveaux systèmes et objets (moteurs, avions, voitures), des matériaux ou des médicaments ; simuler des phénomènes physiques complexes (séismes, formation des étoiles, galaxies ou même Univers entier…) ; réaliser des prévisions (météorologie, climat) ; ou réaliser virtuellement des expériences difficilement réalisables en laboratoire.

COMMENT FONCTIONNE
UN SUPERCALCULATEUR ?
Dans les années 1930, les ordinateurs – ou calculateurs – effectuaient une opération par seconde. Aujourd’hui, les supercalculateurs les plus puissants réalisent des dizaines de millions de milliards d’opérations par seconde.
De tels progrès ont été possibles grâce à la miniaturisation des processeurs et des mémoires mais aussi grâce à une organisation particulière de ces calculateurs et de leur environnement à différentes échelles.

UN FONCTIONNEMENT EN « GRAPPE »
Pour réaliser autant d’opérations simultanées, les supercalculateurs effectuent les calculs « en parallèle », c’est-à-dire en les répartissant sur différents processeurs. Ceux-ci sont organisés en « grappe » de « nœuds de calcul », connectés par un réseau ultrarapide. Les nœuds de calcul mettent en commun leurs mémoires pour former une mémoire « distribuée » de très grande taille, et sont reliés à des espaces de stockage de plus grande taille encore. L’architecture détaillée des nœuds de calcul est également devenue un élément déterminant pour optimiser leur fonctionnement.
Les performances d’un supercalculateur décrivent ses capacités à exécuter des calculs mais aussi à traiter de très grands volumes de données. A ce niveau, on parle de « calcul haute performance » (ou « HPC », pour High Performance Computing en anglais) et la vitesse de traitement des opérations s’exprime principalement en Flops (Floating Point Operations Per Second, opération de base pour du calcul numérique, soit addition ou multiplication décimale).


LES SUPERCALCULATEURS  :
DES CAPACITÉS DE STOCKAGE GIGANTESQUES
Physiquement, les supercalculateurs sont constitués de nombreuses armoires (baies), reliées entre elles par des kilomètres de câble réseau (interconnexion ultra-rapide des nœuds de calcul) et regroupées dans des centres de calcul. Un centre de calcul comprend aussi de gigantesques capacités de stockage local de données auxquelles les ordinateurs doivent pouvoir accéder rapidement (dizaines de « petaoctets », contrepartie des dizaines de « petaflops » de puissance de calcul).
Comme ces machines sont de plus en plus puissantes et denses, leur consommation électrique devient très importante et dégage énormément de chaleur – tant dans les processeurs que dans les mémoires et réseaux de communication. Il faut donc mettre en place un système de refroidissement efficace et lui-même le moins énergivore possible - par exemple par circulation d’eau dans les portes des armoires ou dans les nœuds de calcul - ainsi qu’une climatisation dans la salle machine. Bien optimisés, ces systèmes de refroidissement consomment une fraction minoritaire de la consommation électrique globale, l’essentiel de l’énergie apportée au centre de calcul peut alors servir directement aux calculs et traitements de données et les coûts de fonctionnement sont mieux maîtrisés

LES SUPERCALCULATEURS, DES OUTILS ESSENTIELS POUR LA MODÉLISATION ET L’ANALYSE DES DONNÉES AU PROFIT DE LA SCIENCE ET DE L’INDUSTRIE

Grâce aux progrès des supercalculateurs, la simulation numérique – calculs permettant de représenter un phénomène physique ou complexe sur un ordinateur – s’est généralisée à toutes les disciplines au point de devenir le « troisième pilier » de la méthode scientifique, aux côtés de la théorie et de l’expérimentation.
La simulation numérique permet de mener des « expériences virtuelles » qui remplacent ou complètent les expérimentations lorsque celles-ci sont dangereuses (accidents, crash tests), à des échelles de temps trop longues ou trop courtes  (climatologie, physique atomique), à des échelles de taille trop petites ou trop grandes   (protéines, astrophysique) ou encore interdites (essais nucléaires)…
Depuis quelques années le calcul intensif, producteur de masses de données de plus en plus importantes, devient également un maillon indispensable du traitement des « mégadonnées » d’autres origines (expériences, observations, réseaux de capteurs, Internet…). Les techniques et méthodes du calcul haute performance (HPC) se retrouvent ainsi au cœur de processus mêlant production et analyse de données, modélisation numérique, techniques statistiques et d’apprentissage, intelligence artificielle...
Véritable fer de lance de ces approches, le HPC est la déclinaison la plus avancée à un moment donné de traitements parallèles qui se retrouvent souvent employés ou diffusés largement, à plus petite échelle et à terme, dans tous les secteurs de l’informatique.

LES DIFFÉRENTES ÉTAPES
D’UNE SIMULATION NUMÉRIQUE
Les différentes étapes d’une simulation numérique
Prenons l’exemple d’un chercheur ou d’une équipe de recherche recourant au HPC. Les moyens de calcul sont fournis par des centres de calcul régionaux, nationaux ou encore internationaux. L’accès à ces ressources se fait souvent via des dossiers de demande préparés à l’avance, parfois soumis à des processus de sélection compétitifs.

L’activité complète de modélisation/simulation comporte plusieurs étapes :

*         Décrire la réalité : les phénomènes physiques sont souvent complexes. Pour les représenter, les physiciens prennent en compte de nombreuses lois physiques, par exemple celles qui régissent les relations entre la vitesse, la température et la pression dans un fluide.
*        
*         Modélisation : Les lois physiques sont traduites en équations mathématiques, faisant intervenir l’ensemble des paramètres pertinents.
*        
*         Résolution numérique et programmation : les équations mathématiques, trop complexes pour être calculées humainement, doivent être traitées par un ordinateur. Comme celui-ci ne peut les résoudre en tous points et de manière continue, les mathématiciens les scindent en plus petits intervalles. Les équations sont calculées pour chacun des points et des instants pertinents. L’enchaînement des calculs à réaliser s’appelle un algorithme. En général, en simulation numérique, il s’agit au final de nombreuses additions et multiplications traduisant l’évolution des quantités physiques. Pour que l’ordinateur puisse exécuter l’algorithme, celui-ci est converti en langage informatique par les informaticiens.
*        
*         Validation : les trois étapes précédentes produisent un logiciel de calcul dont il faut assurer la mise au point « physique » (on parle de validation) et pas uniquement « informatique » (ici on parle de vérification). Il s’agit de délimiter la justesse physique des résultats pour certains domaines dans lesquels on peut se fier au logiciel. La comparaison avec des expériences ou résultats déjà connus est un ingrédient de la validation. De plus en plus, on recherche aussi l’estimation des incertitudes ou des sensibilités des calculs vis-à-vis de leurs paramètres. A défaut de réduire totalement les erreurs ou incertitudes, leur encadrement est apprécié.
*        
*         Ces quatre étapes ne sont pas nécessairement reproduites à chaque étude. L’effort de mise au point d’un environnement de simulation (logiciel de calcul et tous les outils complémentaires tels que la visualisation des résultats) se fait en amont soit par une équipe de recherche ou un groupement d’équipes, parfois par des sociétés logicielles spécialisées, et il est amorti sur des durées parfois très longues – années voire décennies.
*        
*         5. Exécution de simulations : grâce aux moyens de plus en plus performants mis à leur disposition par les spécialistes concevant les supercalculateurs et les centres de calcul, les physiciens et ingénieurs lancent leurs simulations numériques. Puis les résultats sont conservés dans des espaces de stockage de grande capacité, conçus pour un accès performant et pérenne. Les utilisateurs peuvent en général visualiser leurs données sur leur poste de travail de façon interactive, parfois directement connectés au système de stockage du centre de calcul - les masses de données concernées par le post-traitement peuvent en effet excéder les capacités locales de recopie ou les capacités de débit du réseau entre site de calcul et laboratoire.


<div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     


Les enjeux de la simulation numérique
La simulation numérique a pour objectifs :
*         De comprendre et faire progresser la science, dans tous les domaines ;
*         De concevoir : dans l’industrie, la simulation numérique permet de réduire le nombre de tests nécessaires au développement des produits, et donc le coût et la durée des étapes de recherche, développement, et conception. Ainsi, elle améliore la productivité, la compétitivité et la capacité d’innovation des entreprises dans tous les secteurs : aéronautique, cosmétique, bâtiment…
*         D’agir et décider : dans le domaine de la sécurité vis-à-vis des risques naturels ou industriels, de la santé, de l’environnement, de la prévision climatique..., la simulation numérique permet de répondre à des enjeux sociétaux.

 

  DOCUMENT     cea         LIEN
 

 
 
 
 

UN REGARD SUR LE FUTUR

 

 

 

 

 

 

 

UN REGARD SUR LE FUTUR

Un regard sur le futur : pouvons-nous comprendre l'infiniment grand à partir de l'infiniment petit ? Les dernières décennies du siècle ont été témoin de progrès extraordinaires dans notre compréhension des constituants ultimes de la matière et des forces qui agissent sur eux. Grâce à l'effort de nombreux scientifiques, nous sommes parvenus à élaborer une « théorie standard » qui décrit et explique tous les phénomènes ainsi observés au coeur du monde des particules élémentaires. Avec la théorie standard, nous pouvons retracer l'histoire de l'Univers en remontant dans le temps, jusqu'à quelques fractions de milliards de secondes après le Big Bang, à un moment où la température de l'Univers s'élevait à un million de milliards de degrés centigrade. A cette époque le plasma primordial qui constituait l'Univers était peuplé de particules que nous ne pouvons produire aujourd'hui seulement dans les accélérateurs de particules les plus puissants en Europe et aux USA. L'évolution de l'Univers a été profondément affectée par les phénomènes qui se déroulèrent alors, et même avant. Ainsi la compréhension des constituants fondamentaux et de leurs interactions est cruciale pour saisir la distribution sur une grande échelle des galaxies, la matière et l'énergie qui le composent, et sa destinée finale. Malgré les progrès, des éléments importants de la microphysique sont encore à l'Etat d'hypothèse. L'existence et les propriétés du « boson de Higgs » ou la nature de la « matière noire » qui constitue l'essentiel de la masse de l'Univers devront être éclaircis par le LHC (Large Hadron Collider), une machine révolutionnaire qui mènera l'Europe à la frontière des hautes énergies. Le LHC est actuellement en construction au CERN (conseil Européen pour la Recherche Nucléaire) à Genève, dans le cadre d'une collaboration internationale, et devrait entrer en activité en 2007. Le LHC et les machines qui succèderont éclaireront plusieurs aspects fondamentaux de notre monde, comme l'existence de dimensions additionnelles à l'espace et aux temps et permettront la synthèse de la Mécanique Quantique et de la Relativité Générale, le problème théorique le plus profond de notre époque.

UN REGARD SUR LE FUTUR

Un regard vers le futur
Luciano Maiani

Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.

Un premier exemple : lénergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.

La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.

La forme de lespace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.

Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.

La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.

Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.

La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.

Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.

Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.

Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.

La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.

 

   VIDEO       CANAL  U         LIEN   

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon