ecole de musique piano
     
menu
 
 
 
 
 
 

Les lasers de recherche

 

 

 

 

 

 

 

LE LASER : UN CONCENTRÉ DE LUMIÈRE
Les lasers de recherche


Ultrapuissants et ultrarapides, les lasers sont utilisés par les chercheurs pour étudier la physique à très haute densité d'énergie ou pour étudier les phénomènes de physique à très haute intensité.

Publié le 30 juin 2015


Grâce à ses propriétés uniques, le laser peut concentrer des énergies (relativement) importantes à la fois dans l’espace (focalisation) et dans le temps (impulsions brèves) pour atteindre des intensités gigantesques, capables de changer l’état de la matière, et en dévoiler les secrets. Afin d’utiliser des lasers spécifiques à leurs recherches, les chercheurs jouent sur ces deux critères principaux : la brièveté des impulsions laser, jusqu’à la femtoseconde (10-15 s), pour étudier les phénomènes de physique à très haute intensité, et l’énergie des faisceaux pour la physique à très haute densité d’énergie (plasmas, fusion nucléaire…).

DES LASERS POUR LA FUSION
Pionnier dans ce domaine, le CEA a conçu et assemblé, sur le centre du Cesta à proximité de Bordeaux, le laser Mégajoule (LMJ) précédé par la Ligne d’intégration laser (LIL), pour étudier la fusion par confinement inertiel.

La Ligne d’intégration laser, un prototype

Le laser Mégajoule délivrera une énergie lumineuse pouvant atteindre 1,8 million de joules.

La Ligne d’intégration laser avait une longueur de 150 m, une largeur de 70 m et une hauteur de 23 m.
Prototype de quatre faisceaux laser du laser Mégajoule, la LIL a été développée et mise au point pour en valider les choix technologiques et physiques (optiques). Depuis sa mise en fonctionnement en 2002 et jusqu’à son arrêt en 2014, la LIL a permis d’optimiser l’ensemble de la chaîne laser en vue de son utilisation au sein du LMJ. La méthode d’alignement, le lissage des faisceaux de lumière ou encore la fiabilité des composants ont été évalués et améliorés en vue d’une utilisation, à coût minimal, dans la future installation. Les premiers diagnostics pour le contrôle des futurs faisceaux et ceux du dispositif de mesures pour les expériences de physique y ont été mis au point. Au départ prototype, la LIL est devenue, de par ses caractéristiques, un grand instrument de physique pour la recherche ; elle a été utilisée pour mener des expériences préfigurant celles qui seront réalisées avec le LMJ.

Caractéristiques de la ligne d'intégration laser LIL
Mode de fonctionnement    impulsionnel
Durée de l'impulsion    1 nanoseconde (10-9 seconde)
Energie laser de sortie    30 000 joules
Puissance    15-60 térawatts (TW)
Milieux laser    Milieux laser : verre dopé au néodyme
Longueur d'onde fondamentale    infrarouge
Longueur d'onde de sortie    ultraviolet


Le laser Mégajoule
Le laser Mégajoule (LMJ) est une installation majeure du programme Simulation de la Direction des applications militaires du CEA. Cette installation exceptionnelle, dimensionnée pour accueillir jusqu’à 240 faisceaux, sert à étudier, à toute petite échelle, les conditions extrêmes atteintes par les matériaux lors du fonctionnement des armes nucléaires.
Son utilisation doit permettre en particulier :
*         de valider les modèles fondamentaux (équations de physique) décrivant la physique du fonctionnement des armes nucléaires, et de vérifier que la modélisation prend en compte tous les phénomènes ;
*        
*         de réaliser des expériences mettant en jeu l’enchaînement et l’imbrication de ces modèles. Ces expériences sont essentielles pour démontrer la maîtrise des chaînes de logiciels reproduisant par le calcul le fonctionnement des armes. La validation de la simulation repose sur de nombreuses catégories d’expériences ; les plus complexes conduisent à la combustion d’une microcible contenant un mélange deutérium-tritium porté à 70 millions de degrés (l’ignition).

Le laser Mégajoule délivrera une énergie lumineuse pouvant atteindre 1,8 million de joules. Pour amener l’énergie jusqu’à la cible, une impulsion laser de très faible énergie est amplifiée progressivement, sur une très grande distance (450 m). La chaîne laser se déploiera sur 300 m de longueur, 160 m de largeur, dans quatre halls de 128 m de longueur et 14 m de hauteur.

Caractéristiques du laser Mégajoule LMJ
Mode de fonctionnement    impulsionnel
Durée de l'impulsion    quelques nanosecondes (10-9 secondes)
Energie laser de sortie    1,8 million de joules
Puissance    500 térawatts (TW)
Milieux laser    verre dopé au néodyme
Longuer d'onde fondamentale    infrarouge
longueur d'onde de sortie    ultraviolet


Le laser Petal
Dans la dynamique d’ouverture et de partage de l’utilisation du laser Mégajoule, le laser petawatt Petal sera implanté auprès du LMJ pour constituer un outil expérimental exceptionnel ouvert à la communauté scientifique civile. L’Institut laser et plasma est le point d’entrée ; il recueille et évalue les propositions d’expériences.
Le laser Petal est un laser de haute énergie et de haute puissance générant des impulsions à 3,5 kilojoules durant 0,5 à 10 picosecondes. Son éclairement peut atteindre 1020 W/cm2, soit la concentration sur un centimètre carré de la lumière émise par 1 000 millions de milliards d’ampoules de 100 W. Avec cet outil de recherche extrêmement puissant, le champ des études de la fusion contrôlée pourrait être étendu à la physique du noyau atomique et même à des applications médicales. Il permettra de reproduire à une échelle réduite les conditions physiques qui n’apparaissent par exemple qu’au coeur des étoiles, comme notre Soleil, où les mécanismes de fusion sont à l’origine d’un formidable dégagement d’énergie.

Les lasers ELI, européens
ELI (pour Extreme light infrastructure) est
une infrastructure de recherche associant 40
organismes de recherche européens, dont le
CEA. Elle hébergera quatre lasers les plus
puissants du monde, atteignant une puissance de lumière jamais obtenue sur Terre : 1018 W en 10-18 s. Trois sont en cours de construction, en Hongrie, République tchèque et Roumanie. Ils seront dédiés à la recherche fondamentale, la physique des particules, la physique nucléaire, l’astrophysique et la cosmologie.

DES LASERS POUR LA RECHERCHE FONDAMENTALE

Les lasers ultra-brefs permettent d’étudier toute une série de phénomènes extrêmement rapides, aussi bien physiques que chimiques. Les études portent sur les systèmes atomiques et moléculaires simples, dans lesquels on observe en particulier la dynamique électronique (ce que deviennent les électrons après ou pendant la réception de l’impulsion lumineuse) à l’échelle de temps attoseconde (10-18 s), aux systèmes biomoléculaires complexes (l’ADN par exemple) étudiés à des échelles de temps allant de la femtoseconde à la milliseconde, jusqu’à l’optique relativiste dans les plasmas.

A l’échelle de la femtoseconde

Les lasers à impulsions femtosecondes (10-15 s) permettent ainsi d’étudier les phénomènes extrêmement fugitifs lors d’expériences de femtochimie, comme des appareils photo dont le temps de pause est suffisamment court pour suivre le mouvement des atomes. En faisant varier le retard entre une première impulsion laser qui déclenche la réaction chimique et une seconde qui en teste l’état d’avancement, le « film » de cette réaction, dont la durée totale est typiquement de l’ordre d’un millionième de millionième de seconde, est reconstitué.
Les lasers ultra-brefs permettent également de développer des sources secondaires, c’est-à-dire issues elles-mêmes de l’interaction du laser avec la matière, ultra-brèves comme des faisceaux d’électrons ou de protons, ou de rayonnement cohérent de courte longueur d’onde.
D’une certaine manière, l’énergie véhiculée par la lumière est transférée, par interaction avec la matière, vers des particules massives ultra-rapides ! Ces particules et ce rayonnement sont utilisés à leur tour pour des études de dynamique électronique dans des gaz et dans des biosystèmes, des solides et des matériaux, ainsi que dans le cadre de recherches médicales (perspectives de traitement de tumeurs cancéreuses par exemple).
Dans un horizon plus lointain, ces mécanismes très efficaces d’accélération remplaceront peut-être les accélérateurs de particules, par exemple au CERN, l’organisation européenne pour la recherche nucléaire dédiée à la physique fondamentale. Les accélérateurs y portent des faisceaux de particules à des énergies élevées puis les font entrer en collision avec d’autres faisceaux ou avec des cibles fixes, afin de découvrir les constituants de l’Univers et les lois de la Nature.

Le principe de la haute-intensité
En concentrant l’énergie de l’impulsion laser sur des temps très courts, les puissances très élevées atteintes permettent d’étudier le comportement de la matière soumise à très forte intensité. Les électrons deviennent relativistes ; autrement dit, leur vitesse devient dans le champ du laser très proche de la vitesse de la lumière dans le vide (environ 300 000 000 mètres/seconde, soit 7,5 fois le tour de la Terre par seconde). Cela a déjà révélé des phénomènes spectaculaires comme l’accélération des particules ou la génération d’harmoniques d’ordres élevés. Ceux-ci sont des rayonnements de lumière cohérents produits par interaction d’un laser intense avec un gaz ou un plasma, et dont la longueur d’onde est un sous-multiple de la longueur d’onde du laser intense. Des rayonnements de courte longueur d’onde (de 2 à 100 nm) peuvent ainsi être obtenus à partir d’un laser émettant dans le proche infrarouge.
Le centre CEA de Saclay va accueillir en 2015 le laser APOLLON, qui sera alors le laser le plus puissant du monde puisqu’il atteindra une puissance de 10 PW par impulsion !


  Ceci correspond à la puissance fournie par 10 millions de tranches de centrales nucléaires actuelles, délivrée pendant un temps correspondant à un millionième de millionième de clin d’oeil ! Les scientifiques espèrent observer une nouvelle classe de phénomènes fondamentaux, comme la création lumineuse de paires électrons-positrons (phénomène aussi appelé « claquage du vide ») ou la génération de faisceaux de particules poussées par la lumière elle-même (pression de radiation) !

Les lasers térawatts
Pour réaliser leurs études, les chercheurs du centre CEA de Saclay exploitent et développent des lasers capables de produire des impulsions lumineuses à la fois très brèves (quelques dizaines de femtosecondes) et très puissantes (jusqu’à 100 TW). La brièveté des impulsions laser permet non seulement d’atteindre ces puissances gigantesques pour un faible investissement énergétique, mais autorise également la mise au point d’expériences à grande résolution temporelle.
Le parc laser actuel permet de couvrir un vaste champ disciplinaire, de la femtobiologie à l’optique relativiste. La dynamique de la matière (gaz, solides, plasmas) excitée par la lumière laser y est étudiée jusqu’aux échelles de temps les plus courtes (attoseconde-femtoseconde).
Un pas supplémentaire dans cette direction sera franchi avec le développement d’une nouvelle facilité laser Attolab dès 2015 sur le site de l’Orme des merisiers.

Caractéristiques d'un laser térawatt
Mode de fonctionnement    impulsionnel
Durée de l'impulsion    25 femtosecondes
Energie laser par impulsion    2,5 joules
Puissance moyenne    50 watts
Puissance crête maximale    100 térawatts (TW)
Taux de répétition    10 Hertz


Les lasers à électrons libres
A la différence des autres lasers, les lasers à électrons libres n’exploitent pas les électrons liés au sein des atomes d’un milieu amplificateur, mais des électrons libres issus d’un accélérateur de particules qui sont dirigés vers une structure magnétique périodique. Ils peuvent émettre du rayonnement cohérent depuis le domaine micro-onde jusqu’aux rayons X.

 

     DOCUMENT     cea         LIEN
 

 
 
 
 

Les propriétés des lasers

 


 

 

 

 

 

Les propriétés des lasers

Pour remplir leur mission, les lasers changent de couleur, de puissance, émettent en continu ou par impulsions…

Publié le 30 juin 2015
       
LA COULEUR D'UN LASER
Elle est définie par le choix du milieu laser. Il existe des lasers de toutes les couleurs : rouge, bleu, vert… Certains d’entre eux sont même constitués de lumière invisible comme les ondes infrarouges ou ultraviolettes. Ces multiples couleurs font la beauté de nombreux spectacles son et lumière. La plupart des lasers ne peuvent émettre que sur une seule longueur d’onde. L’utilisation de cristaux possédant des propriétés optiques non linéaires permet de convertir la longueur d’onde d’un laser pour obtenir des faisceaux de longueur d’onde doublée ou triplée. Il existe de plus des lasers dont on peut faire varier continument la longueur d’onde sur une certaine plage. On dit qu’ils sont accordables. Leur milieu laser a longtemps été un liquide contenant des molécules de colorant qui, une fois excitées, ont la particularité d’émettre sur un grand intervalle de longueurs d’onde. Maintenant, ils tendent à être remplacés par les oscillateurs paramétriques optiques (OPO) et les diodes laser accordables, présentant l’avantage d’éviter l’utilisation de solvants. Les diodes laser sont les sources les plus couramment utilisées actuellement. Leur rendement énergétique élevé et leur fabrication peu coûteuse ont permis leur industrialisation massive.

    

LA PUISSANCE D'UN LASER
La puissance se définit classiquement comme la quantité d’énergie émise par unité de temps. Un laser délivrant un joule pendant une seconde aura une puissance d’un watt. Dans le cas des lasers continus, l’étendue des puissances de sortie va classiquement de 1 mW pour des petites diodes laser, à 50 kW pour les lasers de soudage.
Dans le cas de lasers impulsionnels, il faut distinguer :
*         la puissance moyenne délivrée, qui tient compte des intervalles de temps entre chaque impulsion,
*         la puissance de crête, qui est la puissance atteinte lors d’une l’impulsion.

Ainsi, un laser d’un watt délivrant sa lumière de façon continue aura une  puissance d’un watt ; mais s’il concentre une énergie d’un joule en une décharge lumineuse d’une milliseconde, sa puissance de crête va être multipliée par mille et atteindra un kilowatt.
En délivrant leur énergie sur des temps très courts (nanoseconde voire picoseconde ou même femtoseconde), certains lasers d’étude peuvent atteindre des puissances de crête extrêmement élevées (jusqu’à 10 petawatts).
Plus modeste, un laser industriel dédié au soudage, de puissance moyenne de 1 kW, dispose d’une puissance de crête de 25 kW.

L’INTENSITÉ D'UN LASER
L’intensité, c’est la puissance par unité de surface, qui s’exprime en nombre de watts par centimètre carré (W/cm2). Par exemple, l’intensité du Soleil peut atteindre 0,1 W/cm2. En focalisant cette lumière avec une loupe, celle-ci est portée à 100 W/cm2, ce qui suffit pour enflammer une feuille de papier. Le diamètre des faisceaux de lumière émis par les lasers (plusieurs dizaines de mm pour les lasers industriels) est souvent trop grand et leur intensité trop faible pour une utilisation directe efficace. Il faut focaliser les faisceaux pour augmenter leur intensité. Dans certains lasers, la focalisation est obtenue par des systèmes optiques à lentilles. D’autres utilisent des dispositifs à miroirs, plus rarement des montages à réseau de diffraction focalisant.
Un laser de 20 W focalisé sur quelques micromètres produit une intensité de l’ordre du milliard de W/cm2. Avec un laser impulsionnel de quelques mJ, on atteint très facilement les centaines de milliards de W/cm2. La focalisation est alors obtenue par des systèmes optiques plus ou moins complexes, constitués de lentilles et de miroirs, qui sont adaptés aux longueurs d’onde et aux fortes énergies utilisées. La focalisation est, par exemple, indispensable pour les opérations industrielles de perçage, soudage et découpage. Elle est aussi utile pour les lasers de puissance utilisés par les chercheurs pour étudier l’interaction lumière-matière.

LA COHÉRENCE D'UN LASER
La cohérence du laser regroupe les propriétés d’uni-directionnalité et de monophasage. C’est elle qui permet à la lumière laser de pouvoir être fortement concentrée, dans le temps et dans l’espace ; elle est souvent à la base des applications des lasers. Cette propriété va permettre le transfert et le transport d’informations comme pour la lecture des disques optiques ou les liaisons Internet, par faisceaux laser dans des fibres optiques. Les ondes lumineuses qui composent la lumière laser se propagent toutes dans la même direction, de manière parfaitement rectiligne.
Un faisceau laser est très peu divergent, ce qui le rend visible sur de grandes distances. Cette propriété est utilisée pour l’alignement des tracés de routes et de tunnels comme, par exemple, lors de la construction du tunnel sous la Manche ou de la tour Montparnasse. Les lasers servent aussi dans la télémétrie, c’est-à-dire la mesure de distances. Le faisceau laser atteint une cible, qui en renvoie une partie en sens inverse. La vitesse de la lumière étant connue, il est possible, en mesurant le temps mis par le faisceau laser pour faire l’aller-retour, de connaître la distance séparant la source laser d’un obstacle. Cette méthode a permis le calcul précis de la distance Terre-Lune. La diffusion par les poussières et les aérosols de l’atmosphère rend visible ce rayon lumineux jusque loin dans l’espace et en fait l’outil des spectacles laser.

 

     DOCUMENT     cea         LIEN

 
 
 
 

La mécanique quantique

 


 

 

 

 

 

La mécanique quantique

Publié le 15 mai 2019

Qu'est-ce que la mécanique quantique ? Pourquoi est-elle utilisée ? A quoi sert-elle ? Où la retrouve-t-on dans notre quotidien ? Petite introduction au monde quantique.

QU’EST-CE QUE
LA MÉCANIQUE QUANTIQUE ?

A l’aube du XXe siècle, la naissance de la physique quantique révolutionne notre conception du monde : les physiciens réalisent que la physique classique, qui décrit parfaitement notre environnement quotidien macroscopique, devient inopérante à l’échelle microscopique des atomes et des particules. En effet, les atomes et les particules élémentaires de la matière, n’évoluent pas comme un système classique, où les quantités d’énergie échangées peuvent prendre n'importe quelle valeur. Pour un système quantique, l’énergie s’échange par valeurs discrètes ou « quanta ».
Par ailleurs, la physique classique décrit différemment un corpuscule (atome, particule) et une onde (lumière, électricité) tandis que la mécanique quantique confond les deux descriptions : un photon, un électron, un atome ou même une molécule sont à la fois onde et corpuscule.
Si, en physique classique, l’état d’un système est parfaitement défini par la position et la vitesse de l'ensemble de ses composants– il ne peut être alors que dans un seul état à un moment et à un endroit donné, il n’en va pas de même en physique quantique. Un système quantique, tel qu'une simple onde-corpuscule, peut se trouver dans une superposition cohérente d'états, qui traduit la potentialité de tous ses états possibles. Sa présence à un endroit donné, son énergie deviennent alors probabilistes : ainsi, un atome peut être à la fois dans son état fondamental stable et dans un état excité (c’est-à-dire possédant une énergie supérieure, acquise par exemple par l'absorption d'un photon). Un photon peut être à un endroit et à un autre en même temps. On ne peut être certain qu'il est en un seul lieu que si l'on effectue une mesure. Le processus de mesure impose alors à l’onde-corpuscule un état défini.
De ces découvertes, qui forment la première révolution quantique, découlent un certain nombre d’applications encore utilisées aujourd’hui : les lasers, les circuits intégrés ou encore les transistors, à la base du fonctionnement des appareils électroniques notamment.

    
LE CHAT DE SCHRÖDINGER

Le physicien Schrödinger a utilisé une image devenue célèbre pour mettre en avant le côté paradoxal d’objets dont on ne peut pas connaître l’état à tout moment. Il a imaginé un chat « quantique », enfermé dans une boîte sans fenêtre en présence d’un poison déclenché par un processus quantique. Tant que la boîte n’est pas ouverte, on ne sait pas si le processus quantique a déclenché le mécanisme, le chat est à la fois mort et vivant avec des probabilités dépendant du processus. Bien sûr, quand on ouvre la boîte le chat est soit mort, soit vivant. En regardant à l’intérieur, on fait une mesure qui nous permet de connaître l’état quantique du système.

    
À QUOI SERT
LA MÉCANIQUE QUANTIQUE
AUJOURD’HUI ?

Quelques effets sont emblématiques de la mécanique quantique :

*         L’effet laser est obtenu dans un système où les électrons sont majoritairement dans un même état excité et se désexcitent tous ensemble en émettant cette lumière intense. Cette transition des électrons d'un niveau d'énergie à un autre est un processus quantique.
*        
*         La supraconductivité est la disparition de toute résistance électrique dans un conducteur. Elle apparaît lorsque les électrons, portant une même charge électrique, peuvent s’apparier et se condenser dans un unique état quantique.
*        
*         L’effet tunnel permet à des électrons de franchir une « barrière » de potentiel ce qui est strictement interdit en physique classique.
*        
*         Le spin est une propriété quantique sans équivalent classique, à l'origine des propriétés magnétiques de la matière.
*        
Des physiciens cherchent à exploiter la richesse des états quantiques et à maîtriser leur mesure dans la perspective encore lointaine d’un ordinateur quantique.


Depuis le début des années 1980, la physique quantique a pris un nouveau tournant : c’est la deuxième révolution quantique, qui se poursuit encore aujourd’hui. En 1982, le physicien Alain Aspect et son équipe parviennent à démontrer la réalité du principe d’intrication quantique, concept fondamental de la physique quantique. Par ce phénomène, proposé dans le courant des années 1930 par Erwin Schrödinger et Albert Einstein, les particules constituant un système sont liés, et le restent quelle que soit la distance qui les sépare. Ainsi, pour une paire de photons, une mesure faite sur l’un modifiera instantanément l'état du second, même s'ils sont séparés d'une longue distance (le record de distance pour l'observation de l'intrication de deux photons a été atteint en 2020 dans le domaine de la cryptographie quantique : des physiciens chinois ont pu échanger un message secret sur 1 120 km). Cette propriété pourrait avoir des applications importantes dans le domaine de l’information quantique : cryptographie, téléportation de l'information ou encore l’ordinateur quantique.
Et le champ d’application de la physique quantique va bien au-delà : le formalisme de la mécanique quantique est utilisé par les chercheurs en nanosciences (chimie, optique, électronique, magnétisme, physique de l’état condensé) et par les physiciens des lois fondamentales de l’Univers (particules, noyau atomique, cosmologie).


ET DEMAIN,
LA MÉCANIQUE QUANTIQUE ?
Les théories décrivant trois des quatre interactions fondamentales de l’Univers sont développées dans le cadre de la mécanique quantique :
*         l’interaction forte qui lie les composants du noyau entre eux,
*         l’interaction faible à l’origine de certaines formes de radioactivité,
*         l’électromagnétisme qui régit les phénomènes lumineux, électriques et magnétiques.
*        
La quatrième interaction, la gravitation, est expliquée par la relativité. Jusqu’à présent, dans les domaines d’énergie et d’espace que l’homme a pu explorer, il n’a pas été nécessaire de « quantifier » la gravitation.
De nombreux physiciens cherchent cependant à unifier ces deux théories pour embrasser les lois de l’Univers de manière plus simple et complète.

Mécanique quantique et relativité
En mécanique quantique, temps et espace sont différenciés. Dans la théorie de la relativité, le temps et l’espace forment une seule entité : l’espace-temps, et matière et énergie sont liées. La mécanique quantique relativiste et la notion de champ sont à la base de la "théorie des champs" qui permet de comprendre les phénomènes de physique des hautes énergies au sein des accélérateurs de particules, ou encore les phénomènes de physique de la matière condensée : supraconductivité, effet Hall quantique, ou la superfluidité.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Technologies pour l'information et la communication

 

 

 

 

 

 

 

Technologies pour l'information et la communication

Spintronique, photonique, électronique moléculaire… autant de technologies à l’étude pour miniaturiser davantage les transistors.

Publié le 1 juillet 2012

Les technologies pour l’information et la communication recourent comme matériau de base aux nanocomposants. Ceux-ci sont fabriqués de deux manières.
*         La voie descendante, ou top-down, permet de réduire le plus possible les dimensions du composant que l’on veut fabriquer. C’est la voie suivie par l’électronique depuis quarante ans. L’exemple le plus remarquable en est le circuit intégré sur puce.
*         La voie ascendante, ou bottom-up, permet de construire des molécules ou des assemblages atomiques complexes, intégrés ensuite dans de plus grands systèmes. Elle vise à fabriquer plus petit, moins cher et avec une qualité accrue. C’est l’une des voies d’avenir à plus ou moins long terme pour dépasser les limitations de la loi de Moore.

L’ÉVOLUTION DE LA MICROÉLECTRONIQUE
Le silicium, matériau de base de toute l’industrie électronique, est un élément abondant, puisqu’il est extrait du sable par purification (94 % de la croûte terrestre est composée de silice !). Il est cristallisé sous la forme de barreaux de 20 à 30 cm de diamètre, lesquels seront découpés en tranches de moins d’un millimètre d’épaisseur. Sur ces tranches sont fabriquées en même temps des centaines de puces, par photolithographie. Celle-ci consiste à reproduire, dans une résine photosensible, le dessin des circuits à réaliser, à l’image de pochoirs que l’on pourrait superposer pour obtenir des circuits de plus en plus complexes.
     
Ces motifs compliqués sont générés en une seule exposition. Les détails sont imprimés sur le substrat quand la lumière passe à travers les ouvertures d’un masque, définissant d’une manière précise et reproductible des millions de transistors. Les traits les plus fins obtenus aujourd’hui industriellement ont une épaisseur de 45 nanomètres, ce qui permet de disposer et de connecter des millions de composants de base – les transistors – par circuit et de multiplier ainsi les fonctionnalités. Cette technique de photolithographie est limitée par les phénomènes de diffraction et de longueur d’onde du faisceau de lumière utilisé. Des améliorations sont en cours de test pour augmenter la précision. Par exemple, la longueur d’onde des lumières utilisées à travers les pochoirs a été diminuée pour descendre du bleu au bleu profond puis à l’ultraviolet.

Mais de nouvelles lentilles doivent être mises au point pour focaliser cette lumière de plus en plus énergétique. La résolution spatiale a été doublée en tirant parti du caractère ondulatoire de la lumière et du principe d’interférence. Le renforcement sélectif des ondes lumineuses mène à une exposition accrue de la résine photosensible, tandis que leur annulation laisse des structures dans l’obscurité. On peut également graver des motifs sur les puces au moyen de faisceaux d’électrons, mais les dessins doivent alors être tracés les uns après les autres. La lithographie à faisceau d’électrons (e-beam) permet d’atteindre une résolution nanométrique, car la longueur d’onde des électrons est de l’ordre de quelques nanomètres. C’est idéal pour produire le pochoir initial qui sera réutilisé des milliers de fois en lithographie optique, ou pour la fabrication de circuits expérimentaux en laboratoire… mais pas pour la production en masse de puces.
La photolithographie atteindra ses limites techniques lorsque les détails les plus fins mesureront de 10 à 20 nm, ce qui devrait arriver à l’horizon de 2015.  À cette échelle, des effets dus à la physique quantique se manifesteront et perturberont le fonctionnement des circuits ; par exemple, des électrons pourront sauter d’un « fil » à l’autre par effet tunnel (voir la page “La physique quantique”). Outre les limites physiques, les investissements nécessaires pour construire des usines capables de graver des circuits aussi fins deviendront prohibitifs (estimés aujourd’hui à plus de 5 milliards d’euros). La voie top-down, qui aura poussé jusqu’à l’extrême la miniaturisation du transistor MOS (Metal oxide semiconductor), devrait atteindre ses limites vers 2020.
Un changement de technologie devrait alors s’imposer : ce sera le début de la véritable nanoélectronique, qui prendra en compte les propriétés de la matière à cette échelle. Les composants de base ne seront plus les mêmes.


COMMENT REPOUSSER LES LIMITES DE LA LOI DE MOORE ?
Plusieurs options sont possibles pour prolonger la voie de la miniaturisation, dont voici deux exemples.
La spintronique réalise le mariage entre l’électronique et le magnétisme. Alors que l’électronique actuelle est entièrement basée sur la manipulation de la charge électrique portée par les électrons, la spintronique utilise leur spin. Les électrons ont trois particularités physiques : leur masse, leur charge et leur spin. Pour cette dernière caractéristique intrinsèque, tout se passe comme si le moment magnétique de l’électron s’apparentait au sens de rotation interne de celui-ci autour d’un axe fixe imaginaire. Pour les électrons, le spin ne peut prendre que deux valeurs : +1/2 spin dit « up » ou -1/2 spin dit « down », correspondant ainsi au fait qu’il ne peut tourner que dans un sens ou dans l’autre. On peut utiliser cette propriété pour obtenir des fonctionnalités nouvelles, par exemple pour coder, traiter ou transmettre une information.

Focus sur Minatec

Pôle d’excellence européen en micro et nanotechnologies.

Autour de l’Institut Léti* du CEA est organisé un campus regroupant institutions universitaires et entreprises privées. Officiellement inauguré en juin 2006 et situé à Grenoble, Minatec met à leur disposition des salles blanches et une plateforme de nanocaractérisation unique en Europe, pour un investissement d’un milliard d’euros sur dix ans.
* Laboratoire d’électronique et des technologies de l’information.

Une grande variété de dispositifs innovants utilisant le spin des électrons peut être réalisée. Ces dispositifs combinent des matériaux magnétiques qui servent de polariseur ou analyseur en spin et des matériaux conducteurs, isolants ou semiconducteurs.
Des dispositifs spintroniques sont déjà utilisés dans les disques durs d’ordinateur. Il s’agit de capteurs dont la résistance électrique varie en fonction du champ magnétique appliqué. Ils permettent de relire l’information magnétique enregistrée sur le disque magnétique. La spintronique permet d’envisager de pousser la capacité de stockage sur les disques durs au-delà du térabit (1015 bits) par pouce carré, c’est-à-dire 155 milliards de bits/cm2.
D’autres applications industrielles sont en train de voir le jour. Ainsi, des mémoires magnétiques peuvent être réalisées sans aucune pièce mobile (contrairement aux disques durs). Ces mémoires sont formées d’un réseau de piliers magnétiques de dimension nanométrique, eux-mêmes constitués de couches magnétiques dont le sens de l’aimantation (+1/2 ou -1/2) détermine l’état du bit (respectivement 0 ou 1). Non seulement ces mémoires vives ne disparaissent pas en cas de coupure d’alimentation (non-volatilité), mais elles sont très rapides (écriture et lecture ne durent que quelques nanosecondes) et sont insensibles aux rayonnements ionisants. Elles permettent de concevoir des ordinateurs que l’on pourrait éteindre et allumer instantanément en gardant toute l’information à l’écran. D’autres applications sont en cours de développement pour la réalisation de composants radiofréquence pour les télécommunications et les réseaux sans fil.
La photonique utilise la lumière pour coder l’information. Tous les systèmes actuels (une puce d’ordinateur, un circuit intégré, un transistor) sont basés sur le transport, le confinement et les propriétés physiques de l’électron. Mais si, pour aller plus vite, il était remplacé par le photon ? Celui-ci, outre qu’il se déplace à la vitesse de la lumière (300 000 km/s), provoque peu de dissipation de chaleur lors de son déplacement.
Mais, avant d’employer les photons comme moyen de codage d’information dans une puce, il faut mettre au point tous les composants de la chaîne, de l’émetteur au récepteur, en passant par les guides et les modulateurs. Le silicium, vedette de la microélectronique, est une piètre source de lumière… à l’état macroscopique. La solution est venue de la nanostructuration : soumis aux lois étranges du monde quantique, un cristal de silicium, réduit à une dizaine de nanomètres, voit ses performances d’émission fortement modifiées ! Pour guider ces photons, pas question d’utiliser des fibres optiques ou des miroirs aux dimensions millimétriques, mais un dispositif bien plus efficace : le cristal photonique. Constitués en perçant de minuscules trous de manière périodique dans un semi-conducteur, ces cristaux réfléchissent et dirigent la lumière. Ils peuvent aussi la filtrer, en agissant sur des longueurs d’onde particulières et permettent de la confiner dans un volume extrêmement faible (quelques centaines de nm). La modulation, le multiplexage et le décodage des signaux sont les trois domaines où de nombreux progrès sont en cours pour aller vers l’ordinateur à photons. C’est cette possibilité de multiplexage qui, en permettant les calculs parallèles, représente le « plus » de l’ordinateur photonique.


Des mémoires vives persistantes et rapides grâce à la spintronique.

Le photon, qui se déplace à la vitesse
de la lumière, pourrait remplacer l’électron
pour coder les informations dans une puce.

Graphène et nanotube de carbone
En chimie et en science des matériaux, l'allotropie est la propriété de certains corps simples d'exister sous plusieurs formes cristallines ou moléculaires. Par exemple le carbone, qui apparaît sous une forme non structurée : la mine de crayon, ou structurée: le diamant. La mine de crayon est composée d’un empilement de feuillets monoatomiques d’atomes de carbone disposés en hexagones. Si l’on isole un seul feuillet de la structure, on obtient du graphène, qui présente des propriétés de transport électronique remarquables. Si l’on enroule ce feuillet sur lui-même, il peut prendre la forme d’un nanotube. Le nanotube a des propriétés mécaniques et électriques surprenantes qui promettent des applications nombreuses et une industrialisation dans un avenir proche :
- Le nanotube est 100 fois plus résistant et 6 fois plus léger que l’acier. Il peut donc être utilisé pour fabriquer des matériaux composites hautes performances et remplacer les traditionnelles fibres de carbone: raquettes de tennis ou clubs de golf sont des exemples d’applications grand public.
- En fonction de l’angle d’enroulement du feuillet de graphite, le nanotube est soit un excellent conducteur d’électricité, soit un semi-conducteur. Les conducteurs pourront être utilisés dans la fabrication de nanofils électriques, ou comme nano-électrodes dans les écrans plats de télévision ou d’ordinateur. Un nanotube semi-conducteur et un conducteur assemblés pourront être utilisés comme éléments de base pour fabriquer des composants électroniques nanométriques.

LA DÉMARCHE BOTTOM-UP À PARTIR DE NANOCOMPOSANTS

Cette nouvelle approche est envisageable pour surmonter les obstacles de la miniaturisation. Elle fait appel à des connaissances fonda­mentales de physique et de chimie et permet de concevoir les composants entièrement nouveaux de l’électronique moléculaire.
Si la fabrication atome par atome de nanocomposants est possible, elle est inenvisageable industriellement sans la maîtrise de procédés d’auto-assemblage de la matière, car elle prendrait un temps infini. À défaut de construire un circuit et ses nanocomposants, ce qui serait trop long et trop cher, les chercheurs envisagent la conception d’entités moléculaires dotées de fonctions électroniques capables de s’organiser seules. Pour les fabriquer, ils disposent de quatre briques de base : les molécules de synthèse, faciles à obtenir, les biomolécules comme l’ADN, les nanoparticules métalliques ou semi-conductrices et les nanotubes de carbone. Mais la voie de l’auto-assemblage est difficile : il faut réussir à contrôler le positionnement des briques.
Des charges positives et négatives s’attirent : si l’on ajoute des molécules chargées négativement à la surface d’un wafer, elles vont attirer les molécules chargées positivement greffées à la surface de nanotubes, créant ainsi des nanocomposants. Reste à résoudre le problème des jonctions entre ces composants et le reste du circuit ; faute de quoi, l’électronique moléculaire en restera là, malgré des perspectives très séduisantes.

 
Lorsque l’on applique une tension déterminée sur la grille, un électron peut entrer dans « l’île de Coulomb » tandis qu’un autre en sort. Il s’établit dans le transistor un courant dont l’intensité dépend du nombre d’électrons présents dans l’île. © Yuvanoé/CEA

En 1974, la première diode moléculaire a été réalisée sur une couche de molécules individuelles. Non plus faite en silicium, elle a été obtenue par la mise en contact de deux morceaux de semi-conducteurs : l’un des matériaux comporte de nombreux électrons, alors que le deuxième en est extrêmement pauvre. Des molécules qui présentent cette même asymétrie ont ensuite été conçues ; puis un transistor dans lequel le canal était formé d’une de ces molécules.
Ce dispositif a donné des preuves flagrantes du comportement quantique des électrons.
On peut aussi concevoir un transistor à un seul électron. Le principe consiste à ajouter un espace en matériau semi-conducteur entre la source et le drain du transistor, où seul un nombre déterminé d’électrons peut s’accumuler. Quand une tension électrique est appliquée entre la source et le drain, l’espace se remplit, puis le courant ne passe plus (phénomène de blocage de Coulomb). Lorsque l’on applique une tension sur la grille du transistor, un nouvel électron peut entrer, tandis qu’un autre sort de cet espace. Ainsi, en modifiant la tension de grille, on réalise de l’électronique à un seul électron.

 

 DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon