ecole de musique piano
     
menu
 
 
 
 
 
 

UN REGARD SUR LE FUTUR

 

 

 

 

 

 

 

UN REGARD SUR LE FUTUR

Un regard sur le futur : pouvons-nous comprendre l'infiniment grand à partir de l'infiniment petit ? Les dernières décennies du siècle ont été témoin de progrès extraordinaires dans notre compréhension des constituants ultimes de la matière et des forces qui agissent sur eux. Grâce à l'effort de nombreux scientifiques, nous sommes parvenus à élaborer une « théorie standard » qui décrit et explique tous les phénomènes ainsi observés au coeur du monde des particules élémentaires. Avec la théorie standard, nous pouvons retracer l'histoire de l'Univers en remontant dans le temps, jusqu'à quelques fractions de milliards de secondes après le Big Bang, à un moment où la température de l'Univers s'élevait à un million de milliards de degrés centigrade. A cette époque le plasma primordial qui constituait l'Univers était peuplé de particules que nous ne pouvons produire aujourd'hui seulement dans les accélérateurs de particules les plus puissants en Europe et aux USA. L'évolution de l'Univers a été profondément affectée par les phénomènes qui se déroulèrent alors, et même avant. Ainsi la compréhension des constituants fondamentaux et de leurs interactions est cruciale pour saisir la distribution sur une grande échelle des galaxies, la matière et l'énergie qui le composent, et sa destinée finale. Malgré les progrès, des éléments importants de la microphysique sont encore à l'Etat d'hypothèse. L'existence et les propriétés du « boson de Higgs » ou la nature de la « matière noire » qui constitue l'essentiel de la masse de l'Univers devront être éclaircis par le LHC (Large Hadron Collider), une machine révolutionnaire qui mènera l'Europe à la frontière des hautes énergies. Le LHC est actuellement en construction au CERN (conseil Européen pour la Recherche Nucléaire) à Genève, dans le cadre d'une collaboration internationale, et devrait entrer en activité en 2007. Le LHC et les machines qui succèderont éclaireront plusieurs aspects fondamentaux de notre monde, comme l'existence de dimensions additionnelles à l'espace et aux temps et permettront la synthèse de la Mécanique Quantique et de la Relativité Générale, le problème théorique le plus profond de notre époque.

UN REGARD SUR LE FUTUR

Un regard vers le futur
Luciano Maiani

Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.

Un premier exemple : lénergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.

La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.

La forme de lespace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.

Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.

La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.

Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.

La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.

Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.

Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.

Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.

La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.

 

   VIDEO       CANAL  U         LIEN   

 
 
 
 

LA MATIÈRE

 

 

 

 

 

 

 

LA  MATIÈRE

La matière est partout présente autour de nous. Elle est constituée d'atomes, eux-mêmes construits à partir de « briques plus petites », appelées particules élémentaires. L'origine de la matière présente sur Terre et dans l'Univers est expliquée aujourd'hui par le modèle du Big Bang. Après des siècles de recherches, la matière reste encore pleine de mystères que les chercheurs tentent de percer en améliorant les technologies de visualisation de l'infiniment petit, de la cosmologie et de la physique des particules.

QU’EST-CE QUE LA MATIÈRE ?

La matière désigne l’ensemble des composants et objets, naturels ou synthétiques, qui compose notre environnement. Elle est, au sens classique du terme, caractérisée par une masse et un volume.

La matière est constituée d’atomes ou de molécules (assemblage d’atomes). Les atomes sont entre cent mille et un million de fois plus petits que le diamètre d’un cheveu (10-10m) et constituent les briques élémentaires qui permettent de différencier un élément chimique d’un autre. Au total, il existe actuellement 118 éléments regroupés dans un tableau périodique des éléments, aussi appelé tableau de Mendeleïev.

Un atome est composé d’un noyau, situé en son centre, et d’un nuage d’électrons en mouvement autour. Il est essentiellement composé de vide. En effet, si le noyau était une balle de tennis, le nuage électronique s’étendrait à environ 6 kilomètres de la balle.

Le noyau d'un atome est composé de protons et de neutrons qui tiennent ensemble grâce à la force nucléaire forte. Protons et neutrons sont eux-mêmes composés de grains de matière encore plus petits, les quarks. Ces derniers sont maintenus ensemble grâce à des échanges continus de gluons, des particules élémentaires qui appartiennent à la famille des bosons.

Les électrons sont des particules qui circulent autour du noyau. La cohésion de l’atome est assurée par la force électromagnétique. Celle-ci lie ensemble les électrons chargés négativement avec les protons chargés positivement. Cette attraction électromagnétique est le résultat d’un échange continu de photons, aussi appelés particules de lumière.

La force électromagnétique est présente partout autour de nous : lumière, électricité, magnétisme… Au quotidien, cette force électromagnétique empêche par exemple un verre posé sur une table de passer au travers de la table : les électrons de la table et du verre, étant de même charge électrique (négative) se repoussent.

Dans un atome qui est neutre, il y a autant d’électrons que de protons. Les propriétés chimiques d’un élément sont déterminées par le nombre d’électrons de l’atome, donc par le nombre de protons du noyau. La chimie est la science qui s’intéresse à la composition et à la transformation de


LES DIFFÉRENTS ÉTATS DE LA MATIÈRE
La matière peut avoir différents états : liquide, solide, gazeux ou plasma. Ces états dépendent de la température et de la pression et caractérisent un niveau d’organisation de la matière.

Dans les conditions normales de température et de pression terrestres, la matière se présente sous trois états : solide, liquide et gazeux. Le passage d’un état à l’autre correspond à une réorganisation des molécules ou des atomes dans la matière. Prenons l’exemple de l’eau : à l’état solide, sous forme de glace, l’eau a une structure très organisée dans laquelle les molécules sont fortement liées les unes aux autres. Sous l’effet de la chaleur, les molécules s’agitent, se désolidarisent les unes des autres et l’eau devient liquide. A plus forte température encore, la structure se désorganise totalement et les molécules d’eau s’éparpillent sous forme de gaz, c’est l’ébullition.

Dans des conditions de température et de pression extrêmes apparaît un nouvel état de la matière dans lequel la structure atomique elle-même est totalement désorganisée : le plasma. Les constituants de l'atome se séparent, noyaux et électrons se déplacent indépendamment et forment un mélange globalement neutre.

Ce quatrième état de la matière, que l'on retrouve dans les étoiles et le milieu interstellaire, constitue la majorité de la matière ordinaire de notre Univers (jusqu’à 90 %). Sur Terre, on ne le rencontre à l'état naturel que dans les éclairs ou les aurores boréales. Cet état peut être cependant produit artificiellement en appliquant des champs électriques suffisamment puissants pour séparer le noyau de ses électrons dans les gaz. Dans notre vie quotidienne, les plasmas ont de nombreuses applications (microélectronique, écrans plats des téléviseurs ...), dont la plus courante est le tube néon pour l’éclairage.

DIFFÉRENCE ENTRE MATIÈRE 
ET MATÉRIAUX

La matière compose les matériaux. Tout matériau est fait de matière mais toute matière n’est pas un matériau. Un matériau est une matière d’origine naturelle ou artificielle que l’Homme utilise et/ou conçoit pour fabriquer des objets, construire des bâtiments ou des machines.

QUELLE EST L’ORIGINE DE LA MATIÈRE ?
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’Univers. Selon le modèle du Big Bang, il y a 13,7 milliards d’années, l'Univers était extrêmement dense et chaud et soumis à une forte expansion. Du fait de cette expansion, le contenu d'énergie et de particules de l'Univers se libère dans toutes les directions sous la forme d’une soupe uniforme, constituée de particules élémentaires telles que les électrons, les quarks ou les photons.  

La température baisse rapidement et permet aux quarks de s'associer pour former les premiers protons et neutrons. Les premiers noyaux d'hydrogène sont alors formés (ils sont constitués d'un seul et unique proton). Entre trois et vingt minutes après le début de l'expansion, la température continue de baisser. Les protons et les neutrons s'associent pour former les premiers noyaux de deutérium, d'hélium et de lithium. C'est la nucléosynthèse primordiale. La production de nouveaux noyaux s'arrête quand la température passe en dessous du milliard de degrés.

Puis, 380 000 ans après le début de l’expansion, la température de l’Univers descend à environ 3 000 degrés. Les électrons deviennent assez lents pour se lier aux noyaux déjà formés, et créer les premiers atomes d’hydrogène et d’hélium. Plusieurs centaines de millions d'années après le Big Bang, d’immenses nuages de matière se concentrent : les conditions de création des étoiles sont réunies. Les fusions successives des noyaux légers dans le centre des étoiles vont former des noyaux plus lourds comme le carbone, l'azote ou l'oxygène, jusqu’au noyau de fer pour les plus grosses étoiles. C'est la nucléosynthèse stellaire. Quand les plus grosses étoiles meurent, elles explosent dans un phénomène dit de « supernova ». Pendant l’explosion, les étoiles libèrent dans tout l’Univers les noyaux qu’elles ont fabriqués et certains noyaux capturent également des neutrons de l’explosion pour former les noyaux naturels les plus lourds comme le plomb, l’uranium...

L’HISTOIRE DES DÉCOUVERTES SCIENTIFIQUES SUR LA MATIÈRE
Depuis toujours, l’Homme cherche à comprendre le monde qui l’entoure. Le philosophe Démocrite est parmi les premiers, au cinquième siècle avant JC, à envisager l’existence de particules de matière. Il parle déjà de briques indivisibles de matière qu’il appelle « atomes ». Sa théorie se perd pendant plusieurs siècles. Il faudra attendre le 18e siècle pour que l’idée d’un découpage de la matière en briques élémentaires soit reprise, mais sans parler d’atomes. Aux 19e et 20e siècles, John Dalton, Dimitri Mendeleïev, Joseph John Thomson, Ernest Rutherford, Niels Bohr font progresser la connaissance sur la matière. Parallèlement aux découvertes sur l’atome et le noyau, des astrophysiciens tels que Fred Hoyle ou encore George Gamow s’intéressent à l’origine de la matière présente dans notre Univers.

    QUELS SONT LES ENJEUX DES RECHERCHES SUR LA MATIÈRE ?
Les recherches sur la matière ont permis de nombreuses découvertes sur notre Univers et son évolution. L’étude de l’infiniment petit a également permis de découvrir et théoriser, au début du 20e siècle, les phénomènes de mécanique quantique. Cette physique est à l’origine d’applications concrètes très diverses comme les lasers ou encore les diodes électroluminescentes.

Les recherches et expériences en physique des particules ont mis en évidence sur plus d’un siècle les différentes briques du « modèle standard », théorie qui décrit tous les constituants élémentaires de la matière et leurs interactions. La première particule de ce modèle à avoir été découverte est l’électron, en 1897 par Joseph John Thomson et la dernière est le boson de Higgs en 2012.

Ces avancées scientifiques ont permis une amélioration continue des connaissances sur la matière et notre Univers même s’il reste de nombreuses questions. Par exemple, en physique nucléaire, les interactions entre tous les protons et tous les neutrons d’un même noyau sont tellement complexes qu’elles ne peuvent être décrites de manière exacte : les chercheurs doivent avoir recours à des approximations judicieuses pour expliquer les propriétés du noyau. Il n’existe pas, à ce jour, de modèle standard qui permettrait d’expliquer l’ensemble des propriétés de tous les noyaux.

Aujourd’hui, les scientifiques cherchent à mieux comprendre tous les mécanismes liés à la matière : naissance des étoiles, formation des galaxies ou encore début du Big Bang avec des missions telles que le télescope spatial James Webb (JWST) qui doit être lancé en octobre 2018 pour remplacer le télescope Hubble.

La matière qui nous entoure n’est pas la seule à intriguer les physiciens. En effet, selon les observations astronomiques, la matière constituée des particules du modèle standard ne représente que 5% de l’Univers. Il resterait donc encore 95 % de l’Univers à décrypter. Parmi ces mystères, la matière noire, une matière théorique, totalement invisible, postulée pour expliquer par exemple les effets gravitationnels qu’elle occasionnerait sur la lumière en provenance de galaxies très lointaines. La traque de la matière noire constitue l’un des grands enjeux scientifiques fondamentaux de ce siècle, notamment pour vérifier la validité du modèle du Big Bang.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Les animaux artificiels sont-ils pour demain?

 

 

 

 

 

 

 

Les animaux artificiels sont-ils pour demain?


mensuel 313
daté octobre 1998 -

Aucun agent artificiel ne peut aujourd'hui rivaliser avec le plus simple des animaux. Mais les « animats » conçus par les chercheurs possèdent des performances de plus en plus étonnantes. Une approche complémentaire de l'intelligence artificielle traditionnelle est en train de naître. Elle vise moins à reproduire l'intelligence de l'homme qu'à simuler les comportements adaptatifs qui permettent aux animaux de survivre.

Dans de nombreux domaines, le besoin d'utiliser des agents autonomes se fait sentir. Pour accomplir une mission donnée dans un environnement plus ou moins prévisible - par exemple partir à la recherche d'une information précise sur Internet ou aller explorer une planète lointaine -, il est en effet indispensable que de tels agents soient capables d'adapter leur comportement aux circonstances imprévues, et ce sans aucune intervention humaine. En d'autres termes, le succès de leur mission dépend de leur aptitude à exhiber des comportements adaptatifs. Aucun agent artificiel ne peut encore rivaliser de ce point de vue avec le moindre animal, aussi simple et primitif soit-il. Cependant, l'apparition de nouveaux paradigmes en informatique et en robotique - réseaux de neurones, algorithmes génétiques, robotique évolutionniste, par exemple - ainsi que les gains considérables en temps de calcul offerts par les ordinateurs modernes, ont permis d'avancer beaucoup dans cette direction. En particulier, de nombreux chercheurs s'attachent depuis une dizaine d'années à concevoir ce que nous avons appelé des « animats » - agents simulés sur ordinateur ou robots matériels - dont les lois de fonctionnement sont inspirées de mécanismes naturels, et dont les comportements présentent certaines des capacités d'autonomie et d'adaptation des animaux. Un animat est généralement équipé de senseurs, d'actuateurs, et d'un programme informatique constituant une architecture de contrôle qui relie ses perceptions à ses actions. Cette organisation lui permet d'assumer une certaine mission dans son environnement ou d'apprendre à réaliser le mieux possible une certaine tâche, tout en réussissant à « survivre » le plus longtemps possible. Cette survie dépend de variables essentielles dont l'évolution temporelle doit être maintenue dans une zone de viabilité idoine.
L'architecture de contrôle d'un animat peut être innée - au sens où elle a été programmée ou câblée par un humain - ou acquise - au sens où elle résulte d'un apprentissage survenu au cours de la vie individuelle de l'animat ou au cours de générations successives.

Des robots adaptatifs ont été conçus par Rodney Brooks et ses étudiants au laboratoire d'intelligence artificielle du Massachusetts Institute of Technology. Alors que la morphologie, le comportement et la mission de ces robots varient considérablement d'un individu à l'autre, leur architecture de contrôle obéit toujours aux mêmes principes. Pour l'essentiel, en effet, cette architecture est organisée en couches superposées, dont chacune est constituée d'un réseau d'automates comprenant divers dispositifs de temporisation et de mémorisation.
Chacune de ces couches relie des senseurs à des actuateurs et permet un comportement particulier ou une compétence spécifique, comme la locomotion, l'évitement d'obstacle ou la saisie d'un objet. La cohérence du comportement global du robot dépend d'une part des capacités comportementales de chaque couche et, d'autre part, de la possibilité offerte aux couches supérieures d'inhiber occasionnellement les ordres moteurs, mais non le fonctionnement interne, des couches inférieures. Une telle organisation permet d'empiler des couches dont chacune garantit la bonne exécution de certains comportements et un niveau de compétence déterminé, sans que les anciens comportements ou compétences soient compromis par les potentialités qu'apportent les couches nouvelles. Chaque couche réagit en parallèle aux stimuli environnementaux auxquels elle est connectée et le comportement d'ensemble est un comportement émergent qui résulte de l'interaction des comportements élémentaires. Il s'ensuit que de telles architectures de contrôle sont robustes et flexibles et qu'elles concurrencent efficacement les architectures robotiques traditionnelles1 fig. 1.
On peut, par exemple, supposer que c'est grâce à une architecture de contrôle de ce type que l'escargot marin Littorina neritoides assure sa survie. En effet, le comportement de cet organisme paraît dépendre de deux couches de contrôle basiques : l'une qui le pousse à remonter à la verticale et l'autre, qui éventuellement l'emporte sur la première, qui le pousse à fuir les endroits trop éclairés. Cependant, au contraire, lorsque l'escargot est en position renversée, il recherche la lumière, du moins tant qu'il est sous l'eau. Hors de l'eau, le comportement d'évitement de la lumière l'emporte à nouveau. Enfin, dans les zones trop dangereuses, parce que trop éloignées de la surface de l'eau, intervient un comportement d'urgence qui inhibe tous les autres et interdit à l'escargot de s'aventurer en zones sèches. L'interaction de ces comportements élémentaires permet à l'escargot de survivre plus ou moins longtemps, parce qu'il recherche effica- cement sa nourriture en explorant de préférence les zones où les algues qu'il consomme sont en plus forte concentration - les cavités au voisinage de la surface de l'eau - tout en évitant les zones éclairées où il court le plus grand risque de rencontrer des prédateurs.
Quoi qu'il en soit, c'est en utilisant ce genre d'architecture qu'un des robots conçus par l'équipe de Rodney Brooks, le robot à pattes Genghis , est capable de poursuivre indéfectiblement un humain en dépit de tous les obstacles que présente un terrain accidenté. De même, le robot Squirt , qui mesure environ 30 cm3, est capable de se cacher dans un endroit sombre lorsqu'un bruit retentit, puis de partir explorer l'environnement à la recherche des causes de ce bruit après qu'il a cessé. Quant à Herbert ,ilexploreinlassablement son lieu de travail, à la recherche des canettes de soda qui traînent et qu'il doit rapporter en un endroit prédésigné.
Une autre métaphore biologique qui inspire de nombreux travaux sur les animats est celle de la société d'insectes ou de l'intelligence en essaim. Ici, l'idée est d'utiliser une colonie d'animats, dans laquelle le comportement de chacun peut être très simple et apparemment peu adaptatif, mais dont le comportement collectif émergeant des interactions interindividuelles s'avère, lui, complexe et très adaptatif. En particulier, un tel comportement peut être maintenu même lorsqu'un individu, ou plusieurs, cessent partiellement ou complètement de fonctionner.

Une approche de ce type a été utilisée par Craig W. Reynolds, qui travaille actuellement au sein de la société Hypermedia Technologies, pour réaliser sur ordinateur des animations dans lesquelles des animats volants exhibent des comportements collectifs spectaculaires2. A chaque individu sont associées une direction et une vitesse de vol, ainsi que des capacités visuelles qui permettent de détecter à courte distance la présence d'un obstacle ou d'un congénère. De plus, son comportement ne dépend que de trois règles : maintenir une distance minimale par rapport aux animats environnants, ajuster sa vitesse à la leur, se déplacer en direction de la zone dans laquelle ils sont les plus nombreux.
Dans ce travail, alors que le comportement de chaque animat ne dépend que d'informations locales liées à ses voisins - aucun individu n'a une vision globale de tous les obstacles dans l'environnement, ni de la vitesse et de la position de tous les autres animats -, le comportement d'ensemble est coordonné et réaliste, comme celui d'un vol d'oiseaux. Les individus s'évitent mutuellement et, lorsque la trajectoire de l'un d'eux vient à s'écarter de celle du groupe, l'individu en question accélère son vol en direction de ses plus proches voisins et rejoint rapidement le groupe. De plus, en présence d'un obstacle, le vol peut se diviser temporairement en deux sous-groupes, qui contournent l'obstacle chacun de son côté, puis se réunissent à nouveau fig. 2. De tels comportements collectifs coordonnés sont entièrement émergents : ils ne découlent que des interactions entre animats individuels et n'ont pas été programmés expressément par l'animateur.
Une autre application de la métaphore de l'intelligence collective a été réalisée à l'Institut polytechnique de Milan3 et repose sur la constatation que les fourmis déposent des traces de phéromones sur le trajet qui les conduit à une nourriture nouvellement découverte. L'odeur correspondante attire d'autres fourmis qui, à leur tour, déposent des traces odorantes sur ce trajet et renforcent ainsi son effet attractif. A mesure que la source de nourriture est exploitée et diminue, de moins en moins de traces odorantes sont déposées et, petit à petit, la trajectoire correspondante est abandonnée par l'ensemble des fourmis. A la fin, le chemin le plus court est adopté.
Cette stratégie a inspiré un algorithme qui permet de résoudre un problème classique de recherche opérationnelle : celui du voyageur de commerce. Ce problème consiste à déterminer dans quel ordre il convient de visiter N villes dont on connaît la distance des trajets qui les relient deux à deux, de manière à minimiser la distance totale parcourue tout en s'interdisant de repasser deux fois au même endroit. Il apparaît que ce problème peut être résolu collectivement par une colonie de fourmis lâchée sur le réseau de ces N villes et dont les individus marquent les trajets qu'ils parcourent à tout moment. Au bout d'un temps plus ou moins long, dépendant du nombre de villes à visiter, on constate que la majorité des fourmis circule sur un chemin qui est, en fait, le parcours optimal recherché. On constate aussi que le temps mis pour découvrir cette solution est compétitif par rapport à celui que mettent les algorithmes traditionnellement utilisés en recherche opérationnelle. D'autres problèmes classiques d'ordonnancement* ont été résolus par des approches collectives de ce type.
Si l'architecture de contrôle d'un animat peut être entièrement conçue par un humain et rester ensuite figée, comme c'est le cas dans les exemples précédemment cités, il est également possible que son fonctionnement puisse se modifier par apprentissage, à mesure que l'animat interagit avec son environnement.

Deux modes principaux d'apprentissage caractérisent la recherche sur les animats : l'apprentissage associatif - un animat apprend, mémorise, et reconstitue un ensemble de stimuli en les associant les uns aux autres - et l'apprentissage par renforcement - un animat apprend à interagir avec son environnement de façon à ce que ses actions aient plus de chances d'être récompensées que d'être punies. L'apprentissage associatif a été utilisé par Maja Mataric«, de l'université de South California à Los Angeles, afin de permettre à un robot de construire une « carte cognitive » de son environnement4. Cette expression fait référence aux hypothèses de certains biologistes sur la façon dont les animaux mémorisent l'information qu'ils acquièrent sur l'organisation spatiale de leur environnement et l'utilisent pour se déplacer. Une telle information paraît présenter des composantes métriques et topologiques caractérisant les différents amers que l'animal apprend à distinguer dans son environnement. De plus, chez certains rongeurs du moins, cette information paraît être enregistrée dans une région particulière du cerveau, l'hippocampe, et mettre en oeuvre ce qu'il est convenu d'appeler des cellules de lieux, c'est-à-dire des neurones dont la décharge électrique n'intervient que lorsque l'animal occupe un certain emplacement dans son environnement.
Le robot de Mataric« est équipé de douze sonars qui le renseignent sur la distance de l'obstacle le plus proche dans une direction donnée, d'un compas qui lui fournit sa direction courante, et d'un équipement moteur qui lui permet de se déplacer en avant et en arrière, de tourner à droite et à gauche, et de s'arrêter sur place. Quant à son architecture de contrôle, elle est inspirée de l'approche de Brooks et met en oeuvre trois niveaux de compétence. Le premier combine de simples réflexes pour générer un comportement d'exploration émergent, au cours duquel le robot se déplace dans son environnement en suivant les contours des obstacles ou des murs qu'il contient. Le deuxième niveau est chargé d'analyser les informations sensorielles reçues par le robot pour détecter des amers le long des trajectoires parcourues. Enfin, le troisième niveau utilise ces amers pour construire la carte cognitive du robot et déterminer la trajectoire à parcourir pour rejoindre un but donné. Cette carte est codée sous la forme d'un graphe connectant des modules de calcul dont chacun représente un amer donné.
Par exemple, lorsque le robot explore l'environnement décrit sur la figure 3, il enregistre dans sa carte que la zone C4 est franchie alors qu'il se déplace vers l'est et que ses sonars lui indiquent la présence de deux obstacles à distance à peu près égale sur sa droite et sur sa gauche - ce qui suggère que l'amer C4 est une sorte de couloir. De la même manière, le robot enregistre qu'une rotation vers la droite le conduit dans une nouvelle zone, MD6, qui est franchie tandis qu'il se dirige vers le sud-est et qu'il perçoit un obstacle sur sa droite - ce qui suggère que l'amer MD6 est probablement un mur situé à la droite du robot.

Il s'ensuit que les modules de calcul tels que C4 et MD6 contenus dans la carte cognitive du robot jouent le rôle de cellules de lieux qui s'activent lorsque le robot traverse les zones correspondantes de l'environnement et qu'une telle carte permet au robot de connaître sa position à tout moment. De plus, comme les modules de calcul renseignent sur la taille des lieux qu'ils représentent, il est possible de déterminer le chemin le plus court allant de la position courante du robot à n'importe quel but précisé par l'expérimentateur. Pour ce faire, il suffit de déclencher un processus de diffusion d'activation au sein de la carte à partir du but désigné. Dans la mesure où la vitesse de diffusion d'un module de calcul à un autre dépend de la taille des régions correspondantes à traverser, la diffusion de l'activation au sein de la carte le long d'un parcours donné mettra d'autant plus de temps que le parcours correspondant dans l'environnement réel sera plus long. Par conséquent, la direction en provenance de laquelle l'activation atteint le module caractérisant la place courante au sein de la carte est la direction dans laquelle le robot doit se déplacer pour atteindre le but par le chemin le plus court.
L'architecture de contrôle conçue par Lashon Booker, aujourd'hui chez MITRE Corp., permet à un animat d'apprendre par essais et erreurs à poursuivre plusieurs buts et réalise ce que les éthologistes appellent un système motivationnel5. Ce travail s'inspire explicitement de la littérature scientifique sur le comportement animal. L'animat de Booker habite un environnement contenant des sources de récompenses et de punitions sous la forme d'objets perceptibles à distance, dont les uns sont programmés comme étant « comestibles » et les autres comme ayant un contact « douloureux ». Pour survivre, l'animat doit se nourrir et éviter la douleur. Il lui faut donc apprendre quelles sont les conséquences de ses actions afin de déterminer quelle action il est le plus approprié d'accomplir dans chaque situation. En d'autres termes, l'animat doit pouvoir élaborer un modèle de son monde. Pour ce faire, son architecture de contrôle présente une organisation hiérarchique organisée à partir de trois comportements « instinctifs » programmés comme tels de base - la locomotion, la recherche de nourriture et l'évitement de la douleur - et de deux mécanismes déclencheurs innés qui poussent l'animat à assouvir l'un ou l'autre de ses buts : se nourrir lorsqu'il est en présence de nourriture ou fuir un contact douloureux.

Cette architecture de contrôle repose sur un ensemble de règles manipulant des objets, des buts et des relations entre objets et buts. Elle permet à l'animat de s'adapter à son environnement en élaborant des « représentations internes » qui servent à classer les objets de l'environnement en catégories ayant une signification « affective » et auxquelles des réactions appropriées sont associées. A ce titre, elle a vocation à décrire les processus cognitifs sous-tendant le comportement de l'homme ou de certains animaux et elle s'oppose aux autres approches évoquées dans cet article, lesquelles ne nécessitent que de simples associations stimulus-réponse pour assurer un comportement adaptatif donné.
L'activité première de l'animat de Booker est d'explorer son environnement. Cette activité est interrompue quand un signal sensoriel ou un signal « motivationnel » lié à un centre « instinctif » inférieur active ce centre et déclenche le comportement d'appro- che ou d'évitement associé. Lorsqu'il arrive au contact d'un objet, l'animat « consomme » cet objet ou, au contraire, le fuit, en fonction de la nature de l'objet. Ceci a pour effet d'inactiver le centre instinctif concerné et de permettre à l'animat de reprendre son exploration.
Diverses capacités d'apprentissage associatif ou par renforcement ont été exploitées par Bruce Blumberg du MIT Media Lab dans le cadre d'un système informatique permettant à un humain d'interagir avec un animat, via un « miroir magique » dans lequel l'humain peut se voir et voir l'animation d'un chien de compagnie simulé appelé Silas 6 . Diverses techniques de vision artificielle servent à détecter en permanence la position dans l'espace de la tête, des mains et des pieds de l'humain et à reconnaître des gestes et postures caractéristiques. Ces informations sont utilisées par l'architecture de contrôle de Silas pour décider, en fonction des propres motivations de l'animat, comment il va réagir en temps réel aux mouvements de son partenaire. Ainsi a-t-il appris à s'asseoir ou à quémander une récompense en réaction à certains gestes de son maître. Un troisième partenaire, le docteur Puppet , peut être introduit dans le système et interagir avec les deux autres. En particulier, son visage manifeste ses émotions, lesquelles sont perceptibles à la fois par l'humain et par Silas . Par exemple, il prend un air triste lorsqu'il doit quitter la scène, un air gai lorsqu'il est autorisé à revenir, et il rit aux éclats lorsqu'il est chatouillé.
Parce que l'organisation du système nerveux d'un animal est le fruit de la sélection naturelle, et non de l'imagination d'un ingénieur, de nombreux chercheurs pensent que l'architecture de contrôle d'un animat ne devrait pas être conçue par un humain, mais devrait découler d'un processus de sélection artificielle qui adapterait cette architecture à l'environnement de l'animat et aux problèmes de survie particuliers qu'il doit résoudre. Ainsi de nombreux travaux simulent un processus évolutif qui, agissant sur les patrimoines génétiques des individus constituant une population d'animats, améliore de génération en génération l'adaptation de ces individus à leur environnement. Ces travaux mettent en oeuvre un processus de sélection artificielle qui tend à favoriser la reproduction d'individus bien adaptés au détriment de ceux qui le sont moins.

Une approche de ce type a été conduite par Karl Sims qui a fait évoluer à la fois l'architecture de contrôle et la morphologie de divers animats conçus sur ordinateur7. Par exemple, pour créer des animats sachant nager, il a codé dans le « patrimoine génétique » de chacun un système de deux graphes des ronds et des flèches emboîtés. Le premier graphe décrit la morphologie de l'ani- mat, supposé être constitué d'une hiérarchie de composants tridimensionnels rigides, éventuellement agencés en structures récursives ou répétitives. Chaque noeud de ce premier graphe contient un deuxième graphe qui décrit la partie du « système nerveux » de l'animat qui contrôle les mouvements du composant morphologique correspondant. Ces contrôleurs neuronaux utilisent des senseurs internes ou externes qui réagissent, par exemple, aux contacts extérieurs ou à l'intensité lumineuse ambiante. Ils utilisent également des « neurones » particuliers, susceptibles de délivrer en sortie des fonctions plus ou moins élaborées de leurs signaux d'entrée - telles que des sommes, des produits, des interpolations, des valeurs mémorisées, etc. Enfin, ces contrôleurs neuronaux utilisent des actuateurs dont chacun exerce une force musculaire à un endroit précis de l'anatomie de l'animat.
Le processus de sélection artificielle élaboré par Sims consiste à se donner une population d'animats dont le patrimoine génétique de chacun, c'est-à-dire le système de deux graphes emboîtés, est généré au hasard. Cette information est ensuite décodée et transformée en un animat fonctionnel dont la morphologie et l'architecture de contrôle sont testées dans un environnement de simulation aussi réaliste que possible.

Dans la mesure où ces mouvements sont plus ou moins adaptés à la natation, certains animats sont jugés plus performants que d'autres et sont autorisés par le programme à se reproduire dans la population, au sein de laquelle leurs descendants remplacent les individus les moins adaptés. Au cours de cette reproduction, le patrimoine génétique de deux parents sert à l'élaboration du patrimoine génétique d'un descendant, à diverses modifications très liées à l'intervention de mutations ou de mécanismes de crossing over *. Les individus de la nouvelle génération sont ensuite testés de la même manière : certains sont autorisés à se reproduire et à transmettre une partie de leur patrimoine génétique à la génération suivante, d'autres sont éliminés de la population, et ainsi de suite de génération en génération. Ce processus évolutif est arrêté lorsqu'un comportement suffisamment adapté a été obtenu chez au moins l'un des individus de la population.
Ces processus de sélection artificielle sont notamment utilisés dans le domaine nouveau de la robotique évolutionniste8 : il s'agit ici d'étudier comment faire évoluer sur des générations successives non de simples programmes, mais le matériel correspondant, soit au niveau de composants électroniques configurables utilisés dans les contrôleurs de robots, soit au niveau de la configuration de l'équipement sensori-moteur de ces robots, soit même au niveau de leur morphologie générale.
Les animats ne sont pas toujours l'incarnation passive de simples circuits réflexes. A l'instar des animaux, ils peuvent aller rechercher activement dans leur environnement l'information dont ils ont besoin, la mémoriser sous forme de « représentations internes » d'objets ou de relations causales, tirer bénéfice de ces représentations en les utilisant de façon adaptée et flexible. Les animats peuvent se mouvoir dans leur environnement, éviter les obstacles, attraper des objets, rejoindre des buts, manifester des « émotions ». Ils peuvent interagir et même communiquer, en vue de résoudre collectivement des tâches difficiles. Ils peuvent évoluer, se développer, apprendre, mémoriser et planifier.

Cependant, dans l'état actuel de la recherche, ces diverses capacités sont générées et étudiées isolément les unes des autres et il n'existe encore aucun animat possédant toutes ces fonctionnalités. Les difficultés correspondantes sont liées à des raisons aussi bien fondamentales - on ne connaît pas encore bien les mécanismes intégrateurs qui assurent l'autonomie et la cohérence multifonctionnelle d'un animal, aussi simple soit-il - qu'à des raisons pratiques - liées aux temps de calcul des simulations correspondantes ou aux limitations sensori-motrices des robots actuels. Les prochains progrès substantiels à attendre de la recherche sur les animats concernent des approches intégrées, capables d'exploiter les trois processus adaptatifs de l'apprentissage, du développement et de l'évolution.
Au-delà des applications pratiques évoquées au début de cet article, on peut espérer que ces progrès contribueront à l'avancement des sciences cognitives, en aidant à comprendre en quoi l'intelligence de l'homme s'explique à partir des comportements adaptatifs les plus simples hérités de l'animal, dans une perspective évolutionniste qui complète celle de l'intelligence artificielle traditionnelle. Alors que celle-ci cherche à expliquer directement quelles manipulations de symboles rendent compte des capacités cognitives élaborées propres à l'homme - comme la résolution de problèmes, le raisonnement logique, ou la compréhension du langage naturel - l'approche animat, elle, vise d'abord à comprendre comment ces capacités cognitives découlent de la simple aptitude ancestrale à survivre.

1R. Brooks, Science , 253 , 13, 1227, 1991.
2C.W. Reynolds, Computer Graphics , 21 , 4, 25, 1987.
3A. Colorni, M. Dorigo et V. Maniezzo, in Varela et Bourgine eds., Toward a practice of autonomous systems. Proceedings of the First European Conference on Artificial Life, The MIT Press, 1992.
4M. Mataric, I EEE Transactions on Robotics and Automation , 8 , 3, 304, 1992.
5L.B. Booker, Machine Learning , 3 , 161, 1988.
6
B.M. Blumberg, Old tricks, New Dogs : Ethology and Interactive Creatures , PhD thesis, MIT Media Lab, Cambridge, Massachusetts, 1997.
7K. Sims, in Brooks et Maes eds., Proceedings of the Fourth International Workshop on Artificial Life, The MIT Press, 1994.
8P. Husbands et J.-A. Meyer eds., Proceedings of The First European Workshop on Evolutionary Robotics - EvoRobot'98 , Springer Verlag, 1998.

NOTES
*Les PROBLÈMES D'ORDONNANCEMENT sont les problèmes dans lesquels on a plusieurs tâches à accomplir dans un certain ordre.

*Le CROSSING OVER désigne l'échange réciproque de matériel génétique entre chromosomes homologues. C'est le mécanisme responsable des recombinaisons génétiques.
SAVOIR
R. Pfeiffer, B. Blumberg, J.-A. Meyer et S.W. Wilson Eds., From animals to animats 5 : Proceedings of the Fifth International Conference on Simulation of Adaptative Behavior , The MIT Press, 1998.
H.L. Roitblat, J.-A. Meyer Eds., Comparative Approaches to Cognitive Science , The MIT Press, 1995.

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

La microélectronique : passer du design à la fabrication

 

 

 

 

 

 

 

La microélectronique : passer du design à la fabrication


Si les puces électroniques se retrouvent aujourd'hui dans de très nombreux objets de la vie quotidienne, c'est qu'elles sont fabriquées en série et contiennent des milliards de composants. Cette production fait appel à des technologies d'une extrême complexité et nécessite donc des infrastructures et des équipements très coûteux.

Publié le 18 octobre 2018


DU SABLE... POUR EXTRAIRE LE SILICIUM
De par ses propriétés de semiconducteur, le matériau de base des circuits intégrés est aujourd'hui encore le silicium. Extrait du sable (oxyde de silicium) par réduction chimique, il est cristallisé sous forme de barreaux de 20 ou 30 cm de diamètre, ensuite sciés en tranches de moins d’un millimètre d’épaisseur qui sont polies jusqu’à obtenir des surfaces lisses à 0,5 nanomètre près. C’est sur cette tranche, appelée wafer, que des centaines de puces sont fabriquées simultanément, grâce à la répétition ou la combinaison d’opérations élémentaires : traitement thermique, nettoyage, dépôt, photolithographie, gravure et dopage. Les dimensions les plus fines obtenues aujourd’hui industriellement permettent de disposer et de connecter des millions de composants de base - les transistors - par circuit, et de multiplier ainsi les fonctionnalités. Cette fabrication collective, qui fait chuter les coûts unitaires, est l’un des atouts majeurs de l’industrie microélectronique. Mais elle durcit aussi les exigences de production : une erreur de manipulation, quelques secondes en plus ou en moins et ce sont plusieurs centaines de circuits qui finissent à la poubelle…

LE DESIGN DES CIRCUITS
Impossible de concevoir un circuit de plusieurs millions d'éléments sans l'aide de l'ordinateur : tout concepteur de puces recourt à la CAO pour déterminer les principales fonctions, puiser des modules dans des bibliothèques informatisées, arranger ces modules les uns par rapport aux autres, simuler le fonctionnement global... L'exercice est long, difficile et incroyablement minutieux : en imaginant qu'un micro-processeur de 100 millions de transistors ait la taille d'un carré de 6 km de côté, chaque isolant de grille de transistor aurait une épaisseur d'un millimètre seulement !


6 étapes clés de fabrication
 1- Le traitement thermique


Réalisé dans des fours à des températures de 800 à 1 200° C, il permet de réaliser des couches d'oxyde et de nitrure de silicium par exemple, réarranger des réseaux cristallins ou effectuer certains dopages.   

2- Les dépôts


Ils apportent à la surface du silicium des couches conductrices ou isolantes : oxydes, nitrures, siliciures, tungstène, aluminium... Ils sont effectués par diverses techniques physiques ou chimiques : dépôt en phase vapeur (CVD), pulvérisation, épitaxie... 

3- La photolithographie


Etape-clé, elle consiste à reproduire dans la résine photosensible le dessin des circuits à réaliser. Ces motifs complexes sont générés en une seule exposition. La lumière d’une source lumineuse de très faible longueur d’onde (UV ou rayons X, pour les gravures les plus fines) y projette l’image d’un masque. Plus la résolution optique est poussée, plus la miniaturisation des circuits est améliorée. 

4- Le nettoyage

Les nombreuses opérations de nettoyage des tranches représentent presque un tiers du temps total de processus de fabrication. 


5- La gravure


A l’inverse du dépôt, la gravure enlève de la matière, toujours dans le but de réaliser un motif. Deux voies principales : la gravure dite humide, qui utilise des réactifs liquides, et la gravure sèche (ou gravure plasma) qui emploie des réactifs gazeux. En 2004, les gravures les plus fines en production mesuraient 130 nm. Dix ans après, elles n’étaient plus que de 14 nm ! 

6- Le dopage

Pour introduire au cœur du silicium les atomes qui vont modifier sa conductivité, les plaquettes sont chauffées entre 800 et 1 100° C dans des fours, en présence du gaz dopant, ou bombardées par implantation à travers un masque par un faisceau d’ions accélérés. Aujourd'hui, réaliser un circuit intégré complexe demande la succession de plusieurs centaines d'opérations. 

La photolithographie
Elle est limitée par les phénomènes de diffraction et de longueur d'onde du faisceau de lumière utilisé. Aujourd'hui, avec des détails de l'ordre de 10 à 20 nm, la photolithographie atteint ses limites techniques et des effets dus à la physique quantique perturbent le fonctionnement des circuits ; par exemple, des électrons sautent d'un « fil » à l'autre par effet tunnel. Les motifs peuvent aussi être gravés au moyen de faisceaux d'électrons, mais les dessins doivent alors être tracés les uns après les autres. La lithographie par faisceau d'électrons (E-beam) permet d'atteindre une résolution nanométrique, correspondant à leur longueur d'onde.


L'ENVIRONNEMENT DE LABORATOIRE
A l'échelle d'une puce, un minuscule grain de poussière représente un rocher qui bouche les chemins creusés pour la circulation des électrons. C'est pourquoi la fabrication a lieu en « salle blanche ». L'air est filtré et entièrement renouvelé 10 fois par minute. Il contient 100 000 à 1 million de fois moins de poussières que l'air extérieur. Les opérateurs portent en permanence une combinaison qui les couvre des pieds à la tête et retient les particules organiques et les poussières qu'ils génèrent naturellement. Les opérations de photolithographie nécessitent une ambiance appelée inactinique : les lampes utilisées, le plus souvent jaunes (la plage de longueur d'onde ultraviolette est retirée), n'ont pas ou peu d'effets photochimiques sur les résines photosensibles recouvrant les wafers.

LA PUCE

Pour finaliser la fabrication, une pellicule métallique est déposée aux endroits où le circuit devra être en contact avec les broches de sortie. Puis les circuits intégrés sont testés, directement sur le wafer. Enfin, celui-ci est découpé pour obtenir des puces, insérées dans un boîtier individuel de protection et reliées aux broches qui vont leur permettre de communiquer avec l'extérieur. Des tests de validation et de qualification, à différentes fréquences et températures, sont alors entrepris.


ZOOM SUR MINATEC

Initié par le CEA et l'Institut national polytechnique de Grenoble, soutenu par les collectivités locales et territoriales, Minatec est le premier pôle européen, et l'un des premiers mondiaux, dédié aux micro et nanotechnologies. Le site est constitué de 45 000 m2  de laboratoires, bureaux et salles blanches (8 000 m2) pour la nanoélectronique et les microsystèmes, une plateforme de nanocaractérisation (1 500 m2), un centre de développement, caractérisation et simulation de composants opto-électroniques, des chambres anéchoides, une plateforme de cybersécurité…
4 000 personnes environ y travaillent, parmi lesquelles 1 200 chercheurs, 1 000 étudiants, 200 enseignants-chercheurs et 1 000 emplois industriels directs.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon