|
|
|
|
|
|
Pour un développement citoyen |
|
|
|
|
|
Pour un développement citoyen
Les usages et les impacts des nanotechnologies font l’objet de nombreuses études portant sur la maîtrise des risques potentiels.
Publié le 1 juillet 2012
LES NANOTECHNOLOGIES : DES APPLICATIONS DANS TOUS LES DOMAINES
Les nanotechnologies devraient permettre de créer des objets rendant plus de services en utilisant moins de matière première et d’énergie. Elles pourraient ainsi amoindrir l’impact environnemental de certaines industries (comme celles liées à l’énergie) ou activités (comme les transports ou les technologies de l’information).
Parallèlement à leur apport dans le domaine des nouvelles technologies de l’énergie, elles contribueront à diminuer la consommation d’énergie en améliorant le rendement énergétique d’objets courants. Ainsi, citons des matériaux plus légers et résistants utilisés pour les véhicules, le remplacement des lampes à incandescence par des diodes électroluminescentes (beaucoup moins gourmandes en électricité), le remplacement des écrans cathodiques par des systèmes à cristaux liquides (dix fois moins consommateurs)… Enfin, un des enjeux, et non des moindres, est de développer des composants nanoélectroniques faible consommation pour des systèmes de calcul efficaces énergétiquement ; 13 % de l’électricité mondiale est aujourd’hui consacrée à ce secteur !
Les nanotechnologies peuvent contribuer à la détection des pollutions : des nano-capteurs fiables, rapides et peu onéreux permettront de traquer toutes sortes de molécules organiques ou minérales indésirables dans l'eau, l'air ou le sol. Une fois détectées, il faut remédier à ces pollutions ; qu'il s'agisse du traitement des eaux ou de la conception de nouveaux catalyseurs pour emprisonner les nanoparticules des fumées des moteurs d'automobiles, des réacteurs d'avions, des cheminées d'usines…
Un panel international de spécialistes a listé les dix applications des nanotechnologies jugées comme les plus intéressantes pour les pays en voie de développement : énergie (nouvelles cellules solaires et piles à combustible), agriculture (nanofertilisants), traitement de l'eau (filtration, décontamination, désalinisation), diagnostic médical, délivrance de médicaments, emballage et stockage des aliments, remédiation de la pollution atmosphérique, matériaux de construction, suivi de paramètres biologiques (glycémie, cholestérol), détection des insectes nuisibles et des vecteurs de maladies. Certaines d'entre elles ne sont pas trop compliquées, chères ou demandeuses d'infrastructures et peuvent être développées sur place. L'Inde, le Brésil ou la Chine y consacrent des investissements importants, et de nombreux autres pays, qui possèdent déjà une infrastructure universitaire et industrielle, comme l'Afrique du Sud, la Thaïlande ou l'Argentine font également de la recherche en nanotechnologies.
Des recherches en toxicologie évaluent les dangers réels ou supposés des nanotechnologies.
RISQUES POTENTIELS
La notion de risque lié aux nanotechnologies comporte deux aspects : le danger (issu de la toxicité) et l’exposition. Les recherches en toxicologie sont là pour évaluer les dangers réels ou supposés.
L'étude de la pollution urbaine recherche son impact sur la santé humaine, notamment les effets des particules ultrafines émises par les véhicules diesel. Sur le même schéma, d'autres études qui font état d'interactions entre nanoparticules et cellules incitent à la prudence en cas d’inhalation, de pénétration par voie cutanée ou digestive. Une démarche d’anticipation est donc mise en place.
Dans les ateliers de production et de mise en œuvre, si les nanoparticules sont constituées de matière toxique (métaux lourds par exemple), elles peuvent exposer les hommes aux mêmes risques que sous forme macroscopique. Un risque potentiel supplémentaire est lié aux propriétés spécifiques des nanoparticules : surface multipliée, réactivité chimique… Des recherches sont donc menées actuellement pour étudier le devenir des nanoparticules et nanofibres si elles étaient inhalées. Les bonnes pratiques de travail sont très similaires à celles recommandées pour tout produit chimique dangereux, mais elles revêtent une importance particulière en raison de la grande capacité de diffusion des nano-objets dans l'atmosphère. Dans le milieu industriel, il faut concevoir des procédés qui minimisent les étapes d’exposition potentielles, par exemple en réalisant la collecte des nano-objets en phase liquide afin de garantir leur non-diffusion en cas d’incident. Il faut aussi veiller à automatiser les étapes du procédé, capter les polluants à la source, filtrer l'air des locaux avant rejet dans l'atmosphère, et équiper individuellement chaque travailleur d'une protection respiratoire et cutanée.
Dans le cas du consommateur, il s’agit d’éviter qu’il soit mis en contact avec un produit potentiellement dangereux. Ainsi, tout est mis en œuvre pour que les produits grand public ne contiennent pas de nanoparticules libres et pour éviter qu’un produit n’en génère, par exemple lorsqu’il vieillit ou se dégrade.
Des questions se posent sur les effets potentiels des nanoparticules manufacturées dans l’environnement (comportement, mécanismes de dégradation) et l’impact de leur dispersion sur les écosystèmes (danger éventuel pour certaines espèces). Des recherches visant à étudier leur écotoxicité sont mises en place.
De nombreux états, comme les États-Unis et la France, se mobilisent pour évaluer et maîtriser les risques liés aux nanoparticules et leurs effets secondaires éventuels ; prenant en compte leurs caractéristiques, leurs possibles voies de contamination, les moyens de protection, les moyens de production, le comportement des nanoparticules dans l’environnement…
En Europe, le CEA s’est associé en 2005 avec des partenaires R&D de l’industrie chimique et technologique pour constituer un « projet intégré » baptisé Nanosafe 2. Ce projet se décompose en quatre axes de développement :
* technologies de détection et de caractérisation des nanoparticules dès l’étape de production ;
*
* réseau international pour constituer une base de données sur les effets des nanoparticules sur l’organisme et l’environnement ;
*
* filières industrielles entièrement intégrées, dont l’objectif est de produire sans mettre en contact le précurseur de la nanoparticule (aérosol, gaz, liquide) et le composant final ;
*
* études d’analyses du cycle de vie et de filières de recyclage, afin de maîtriser les effets sur la santé et l’environnement, en association avec la Commission européenne de normalisation.
Des structures d'études
pour les nanos au CEA
* OMNT : Observatoire des micro et nanotechnologies
La mission de cet observatoire, lancé en 2005 à l’initiative du CEA et du CNRS, consiste à réaliser en continu une veille scientifique et technologique dans le domaine des micro- et nanotechnologies. Il s’appuie pour ce faire sur un réseau de plus de 230 experts français et européens. Ainsi, il peut informer les organismes et ministères concernés et fournir aux industriels une information pertinente et actualisée.
* LARSIM : Laboratoire des recherches sur les sciences de la matière
Le LARSIM a vu le jour au sein du CEA en 2007. Premier laboratoire du CEA dédié à la philosophie des sciences, le LARSIM a pour but d’étudier et de mieux faire comprendre les enjeux de la recherche scientifique contemporaine. Parallèlement à son travail sur la place de la science dans la société, le LARSIM mène un programme de recherche en fondements de la physique.
Pour la première fois, les répercussions sanitaires, environnementales et sociales sont considérées et étudiées parallèlement au développement des technologies et à la mise en place de méthodes sûres de production des nanoparticules. Cette simultanéité devrait permettre l’anticipation et la maîtrise des risques potentiels associés et faire évoluer des réglementations spécifiques en fonction des progrès des connaissances et des recherches en cours.
QUESTIONS ÉTHIQUES POSÉES PAR LES NANOSCIENCES ET LES NANOTECHNOLOGIES
Par rapport à la problématique des nanotechnologies, la réflexion éthique dépasse les limites de la pure déontologie, définie comme un ensemble de comportements et de règles professionnelles. L’éthique analyse les changements que la recherche scientifique introduit dans le monde, les responsabilités des chercheurs vis-à-vis de la société et les réactions que suscitent en son sein les nouveautés techniques. L’excellence scientifique et l’innovation doivent être accompagnées des mesures de précaution correspondant aux incertitudes sur les nouveaux produits issus des nanotechnologies. S’ils souhaitent assurer l’acceptabilité des fruits de leurs recherches, les chercheurs sont tenus à prendre en considération les intérêts des différents acteurs. De multiples rapports tentent ainsi d’évaluer les impacts potentiels des nanotechnologies sur la société, par exemple, le rapport britannique « Nanosciences et nanotechnologies : opportunités et incertitudes » réalisé en 2004.
Il recommande d’appliquer le principe de précaution, tout comme le rapport du Comité de la prévention et de la précaution français en 2006, suivi par celui de l’Agence française de sécurité sanitaire et de l’environnement au travail. L’Office parlementaire d’évaluation des choix scientifiques et technologiques a organisé plusieurs concertations sur les nanotechnologies et établi un rapport « Nanosciences et progrès médical », incitant à mener les recherches sur les nanosciences et nanotechnologies en parallèle avec celles sur les risques et impacts éventuels.
Depuis 2005, la Commission européenne a lancé un Plan stratégique européen afin de mener une réflexion approfondie sur les risques, les usages et les impacts des nanotechnologies. Mi-2007, elle a proposé l’adoption d’un code de conduite sur le même sujet, qui a été publié en février 2008. La Commission a également mis en place en mars 2008 le nouvel Observatoire européen des nanotechnologies.Pour la France, cet observatoire s’appuiera sur l’OMNT et le LARSIM.
DOCUMENT cea LIEN |
|
|
|
|
|
|
Les propriétés des lasers |
|
|
|
|
|
Les propriétés des lasers
Pour remplir leur mission, les lasers changent de couleur, de puissance, émettent en continu ou par impulsions…
Publié le 30 juin 2015
LA COULEUR D'UN LASER
Elle est définie par le choix du milieu laser. Il existe des lasers de toutes les couleurs : rouge, bleu, vert… Certains d’entre eux sont même constitués de lumière invisible comme les ondes infrarouges ou ultraviolettes. Ces multiples couleurs font la beauté de nombreux spectacles son et lumière. La plupart des lasers ne peuvent émettre que sur une seule longueur d’onde. L’utilisation de cristaux possédant des propriétés optiques non linéaires permet de convertir la longueur d’onde d’un laser pour obtenir des faisceaux de longueur d’onde doublée ou triplée. Il existe de plus des lasers dont on peut faire varier continument la longueur d’onde sur une certaine plage. On dit qu’ils sont accordables. Leur milieu laser a longtemps été un liquide contenant des molécules de colorant qui, une fois excitées, ont la particularité d’émettre sur un grand intervalle de longueurs d’onde. Maintenant, ils tendent à être remplacés par les oscillateurs paramétriques optiques (OPO) et les diodes laser accordables, présentant l’avantage d’éviter l’utilisation de solvants. Les diodes laser sont les sources les plus couramment utilisées actuellement. Leur rendement énergétique élevé et leur fabrication peu coûteuse ont permis leur industrialisation massive.
LA PUISSANCE D'UN LASER
La puissance se définit classiquement comme la quantité d’énergie émise par unité de temps. Un laser délivrant un joule pendant une seconde aura une puissance d’un watt. Dans le cas des lasers continus, l’étendue des puissances de sortie va classiquement de 1 mW pour des petites diodes laser, à 50 kW pour les lasers de soudage.
Dans le cas de lasers impulsionnels, il faut distinguer :
* la puissance moyenne délivrée, qui tient compte des intervalles de temps entre chaque impulsion,
* la puissance de crête, qui est la puissance atteinte lors d’une l’impulsion.
Ainsi, un laser d’un watt délivrant sa lumière de façon continue aura une puissance d’un watt ; mais s’il concentre une énergie d’un joule en une décharge lumineuse d’une milliseconde, sa puissance de crête va être multipliée par mille et atteindra un kilowatt.
En délivrant leur énergie sur des temps très courts (nanoseconde voire picoseconde ou même femtoseconde), certains lasers d’étude peuvent atteindre des puissances de crête extrêmement élevées (jusqu’à 10 petawatts).
Plus modeste, un laser industriel dédié au soudage, de puissance moyenne de 1 kW, dispose d’une puissance de crête de 25 kW.
L’INTENSITÉ D'UN LASER
L’intensité, c’est la puissance par unité de surface, qui s’exprime en nombre de watts par centimètre carré (W/cm2). Par exemple, l’intensité du Soleil peut atteindre 0,1 W/cm2. En focalisant cette lumière avec une loupe, celle-ci est portée à 100 W/cm2, ce qui suffit pour enflammer une feuille de papier. Le diamètre des faisceaux de lumière émis par les lasers (plusieurs dizaines de mm pour les lasers industriels) est souvent trop grand et leur intensité trop faible pour une utilisation directe efficace. Il faut focaliser les faisceaux pour augmenter leur intensité. Dans certains lasers, la focalisation est obtenue par des systèmes optiques à lentilles. D’autres utilisent des dispositifs à miroirs, plus rarement des montages à réseau de diffraction focalisant.
Un laser de 20 W focalisé sur quelques micromètres produit une intensité de l’ordre du milliard de W/cm2. Avec un laser impulsionnel de quelques mJ, on atteint très facilement les centaines de milliards de W/cm2. La focalisation est alors obtenue par des systèmes optiques plus ou moins complexes, constitués de lentilles et de miroirs, qui sont adaptés aux longueurs d’onde et aux fortes énergies utilisées. La focalisation est, par exemple, indispensable pour les opérations industrielles de perçage, soudage et découpage. Elle est aussi utile pour les lasers de puissance utilisés par les chercheurs pour étudier l’interaction lumière-matière.
LA COHÉRENCE D'UN LASER
La cohérence du laser regroupe les propriétés d’uni-directionnalité et de monophasage. C’est elle qui permet à la lumière laser de pouvoir être fortement concentrée, dans le temps et dans l’espace ; elle est souvent à la base des applications des lasers. Cette propriété va permettre le transfert et le transport d’informations comme pour la lecture des disques optiques ou les liaisons Internet, par faisceaux laser dans des fibres optiques. Les ondes lumineuses qui composent la lumière laser se propagent toutes dans la même direction, de manière parfaitement rectiligne.
Un faisceau laser est très peu divergent, ce qui le rend visible sur de grandes distances. Cette propriété est utilisée pour l’alignement des tracés de routes et de tunnels comme, par exemple, lors de la construction du tunnel sous la Manche ou de la tour Montparnasse. Les lasers servent aussi dans la télémétrie, c’est-à-dire la mesure de distances. Le faisceau laser atteint une cible, qui en renvoie une partie en sens inverse. La vitesse de la lumière étant connue, il est possible, en mesurant le temps mis par le faisceau laser pour faire l’aller-retour, de connaître la distance séparant la source laser d’un obstacle. Cette méthode a permis le calcul précis de la distance Terre-Lune. La diffusion par les poussières et les aérosols de l’atmosphère rend visible ce rayon lumineux jusque loin dans l’espace et en fait l’outil des spectacles laser.
DOCUMENT cea LIEN |
|
|
|
|
|
|
Demain, un ordinateur inspiré de notre cerveau? |
|
|
|
|
|
Demain, un ordinateur inspiré de notre cerveau?
12.01.2018, par Hugo Leroux
Et si l’on réinventait l’ordinateur en s’inspirant des neurones du cerveau humain ? Grâce à des composants électroniques bio-inspirés, les chercheurs mettent en avant de nouveaux modèles pour booster les applications en intelligence artificielle.
Un neurone artificiel capable de reconnaître des chiffres prononcés par différentes personnes faisait l’objet d’une présentation très remarquée en septembre 2017. À l’heure des assistants intelligents de type Google Home et de la voiture autonome, pourquoi une performance aussi sommaire fut-elle annoncée comme une première mondiale par la célèbre revue Nature ?1 Parce que la révolution réside dans le composant lui-même : un neurone électronique, cylindre de métal mille fois plus fin qu’un cheveu et implémentable en circuit. Bref, un nano-neurone artificiel « en dur », à la différence de ces fameux réseaux de neurones virtuels qui, s’ils permettent actuellement de spectaculaires applications en intelligence artificielle (IA), désignent en réalité des fonctions mathématiques, des algorithmes, purement numériques et impalpables.
« D’autres nano-neurones artificiels “en dur” avaient déjà été mis au point, mais nous avons été les premiers à les faire fonctionner au sein d’une application », explique Julie Grollier, qui a dirigé ces travaux au sein de l’Unité mixte de physique CNRS-Thales2. Quelques mois plus tôt, en avril, un autre composant bio-inspiré était dévoilé dans Nature Communications3 par Vincent Garcia, chercheur au sein de la même unité, et ses collègues. Cette fois, il s’agissait d’une synapse artificielle, inspirée de celles qui relient les neurones du cerveau.
Ce cylindre de métal, mille fois plus fin qu’un cheveu, est le premier neurone artificiel «en dur» à avoir fonctionné au sein d'une application (vue en microscopie électronique à balayage). Ces travaux ont été dirigé par Julie Grollier, de l’Unité mixte de physique CNRS-Thales.
Laboratoire Spintronics Research Center, AIST Tsukuba, Japon
Partager
Une grosse économie d’énergie
À quoi bon cette nouvelle quincaillerie électronique alors que les réseaux de neurones virtuels font déjà merveille en intelligence artificielle (IA) ? Parce que ces derniers, redoutables pour classifier de gigantesques masses de données, sont aussi effroyablement gourmands en énergie… Un gaspillage lié à la structure même des machines sur lesquelles ils turbinent.
« Les ordinateurs traditionnels sur lesquels on les fait tourner sont fondés sur une architecture datant des années 1950 qui sépare la mémoire et le “centre de calcul” en deux blocs bien distincts, explique ainsi Damien Querlioz, chercheur au Centre de nanosciences et de nanotechnologies4. Dès lors, un calcul, même simple, nécessite parfois d’aller chercher des données stockées très loin à l’échelle de la microélectronique. Or, les réseaux de neurones virtuels ont la particularité d’effectuer des calculs, certes très simples, mais en quantité massive et de manière parallèle avec souvent beaucoup de redondances ». D’où, parfois, de terribles « embouteillages » énergivores pour accéder à la mémoire… C’est ainsi que le programme AlphaGo, l’IA de Google qui a récemment écrasé les plus grands champions de go, consomme dix mille fois plus d’énergie qu’un humain à la même table de jeu !
Le programme AlphaGo, qui a récemment écrasé les plus grands champions de go, consomme dix mille fois plus d’énergie qu’un humain à la même table de jeu !
« Grâce à ses circuits neurone-synapse, notre cerveau, lui, dispose d’une mémoire (“stockée” dans les synapses) placée au plus proche du “centre de calcul” (que symbolisent les neurones) », explique Damien Querlioz. Cette architecture très distribuée s’avère extrêmement efficace pour traiter en parallèle la myriade d’opérations simples que nécessite la reconnaissance de sons ou d’images. En revanche, elle est moins adaptée au calcul classique : « Pour les opérations arithmétiques par exemple, qui font appel à moins de calculs, mais plus complexes, et exécutés les uns après les autres, l’architecture bien centralisée des ordinateurs traditionnels reste imbattable en précision », poursuit le chercheur.
Si l’on parvient à construire des puces neuromorphiques, assemblage de composants artificiels mimant neurones et synapses biologiques, elles seront donc dédiées uniquement aux tâches d’IA où les excellents quoique trop dispendieux réseaux de neurones actuels sont cantonnés (reconnaissances de formes, de sons, etc.). Et l’éventuel ordinateur du futur qui en abriterait garderait précieusement ses microprocesseurs classiques. « En intégrant une puce neuromorphique, dédiée aux algorithmes de type réseau de neurones courants en IA, sur chaque processeur d’ordinateur ou de téléphone, on disposerait de processeurs moins énergivores », confirme Vincent Garcia.
Les géants de l’électronique ne s’y sont pas trompés : IBM, Intel, Qualcomm, tous développent leur propre puce neuromorphique. Leur approche peut sembler timide : neurones et synapses artificiels y sont construits à partir de transistors classiques en silicium. C’est également le parti pris d’Alain Cappy, de l’Institut de recherche sur les composants logiciels et matériels pour l’information et la communication avancée5.
L’équipe d'Alain Cappy utilise des transistors pour fabriquer ses neurones artificiels. Assemblés en circuit (à gauche), ceux-ci répondent à une excitation synaptique par des potentiels d’action (à droite, en vert) identiques à ceux obtenus avec des neurones biologiques.
A. CAPPY/ICIRCA-IEMN
Partager
« L’avantage de n’utiliser que des composants déjà existants est de pouvoir fabriquer plus rapidement des puces efficientes et industrialisables », commente le chercheur. Ce qui ne le dispense pas de toute originalité : là où les neurones de silicium mis en œuvre par les industriels nécessitent 20 à 30 transistors, l’équipe d’Alain Cappy a délibérément privilégié un modèle plus simple et économe de 6 transistors seulement. Résultat : « Il consomme cent fois moins d’énergie que les autres neurones artificiels du même type », se félicite le chercheur. Il fait également le pari d’une intégration totalement bio-inspirée : « L’idée est d’imiter le système yeux/cortex cérébral qui analyse si rapidement et efficacement l’image. Nous tentons ainsi d’intégrer ces neurones à la fois dans des capteurs visuels inspirés de la rétine biologique, et dans des puces de traitement agencées comme les colonnes de neurones de notre cortex cérébral », poursuit Alain Cappy. Cette architecture très interconnectée pourrait s’avérer performante pour l’implémentation de réseaux de neurones bien plus complexes et performants que les possibilités offertes par les solutions actuelles sous forme logicielle.
Une question de taille
La plupart des chercheurs misent cependant sur une approche plus révolutionnaire pour fabriquer les composants bio-inspirés eux-mêmes. « Les neurones construits avec des transistors classiques mesurent 100 micromètres de côté tandis que le nôtre mesure à peine 100 nanomètres de diamètre : c’est mille fois plus petit », se réjouit Julie Grollier. Or, la question de la taille se posera de manière aiguë quand on voudra les assembler par millions et fabriquer des puces valables. Pour construire leur nano-neurone, les chercheurs de l’Unité mixte de physique CNRS-Thales ont choisi la spintronique, une discipline utilisant le spin des électrons comme unité d’information (alors que l’électronique utilise la charge électrique des électrons).
Les neurones construits avec des transistors classiques mesurent 100 micromètres de côté tandis que le nôtre mesure à peine 100 nanomètres de diamètre : c’est mille fois plus petit.
Le nano-neurone consiste en un empilement de deux couches de métaux ferromagnétiques prenant en sandwich une fine couche d’isolant électrique. « Lorsqu’on le soumet à un courant continu, les électrons passent à travers l’isolant par effet tunnel et leur spin fait tourner l’aimantation de la couche supérieure. Cela produit en sortie des oscillations électriques comparables aux signaux émis par les neurones de notre cerveau », résume Julie Grollier.
Pour développer leur propre nano-neurone, l’équipe de Laurent Cario, de l’Institut des matériaux Jean-Rouxel6, a de son côté misé sur les isolants de Mott. Ce matériau, dont le comportement physique est exploré dans le cadre de mémoires de nouvelles générations, pourrait constituer une alternative aux matériaux spintroniques : « Notre neurone a fait l’objet d’un brevet déposé en 2014 et nous essayons maintenant d’en améliorer la miniaturisation afin de faciliter son transfert industriel », précise Laurent Cario.
Imiter la plasticité des neurones
Présentes dans le cerveau en nombre dix mille fois plus important que les neurones, les synapses ont un rôle tout aussi capital. En particulier, les chercheurs tentent de reproduire une caractéristique de ces canaux interneurones : leur plasticité, c’est-à-dire leur capacité à se renforcer ou se déprécier au fil du temps pour favoriser le « câblage » entre les neurones utiles.
Vue d'artiste d’une synapse électronique : les petites sphères représentent les électrons circulant à travers l’oxyde, par analogie avec les neurotransmetteurs dans les synapses biologiques.
Sören Boyn/CNRS-Thales
Partager
Pour y parvenir, Vincent Garcia et son équipe ont choisi une couche ultra-mince d’un matériau ferroélectrique que les électrons traversent par effet tunnel : « Nous avons démontré que l’amplitude et la durée des impulsions que reçoit la synapse artificielle provoquent une variation de la résistance du matériau, donc de sa capacité à transmettre le courant tunnel. Cette propriété est très similaire à la plasticité des synapses biologiques », détaille le chercheur.
L’amplitude et la durée des impulsions que reçoit la synapse artificielle provoquent une variation de la résistance du matériau. Cette propriété est très similaire à la plasticité des synapses biologiques.
« De nombreux matériaux peuvent, sur application de certaines gammes de tensions, présenter ce type de propriétés de changement de résistivité », remarque Vincent Derycke, chercheur au sein du laboratoire Nimbe7. Oxydes de métal, matériaux spintroniques, ferroélectriques…, la palette de candidats « exotiques » (c’est-à-dire marginaux par rapport à ceux utilisés en microélectronique classique, fondée sur le silicium) est en effet très large. « Toute la question est : leurs changements de résistivité sont-ils exploitables pour bâtir des circuits efficaces ? Jusqu’ici, aucun matériau idéal ne s’est encore détaché ».
Avec son équipe, il s’est spécialisé dans une voie originale : l’électronique organique, qui vise à traiter l’information au sein de molécules (assemblages de quelques atomes seulement), et ainsi réduire encore les consommations énergétiques. « C’est comme cela que l’industrie a pu remplacer les LED par des équivalents organiques, les OLED, dans de nouvelles générations d’écrans plats », explique le chercheur. Ce dernier ne cache pas le côté exploratoire de cette piste : « Mis à part les OLED, l’électronique organique, qui promettait au début des années 2000 de révolutionner l’électronique, n’a pas tenu toutes ses promesses et demeure un domaine de recherche principalement fondamental. Si d’éventuels neurones ou synapses organiques, très économes en énergie, deviennent réalité, ce ne sera pas avant cinq ou dix ans ».
Le défi des circuits intégrés
Malgré une multitude de matériaux proposés pour l’ingénierie neuromorphique, tous les chercheurs butent pour l’instant sur le même obstacle : le passage à l’échelle. « Un composant seul peut présenter un comportement physique remarquable, mais ce bénéfice s’estompe parfois lorsque l’on en intègre des milliers », commente Damien Querlioz. Il suffit par exemple que la tension électrique arrivant à l’entrée de chaque composant varie légèrement pour ruiner l’intérêt d’une puce neuromorphique complexe. Or, « des milliers, voire des centaines de milliers de composants à intégrer ensemble, c’est pourtant le minimum si l’on veut mettre au point de premières applications commerciales », poursuit le jeune chercheur, médaille de bronze du CNRS en 2017 pour ses travaux sur ces futures architectures neuromorphiques.
Vue en microscopie électronique de memristors organiques mis au point par l’équipe de Vincent Derycke. Le halo sombre (sur la partie zoomée, en bas) montre l’extension du film organique greffé.
V.DERYCKE/CEA
Partager
Le contrôle fin de la tension d’entrée donne encore du fil à retordre aux chercheurs. C’est l’un des défis que se propose de relever l’équipe de Sylvain Saighi au sein du Laboratoire de l’intégration du matériau au système8. À partir de la synapse ferroélectrique de Vincent Garcia, dite « memristor», les chercheurs tentent de construire un circuit de 1024 x 100 éléments. À travers le projet européen Ulpec, impliquant notamment IBM, Bosch et la société parisienne Chronocam, ce circuit devrait ensuite être intégré et testé au sein d’une caméra embarquée dans la voiture autonome. Restera aussi à régler le problème de la production en série des composants : « Il nous faut maintenant montrer que l’on peut produire notre memristor sur les substrats silicium habituels des industriels de la microélectronique pour envisager une production à grande échelle », prévoit Sylvain Saïghi. Même ambition pour Julie Grollier. D’ailleurs, si son équipe a été la première à faire fonctionner des neurones artificiels bio-inspirés au sein d’une application, c’est parce qu’elle a usé d’un astucieux artifice : un seul nano-neurone a permis de reconstituer un circuit de 400 neurones grâce à la méthode de multiplexage temporel. « Un peu comme si un acteur s’enregistrait en train de jouer les 400 rôles d’un même film et qu’on les superposait au montage », illustre la chercheuse. Les circuits bien réels de centaines ou de milliers de neurones sont donc aujourd’hui attendus de pied ferme ! ♦
Lire aussi : « Des machines enfin intelligentes ? »
Notes
* 1.
« Neuromorphic computing with nanoscale spintronic oscillators », J. Torrejon et al., Nature, 2017, vol. 547 : 428-431 (publié en ligne le 27 juillet 2017). https://www.nature.com/articles/nature23011(link is external)
* 2.
Unité CNRS/Thales/Université Paris-Sud.
* 3.
« Learning through ferroelectric domain dynamics in solid-state synapses », S. Boyn et al., Nature Communications, 2017, vol. 8, publié en ligne le 3 avril 2017. https://www.nature.com/articles/ncomms14736(link is external)
* 4.
Unité CNRS/Université Paris-Sud/Université Paris-Saclay.
* 5.
Unité CNRS/Université de Lille 1.
* 6.
Unité CNRS/Université de Nantes.
* 7.
Nanosciences et innovation pour les matériaux, la biomédecine et l’énergie (CNRS/ CEA/Université Paris-Saclay).
* 8.
Unité CNRS/Bordeaux INP/Université de Bordeaux.
DOCUMENT CNRS LIEN
|
|
|
|
|
|
|
La datation par le carbone 14 |
|
|
|
|
|
La datation par le carbone 14
Publié le 27 janvier 2015
Dernière mise à jour : 04 mars 2022
Le carbone possède plusieurs formes – ou « isotopes » – parmi lesquelles le carbone 14, ou 14C. Cet élément est radioactif, et sa radioactivité décroît au fil du temps à un rythme parfaitement régulier. Les scientifiques s’en servent donc comme « chronomètre » pour estimer l’âge d’objets très variés : œuvres d’art, roches, fossiles… La datation au carbone 14 est ainsi utilisée dans de nombreux domaines scientifiques : des sciences de la Terre aux sciences du vivant, en passant par les sciences de l’Homme et de la société.
LE PRINCIPE DE LA DATATION
Le carbone 14 est un isotope radioactif du carbone. Sa période radioactive, temps au bout duquel la moitié de ces atomes s’est désintégrée en azote 14, est de 5 730 ans. Se formant dans la haute atmosphère de la Terre, il existe 1 atome de carbone 14 pour 1 000 milliards de carbone 12 (isotope non radioactif). Comme tout isotope du carbone, le carbone 14 se combine avec l’oxygène de notre atmosphère pour former alors du CO2 (dioxyde de carbone). Ce CO2 est assimilé par les organismes vivants tout au long de leur vie : respiration, alimentation… En mourant, ils n’en assimilent plus. La quantité de carbone 14 assimilé diminue alors au cours du temps de façon exponentielle tandis que celle de carbone 12 reste constante.
La datation repose sur la comparaison du rapport entre les quantités de carbone 12 et de carbone 14 contenues dans un échantillon avec celui d’un échantillon standard de référence. On déduit de cette comparaison « l’âge carbone 14 » de l’échantillon qu’on cherche à dater. Cet « âge carbone 14 » est ensuite traduit en âge réel (ou « âge calendaire »), en le comparant à une courbe-étalon, réalisée par les chercheurs à force de nombreuses mesures complémentaires. On peut ainsi en déduire l'âge de l’objet étudié et remonter jusqu'à 50 000 ans environ (au-delà, la technique n’est pas assez précise).
Méthodologie
* Les chercheurs prélèvent un échantillon d’un objet (quelques grammes ou microgrammes) qu’ils veulent dater, et le préparent à travers une succession de réactions physico-chimiques.
* On ne conserve que le carbone contenu dans l’échantillon.
* Les chercheurs déterminent la quantité de carbone 14 par des mesures de radioactivité ou par spectrométrie de masse, et peuvent ainsi calculer « l’âge carbone 14 » de l’objet.
* Il leur faut ensuite comparer cet « âge carbone 14 » à une courbe d’étalonnage pour relier cet âge relatif à un âge réel, et ainsi savoir depuis combien de temps l’objet existe.
*
Le carbone 14, de sa formation à sa désintégration
Les atomes d'azote (14N) qui composent la haute atmosphère interceptent une partie du rayonnement cosmique : des neutrons percutent les atomes et les transforment en atomes de carbone 14. En s'oxydant dans l'atmosphère, le carbone 14 forme du CO2. Les plantes incorporent le carbone 14 via le CO2, et le transmettent à tout organisme vivant – étant la base de toute chaîne alimentaire. Dès qu'un organisme meurt, il n'incorpore plus de carbone 14. Celui-ci n'est plus renouvelé, et va se désintégrer progressivement : le « décompte » de sa radioactivité se met alors en route.
ENJEUX : COMPRENDRE PAR LA DATATION LES GRANDS MÉCANISMES EN SCIENCES DE LA VIE ET DE LA TERRE
Utilisés comme chronomètres ou comme traceurs d’échange entre différents réservoirs de carbone, les « âges carbone 14 » sont utilisés dans une variété de domaines de recherche :
* En histoire et archéologie : c’est un outil précieux et largement utilisé pour dater des échantillons organiques et construire une chronologie (en égyptologie par exemple).
* En sismologie et volcanologie : les chercheurs déterminent ainsi la fréquence d’événements sismiques ou volcaniques et peuvent mieux évaluer les risques potentiels futurs.
* En climatologie : le carbone 14 permet de suivre l’évolution du cycle du carbone, intimement lié aux variations climatiques et environnementales. Cette technique de datation permet, en étudiant des prélèvements de sédiments, de dresser une chronologie précise de l'enchaînement des événements climatiques passés.
* En océanographie et agronomie : le carbone 14 sert de traceur environnemental. En datant certains fossiles océaniques ou les différents composés de la matière organique dans les sols, les scientifiques peuvent ainsi retracer la dynamique de la circulation océanique dans le passé, déterminer les temps de résidence du carbone dans les sols et ainsi aboutir à une meilleure compréhension du cycle du carbone.
* Enfin, l'analyse du carbone 14 dans les écosystèmes permet l'étude de la radioactivité présente dans l’environnement.
RECHERCHE ET DÉVELOPPEMENT : AFFINER LES ESTIMATIONS D’« ÂGE CARBONE »
Les chercheurs tentent d’améliorer les techniques de datation du carbone 14, et de les compléter avec d’autres approches (datation uranium-thorium, potassium-argon).
Historiquement les premières datations d’échantillons ont été faites avec des compteurs proportionnels à gaz (on mesure la radioactivité émise par le carbone 14, transformé auparavant en gaz carbonique).
Cette méthode a laissé la place à deux techniques complémentaires :
* le détecteur à scintillation : ce détecteur mesure la radioactivité d’un échantillon en carbone 14 par la mesure de la lumière émise à chaque désintégration d’un atome de carbone 14. Cette méthode est donc une mesure directe de la radioactivité. Son défaut est la nécessité d’utiliser de grandes quantités de matière (plusieurs grammes) pour obtenir des mesures avec une précision suffisante, ce qui est très contraignant dans le cas où l’objet étudié est très fragile, petit ou précieux.
* le spectromètre de masse par accélérateur (SMA) : cette technique a été développée pour la datation d’échantillons de petite quantité et/ou d’âge allant jusqu’à 50 000 ans. Elle compte directement le nombre d’atomes de carbone 14 présents dans un échantillon, permettant ainsi de consommer moins de matière (quelques microgrammes) que la technique précédente, et permettant de dater des objets plus anciens.
*
Ces techniques reposent toutes les deux sur une préparation minutieuse de la matière
à dater :
* Préparation pour éliminer tout matériau contaminant par traitement mécanique et chimique,
* Combustion ou hydrolyse des carbonates de la matière obtenue pour transformer le carbone en gaz carbonique,
* Dans le cas du SMA : réduction du gaz carbonique pour obtenir du graphite qui est l’élément introduit dans le spectromètre.
Pourquoi la datation au carbone 14 est une mesure dite « relative » ?
La quantité de carbone 14 formé dans la haute atmosphère, bien qu’assez constante, peut connaître des variations. De même, cet élément ne se répartit pas uniformément sur Terre : la quantité assimilée par les organismes varie donc en fonction du contexte dans lequel vivait l’organisme (quantité formée en haute atmosphère, conditions environnementales, métabolisme, etc.).
Comme ces mécanismes sont variables, les « âges carbone 14 » sont relatifs : ils dépendent pour une part de l’âge de l’objet d’étude, mais également des conditions environnementales qui existaient alors. Pour pallier cela, les chercheurs ont établi une échelle de calibration des « âges carbone 14 » avec différentes mesures d’objets dont on connaît la date (datation absolue), pour les comparer avec les « âges carbone 14 » qu’ils obtiennent (datation relative).
Les isotopes du carbone
Le carbone possède 16 isotopes en tout. Le carbone 12 et le carbone 13 sont les plus abondants.
* Carbone 12 - Abondance : ~ 98,99 % - Neutrons : 6 - Protons : 6 - Signe distinctif : le plus abondant
* Carbone 13 - Abondance : ~ 1,11 % - Neutrons : 7 - Protons : 6 - Signe distinctif : isotope stable (ne se désintègre pas)
* Carbone 14 - Abondance : <0,01% - Neutrons : 8 - Protons : 6 - Signe distinctif : isotope radioactif.
Notions clés
* Carbone 14 (14C) = isotope radioactif du carbone, dont la période radioactive est de
* 5 730 ans (temps au bout duquel la moitié de ces atomes s’est désintégrée en azote 14).
* Le carbone 14 est ainsi utilisé pour dater des objets vieux de nos jours à 50 000 ans.
* La datation au carbone 14 est utilisée à la fois pour connaître l’âge d’un objet ou d’un événement, mais aussi pour suivre des processus : le carbone 14 sert donc de "chronomètre" et de "traceur".
* Cette technique est utilisée dans de nombreux domaines : l’archéologie, la climatologie, la vulcanologie, la sismologie, l’océanographie…
DOCUMENT cea LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|