|
|
|
|
 |
|
Demain, un ordinateur inspiré de notre cerveau? |
|
|
|
|
|
Demain, un ordinateur inspiré de notre cerveau?
12.01.2018, par Hugo Leroux
Et si l’on réinventait l’ordinateur en s’inspirant des neurones du cerveau humain ? Grâce à des composants électroniques bio-inspirés, les chercheurs mettent en avant de nouveaux modèles pour booster les applications en intelligence artificielle.
Un neurone artificiel capable de reconnaître des chiffres prononcés par différentes personnes faisait l’objet d’une présentation très remarquée en septembre 2017. À l’heure des assistants intelligents de type Google Home et de la voiture autonome, pourquoi une performance aussi sommaire fut-elle annoncée comme une première mondiale par la célèbre revue Nature ?1 Parce que la révolution réside dans le composant lui-même : un neurone électronique, cylindre de métal mille fois plus fin qu’un cheveu et implémentable en circuit. Bref, un nano-neurone artificiel « en dur », à la différence de ces fameux réseaux de neurones virtuels qui, s’ils permettent actuellement de spectaculaires applications en intelligence artificielle (IA), désignent en réalité des fonctions mathématiques, des algorithmes, purement numériques et impalpables.
« D’autres nano-neurones artificiels “en dur” avaient déjà été mis au point, mais nous avons été les premiers à les faire fonctionner au sein d’une application », explique Julie Grollier, qui a dirigé ces travaux au sein de l’Unité mixte de physique CNRS-Thales2. Quelques mois plus tôt, en avril, un autre composant bio-inspiré était dévoilé dans Nature Communications3 par Vincent Garcia, chercheur au sein de la même unité, et ses collègues. Cette fois, il s’agissait d’une synapse artificielle, inspirée de celles qui relient les neurones du cerveau.
Ce cylindre de métal, mille fois plus fin qu’un cheveu, est le premier neurone artificiel «en dur» à avoir fonctionné au sein d'une application (vue en microscopie électronique à balayage). Ces travaux ont été dirigé par Julie Grollier, de l’Unité mixte de physique CNRS-Thales.
Laboratoire Spintronics Research Center, AIST Tsukuba, Japon
Partager
Une grosse économie d’énergie
À quoi bon cette nouvelle quincaillerie électronique alors que les réseaux de neurones virtuels font déjà merveille en intelligence artificielle (IA) ? Parce que ces derniers, redoutables pour classifier de gigantesques masses de données, sont aussi effroyablement gourmands en énergie… Un gaspillage lié à la structure même des machines sur lesquelles ils turbinent.
« Les ordinateurs traditionnels sur lesquels on les fait tourner sont fondés sur une architecture datant des années 1950 qui sépare la mémoire et le “centre de calcul” en deux blocs bien distincts, explique ainsi Damien Querlioz, chercheur au Centre de nanosciences et de nanotechnologies4. Dès lors, un calcul, même simple, nécessite parfois d’aller chercher des données stockées très loin à l’échelle de la microélectronique. Or, les réseaux de neurones virtuels ont la particularité d’effectuer des calculs, certes très simples, mais en quantité massive et de manière parallèle avec souvent beaucoup de redondances ». D’où, parfois, de terribles « embouteillages » énergivores pour accéder à la mémoire… C’est ainsi que le programme AlphaGo, l’IA de Google qui a récemment écrasé les plus grands champions de go, consomme dix mille fois plus d’énergie qu’un humain à la même table de jeu !
Le programme AlphaGo, qui a récemment écrasé les plus grands champions de go, consomme dix mille fois plus d’énergie qu’un humain à la même table de jeu !
« Grâce à ses circuits neurone-synapse, notre cerveau, lui, dispose d’une mémoire (“stockée” dans les synapses) placée au plus proche du “centre de calcul” (que symbolisent les neurones) », explique Damien Querlioz. Cette architecture très distribuée s’avère extrêmement efficace pour traiter en parallèle la myriade d’opérations simples que nécessite la reconnaissance de sons ou d’images. En revanche, elle est moins adaptée au calcul classique : « Pour les opérations arithmétiques par exemple, qui font appel à moins de calculs, mais plus complexes, et exécutés les uns après les autres, l’architecture bien centralisée des ordinateurs traditionnels reste imbattable en précision », poursuit le chercheur.
Si l’on parvient à construire des puces neuromorphiques, assemblage de composants artificiels mimant neurones et synapses biologiques, elles seront donc dédiées uniquement aux tâches d’IA où les excellents quoique trop dispendieux réseaux de neurones actuels sont cantonnés (reconnaissances de formes, de sons, etc.). Et l’éventuel ordinateur du futur qui en abriterait garderait précieusement ses microprocesseurs classiques. « En intégrant une puce neuromorphique, dédiée aux algorithmes de type réseau de neurones courants en IA, sur chaque processeur d’ordinateur ou de téléphone, on disposerait de processeurs moins énergivores », confirme Vincent Garcia.
Les géants de l’électronique ne s’y sont pas trompés : IBM, Intel, Qualcomm, tous développent leur propre puce neuromorphique. Leur approche peut sembler timide : neurones et synapses artificiels y sont construits à partir de transistors classiques en silicium. C’est également le parti pris d’Alain Cappy, de l’Institut de recherche sur les composants logiciels et matériels pour l’information et la communication avancée5.
L’équipe d'Alain Cappy utilise des transistors pour fabriquer ses neurones artificiels. Assemblés en circuit (à gauche), ceux-ci répondent à une excitation synaptique par des potentiels d’action (à droite, en vert) identiques à ceux obtenus avec des neurones biologiques.
A. CAPPY/ICIRCA-IEMN
Partager
« L’avantage de n’utiliser que des composants déjà existants est de pouvoir fabriquer plus rapidement des puces efficientes et industrialisables », commente le chercheur. Ce qui ne le dispense pas de toute originalité : là où les neurones de silicium mis en œuvre par les industriels nécessitent 20 à 30 transistors, l’équipe d’Alain Cappy a délibérément privilégié un modèle plus simple et économe de 6 transistors seulement. Résultat : « Il consomme cent fois moins d’énergie que les autres neurones artificiels du même type », se félicite le chercheur. Il fait également le pari d’une intégration totalement bio-inspirée : « L’idée est d’imiter le système yeux/cortex cérébral qui analyse si rapidement et efficacement l’image. Nous tentons ainsi d’intégrer ces neurones à la fois dans des capteurs visuels inspirés de la rétine biologique, et dans des puces de traitement agencées comme les colonnes de neurones de notre cortex cérébral », poursuit Alain Cappy. Cette architecture très interconnectée pourrait s’avérer performante pour l’implémentation de réseaux de neurones bien plus complexes et performants que les possibilités offertes par les solutions actuelles sous forme logicielle.
Une question de taille
La plupart des chercheurs misent cependant sur une approche plus révolutionnaire pour fabriquer les composants bio-inspirés eux-mêmes. « Les neurones construits avec des transistors classiques mesurent 100 micromètres de côté tandis que le nôtre mesure à peine 100 nanomètres de diamètre : c’est mille fois plus petit », se réjouit Julie Grollier. Or, la question de la taille se posera de manière aiguë quand on voudra les assembler par millions et fabriquer des puces valables. Pour construire leur nano-neurone, les chercheurs de l’Unité mixte de physique CNRS-Thales ont choisi la spintronique, une discipline utilisant le spin des électrons comme unité d’information (alors que l’électronique utilise la charge électrique des électrons).
Les neurones construits avec des transistors classiques mesurent 100 micromètres de côté tandis que le nôtre mesure à peine 100 nanomètres de diamètre : c’est mille fois plus petit.
Le nano-neurone consiste en un empilement de deux couches de métaux ferromagnétiques prenant en sandwich une fine couche d’isolant électrique. « Lorsqu’on le soumet à un courant continu, les électrons passent à travers l’isolant par effet tunnel et leur spin fait tourner l’aimantation de la couche supérieure. Cela produit en sortie des oscillations électriques comparables aux signaux émis par les neurones de notre cerveau », résume Julie Grollier.
Pour développer leur propre nano-neurone, l’équipe de Laurent Cario, de l’Institut des matériaux Jean-Rouxel6, a de son côté misé sur les isolants de Mott. Ce matériau, dont le comportement physique est exploré dans le cadre de mémoires de nouvelles générations, pourrait constituer une alternative aux matériaux spintroniques : « Notre neurone a fait l’objet d’un brevet déposé en 2014 et nous essayons maintenant d’en améliorer la miniaturisation afin de faciliter son transfert industriel », précise Laurent Cario.
Imiter la plasticité des neurones
Présentes dans le cerveau en nombre dix mille fois plus important que les neurones, les synapses ont un rôle tout aussi capital. En particulier, les chercheurs tentent de reproduire une caractéristique de ces canaux interneurones : leur plasticité, c’est-à-dire leur capacité à se renforcer ou se déprécier au fil du temps pour favoriser le « câblage » entre les neurones utiles.
Vue d'artiste d’une synapse électronique : les petites sphères représentent les électrons circulant à travers l’oxyde, par analogie avec les neurotransmetteurs dans les synapses biologiques.
Sören Boyn/CNRS-Thales
Partager
Pour y parvenir, Vincent Garcia et son équipe ont choisi une couche ultra-mince d’un matériau ferroélectrique que les électrons traversent par effet tunnel : « Nous avons démontré que l’amplitude et la durée des impulsions que reçoit la synapse artificielle provoquent une variation de la résistance du matériau, donc de sa capacité à transmettre le courant tunnel. Cette propriété est très similaire à la plasticité des synapses biologiques », détaille le chercheur.
L’amplitude et la durée des impulsions que reçoit la synapse artificielle provoquent une variation de la résistance du matériau. Cette propriété est très similaire à la plasticité des synapses biologiques.
« De nombreux matériaux peuvent, sur application de certaines gammes de tensions, présenter ce type de propriétés de changement de résistivité », remarque Vincent Derycke, chercheur au sein du laboratoire Nimbe7. Oxydes de métal, matériaux spintroniques, ferroélectriques…, la palette de candidats « exotiques » (c’est-à-dire marginaux par rapport à ceux utilisés en microélectronique classique, fondée sur le silicium) est en effet très large. « Toute la question est : leurs changements de résistivité sont-ils exploitables pour bâtir des circuits efficaces ? Jusqu’ici, aucun matériau idéal ne s’est encore détaché ».
Avec son équipe, il s’est spécialisé dans une voie originale : l’électronique organique, qui vise à traiter l’information au sein de molécules (assemblages de quelques atomes seulement), et ainsi réduire encore les consommations énergétiques. « C’est comme cela que l’industrie a pu remplacer les LED par des équivalents organiques, les OLED, dans de nouvelles générations d’écrans plats », explique le chercheur. Ce dernier ne cache pas le côté exploratoire de cette piste : « Mis à part les OLED, l’électronique organique, qui promettait au début des années 2000 de révolutionner l’électronique, n’a pas tenu toutes ses promesses et demeure un domaine de recherche principalement fondamental. Si d’éventuels neurones ou synapses organiques, très économes en énergie, deviennent réalité, ce ne sera pas avant cinq ou dix ans ».
Le défi des circuits intégrés
Malgré une multitude de matériaux proposés pour l’ingénierie neuromorphique, tous les chercheurs butent pour l’instant sur le même obstacle : le passage à l’échelle. « Un composant seul peut présenter un comportement physique remarquable, mais ce bénéfice s’estompe parfois lorsque l’on en intègre des milliers », commente Damien Querlioz. Il suffit par exemple que la tension électrique arrivant à l’entrée de chaque composant varie légèrement pour ruiner l’intérêt d’une puce neuromorphique complexe. Or, « des milliers, voire des centaines de milliers de composants à intégrer ensemble, c’est pourtant le minimum si l’on veut mettre au point de premières applications commerciales », poursuit le jeune chercheur, médaille de bronze du CNRS en 2017 pour ses travaux sur ces futures architectures neuromorphiques.
Vue en microscopie électronique de memristors organiques mis au point par l’équipe de Vincent Derycke. Le halo sombre (sur la partie zoomée, en bas) montre l’extension du film organique greffé.
V.DERYCKE/CEA
Partager
Le contrôle fin de la tension d’entrée donne encore du fil à retordre aux chercheurs. C’est l’un des défis que se propose de relever l’équipe de Sylvain Saighi au sein du Laboratoire de l’intégration du matériau au système8. À partir de la synapse ferroélectrique de Vincent Garcia, dite « memristor», les chercheurs tentent de construire un circuit de 1024 x 100 éléments. À travers le projet européen Ulpec, impliquant notamment IBM, Bosch et la société parisienne Chronocam, ce circuit devrait ensuite être intégré et testé au sein d’une caméra embarquée dans la voiture autonome. Restera aussi à régler le problème de la production en série des composants : « Il nous faut maintenant montrer que l’on peut produire notre memristor sur les substrats silicium habituels des industriels de la microélectronique pour envisager une production à grande échelle », prévoit Sylvain Saïghi. Même ambition pour Julie Grollier. D’ailleurs, si son équipe a été la première à faire fonctionner des neurones artificiels bio-inspirés au sein d’une application, c’est parce qu’elle a usé d’un astucieux artifice : un seul nano-neurone a permis de reconstituer un circuit de 400 neurones grâce à la méthode de multiplexage temporel. « Un peu comme si un acteur s’enregistrait en train de jouer les 400 rôles d’un même film et qu’on les superposait au montage », illustre la chercheuse. Les circuits bien réels de centaines ou de milliers de neurones sont donc aujourd’hui attendus de pied ferme ! ♦
Lire aussi : « Des machines enfin intelligentes ? »
Notes
* 1.
« Neuromorphic computing with nanoscale spintronic oscillators », J. Torrejon et al., Nature, 2017, vol. 547 : 428-431 (publié en ligne le 27 juillet 2017). https://www.nature.com/articles/nature23011(link is external)
* 2.
Unité CNRS/Thales/Université Paris-Sud.
* 3.
« Learning through ferroelectric domain dynamics in solid-state synapses », S. Boyn et al., Nature Communications, 2017, vol. 8, publié en ligne le 3 avril 2017. https://www.nature.com/articles/ncomms14736(link is external)
* 4.
Unité CNRS/Université Paris-Sud/Université Paris-Saclay.
* 5.
Unité CNRS/Université de Lille 1.
* 6.
Unité CNRS/Université de Nantes.
* 7.
Nanosciences et innovation pour les matériaux, la biomédecine et l’énergie (CNRS/ CEA/Université Paris-Saclay).
* 8.
Unité CNRS/Bordeaux INP/Université de Bordeaux.
DOCUMENT CNRS LIEN
|
|
|
|
|
 |
|
La datation par le carbone 14 |
|
|
|
|
|
La datation par le carbone 14
Publié le 27 janvier 2015
Dernière mise à jour : 04 mars 2022
Le carbone possède plusieurs formes – ou « isotopes » – parmi lesquelles le carbone 14, ou 14C. Cet élément est radioactif, et sa radioactivité décroît au fil du temps à un rythme parfaitement régulier. Les scientifiques s’en servent donc comme « chronomètre » pour estimer l’âge d’objets très variés : œuvres d’art, roches, fossiles… La datation au carbone 14 est ainsi utilisée dans de nombreux domaines scientifiques : des sciences de la Terre aux sciences du vivant, en passant par les sciences de l’Homme et de la société.
LE PRINCIPE DE LA DATATION
Le carbone 14 est un isotope radioactif du carbone. Sa période radioactive, temps au bout duquel la moitié de ces atomes s’est désintégrée en azote 14, est de 5 730 ans. Se formant dans la haute atmosphère de la Terre, il existe 1 atome de carbone 14 pour 1 000 milliards de carbone 12 (isotope non radioactif). Comme tout isotope du carbone, le carbone 14 se combine avec l’oxygène de notre atmosphère pour former alors du CO2 (dioxyde de carbone). Ce CO2 est assimilé par les organismes vivants tout au long de leur vie : respiration, alimentation… En mourant, ils n’en assimilent plus. La quantité de carbone 14 assimilé diminue alors au cours du temps de façon exponentielle tandis que celle de carbone 12 reste constante.
La datation repose sur la comparaison du rapport entre les quantités de carbone 12 et de carbone 14 contenues dans un échantillon avec celui d’un échantillon standard de référence. On déduit de cette comparaison « l’âge carbone 14 » de l’échantillon qu’on cherche à dater. Cet « âge carbone 14 » est ensuite traduit en âge réel (ou « âge calendaire »), en le comparant à une courbe-étalon, réalisée par les chercheurs à force de nombreuses mesures complémentaires. On peut ainsi en déduire l'âge de l’objet étudié et remonter jusqu'à 50 000 ans environ (au-delà, la technique n’est pas assez précise).
Méthodologie
* Les chercheurs prélèvent un échantillon d’un objet (quelques grammes ou microgrammes) qu’ils veulent dater, et le préparent à travers une succession de réactions physico-chimiques.
* On ne conserve que le carbone contenu dans l’échantillon.
* Les chercheurs déterminent la quantité de carbone 14 par des mesures de radioactivité ou par spectrométrie de masse, et peuvent ainsi calculer « l’âge carbone 14 » de l’objet.
* Il leur faut ensuite comparer cet « âge carbone 14 » à une courbe d’étalonnage pour relier cet âge relatif à un âge réel, et ainsi savoir depuis combien de temps l’objet existe.
*
Le carbone 14, de sa formation à sa désintégration
Les atomes d'azote (14N) qui composent la haute atmosphère interceptent une partie du rayonnement cosmique : des neutrons percutent les atomes et les transforment en atomes de carbone 14. En s'oxydant dans l'atmosphère, le carbone 14 forme du CO2. Les plantes incorporent le carbone 14 via le CO2, et le transmettent à tout organisme vivant – étant la base de toute chaîne alimentaire. Dès qu'un organisme meurt, il n'incorpore plus de carbone 14. Celui-ci n'est plus renouvelé, et va se désintégrer progressivement : le « décompte » de sa radioactivité se met alors en route.
ENJEUX : COMPRENDRE PAR LA DATATION LES GRANDS MÉCANISMES EN SCIENCES DE LA VIE ET DE LA TERRE
Utilisés comme chronomètres ou comme traceurs d’échange entre différents réservoirs de carbone, les « âges carbone 14 » sont utilisés dans une variété de domaines de recherche :
* En histoire et archéologie : c’est un outil précieux et largement utilisé pour dater des échantillons organiques et construire une chronologie (en égyptologie par exemple).
* En sismologie et volcanologie : les chercheurs déterminent ainsi la fréquence d’événements sismiques ou volcaniques et peuvent mieux évaluer les risques potentiels futurs.
* En climatologie : le carbone 14 permet de suivre l’évolution du cycle du carbone, intimement lié aux variations climatiques et environnementales. Cette technique de datation permet, en étudiant des prélèvements de sédiments, de dresser une chronologie précise de l'enchaînement des événements climatiques passés.
* En océanographie et agronomie : le carbone 14 sert de traceur environnemental. En datant certains fossiles océaniques ou les différents composés de la matière organique dans les sols, les scientifiques peuvent ainsi retracer la dynamique de la circulation océanique dans le passé, déterminer les temps de résidence du carbone dans les sols et ainsi aboutir à une meilleure compréhension du cycle du carbone.
* Enfin, l'analyse du carbone 14 dans les écosystèmes permet l'étude de la radioactivité présente dans l’environnement.
RECHERCHE ET DÉVELOPPEMENT : AFFINER LES ESTIMATIONS D’« ÂGE CARBONE »
Les chercheurs tentent d’améliorer les techniques de datation du carbone 14, et de les compléter avec d’autres approches (datation uranium-thorium, potassium-argon).
Historiquement les premières datations d’échantillons ont été faites avec des compteurs proportionnels à gaz (on mesure la radioactivité émise par le carbone 14, transformé auparavant en gaz carbonique).
Cette méthode a laissé la place à deux techniques complémentaires :
* le détecteur à scintillation : ce détecteur mesure la radioactivité d’un échantillon en carbone 14 par la mesure de la lumière émise à chaque désintégration d’un atome de carbone 14. Cette méthode est donc une mesure directe de la radioactivité. Son défaut est la nécessité d’utiliser de grandes quantités de matière (plusieurs grammes) pour obtenir des mesures avec une précision suffisante, ce qui est très contraignant dans le cas où l’objet étudié est très fragile, petit ou précieux.
* le spectromètre de masse par accélérateur (SMA) : cette technique a été développée pour la datation d’échantillons de petite quantité et/ou d’âge allant jusqu’à 50 000 ans. Elle compte directement le nombre d’atomes de carbone 14 présents dans un échantillon, permettant ainsi de consommer moins de matière (quelques microgrammes) que la technique précédente, et permettant de dater des objets plus anciens.
*
Ces techniques reposent toutes les deux sur une préparation minutieuse de la matière
à dater :
* Préparation pour éliminer tout matériau contaminant par traitement mécanique et chimique,
* Combustion ou hydrolyse des carbonates de la matière obtenue pour transformer le carbone en gaz carbonique,
* Dans le cas du SMA : réduction du gaz carbonique pour obtenir du graphite qui est l’élément introduit dans le spectromètre.
Pourquoi la datation au carbone 14 est une mesure dite « relative » ?
La quantité de carbone 14 formé dans la haute atmosphère, bien qu’assez constante, peut connaître des variations. De même, cet élément ne se répartit pas uniformément sur Terre : la quantité assimilée par les organismes varie donc en fonction du contexte dans lequel vivait l’organisme (quantité formée en haute atmosphère, conditions environnementales, métabolisme, etc.).
Comme ces mécanismes sont variables, les « âges carbone 14 » sont relatifs : ils dépendent pour une part de l’âge de l’objet d’étude, mais également des conditions environnementales qui existaient alors. Pour pallier cela, les chercheurs ont établi une échelle de calibration des « âges carbone 14 » avec différentes mesures d’objets dont on connaît la date (datation absolue), pour les comparer avec les « âges carbone 14 » qu’ils obtiennent (datation relative).
Les isotopes du carbone
Le carbone possède 16 isotopes en tout. Le carbone 12 et le carbone 13 sont les plus abondants.
* Carbone 12 - Abondance : ~ 98,99 % - Neutrons : 6 - Protons : 6 - Signe distinctif : le plus abondant
* Carbone 13 - Abondance : ~ 1,11 % - Neutrons : 7 - Protons : 6 - Signe distinctif : isotope stable (ne se désintègre pas)
* Carbone 14 - Abondance : <0,01% - Neutrons : 8 - Protons : 6 - Signe distinctif : isotope radioactif.
Notions clés
* Carbone 14 (14C) = isotope radioactif du carbone, dont la période radioactive est de
* 5 730 ans (temps au bout duquel la moitié de ces atomes s’est désintégrée en azote 14).
* Le carbone 14 est ainsi utilisé pour dater des objets vieux de nos jours à 50 000 ans.
* La datation au carbone 14 est utilisée à la fois pour connaître l’âge d’un objet ou d’un événement, mais aussi pour suivre des processus : le carbone 14 sert donc de "chronomètre" et de "traceur".
* Cette technique est utilisée dans de nombreux domaines : l’archéologie, la climatologie, la vulcanologie, la sismologie, l’océanographie…
DOCUMENT cea LIEN
|
|
|
|
|
 |
|
ÉNERGIE |
|
|
|
|
|
ÉNERGIE
Nous sommes tous entourés d'énergie : dans notre corps, notre maison, notre environnement... Elle est là, dans notre quotidien. Qu'est-ce que l'énergie ? Quelles sont les différentes formes de l'énergie ? Ses sources ? Que signifient les expressions "énergies primaires", "énergies secondaires", "énergies renouvelables", "énergies non-renouvelables", "énergies fossiles" ?
QU'EST-CE QUE L'ÉNERGIE ?
Le mot « énergie » vient du Grec Ancien « énergéia », qui signifie « La force en action ». Ce concept scientifique est apparu avec Aristote et a fortement évolué au cours du temps. Aujourd’hui, l’énergie désigne « la capacité à effectuer des transformations ». Par exemple, l’énergie c’est ce qui permet de fournir du travail, de produire un mouvement, de modifier la température ou de changer l’état de la matière. Toute action humaine requiert de l’énergie : le fait de se déplacer, de se chauffer, de fabriquer des objets et même de vivre.
L’énergie est partout présente autour de nous : dans la rivière qui fait tourner la roue du moulin, dans le moteur d’une voiture, dans l’eau de la casserole que l’on chauffe, dans la force du vent qui fait tourner les éoliennes… et même dans notre corps humain.
Une énergie de qualité
Toutes les formes d’énergie n’ont pas la même « valeur ». Dans les machines, on distingue classiquement l’énergie mécanique, ou travail, de l’énergie thermique, ou chaleur. La première est beaucoup plus utile que la seconde. C’est elle qui permet de déplacer les objets ou de les déformer.
De son côté, la chaleur a tendance à se diluer dans la matière et seule une petite partie peut être transformée en énergie mécanique. C’est ce qui fait qu’une centrale électrique n’arrive à transformer qu’un tiers de la chaleur de son feu de charbon ou de ses fissions nucléaires en électricité, le reste étant inutilisable et rejeté à l’extérieur.
LES DIFFÉRENTES FORMES D'ÉNERGIE
L’énergie peut exister sous plusieurs formes. Parmi les principales :
* L’énergie thermique, qui génère de la chaleur ;
* L’énergie électrique ou électricité, qui fait circuler les particules – électrons - dans les fils électriques ;
* L’énergie mécanique, qui permet de déplacer des objets ;
* L’énergie chimique, qui lie les atomes dans les molécules ;
* L’énergie de rayonnement ou lumineuse, qui génère de la lumière ;
* L’énergie musculaire qui fait bouger les muscles.
Conservation de l'énergie
L’énergie se conserve. La quantité totale d'énergie dans un système donné ne change pas, on ne peut donc ni la créer, ni la détruire. L'énergie est transmise d'un élément vers un autre, souvent sous une forme différente.
Un exemple : quand on chauffe de l'eau, différentes transformations d’énergie ont lieu. En brûlant dans l’air, le bois libère son énergie chimique. Cette énergie se transforme en chaleur, l’énergie thermique, et en lumière, l’énergie de rayonnement. Lors de cette réaction, la quantité d'énergie totale ne change pas, elle change simplement de forme.
Un autre exemple : lorsqu’une voiture fonctionne, l’essence libère son énergie chimique en brûlant dans l’air. Elle chauffe le moteur et pousse les pistons (énergie thermique et énergie mécanique). Les pistons font tourner le moteur et les roues, transfert d’énergie mécanique, et la voiture se déplace (énergie cinétique). Au passage, la courroie fait tourner l’alternateur qui transforme une petite partie de l’énergie mécanique en électricité qui sera stockée dans la batterie.
LES SOURCES D'ÉNERGIE
L’énergie est issue de différentes sources d’énergie qui peuvent être classifiées en deux groupes : les énergies non renouvelables, dont les sources ont des stocks sur Terre limités et les énergies renouvelables qui dépendent d’éléments que la nature renouvelle en permanence.
Les diverses sources d'énergie
Votre navigateur ne permet pas de lire des vidéos.
télécharger : version vidéo |
Qu'est-ce qu'une énergie intermittente ?
Une énergie intermittente est une énergie pour laquelle les sources ne sont pas disponibles en permanence et dont la disponibilité varie fortement sans possibilité de contrôle. Les énergies solaire et éolienne sont définies comme intermittentes car leur efficacité varie en fonction de la météo et de paramètres extérieurs (jour/nuit).
Pour pallier à cette intermittence, il est nécessaire de stocker ces énergies. Le développement de technologies de stockage est un enjeu important de recherche et développement.
Pour plus d’informations sur le stockage de l’énergie, consultez notre dossier « l’essentiel sur… le stockage stationnaire de l’énergie ».
Les sources d'énergie non renouvelables
Énergies fossiles
Dans les énergies non renouvelables, on trouve les énergies dites fossiles : ce sont les résidus des matières végétales et organiques accumulés sous terre pendant des centaines de millions d’années. Ces résidus se transforment en hydrocarbure (pétrole, gaz naturel et de schiste, charbon…). Pour pouvoir les exploiter, il faut puiser dans ces ressources qui ne sont pas illimitées, c’est pourquoi les énergies fossiles ne sont pas renouvelables.
Énergie nucléaire
L’énergie nucléaire est « localisée » dans le noyau des atomes. Dans les centrales nucléaires actuelles, on utilise la fission (cassure) des noyaux d’uranium, élément que l’on retrouve sur Terre dans les mines. Les mines d’uranium s’épuiseront un jour tout comme le charbon, le gaz et le pétrole.
Au rythme de l’utilisation des ressources actuellement exploitées, on estime les réserves de pétrole à 40 ans, de gaz naturel conventionnel à 60 ans et de charbon à 120 ans. Les réserves d’uranium, combustible de l’énergie nucléaire, à 100 ans avec les réacteurs actuels.
Le saviez-vous ?
L’énergie nucléaire a un excellent bilan carbone : elle ne génère pas de CO2. Cependant, la production d’électricité avec le nucléaire génère des déchets radioactifs, dont la gestion spécifique est encadrée par la Loi.
Les sources d'énergies renouvelables
Le soleil, le vent, l’eau, la biomasse et la géothermie sont des sources qui ne s’épuisent pas et sont renouvelées en permanence.
Biomasse et géothermie : quelles différences ?
La biomasse et la géothermie sont deux sources d’énergies bien distinctes.
La géothermie est l’énergie générée par la chaleur des profondeurs de la Terre et sa radioactivité. Le mot « géothermie » vient du grec « geo » (la terre) et « thermos » (la chaleur). On l’exploite pour chauffer des habitations grâce à des forages légers.
La biomasse a, quant à elle, pour source le Soleil dont l’énergie de rayonnement est transformée en énergie chimique par les matières organiques d’origine végétale (bois), animale, bactérienne ou fongique (champignons). Il existe des centrales « biomasse » qui produisent de l’électricité avec la combustion de matières organiques.
Parmi toutes ces sources d’énergie, on distingue les énergies primaires des énergies secondaires.
Énergie primaire
Une énergie primaire est une énergie brute n’ayant pas subi de transformation, dont la source se trouve à l’état pur dans l’environnement. Le vent, le Soleil, l’eau, la biomasse, la géothermie, le pétrole, le charbon, le gaz ou l’uranium sont des sources d’énergies primaires.
Énergie secondaire
On appelle « énergie secondaire » une énergie qui est obtenue par la transformation d’une énergie primaire.
Par exemple, l’électricité est une énergie secondaire qu’on obtient à partir de plusieurs énergies primaires : l’énergie solaire avec des panneaux, l’énergie nucléaire avec des réacteurs, l’énergie hydraulique avec des barrages ou encore l’énergie du vent avec des éoliennes. Il n’existe pas d’électricité à l’état naturel.
L’essence, le gasoil et les biocarburants sont également des énergies secondaires ; on les obtient par la transformation du pétrole, qui lui, est brut ou de la biomasse. L’hydrogène, qui n'existe pas à l'état pur, est également une énergie chimique secondaire car il faut le produire.
La domestication des sources d'énergie au fil du temps
La maîtrise des sources d’énergie par l’Homme remonte à 400 000 ans av. J-C. A l’époque, l’Homme apprend à maîtriser le feu. Puis, plus tard, il apprend à maîtriser le vent, l’eau avec des moulins….
Avec l’ère industrielle, l’Homme commence à exploiter des ressources fossiles (charbon, puis pétrole et gaz) et à développer des machines qui vont changer son mode de vie. Depuis, les besoins en énergie n’ont cessé d’augmenter.
En chiffres
81 % des besoins mondiaux en énergie primaire sont actuellement comblés par le pétrole, le charbon et le gaz.
Source : Données 2019 de l'Agence internationale de l'énergie
Énergie et puissance
On mesure l’énergie à l’aide d’une unité particulière nommée le joule. Son nom vient du physicien anglais James Prescott Joule. Un joule représente par exemple l'énergie requise pour élever une pomme de 100 grammes d'un mètre ou encore l'énergie nécessaire pour élever la température d'un gramme (un litre) d'air sec de un degré Celsius.
Dans le domaine de la nutrition, c’est la kilocalorie qui est utilisée. 1 kilocalorie équivaut à 4,2 kilojoules. Pour évaluer l’énergie utilisée sur une année, on utilise généralement la tonne équivalent pétrole, tep.
1 tep est égale à 41 868 000 000 joules.
La puissance correspond, quant à elle, à la vitesse à laquelle l'énergie est délivrée. Elle se mesure en watt, ce qui correspond à un joule par seconde.
Par exemple, si pour faire bouillir un litre d’eau, on utilise d’un côté une flamme d’un gros feu de bois et de l’autre, la flamme d’une bougie : dans les deux cas, la même quantité d’énergie sera utilisée pour faire bouillir l’eau. Seulement, ce sera fait plus rapidement avec un feu qu’avec une bougie. L'énergie est dégagée plus rapidement avec le feu de bois qu'avec la flamme de la bougie. Le feu de bois est donc plus puissant que la flamme de la bougie.
UTILISATION DES ÉNERGIES EN FRANCE ET ENVIRONNEMENT
L’énergie, en France, est surtout utilisée pour le transport, l’habitat (chauffage), l’industrie, le tertiaire et l’agriculture.
En chiffres
En 2019, un Français a en moyenne consommé 30 fois plus d’énergie qu’un habitant d’Afrique de l’Est.
Source : Connaissance des Énergies, d'après BP Statistical Review of World Energy
Bien que la dépendance énergétique de la France se soit réduite depuis 1973 grâce à la construction du parc nucléaire, son mix énergétique dépend encore fortement des énergies fossiles qui couvrent près de 50 % de la consommation d’énergie primaire. A eux seuls, le transport et l’habitat représentent en France près de 80 % de la consommation finale. Le bâtiment dépend à plus de 50 % [2] des combustibles fossiles et le transport à 95 % du pétrole. Ces deux secteurs sont à l’origine de plus de 50 % des émissions de CO2, l’un des principaux gaz à effet de serre.
Ces émissions impactent directement le climat en contribuant au réchauffement climatique. Face à ce défi climatique majeur, il devient indispensable de disposer de sources d’énergie à la fois compétitives et bas carbone (faiblement émettrices de gaz à effet de serre) et de faire évoluer le mix énergétique de la France.
Les défis énergétiques
Toute action humaine requiert de l’énergie. Depuis toujours, l’Homme a cherché à accéder à des sources d’énergie abondantes et peu chères pour satisfaire ses besoins. Mais depuis le début de la révolution industrielle, la société moderne utilise sans compter de l’énergie provenant de sources, qui sont, pour la plupart, non renouvelables. Conséquence, les ressources s’épuisent et la quantité d’émission de gaz à effet de serre dans l’atmosphère, issue de l’exploitation des ressources fossiles, menace le climat. Face à ces réalités, il devient nécessaire de :
* Mieux gérer l’utilisation des énergies en faisant notamment moins de gaspillage ;
* Repenser notre mix énergétique en utilisant des sources d’énergie bas carbone tels que le nucléaire et les énergies renouvelables ;
* Améliorer les technologies de stockage de l’énergie (batteries, hydrogène) ;
* Continuer à travailler sur les énergies du futur : nucléaire du futur (fission et fusion nucléaire), solaire, éolien, bioénergies.
DOCUMENT cea LIEN
|
|
|
|
|
 |
|
Une médecine à l'échelle nano |
|
|
|
|
|
Une médecine à l'échelle nano
Les nanotechnologies sont au service de la médecine pour la prévention, le diagnostic et le traitement.
Publié le 1 juillet 2012
De nombreuses recherches sont actuellement menées dans le domaine de la santé afin de disposer d’outils de prévention, de diagnostic ou de traitement, rapides et adaptés.
Il s’agit notamment de réaliser un diagnostic de plus en plus précoce et fin, de suivre et d’adapter les traitements en fonction de leur efficacité, ou encore de cibler précisément les médicaments vers les organes ou les tissus atteints, à moindre coût. Ces recherches visent aussi à optimiser les interventions chirurgicales. Enfin, elles permettront de suppléer aux fonctions altérées ou perdues tout en diminuant les risques d’effets secondaires liés aux traitements. Intervenant à l’échelle moléculaire, les nanosciences et les nanotechnologies présentent donc des atouts intéressants.
Les biopuces ou puces à ADN permettent aujourd’hui de tester des centaines de milliers de gènes.
UN DIAGNOSTIC PLUS RAPIDE
Les nanosciences permettent de mieux comprendre l’organisation et la structure des cellules, jusqu’aux protéines et à l'ADN. L’ADN est une molécule constituée de deux brins enroulés l’un autour de l’autre. Chaque brin est une succession de nucléotides. Chaque nucléotide est constitué de trois éléments liés entre eux : un phosphate, lié à un sucre pouvant porter quatre bases azotées différentes – l’adénine (A), la thymine (T), la cytosine (C) et la guanine (G). Comme sur un jeu de construction, un brin « s’apparie » à l’autre brin s’il y a complémentarité : A s’appariant avec T, et C avec G uniquement. En génétique, étudier cette imbrication (que l’on appelle « séquence ») et identifier les parties présentant des défauts ou des mutations permet de comprendre l’origine des maladies génétiques et la prédisposition de certaines personnes à des maladies données.
La puce à ADN
Des nanogouttes d'huile pour transporter les médicaments
Des nano-émulsions, développées par le CEA et le CNRS, pour des applications dans la vectorisation des médicaments, sont formées de gouttelettes d’huile. Le coeur de ces nano-émulsions peut contenir des substances actives. Non toxiques, elles sont « biocompatibles » et traversent les barrières biologiques pour atteindre la tumeur à traiter.
Les chercheurs travaillent également sur l’interface eau/huile pour augmenter la reconnaissance spécifique avec la tumeur.
L’ADN, support du génome humain, peut parfois présenter des défauts lors de sa reproduction. Sa mutation ou des incohérences peuvent alors induire la survenue de cancers. Trouver des technologies qui permettent de déceler des tumeurs à un stade très précoce, alors même qu’elles sont indécelables avec les moyens d’imagerie médicale actuels, est un enjeu majeur.
Le principe de fonctionnement des biopuces repose sur l’hybridation de l’ADN, selon laquelle les brins complémentaires se reconnaissent et s’apparient pour former une double hélice.
Par exemple, quand on cherche à identifier une séquence d’acide nucléique responsable d’une maladie :
* des fragments d’acides nucléiques, obtenus par synthèse chimique, reproduisent cette séquence et sont donc désignés par la terminologie « sondes ». Ils sont greffés selon un ordre précis sur un support solide en verre, en plastique ou en silicium pour former un réseau dense et régulier de microsurfaces. Chaque sonde peut contenir de 40 à 60 bases. Une puce peut contenir plusieurs centaines de milliers de sondes ;
* cet échantillon est traité chimiquement pour en extraire un acide nucléique appelé ARN messager ;
* dans un mélange biologique complexe, ces ARN messagers sont mis en contact avec les fragments d’acides nucléiques « sonde » et leurs liaisons sont analysées, par une méthode de fluorescence.
Le concept des puces à ADN date de 1990 et relève d’une approche pluridisciplinaire : microélectronique, chimie des acides nucléiques, microfluidique, biologie, bio-informatique, microsystèmes et analyse d’images.
L’objectif final est de proposer un traitement préventif avant l’apparition des premiers symptômes. Elles permettent maintenant de tester des centaines de milliers de gènes.
Elles ont l’avantage d’automatiser, de miniaturiser et de paralléliser les différentes étapes utilisées en biologie. Ainsi, sur une surface de quelques centimètres carrés, les expériences sont menées en quelques heures au lieu de plusieurs mois auparavant ou pourront être multipliées dans un temps donné.
Outre les diagnostics et les traitements préventifs, les biopuces servent également à déterminer la résistance aux antibiotiques de certains microbes ou bactéries et de poursuivre les recherches pour les améliorer. En recherche pharmaceutique, elles représentent des outils précieux pour mieux comprendre l’action des médicaments, leur efficacité ou leurs effets indésirables ou secondaires.
Dans la même famille, il existe les « laboratoires sur puce » ou « lab-on-chip ». Ce sont des laboratoires miniaturisés réalisant des analyses automatisées et en parallèle sur de très petits volumes, une goutte de sang de quelques nanolitres par exemple. Ils permettent de réduire les coûts (des réactifs et des solvants), les surfaces, l’énergie consommée.
De plus, comme ces laboratoires sur puce sont mobiles, ils peuvent tout à fait s’utiliser en dehors d’un laboratoire spécialisé, par un médecin en consultation par exemple. En cas d’infection, ils permettent d’identifier rapidement l’agent responsable (virus ou bactérie), de le caractériser et d’apporter rapidement un traitement efficace.
Ces microsystèmes sont également utilisés pour les contrôles agroalimentaires (comme le suivi des bactéries productrices de ferments lactiques) et environnementaux (analyse bactérienne de l’eau de consommation, détection d’agents infectieux dans l’alimentation, l’air ou l’eau).
Les « puces à cellules » ou « cell-on-chip » sont des microsystèmes qui sont destinés à manipuler très précisément dans toutes les directions spatiales possibles et à analyser individuellement des cellules vivantes inférieures ou égales à quelques microns. Cette technique permet l’étude à l’échelle d’une cellule des effets d’une drogue ou de la transfection d’un gène ou encore la compréhension des interactions entre cellules…
Sur une surface de quelques centimètres carrés, les analyses sont menées en quelques heures au lieu de plusieurs mois.
DES TRAITEMENTS PLUS EFFICACES
Pouvoir distribuer un médicament à la dose adéquate, précisément sur l’organe ou le tissu infecté, est un véritable enjeu. Grâce aux nanotechnologies, ce rêve pourrait devenir réalité.
Aujourd’hui, les médicaments pris par voie orale ou intraveineuse se dissolvent dans l’organisme avant d’atteindre leur cible. Il faut donc administrer une forte dose au patient pour être sûr qu’une dose résiduelle atteigne la zone malade.
De plus, certaines interactions avec des organes « sains » ainsi que des effets secondaires peuvent survenir. La conception de nano-transporteurs, utilisés pour la vectorisation des médicaments, présente deux intérêts : franchir les barrières biologiques et, grâce à un encapsulage, permettre aux molécules thérapeutiques d’atteindre leur cible sans aucune déperdition.
Les recherches en physique et en chimie tentent d’imaginer et de tester les formes de ces nano-transporteurs pour qu’ils protègent la substance active (le médicament) et que celle-ci soit libérée pendant un temps et dans un espace donnés. D’autres méthodes à l’étude consistent à intégrer les médicaments dans des nanocapsules qui libèrent leur contenu selon un temps calculé, suite à une stimulation de l’organisme ou extérieure. Par exemple, les troubles liés à l’insuline pourraient ainsi être plus facilement traités.
Utiliser des formulations médicamenteuses de la taille de nanoparticules (beaucoup plus petites que les cristaux couramment utilisés) permet une assimilation plus rapide et plus ciblée. Il est d’ailleurs possible, au moyen de marqueurs spécifiques, de suivre le parcours de ces nanoparticules dans l’organisme et de vérifier leur action sur les cellules malades.
En thérapeutique, l’un des intérêts de la miniaturisation des systèmes d’analyse est de pouvoir tester rapidement un très grand nombre de molécules dans des systèmes in vitro.
Ce criblage à haut débit permet d’identifier plus rapidement de bons candidats médicaments. En effet, actuellement, pour plus de 100 000 molécules testées in vitro, seules quelques-unes seront testées chez l’animal, in vivo. Ces microsystèmes permettent donc de disposer plus rapidement de traitements efficaces en évaluant un plus grand nombre de molécules.
AUTRES INNOVATIONS
Les greffes sont fréquemment rejetées par le système immunitaire du patient. Il est donc envisagé d’encapsuler les cellules greffées dans une membrane semi-perméable, constituée de matériau rendu biocompatible par l’emploi de nanocomposés sélectionnés. Les nanopores laisseraient ainsi entrer les substances nutritives et sortir les substances sécrétées par le greffon. En revanche, les anticorps, plus gros que les nanopores, ne pourraient pas passer la barrière.
Dans le cas des prothèses, l’objectif est de fabriquer des matériaux qui ne se dégradent pas et peuvent durer au-delà des dix ans actuels. Les recherches sont menées sur les nanomatériaux composites, plus résistants que les métaux.
Une autre voie étudie la possibilité d’aider un organe défaillant par un implant de taille nanométrique ou sa stimulation au moyen d’un maillage nanostructuré. En cultivant ses cellules in vivo, on peut aider ce tissu à se régénérer en créant des connexions nanométriques entre chaque cellule afin d’obtenir un ensemble construit et viable, comme cela a été pratiqué pour l’épiderme ou pour le cartilage.
DOCUMENT cea LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|