|
|
|
|
|
|
INTELLIGENCE ARTIFICIELLE 1 |
|
|
|
|
|
Intelligence artificielle : une machine peut-elle ressentir de l’émotion ?
Certains programmes savent déjà les imiter à la perfection et même influer sur nos propres émotions.
Abonnez vous à partir de 1 € Réagir ClasserPartager (696)Tweeter
Le Monde.fr | 12.10.2015 à 14h59 • Mis à jour le 12.10.2015 à 16h20 | Par Morgane Tual
Cet article fait partie d’une série consacrée à l’état des lieux de l’intelligence artificielle.
La science-fiction nous abreuve de robots autonomes, si perfectionnés qu’ils disposent d’une conscience, d’émotions et nous inspirent même de l’empathie, à l’instar des êtres humains. Mais loin de la littérature et d’Hollywood, qu’en est-il aujourd’hui dans les laboratoires du monde entier ? L’émotion, et la conscience, apparaissent comme des éléments essentiels pour fabriquer une machine à l’image de l’être humain. Mais elles font aussi partie des plus difficiles à conceptualiser.
« La vie intérieure, on ne sait pas ce que c’est »
Et c’est là que réside la plus grande difficulté : comment définir – et donc reproduire – l’émotion et la conscience ? « On ne sait pas ce que c’est que la conscience, on n’en connaît pas les fondements. On n’est donc pas capables de créer une machine consciente », tranche Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris-VI et auteur de L’Intelligence artificielle (Editions Le Cavalier Bleu, collection Idées reçues, 2007). « Pour cela, il faudrait que la machine perçoive comme nous : la douleur, le plaisir… Et quand bien même, elle ne les percevra pas de la même manière que nous. »
Une analyse partagée par Jean-Michel Besnier, professeur de philosophie à la Sorbonne et spécialiste de l’intelligence artificielle :
« La vie intérieure, on ne sait pas ce que c’est. L’intelligence artificielle a donc fini par dépouiller la notion de conscience de la notion d’intériorité, et l’a définie simplement en termes de comportement : on peut l’imiter chez les machines. »
A défaut d’être capables de ressentir, les machines peuvent néanmoins simuler, en apparence, des émotions et une conscience : c’est sur ce sujet que se concentrent aujourd’hui les chercheurs en intelligence artificielle ; un domaine de recherche intitulé « informatique affective ». Car finalement, « quelle est la différence entre ressentir et donner les signes extérieurs du ressenti ? », interroge Jean-Michel Besnier :
« Ce sont les signaux qui comptent. En toute rigueur, votre intériorité, je ne sais pas si elle existe… Elle se manifeste à moi par des signes extérieurs. Je ne sais pas ce que c’est que de ressentir une émotion chez un autre être humain. Je peux ressentir de l’empathie, mais je peux aussi en ressentir face à un acteur, qui simule. Je ne peux pas savoir si ces signes émanent d’une intériorité ou d’une simulation. C’est pourquoi pour ceux qui fabriquent des machines, si elles sont capables de simuler, ça suffira. »
Simuler l’émotion
Catherine Pelachaud fait partie de ceux-là. Directrice de recherche au CNRS et à Télécom-ParisTech, elle fabrique depuis des années des « agents conversationnels », sortes d’avatars capables de discuter avec des êtres humains. Son champ de recherche concerne plus précisément les « comportements non verbaux », soit les signes extérieurs d’émotion transmis par l’avatar. « La machine ne ressent pas, mais elle peut transmettre, souligne la chercheuse. Le ressenti est du domaine de l’homme, et ça doit le rester ! Une machine est là pour pallier des besoins. Pour cela, la simulation peut suffire. »
Les « agents » qu’elle élabore accompagnent leurs paroles de gestes, de mouvements de la tête ou d’expressions du visage qui les rendent plus humains. Ils sont aussi capables de réagir aux émotions transmises par leur interlocuteur. « Dans la communication, le non verbal apporte énormément, il permet de mieux se comprendre. Sans ça, ce serait comme parler à un mur. Ça permet d’oublier qu’on parle à une machine. »
Et afficher une émotion est moins simple qu’il n’y paraît. « Ça peut aller jusqu’à des micro-expressions. Il y a plusieurs types de sourires : si vous pincez les lèvres, si vous plissez les yeux, cela aura différentes significations », explique Catherine Pelachaud.
La chercheuse en psychologie Sylwia Hyniewska a observé, par exemple, grâce à une expérience, que les propos d’agents incapables de soulever la partie externe de leurs sourcils étaient considérés par leurs interlocuteurs comme moins pertinents.
Malgré ce souci du détail, les avatars utilisés par les équipes de recherche en informatique affective ne semblent pas très réalistes. A l’heure où les entreprises d’effets spéciaux sont capables de réaliser des images de synthèses ultra-détaillées, pourquoi se contenter d’agents si schématiques ? « Contrairement au cinéma, qui a des animateurs pour peaufiner chaque expression, nos agents doivent être autonomes et réagir en temps réel », indique Catherine Pelachaud.
Mais surtout, si le réalisme est trop important, « on tombe dans la vallée de l’étrange », prévient-elle. Selon cette théorie du Japonais Masahiro Mori, les représentations très réalistes, mais toujours imparfaites, de l’homme, nous paraissent dérangeantes, voire monstrueuses. Nous serions, en revanche, beaucoup plus enclins à trouver sympathiques et à ressentir de l’empathie pour des représentations de l’humain bien plus schématiques.
Ce robot capable de simuler des émotions, empruntant ses traits à Albert Einstein et développé par l’entreprise Hanson Robotics, en est un bon exemple.
Détecter les émotions
Mais les programmes développés par l’informatique affective ne se contentent pas de mimer les émotions. Ils doivent aussi être en mesure de détecter celles des humains, et de s’y adapter en temps réel. Pour cela, ils observent et analysent les expressions et les mouvements de leur interlocuteur : s’il regarde ailleurs, s’il montre qu’il n’a pas compris, s’il manifeste un désaccord. Et ce n’est pas simple. Car en plus des émotions « de base », définies par le psychologue américain Paul Ekman (tristesse, joie, peur, colère, surprise, dégoût), il existe des émotions plus complexes à déchiffrer pour un programme.
Comment, par exemple, distinguer la surprise de l’étonnement ou la tension de l’anxiété ? Interpréter un haussement de sourcils n’est pas non plus aisé. Veut-il dire bonjour ? Signifie-t-il la surprise ? L’emphase ? « Pour cela, il faut des informations sur le contexte, et c’est très difficile », souligne la chercheuse. Le comprendre est pourtant indispensable pour répondre à ces signaux de façon appropriée. Sinon, l’agent risque de créer un malentendu, une incompréhension, voire de couper le dialogue.
Car en imitant l’émotion, les programmes les plus avancés sont aussi en mesure… de générer de l’émotion chez les humains. Ainsi, le projet européen Semaine, auquel participait Catherine Pelachaud, a donné des résultats surprenants. Les agents développés étaient chacun dotés d’un état émotionnel fort, comme la tristesse, la colère ou la joie. Objectif : amener leur interlocuteur, humain, vers le même état émotionnel qu’eux. « Il y a eu des interactions absolument incroyables », se souvient la chercheuse, qui a mené ces expériences il y a cinq ans.
« Face à un agent dépressif, le sujet montrait de l’empathie. Parfois, l’état émotionnel du sujet changeait au milieu de la conversation. J’étais surprise qu’il y ait des interactions aussi riches, aussi naturelles. Car nos personnages ne bougeaient pas beaucoup, le modèle était assez simple. Mais le fait que le comportement arrive avec le bon timing nous a montré que nous avions réussi à obtenir un élément essentiel de la communication non verbale. »
Des résultats qui posent aussi des questions éthiques : si un programme est capable de détecter et d’influencer les émotions d’un être humain, que doit-il en faire ? « Si la machine peut faire changer l’état émotionnel d’une personne, on peut imaginer qu’elle s’en serve à des fins commerciales par exemple », prévient Catherine Pelachaud.
D’autres cherchent à exploiter cet aspect d’une autre façon. L’Institut pour les technologies créatives de l’université de Californie du Sud est l’un des plus avancés dans ce champ de recherche en intelligence artificielle. Les agents qu’il a réussi à fabriquer combinent le langage, la communication non verbale et une apparence réaliste. L’équipe de recherche emploie même le terme d’« humains virtuels » pour les désigner. Parmi les différents modèles qu’ils ont conçus, SimSensei est une sorte de psychologue, capable de mener une conversation avec un patient, en s’intéressant à ses émotions. Mais attention, précise l’institut sur Youtube, « SimSensei n’est pas conçu pour la thérapie ou de diagnostic médical, mais se veut un outil pour appuyer les équipes médicales ».
Malgré les avancées dans le domaine de l’informatique affective, on est encore bien loin des prédictions de Ray Kurzweil, le « pape » du transhumanisme embauché par Google en 2012. Dans un entretien au magazine américain Wired en avril 2013, il prévoit qu’en 2029, des programmes seront capables « d’intelligence émotionnelle, d’être drôles, de comprendre des blagues, d’être sexy, aimants et de comprendre l’émotion humaine. (…) C’est ce qui sépare les ordinateurs et les humains aujourd’hui. Je crois que ce fossé va se refermer d’ici 2029. »
Lire aussi : Ray Kurzweil, le salarié de Google qui veut terrasser la mort
Une vision qui exaspère le philosophe Jean-Michel Besnier : « Je suis inquiet de voir que l’intelligence artificielle impose un point de vue de plus en plus simplificateur sur l’être humain, qu’on ne peut pas réduire à ces signaux. Pour comprendre les émotions humaines, moi, je préfère me plonger dans la littérature ! »
En bref :
Ce dont l’intelligence artificielle est aujourd’hui capable :
simuler des émotions
détecter les émotions des humains et y répondre en temps réel
influencer les émotions de son interlocuteur
Ce qu’on ne sait pas faire :
doter un programme de conscience
un programme capable de ressentir des émotions
Les progrès qu’il reste à faire :
distinguer des émotions complexes
créer des agents ou robots assez réalistes pour dépasser la « vallée de l’étrange »
s’adapter au contexte
En savoir plus sur http://www.lemonde.fr/pixels/article/2015/10/12/intelligence-artificielle-une-machine-peut-elle-ressentir-de-l-emotion_4787837_4408996.html#DL2XWLzbyrvV31JT.99
DOCUMENT lemonde.fr LIEN |
|
|
|
|
|
|
NANOTECHNOLOGIE |
|
|
|
|
|
Paris, 26 octobre 2014
Des colliers de nanoparticules d'or pour guider la lumière jusqu'au nanomètre
Des nanoparticules cristallines d'or alignées puis fusionnées en longues chaines peuvent servir à confiner l'énergie lumineuse à l'échelle nanométrique tout en permettant sa propagation à grande distance. C'est ce que vient de démontrer une équipe pluridisciplinaire du Centre d'élaboration de matériaux et d'études structurales (CEMES, CNRS), en collaboration avec des physiciens de Singapour et des chimistes de Bristol. Ces travaux sont publiés en ligne sur le site de la revue Nature Materials le 26 octobre.
La lumière peut servir à transmettre des informations. Cette propriété est par exemple utilisée dans la fibre optique et offre une alternative intéressante à la microélectronique1. L'utilisation de la lumière permet d'augmenter la vitesse de transmission et de réduire les pertes d'énergie qui se produisent par réchauffement lorsqu'un signal électrique est utilisé. Cependant il reste plusieurs défis à relever, notamment celui de la miniaturisation : avec la fibre optique il est en effet difficile de confiner la lumière dans une largeur inférieure au micromètre (soit 10-6 mètres).
Les électrons circulent librement dans les métaux et parfois se mettent à osciller collectivement à leur surface sous l'effet de la lumière, comme dans les métaux nobles tels l'or et l'argent. Les propriétés de ces oscillations collectives, appelées plasmons, offrent depuis une vingtaine d'années une voie prometteuse vers un confinement sub-longueur d'onde (c'est-à-dire inférieur au micromètre) de l'énergie lumineuse. En transmettant cette énergie portée par les photons aux électrons en mouvement, il est possible de transporter de l'information dans des structures plus étroites que les fibres optiques. Pour atteindre des confinements encore plus importants, la plasmonique2 s'intéresse désormais aux propriétés optiques de nanoparticules cristallines. La surface cristalline lisse évite de perturber les oscillations des électrons et limite les pertes d'énergie. Exploiter les propriétés de ces nanoparticules devrait donc permettre simultanément des confinements de l'ordre du nanomètre et le transport de l'information sur de grandes distances.
Dans cette étude, les chercheurs ont démontré que lorsque des nanoparticules d'or de dix nanomètres de diamètre sont alignées sous forme de chaine, les plasmons qu'elles portent génèrent des oscillations particulières, propices à la propagation ultra-confinée. Cependant à chaque passage entre deux nanoparticules, il existe une perte d'énergie. Si cette caractéristique peut être exploitée pour certaines applications qui nécessitent des sources de chaleur très localisées, notamment en médecine, elle ne favorise pas la propagation longue distance.
Les chercheurs ont donc délicatement fusionné les nano-perles, en focalisant un faisceau électronique à haute énergie, de façon à former un réseau continu et cristallin. Ils ont alors observé que les pertes d'énergie sont réduites et que les plasmons sont libres d'osciller sur de très grandes distances tout en restant confinés suivant le diamètre des nanoparticules. Au sein de ce collier de seulement dix nanomètres de large, l'information peut voyager jusqu'à 4000 nanomètres.
Un autre défi relevé par cette étude a été de cartographier, avec une précision exceptionnelle, les oscillations des électrons observées à la surface de la chaine de nanoparticules. Les différents types de mouvement des plasmons ont été caractérisés par une technique de microscopie appelée spectroscopie de perte d'énergie des électrons (EELS) dont la très fine résolution spatiale et spectrale a permis aux chercheurs de proposer un nouveau modèle théorique du comportement des plasmons. Les simulations basées sur ce modèle reproduisent les expériences avec une fidélité sans précédent.
Ces travaux qui résultent d'une collaboration à long terme avec des équipes de Bristol et de Singapour pourraient mener à une miniaturisation extrême du guidage de la lumière et ouvrir la voie vers des applications en matière de capteur, pour le photovoltaïque par exemple, et en télécommunication.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
UN NOUVEAU MOTEUR ÉLECTRIQUE SANS BOBINE |
|
|
|
|
|
UNE INVENTION RÉVOLUTIONNAIRE PERMETTRAIT DE GÉNÉRER DE L’ÉLECTRICITÉ GRÂCE À DES AIMANTS
DOCUMENT sciencepost LIEN |
|
|
|
|
|
|
CERVEAU VIRTUEL |
|
|
|
|
|
Human Brain Project : la course au cerveau virtuel est lancée
Elena Sender
Publié le 07-10-2013 à 17h12
Mis à jour à 17h15
Top départ pour le Human Brain Project demain à Lausanne. Retrouvez le reportage de Sciences et Avenir à Neuropolis où les chercheurs veulent créer une version numérique du cerveau humain.
Le supercalculateur "blue gene", joyau de Neuropolis. (IBM)Le supercalculateur "blue gene", joyau de Neuropolis. (IBM)
Sciences et Avenir vous propose de retrouver le reportage d'Elena Sender, envoyée spéciale à Lausanne, qui était paru dans le numéro 790 de décembre 2012.
FUTURISTE. Pour l’instant, ce n’est qu’un pré sur le campus de l’École polytechnique fédérale de Lausanne (EPFL), face au lac Léman, avec vue imprenable sur les Alpes suisses. Dans quatre ans, s’élèvera un bâtiment futuriste de 30.000 m2 d’une valeur de 100 millions de francs suisses (83 millions d’euros) qui abritera un projet exceptionnel baptisé Neuropolis, voulu conjointement par l’EPFL, les universités de Lausanne et de Genève ainsi que les autorités politiques suisses : le futur « Cern » du cerveau, à l’image du grand centre de recherche consacré à la physique des particules, à la frontière franco-suisse.
Il faut en effet imaginer un complexe de simulation faisant « mouliner » jour et nuit un supercalculateur effectuant 1018 opérations à la seconde, avec l’ambition de faire « vivre » un cerveau virtuel ! Nourri par toutes les données disponibles de la neurophysiologie, mais aussi de l’imagerie médicale de pointe, cet encéphale – lorsqu’il sera achevé – réagira (presque) comme un vrai.
JOYSTICK. Imaginons le chercheur dans la salle des commandes telle qu’elle se présentera en 2016 lorsque Neuropolis sera opérationnel : il siégera face à des écrans géants projetant des images cérébrales exceptionnelles. D’un mouvement de joystick, il naviguera dans le tissu virtuel, se promènera entre les neurones, zoomera sur une connexion, pointera un canal ioniqueou une synpase pour y observer les échanges de neuromédiateurs. Selon les besoins de son étude, il enverra un influx électrique ici ou là et regardera le système nerveux réagir en temps réel. Dans un bureau attenant, une équipe de recherche s’apprêtera, quant à elle, à tester un « candidat médicament » modélisé en 3D sur un modèle de cerveau malade d’Alzheimer tandis qu’une autre équipe étudiera, par exemple, le câblage neuronal dans la schizophrénie. Venus du monde entier, des chercheurs disposeront de la plateforme de simulation pour éprouver leurs hypothèses, leurs molécules, leurs traceurs… Le rêve d’un cerveau in silico (voir l'encadré "Repères"), ouvert à tous, est en passe de devenir réalité.
"Être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine ?"
L’idée de ce projet hors normes a germé sur le campus, à une centaine de mètres de là, au
deuxième étage d’un bâtiment métallique aux modules rouge, orange et gris, dans le bureau de Patrick Aebischer, président de l’EPFL depuis 2000. Avant son arrivée, l’École polytechnique n’avait jamais vu le museau d’une souris dans ses laboratoires. C’est ce neurobiologiste qui y a imposé la recherche et l’enseignement en sciences de la vie.
« En dix ans, nous avons embauché 55 professeurs de biologie parmi les meilleurs », raconte fièrement l’homme fort de l’école. Ce qui, il ne s’en cache pas, « a suscité énormément de débats ». Cet entrepreneur, manager « à l’américaine » – il a travaillé pendant huit ans à l’université Brown aux États-Unis – voit grand. Bras croisés, ponctuant ses phrases d’expressions anglaises, il souhaite créer « a big science » pour la biologie.
« Comme les astronomes ont leur grand télescope, les physiciens leur accélérateur de particules, les biologistes doivent avoir leur plateforme de simulation du vivant » - Patrick Aebischer.
Le patron de l’EPFL se penche sur une table basse dont le plateau n’est autre qu’une photo aérienne du campus, et pointe du doigt un carré inoccupé : « Ce sera ici, à
Neuropolis. »
"PATCH-CLAMP". Tout a commencé en 2001, lorsque Patrick Aebischer a rencontré Henry Markram, neurophysiologiste sud-africain, passé maître dans l’art du patch-clamp (la mesure des paramètres électrophysiologiques) des neurones. « Henry a deux cerveaux, rapporte Patrick Aebischer. Celui de l’expérimentateur et celui de l’informaticien, persuadé que le futur des neurosciences passe par la simulation. » Après avoir travaillé à l’Institut Weizmann, à Rehovot (Israël), et aux National Institutes of Health, à Bethesda (États-Unis), puis à l’Institut Max-Planck pour la recherche médicale à Heidelberg (Allemagne), Henry Markram est alors sur le point de signer un contrat en or au Massachusetts Institute of Technology (États-Unis). « Je lui ai posé la question de savoir s’il préférait être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine », se souvient Patrick Aebischer, l’œil malin. Et le tout nouveau patron de l’EPFL a attrapé Markram dans ses filets, lui donnant carte blanche et un gros budget. Celui-ci lance alors son projet Blue Brain, la simulation numérique du fonctionnement cérébral, l’EPFL lui apportant la pièce maîtresse sur un plateau : « Nous avons acheté Blue Gene, puissant supercalculateur », raconte Patrick Aebischer.
Installé en 2005, l’ordinateur fait depuis tourner l’ensemble du programme. En 2011, nouveau bond en avant. L’équipe s’associe à 120 autres laboratoires de 22 pays et devient le consortium Human Brain Project (HBP). Le HBP décide alors de concourir dans un appel à projets du programme Future and Emerging Technologies Flagship Initiatives, lancé par l’Union européenne pour aider le projet scientifique le plus prometteur pour les dix ans à venir. Avec, à la clé, une subvention colossale d’un milliard d’euros ! Fin 2012, HBP figure parmi les six derniers projets en lice, le gagnant devant être désigné au cours de 2013 (le HBP a effectivement été désigné en janvier de cette année co-lauréat de la bourse de l'Union Européenne).
Le calculateur Blue Gene a simulé la première colonne corticale de souris dès 2008
Pour rencontrer le créateur de Blue Brain, il faut marcher dix minutes, sous la pluie, à
travers le campus en chantier. On croise sur le chemin deux énormes grues qui réduisent à néant un building, celui-ci devant être remplacé d’ici à deux ans par le nouveau Centre de neuroprothèses. Viendront s’y installer le laboratoire du Français Grégoire Courtine, dont les équipes ont fait remarcher des souris paraplégiques ; celui de l’Espagnol José Milan, spécialiste des interfaces homme-machine ; ou encore celui de l’Allemand Olaf Blanke, qui travaille sur les illusions produites par le cerveau.
PUIT DE LUMIÈRE. Le QG de Henry Markram apparaît enfin. Un cube blanc, percé d’un puits de lumière. Chemise claire à petits motifs, yeux bleus perçants, le chercheur est habité par son sujet. De sa voix monocorde, il raconte comment la compréhension du cerveau l’a toujours obsédé : « Mon désir est de partir du cerveau entier puis de descendre jusqu’au niveau des neurones, à celui des cellules uniques, puis des canaux ioniques, des protéines et des gènes. » Pour cela, une seule méthode : l’agrégation de toutes les connaissances disponibles dans un seul et même modèle. « 60.000 articles de neurosciences sont publiés chaque année, note-t-il. Il y a trop d’informations pour qu’elles puissent être digérées. La seule façon de progresser est d’intégrer systématiquement toutes ces données sous forme numérique pour créer un modèle le plus complet possible. Cela aidera aussi les chercheurs à repérer les manques et les contradictions dans leurs connaissances et identifier les expérimentations nécessaires pour les combler. » Intégrer la complexité, telle est l’idée maîtresse du projet.
Vers un cerveau artificiel à Neuropolis... par sciencesetavenir
En 2008, le calculateur Blue Gene a fait ainsi « tourner » la première colonne corticale (voir Repères) de souris, un réseau vertical de 10.000 neurones. Cette année, 60 colonnes corticales interconnectées ont été modélisées grâce à la version la plus avancée du supercalculateur, d’une puissance de 54 téraflops (54 x 1012 opérations/s). Il s’agit maintenant de construire 10 000 autres colonnes jusqu’à simuler un cerveau de souris entier, et ses 100 millions de neurones. Ce qui demandera une puissance de calcul de un pétaflop (1015), à l’horizon 2014. Puis, l’équipe s’attellera à l’ultime tâche. Faire de même avec le cerveau humain, vers 2023, ce qui exigera un exaflop (1018).
"SALLES DES MACHINES". Pour comprendre concrètement comment ça marche, il faut pousser la porte de la « salle des machines », le laboratoire. Ici, une quinzaine de jeunes chercheurs de 12 pays sont à l’œuvre. Le Danois Jesper Ryge place un échantillon de cerveau de souris sous un étrange microscope, encerclé par une couronne de seringues, le fameux patch-clamp, cher à Henry Markram.
« On stimule l’échantillon avec une électrode, explique-t-il, puis on enregistre les réponses électriques de chaque neurone. » À côté, sur un écran, on peut voir les neurones « répondre » à la stimulation électrique par des tracés rouges réguliers qui s’affichent en temps réel. Une fois des milliers d’enregistrement réalisés, les chercheurs sont en mesure de passer à la modélisation. Là, les biologistes cèdent la place aux physiciens et aux mathématiciens.
« Nous simulons la biophysique des cellules nerveuses, expose l’Allemand Felix Schürmann, physicien, auparavant à l’université de Heidelberg, et désormais bras droit de Henry Markram. Cela signifie que nous décrivons la physique des propriétés électriques des neurones, comme la propagation des courants et du voltage à travers l’arbre dendritique (voir Repères) des neurones, avec différentes équations. Les paramètres de ces équations ayant été extraits de données expérimentales décrites dans de multiples publications. »
CORTEX. Tandis que l’activité intime du neurone est simulée artificiellement, d’autres chercheurs reproduisent sa morphologie. Il existe, en effet, quelque 200 types différents de neurones dans le cortex. C’est ainsi, en agrégeant les données issues de près de 20.000 expérimentations sur vingt ans, que l’équipe a réussi à reconstituer en 3D la cartographie précise d’une petite portion de cortex de souris avec ses caractéristiques physiologiques, géométriques et ses connexions.
« Il faudrait des décennies, voire un siècle, pour cartographier un cerveau entier avec les connexions précises. Il y a en effet 3000 routes différentes possibles pour chaque neurone. On ne peut les explorer toutes ! » reconnaît Henry Markram qui, heureusement, a trouvé le moyen d’accélérer son travail de bénédictin grâce à une découverte publiée dans les Pnas en août 2012. L’équipe a tenté une expérience en positionnant 298 neurones virtuels de différents types selon la disposition et la répartition observées dans un échantillon de cortex vivant. Puis elle a « lancé la machine » et laissé les neurones se connecter comme bon leur semblait ! Résultat ? En comparant l’organisation virtuelle obtenue et le circuit cortical réel de la souris, les chercheurs ont observé une chose extraordinaire : de 75 % à 95 % des points de connexions étaient similaires. « Ça a été un choc, assure Henry Markram. Cela signifie que l’on peut prédire les schémas de connexions synaptiques [le connectome, voir Repères] à partir du moment où la composition et la répartition des neurones du cortex sont connues. »
"BAT LAB". Mais pour construire le futur modèle de cerveau, il n’y a pas que les observations tirées du patch-clamp qui comptent. En cela, une autre branche de Neuropolis va être d’une grande aide. Pour la découvrir, il faut se rendre cette fois aux hôpitaux universitaires de Genève, à trois quarts d’heure de train du campus. Là aussi les grues s’activent. Un nouveau bâtiment, le Bat Lab, va bientôt sortir de terre, au sixième étage duquel s’installera le nouvel Institut d’imagerie moléculaire translationnelle.
Cette unité, placée sous l’égide du professeur Osman Ratib, spécialiste d’imagerie moléculaire, sera un satellite de Neuropolis. Objectif ? « Nous développons des nouveaux outils diagnostiques mais aussi thérapeutiques pour voir les molécules agir dans le cerveau animal, explique Osman Ratib. Nous cherchons par exemple des biomarqueurs spécifiques à certaines sous-catégories de tumeurs cérébrales pour mettre au point des thérapies personnalisées et prédire la réponse au traitement. » Tous ces résultats sont déjà – et seront encore davantage – injectés dans le cerveau virtuel du campus de Lausanne. Dans le cadre de Neuropolis, l’équipe d’Osman Ratib va d’ailleurs se focaliser sur la modélisation d’un cerveau vieillissant et sur les effets des maladies neurodégénératives. Ici aussi, on mise sur la bourse européenne du HBP.
Trop complexe pour certains, le HBP a suscité la polémique
Un autre médecin-chercheur britannique attend beaucoup de Neuropolis. C’est le professeur Richard Frackowiak, spécialiste de l’imagerie clinique au Centre hospitalier universitaire vaudois de Lausanne, autre satellite du projet. Lui, travaille sur le cerveau humain malade. Il est sûr que la méthode de neuro-sciences intégrée « à la Markram » est la solution pour avancer dans la compréhension de maladies comme Alzheimer. « Pour l’instant, on est dans l’impasse car on se focalise sur des petites parties du problème comme les plaques amyloïdes. Grâce au modèle global, nous allons prendre la maladie dans son ensemble. Il en émergera une véritable théorie du cerveau sain mais aussi du cerveau malade. »
"TROP COMPLEXE". Même si cette approche n’est pas partagée par toute la communauté scientifique, des voix s’élevant en Suisse comme ailleurs contre cette démarche jugée « trop complexe ». De fait, dans un article paru dans Nature en février 2012, le HBP a suscité la polémique. Rodney Douglas codirecteur de l’Institut de neuro-informatique de Zurich (Suisse), y exprime son inquiétude : « Nous avons besoin de variance en neurosciences, nous avons besoin de personnes qui expriment des idées différentes, une diversité qui peut être menacée si autant d’argent est consacré à un seul projet. »
Sollicité par courriel, Rodney Douglas n’a cependant pas souhaité répondre à nos questions, préférant jouer l’apaisement. « Clairement, je ne suis pas d’accord avec Henry sur certains problèmes. Néanmoins, il demeure mon collègue et il est regrettable que nos désaccords scientifiques soient polarisés dans la presse. » Il n’empêche : certains scientifiques pensent effectivement que le modèle Blue Brain, trop fourni et détaillé, ne sera pas forcément plus facile à comprendre qu’un cerveau réel. La question qui se pose : que va nous montrer un modèle complexe ? Ou encore, la modélisation du vivant est-elle là pour prédire – comme Blue Brain – ou pour faire comprendre des phénomènes ? Car, s’il s’agit de comprendre, ne vaut-il pas mieux avoir un système simplifié avec un minimum de données à faire varier ?
« Aujourd’hui, nous possédons les mathématiques qui correspondent à cette complexité, il faut cesser d’en avoir peur », rétorque Richard Frackowiak. Patrick Aebischer, lui, estime que les débats sont sains. « La “grande science” a toujours évolué à travers de grands débats, comme pour le séquençage du génome qu’on estimait impensable. » Quant à Henry Markram, il joue la conciliation, affirmant que « notre plateforme sera ouverte à toutes les propositions ».
REPÈRES. Canal ionique : protéine transmembranaire qui permet le mouvement des ions, créant des courants électriques. Neuromédiateur : molécules chimiques libérées par les neurones et agissant au niveau des synapses. In silico : effectué avec l’outil informatique. La bio-informatique correspond à l’approche in silico de la biologie traditionnelle. Colonne corticale : groupe de 10 000 neurones environ situés dans le cortex cérébral qui forme une unité fonctionnelle. Il en existe environ 100.000 dans le cerveau humain. Arbre dendritique : les dendrites (fibres réceptrices des neurones) peuvent former une arborescence très dense. Connectome : carte complète des connexions dans le cerveau.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|