|
|
|
|
 |
|
Le premier ordinateur copiait le cerveau humain |
|
|
|
|
|
Le premier ordinateur copiait le cerveau humain
PHILIPPE BRETON dans mensuel 290
daté septembre 1996 -
La naissance de l'ordinateur est classiquement datée de 1946, avec l'apparition de l'ENIAC. Mais celui-ci, fonctionnant sur le principe du boulier, n'était en fait que le dernier des calculateurs. La primauté devrait plutôt être accordée au Mark 1, dont l'architecture tranche radicalement avec la lignée de ses prédécesseurs. De plus, cette machine fut conçue comme une copie du cerveau humain - ou de la représentation qu'on s'en faisait alors : pour les fondateurs de l'informatique, dont le principal est John von Neumann, la structuration logique de la pensée pouvait être reproduite en dehors du cerveau.
Dans quelles circonstances, dans quel environnement intellectuel et surtout avec quelle intention l'ordinateur a-t-il été conçu ? Pour répondre à ces questions, il faut revenir à l'événement lui-même : quelle est la machine qui peut prétendre au titre de premier ordinateur ?
En célébrant en février 1996 le cinquantenaire de la naissance de l'ENIAC, on a accordé la primauté à ce calculateur électronique mis en chantier à l'université d'Aberdeen Etats-Unis dès 1943. Mais d'autres voient dans le Mark 1, conçu à l'université de Manchester par une équipe à laquelle participait le mathématicien anglais Alan Turing, le premier dispositif de calcul et de traitement de l'information. Il fut élaboré d'après les plans rédigés en juin 1945 par John von Neumann, professeur à l'université de Princeton. Ces plans décrivaient une machine aux principes révolutionnaires, bien différente de l'ENIAC.
Pour trancher ce débat, dont l'intérêt dépasse largement un simple problème de datation, il faut savoir ce qui fait la spécificité de cette nouvelle machine.
Si l'on a présenté l'ENIAC comme le premier ordinateur, cela est dû à deux facteurs. Le premier est l'importante publicité que lui a donné la presse américaine dans l'immédiat après-guerre. On a présenté au public américain une machine dont la caractéristique principale était son extraordinaire rapidité de calcul. Les esprits furent frappés par l'annonce qu'elle mettait moins de temps à calculer la trajectoire d'un obus que celui-ci pour parvenir à sa cible. Cette médiatisation intense a laissé des traces, au point que les médias d'aujourd'hui, plus fidèles sans doute à l'histoire de l'information publiée qu'à celle des techniques, ont fait de l'année 1996 le cinquantenaire de l'invention de l'ordinateur.
Le deuxième facteur tient à ce que l'ENIAC serait le premier « calculateur électronique » , c'est-à-dire la première machine à avoir utilisé le déplacement canalisé des électrons, sous la forme des « tubes à vide » * hérités de la radioélectricité, et qui servirent de première étape sur le chemin menant aux transistors. Certes, l'Américain John Atanasoff avait déjà recouru, dès 1939, à cette technologie, en concevant avec Clifford Berry l'ABC Atanasoff Berry Computer , qui comptait 270 tubes à vide. L'ABC, conçue pour résoudre des équations différentielles, des équations linéaires et des tables de tir, n'était cependant pas programmable. L'ENIAC ne l'était pas davantage, mais fut la première machine à utiliser les tubes à vide sur une grande échelle plus de 17 000. L'engin des ingénieurs d'Aberdeen peut donc être considéré comme le premier calculateur électronique véritablement opérationnel, distinct d'un dispositif expérimental.
S'agit-il pour autant d'un ordinateur ? Si l'on prend comme critères le fait qu'il est électronique et qu'il calcule plus rapidement que tous les dispositifs connus jusque-là, la réponse est oui. Mais ces deux critères sont-ils suffisants pour caractériser la rupture technique que constituent les ordinateurs modernes, que l'on a d'ailleurs longtemps appelés « machines de type von Neumann » ?
L'analyse détaillée du principe de fonctionnement de l'ENIAC et de son organisation logique interne permet de constater que le changement proposé par John von Neumann en juin 1945 et qui ne fut pas mis en oeuvre sur la première version de l'ENIAC ne constitue pas une simple amélioration, mais un véritable changement de nature, à la fois dans la manière de faire des calculs et par l'ajout de la capacité à traiter de l'information, ce que l'ENIAC, simple machine à calculer, ne faisait pas.
Le fossé entre les deux conceptions marque un changement de paradigme. On pourrait même soutenir que l'ENIAC est le dernier représentant d'une lignée dépassée, celle des calculateurs, alors que la machine imaginée par von Neumann inaugure une nouvelle lignée, l'ordinateur, appelée au succès que l'on sait. Que l'ENIAC utilise une technologie électronique ne change rien à l'affaire. Ni qu'il ait fallu attendre juin 1948, notamment en raison de la diminution des crédits militaires dans l'immédiat après-guerre, pour réaliser le premier prototype de la nouvelle machine, le Mark 1, travail effectué par une équipe anglaise conduite par Max Newman à l'université de Manchester. Incidemment, le Mark 1 ne doit pas être confondu avec son quasi-homonyme, le Harvard Mark 1 , produit en 1943 par l'équipe du professeur Howard H. Aiken et qui n'était qu'un calculateur électromécanique, sans mémoire ni électronique.
La seule nuance qu'il faut apporter à ce raisonnement, qui exclut l'ENIAC de la lignée des ordinateurs, tient à ce que quelques mois après l'inauguration du Mark 1, en septembre 1948, von Neumann et Herman Goldstine, après avoir « bricolé » l'ENIAC, en rapprochèrent le principe de fonctionnement de celui de l'ordinateur, sans toutefois en changer véritablement la structure interne. Si donc il fallait à tout prix rechercher la date du cinquantenaire de l'invention de l'ordinateur, celle-ci serait plus proche de 1998 que de 1996...
Quelle différence y a-t-il à l'époque entre un calculateur ordinaire de type ENIAC et la nouvelle machine de von Neumann ? D'une part les deux machines n'ont pas, et de loin, la même structure logique interne. D'autre part, alors que les ingénieurs voulaient simplement construire une machine à calculer plus performante, Turing, von Neumann et d'autres, veulent réaliser une réplique du cerveau humain. Leur démarche heuristique est largement guidée par cette analogie.
L'ENIAC Electronic numerator integrator analyser and computer fut mis en chantier à la Moore School de l'université de Pennsylvanie, par J. Prosper Eckert et John W. Mauchly, dès juin 1943, dans le cadre d'un financement de l'armée américaine. Elle sera inaugurée le 15 février 1946. Sa grande originalité est bien l'usage massif de tubes à vide, 17 468 précisément - trait qui lui servira de vitrine auprès du grand public. Mais l'ENIAC fonctionne sur le principe ancien du boulier. Il peut paraître surprenant d'établir une telle comparaison ; il y a pourtant une incontestable continuité sur le plan du principe technique entre les machines à calculer depuis l'antique boulier, même s'il s'est croisé avec la mécanique à partir de la machine de Pascal, avant de s'appliquer, plus tard, à l'univers de l'électromécanique, puis à celui de l'électronique. La technologie utilisée change au cours du temps et se coule en quelque sorte dans les systèmes techniques qu'elle traverse. Dans l'ENIAC, l'unité de calcul, nommée « accumulateur » , est ainsi constituée de plusieurs rangées de dix tubes électroniques disposées en anneaux : un premier anneau de dix pour les unités, un deuxième anneau pour les dizaines, un troisième pour les centaines, et ainsi de suite. Si, par exemple, on introduit le chiffre 7, le septième tube du premier anneau s'allume. Si l'on ajoute le chiffre 6, la machine part du septième tube, allume le premier tube des dizaines et le troisième des unités, ce qui produit le chiffre 13. De même, conformément au principe du boulier, il faut introduire les demandes d'opérations une à une, puisque la machine n'a pas d'autres mémoires que celles nécessaires au stockage des résultats d'opérations en cours.
Ce décalage entre les technologies utilisées et le principe d'organisation de la machine sauta aux yeux de von Neumann lorsqu'il rendit visite à l'équipe de la Moore School, en septembre 1944, sur l'invitation d'un de ses membres, Herman Goldstine, qu'il avait rencontré par hasard sur un quai de gare. Eckert et Mauchly prévoyaient que le mathématicien porterait son attention à l'architecture interne de la machine plutôt qu'à de stricts problèmes de mise au point. C'est effectivement ce qu'il fit. Une collaboration s'établit alors pour plusieurs mois, dans le cadre d'un nouveau contrat avec l'armée. Elle aboutit à la rédaction en commun d'un texte décrivant une machine de structure radicalement différente : l'EDVAC Electronic discrete variable computer 1 comportant trois innovations majeures, qui caractérisent toujours l'ordinateur moderne : - elle est dotée d'une vaste mémoire, qui ne conserve pas seulement les données sur lesquelles vont s'effectuer les calculs mais aussi les instructions dont elle a besoin pour opérer. Jusque-là, les calculateurs n'avaient qu'une très faible mémoire et on devait leur fournir les données les unes après les autres ; - cette mémoire comporte un « programme enregistré ». Au lieu d'indiquer à la machine ce qu'elle doit faire au fur et à mesure, on stocke dans la mémoire de la machine un ensemble d'instructions le programme. Ces instructions sont de plus rangées « physiquement » dans la machine sous la même forme que les données; - une unité de commande interne a pour mission d'organiser l'ensemble du travail que la machine effectue, ainsi que les échanges de données avec l'extérieur. La gestion des opérations est ainsi transférée à la machine, sous la forme d'un programme spécifique.
Une autre originalité de la machine de von Neumann est qu'elle traite le calcul comme de l'information. Contrairement au point de vue commun selon lequel l'ordinateur « calcule de l'information » , un ordinateur effectue des opérations logiques : les opérations de calcul numérique y sont dès l'origine traduites et traitées sous la forme d'un petit nombre d'opérations logiques binaires. Dans ce sens, l'ordinateur se caractérise comme une machine à traiter logiquement de l'information dont la première application a été de « simuler le calcul » . Le grand intérêt de la nouvelle machine est d'ailleurs là : la simulation du calcul est plus rapide et plus performante que le calcul lui-même.
Von Neumann suit ici les développements opérés dès 1936 par le jeune mathématicien anglais Alan Turing. Celui-ci est à l'origine de l'idée de programmation moderne : dans sa thèse publiée en 1936, il décrit la « machine de Turing », dispositif mathématique simple permettant de résoudre tous les problèmes calculables. Turing, qui voulait lui aussi « construire un cerveau » , pensait que celui-ci fonctionnait par « changements d'états » et avait donc imaginé une programmation pas à pas des problèmes à résoudre. L'impulsion de Turing a été ici décisive. Comme l'a signalé un de ses biographes, Andrew Hodges, « pour notre mathématicien, quoi que fasse un cerveau, il le fait en fonction de sa structuration logique et non parce qu'il se trouve à l'intérieur d'un crâne humain... Sa structure logique devait être parfaitement reproductible dans un autre milieu 2. » Dans cette optique, von Neumann considère que le raisonnement humain est le résultat d'un traitement d'information au niveau neuronal et que celui qui comprendrait les modalités de ce traitement serait à même de construire un cerveau artificiel comparable en tout point au cerveau humain. Cette analogie s'inscrit dans le courant de pensée ouvert en 1942 par le mathématicien américain Norbert Wiener et connu sous le nom de « cybernétique3 », qui va d'ailleurs en faire l'un de ses chevaux de bataille.
Ainsi, à chaque point crucial de son texte sur les « plans de l'EDVAC », von Neumann se réfère directement au fonctionnement du cerveau humain qui lui sert à l'évidence de modèle. Cette analogie, ignorée des historiens des techniques, est pourtant capitale pour comprendre la genèse de l'ordinateur. Les « plans de l'EDVAC » témoignent du fait que le choix de l'architecture de la machine, des tubes à vide électroniques et d'un fonctionnement « pas à pas » est déterminé par la volonté de construire un « cerveau » le plus proche possible du cerveau humain. Le choix du langage binaire, par exemple, découle tout naturellement, pour le mathématicien de Princeton, de l'idée alors courante que les neurones humains fonctionnent selon le principe du tout ou rien. De même, l'architecture de la nouvelle machine se présente comme une reproduction de la cartographie logique du cerveau - du moins de la représentation que von Neumann s'en faisait, comprenant donc une unité de calcul, des unités d'entrée-sortie, une unité de contrôle logique et une vaste mémoire comme dans le cerveau humain. Von Neumann est enfin persuadé que les tubes à vide peuvent constituer un strict équivalent des neurones humains. Il semble d'ailleurs qu'il se soit rapproché de l'équipe de l'ENIAC parce que ceux-ci maîtrisaient la technologie des tubes à vide.
Von Neumann nous propose, à travers l'ordinateur, les plans du cerveau tel qu'il les voit à partir d'un vaste mélange de croyances, d'introspection et de connaissances diverses. Obsédé par l'idée de construire ce qu'il appelait, selon l'un de ses biographes, Steve Heims4, une « extension de lui-même », le mathématicien courait en effet les congrès de psychologie et de neurophysiologie, avide de connaissances sur ce continent en grande partie inconnu, le cerveau. Comme le rapporte sa femme Klara, « Johnny et ses collaborateurs essayèrent d'imiter certaines des opérations du cerveau humain. C'est cet aspect qui l'amena à étudier la neurologie, à chercher des collaborateurs dans le domaine de la neurologie et de la psychiatrie, à fréquenter de nombreuses réunions sur ces sujets, et enfin à donner des conférences sur les possibilités de reproduire un modèle très simplifié du cerveau vivant5 ». Son invention serait ainsi le produit d'un mouvement d'« extrospection », sorte d'introspection à l'envers, consistant en une projection dans l'architecture de la matière des savoirs et des croyances qu'il possédait sur le cerveau.
Le plus étonnant, peut-être, est que les connaissances concernant le cerveau sur lesquelles von Neumann s'appuyait étaient assez floues, et, pour tout dire, très intuitives. Cela n'empêcha pas la machine qu'il construisit sur cette base de fonctionner. Nous touchons probablement là un des mystères de l'esprit humain qui fait qu'à partir de données fausses, incomplètes ou largement partielles, il est malgré tout possible de mettre au point un dispositif opérationnel. Il reste à savoir si celui-ci peut véritablement être comparé à un cerveau humain.
L'invention de l'ordinateur sera en tout cas présentée au public au moyen de cette analogie, comme si cette dernière était découverte après coup, alors qu'elle est première dans l'esprit de von Neumann, de Turing ou de Wiener. Ainsi, dans le premier texte qui annonce au public français, le 28 décembre 1948, l'existence d'une machine à traiter universellement l'information, le physicien français par ailleurs père dominicain Dominique Dubarle soutient que l'analogie entre le cerveau et l'ordinateur « n'est même pas seulement organique, elle est aussi fonctionnelle et quasi mentale : les machines ont pour ainsi dire comme leurs réflexes, leurs troubles nerveux, leur logique, leur psychologie et même leur psychopathologie. Un claquage de circuit se traduit par un résultat erroné, des erreurs dans les circuits de contrôle peuvent désorganiser tout le fonctionnement d'un organisme partiel de calcul, des failles dans le programme peuvent retentir sous forme d'une véritable folie de la part de la machine, s'emportant alors dans un travail absurde jusqu'à ce qu'on y remédie. On devine quelles perspectives de pareils faits peuvent ouvrir à ceux qui étudient d'une part le fonctionnement du système nerveux, d'autre part les possibilités de réaliser des machines à exécuter les tâches de la pensée6 . » De nombreux textes du courant cybernétique, très productif dans les années 1950 et 1960, s'inspireront de cette comparaison, alors très à la mode, comme on le constate dans les actes du colloque international consacré par le CNRS en janvier 1951 au thème « Les machines à calculer et la pensée humaine7 ». Dans ce sens, on pourrait dire, forçant à peine le trait, que l'informatique découle de l'intelligence artificielle plutôt que l'inverse, même si, formellement, celle-ci ne naît qu'à la fin des années 1950.
La cybernétique et l'intelligence artificielle reprendront ainsi à leur compte le projet de construire une machine reproduisant le comportement humain qui, bien au-delà du XXe siècle, a nourri les espoirs des contemporains de l'ingénieur français Jacques de Vaucanson, promoteur au XVIIIe siècle d'un « homme artificiel » oudes magiciens mystiques qui, dès l'Antiquité, souhaitaient construire une créature « à l'image de l'homme ». Dans ce sens l'ordinateur moderne est autant le produit d'une ancienne tradition qu'une formidable innovation technique.
1 Texte publié par B. Randell ed., The origins of digital computers , Springer-Verlag, Berlin, 1982.
2 A. Hodges, Alan Turing ou l'énigme de l'intelligence, Payot, 1988, p. 248.
3 N. Wiener, Cybernétique et société , Deux-Rives, 1952 ; P. Breton, L' U topie de la communication , La Découverte, 1995.
4 S.J. Heims, John von Neumann and Norbert Wiener , MIT Press, Cambridge, Mass., 1982.
5 K. von Neumann, préface à J. von Neumann, L' O rdinateur et le cerveau, La Découverte, 1992.
6 D. Dominique, « Vers la machine à gouverner », Le Monde , 28 décembre 1948.
7 Editions du CNRS, 1953.
DOCUMENT larecherche.fr |
|
|
|
|
 |
|
LES CELLULES ADULTES REPROGRAMMÉES |
|
|
|
|
|
Les cellules adultes reprogrammées
Cécile Klingler dans mensuel 448
Fabriquera-t-on un jour du sang directement à partir de cellules de peau ? Ou de la peau à partir de sang ? C'est ce que laisse espérer la conversion directe de cellules adultes d'un type à un autre.
Neurone, cellule cardiaque contractile, cellule pancréatique sécrétrice d'insuline, cellule du derme : il y a quelques années, il aurait été impensable de seulement songer à transformer l'une de ces cellules en une autre. Car un même génome s'exprime différemment selon le type cellulaire considéré, et cela, pensait-on, de façon irréversible. Mais le destin des cellules se révèle beaucoup plus malléable qu'on ne le pensait : en 2010, plusieurs équipes ont réussi à changer le destin de cellules adultes en les convertissant en cellules adultes d'un type très différent. « Cet essor tous azimuts de la reprogrammation cellulaire par transdifférenciation est la grande nouveauté de l'année », déclare John De Vos, responsable de l'unité de thérapie génique et cellulaire du CHU de Montpellier.
Différenciées
L'inventaire 2010 de ces conversions cellulaires ressemble à un inventaire à la Prévert avec pour point de départ, des fibroblastes de peau. Il s'agit des cellules qui, dans le derme, synthétisent les fibres de collagènes caractéristiques de ce tissu. À l'arrivée, ont été obtenus : en février des neurones, grâce aux travaux menés par l'équipe de Marius Wernig, de l'université Stanford [1] ; en août des cellules cardiaques contractiles, dans le laboratoire de Deepak Srivastava, de l'université de Californie, à San Franscisco [2] ; et en novembre des cellules sanguines, cette fois grâce aux efforts de l'équipe de Mickie Bhatia, de l'université canadienne McMaster, dans l'Ontario [3] . Les deux premiers ont travaillé avec des cellules de souris, et le dernier, avec des fibroblastes issus d'échantillons de peau prélevés chez plusieurs personnes volontaires.
Comment expliquer cet afflux de résultats ? Pour le comprendre, un rapide retour en arrière s'impose. En novembre 2007, les biologistes japonais Shinya Yamanaka et Kazutoshi Takahashi, de l'université de Kyoto, publient un article qui fait l'effet d'un séisme dans la communauté scientifique. Ils annoncent avoir ramené, in vitro, des fibroblastes de peau humaine adulte à un stade de cellules souches embryonnaires. Autrement dit, ils ont transformé des cellules au destin, pensait-on, intangible en cellules « pluripotentes » capables de se différencier en n'importe quel type de cellule.
Le principe de leur démarche est simple. D'abord insérer, dans les cellules adultes de leur choix, la forme active de gènes qui s'expriment spécifiquement dans les cellules souches embryonnaires et qui sont réduits au silence lorsque les cellules se différencient. Puis voir si les cellules adultes ainsi traitées deviennent pluripotentes. À l'époque, les deux biologistes testent pas moins de 24 gènes candidats, seuls ou en combinaison les uns avec les autres. Et ils se rendent compte qu'une combinaison de 4 gènes, nommés Oct4, Sox2, c-Myc et Klf4, permet d'obtenir des cellules douées de pluripotence : les premières cellules iPS acronyme anglais de « cellules souches pluripotentes induites » sont nées. Réalisés chez la souris, ces premiers travaux sont transposés à des cellules humaines en 2007 - avec comme point de départ, des fibroblastes de peau.
Indifférenciées
La méthode fait aussitôt florès dans les laboratoires du monde entier, mais pas uniquement pour obtenir des cellules iPS. La démarche de Yamanaka, en tant que telle, sert de déclic : ce que le Japonais a fait pour obtenir des cellules souches embryonnaires, il doit être possible de le faire pour obtenir n'importe quel type cellulaire. La stratégie suivie consiste alors à injecter, dans les cellules de départ, des gènes qui ne sont normalement actifs que dans les cellules souhaitées à l'arrivée, et qui confèrent à ces dernières leur spécificité.
En 2008, l'équipe de Douglas Melton, de l'université Harvard, obtient un premier résultat très remarqué : la reprogrammation des cellules exocrines du pancréas celles qui sécrètent le suc pancréatique en cellules productrices d'insuline. Reste qu'en termes de biologie du développement, il s'agit là de types cellulaires extrêmement proches.
Ce n'est pas le cas, en revanche, des résultats présentés en février 2010 par l'équipe de Marius Wernig : un fibroblaste de peau et un neurone n'ont en effet rien à voir sur le plan du développement ! Or il a pourtant suffi de trois gènes, repérés parmi 19 autres spécifiques des cellules neuronales, pour déclencher la transformation. Et trois autres gènes, identifiés cette fois parmi 14 spécifiques des cellules cardiaques contractiles, ont suffi à Deepak Srivastava pour obtenir de telles cellules. Avec un « plus » notable par rapport aux travaux de Marius Wernig : une analyse génétique poussée, démontrant sans aucun doute possible que la transformation avait eu lieu sans passage par une forme indifférenciée.
Tout type de cellules
Quant aux récents travaux de Mickie Bhatia, ils présentent quant à eux la particularité d'avoir été réalisés avec des cellules humaines. « L'un des objectifs de mon équipe, explique Mickie Bhatia, est d'arriver à produire à volonté des cellules sanguines. Et nous avons décidé de nous tourner vers la transdifférenciation, poursuit-il, car comme tous les laboratoires travaillant dans ce domaine, nous avions des difficultés à atteindre notre but en partant de cellules souches embryonnaires ou de cellules iPS. » En effet, les globules rouges obtenus à partir de ces cellules renferment non pas la forme mature de l'hémoglobine la molécule qui transporte l'oxygène, mais la forme foetale.
Ironie de l'histoire : c'est en observant des cellules censées se reprogrammer en cellules iPS, mais ne le faisant pas, qu'ils ont repéré des colonies de cellules ressemblant à des cellules hématopoïétiques - les cellules qui, dans la moelle osseuse, produisent les différentes cellules sanguines. Des vérifications approfondies leur ont prouvé que tel était bien le cas. Et leur ont révélé que le gène Oct4 l'un des quatre utilisés pour la reprogrammation en iPS suffisait à obtenir ces cellules hématopoïétiques capables de donner, in vitro, des globules rouges produisant de l'hémoglobine mature.
La démarche permettra-t-elle d'aboutir à la production de cellules sanguines en grande quantité ? Mickie Bhatia en est persuadé, John De Vos beaucoup moins. Pour lui, l'intérêt de ces travaux est ailleurs : parvenir un jour à transformer des cellules sanguines - faciles à prélever - en tous types de cellules différenciées. Rejoignant là l'opinion de Ian Wilmut, le « père » de la brebis Dolly, aujourd'hui directeur du Centre de médecine régénérative d'Edimbourg, selon lequel on devrait un jour, en matière de reprogrammation cellulaire, parvenir à « obtenir presque tout à partir de presque tout ».
[1] T. Vierbuchen et al., Nature, 463, 1035, 2010.
[2] M. Ieda et al., Cell, 142, 375, 2010.
[3] E. Szabo et al., Nature, 468, 521, 2010.
L'ESSENTIEL
TROIS ÉQUIPES ont directement transformé in vitro des cellules de peau adultes de souris et d'homme en cellules d'autres tissus.
L'APPROCHE s'inspire de celle adoptée en 2007 par Shinya Yamanaka, qui avait ramené des cellules adultes à un stade embryonnaire.
RESTE À TROUVER des modalités de reprogrammation directe pour d'autres cellules que celles de peau.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
BIOLOGIE ET ...SOCIOLOGIE - BIOLOGIE DE SYNTÈSE |
|
|
|
|
|
« La biologie de synthèse a besoin de la sociologie »
Marie-Laure Théodule dans mensuel 488
LA RECHERCHE : Quand le concept de biologie de synthèse est-il apparu ?
PIERRE-BENOÎT JOLY : L'expression a été utilisée pour la première fois au début du XXe siècle par un chimiste français, Stéphane Leduc. Ce dernier réalise alors des expériences où il tente de créer des cellules artificielles pour mieux comprendre le vivant. Et il les décrit dans La Biologie synthétique, ouvrage publié en 1912. Il s'en suit une série de travaux tout au long du XXe siècle, dont l'objectif est de fabriquer une cellule primitive, une protocellule.
Mais, un tout autre courant va naître au début du XXIe siècle à la suite des avancées majeures de la génomique. On peut situer son commencement en 2004, année où une fondation nommée « BioBricks » organise au MIT, aux États-Unis, la conférence Biologie synthétique 1.0, qui va réunir 500 personnes dès sa première édition.
En quoi ce courant se démarque-t-il du précédent ?
P.-B.J. L'objectif principal n'est plus de comprendre le vivant, mais de fabriquer des organismes artificiels dotés de fonctions complexes permettant de résoudre certains problèmes. Ils auront par exemple un meilleur rendement énergétique que des organismes naturels ou bien ils synthétiseront de nouvelles molécules thérapeutiques. Pour cela, la biologie de synthèse s'appuie sur les outils de la génomique : séquençage des génomes à grande échelle, synthèse et assemblage de séquences d'ADN, etc. Mais elle ambitionne d'aller beaucoup plus loin en utilisant les méthodes de l'ingénieur pour produire plus vite et à moindre coût des organismes artificiels. Car aujourd'hui on sait seulement introduire de manière artisanale quelques gènes dans une cellule pour fabriquer des organismes génétiquement modifiés (OGM).
Qu'apportent de plus les méthodes de l'ingénieur ?
P.-B.J. Comme il s'agit d'introduire une cascade de gènes voire un génome entier dans une cellule, l'idée est de s'aider des outils mathématiques et informatiques utilisés par les ingénieurs pour comprendre et modéliser les interactions de ces gènes. À terme, on espère concevoir des systèmes biologiques à partir de composants standardisés et avec des méthodes elles-mêmes standardisées, comme on le fait en électronique. Concrètement, on programme le développement d'un nouveau système biologique en quatre phases : la conception (développement d'un modèle mathématique du système biologique et simulation), la construction avec la volonté de standardiser les procédés et les composants pour gagner du temps, puis la mise en oeuvre et la validation. Cette dernière étape peut conduire à réviser la modélisation initiale.
Cela a-t-il déjà donné des résultats ?
P.-B.J. Il y a eu des avancées spectaculaires. En suivant une approche dite « top-down » - concevoir un génome minimal auquel on pourra ajouter en fonction des besoins des séquences de gènes conçues par ordinateur - le biologiste américain Craig Venter a créé en 2010 une bactérie au génome synthétique de 1,08 million de paires de bases (l'enchaînement des lettres qui constituent l'alphabet de l'ADN) [1]. Et en mars 2014, une équipe internationale dirigée par Jef Boeke, de l'université de New York, a réussi à synthétiser l'un des seize chromosomes de la levure du boulanger [2]. C'est une étape cruciale vers la synthèse du génome d'un eucaryote, une forme du vivant bien plus complexe que de simples bactéries. Une autre approche dite « bottum-up » consiste à standardiser des séquences de gènes dans le but d'appareiller des bactéries ou des levures avec ces briques. À l'origine de cette démarche, la Fondation BioBricks a créé une base de données de séquences qu'elle met à la disposition de la communauté scientifique en accès libre, à l'image des logiciels en open source. Elle a lancé le concours international Igem destiné aux étudiants de premier cycle universitaire afin qu'ils conçoivent des systèmes biologiques artificiels à partir de ces briques.
Ce concours a-t-il un effet d'entraînement ?
P.-B.J. Il stimule la créativité des étudiants avec son approche à la fois boy-scout et branchée. Pour concourir, il faut constituer une équipe pluridisciplinaire incluant au moins un spécialiste de sciences humaines, présenter un site web, un concept voire un prototype. En 2013, pour la première fois, une équipe française soutenue par le Centre de recherche interdisciplinaire du biologiste François Taddei, de l'université Paris-Descartes, a remporté le prix. Ils ont montré comment une bactérie de laboratoire pouvait accélérer la détection de molécules contre la tuberculose [3]. En parallèle, avec une étude sur la parité homme/femme dans la recherche, ils ont révélé que les équipes Igem, qui respectent le plus la parité, sont aussi celles qui obtiennent les meilleurs résultats au concours.
Au-delà de ces démarches pionnières, y a-t-il déjà des réalisations commerciales ?
P.-B.J. La réponse à votre question est l'objet d'une polémique. L'équipe de Jay Keasling de l'université de Californie, à Berkeley aux États-Unis, a réussi en 2003 à transférer dans des bactéries et des levures les douze gènes de l'artémisinine, molécule antipaludéenne naturellement synthétisée par une plante, l'armoise. Depuis, le processus de production est en cours d'industrialisation chez Sanofi Aventis. Certains, dont Jay Keasling, considèrent qu'il s'agit du premier produit de la biologie de synthèse. Mais d'autres, même s'ils saluent l'exploit (réussir à transférer douze gènes soit bien plus qu'auparavant) font remarquer à raison que la méthode employée est finalement assez classique. Chaque gène a été introduit un à un « à la main » sans recourir aux méthodes prônées par la biologie de synthèse, censées rendre ce travail beaucoup plus facile et rapide, donc moins coûteux.
Des sociologues ont été associés dès le départ à ce domaine. Pourquoi ?
P.-B.J. Beaucoup de biologistes ont été traumatisés par les craintes suscitées par les OGM. Cela a conduit à favoriser dès le départ une meilleure interaction entre la biologie synthétique et les sciences humaines et sociales, notamment la sociologie. Cette démarche s'inscrit dans le cadre des bonnes pratiques du financement de la recherche, lancées avec le projet de séquençage du génome humain au début des années 1990 et généralisées depuis lors au niveau international : tout programme de recherche touchant au vivant doit consacrer de 3 % à 5 % de ses ressources aux aspects éthiques, légaux et sociaux. On pense ainsi renforcer l'acceptabilité de la nouveauté.
Comment cela se traduit-il concrètement ?
P.-B.J. Dans les pays anglo-saxons, certains sociologues sont « embarqués » : ils travaillent au côté des biologistes au sein de leurs laboratoires. Ainsi, au Royaume-Uni, une sociologue française, Claire Marris, est actuellement embarquée dans un programme de recherche interdisciplinaire qui associe deux établissements londoniens l'Imperial College, pour la biologie, et King's College pour les sciences humaines. Son travail porte en particulier sur les questions de risque et de propriété intellectuelle. Dans ce cadre, elle a récemment organisé un colloque sur le thème : « L'open source en biologie de synthèse ». Autre exemple, aux États-Unis, l'anthropologue américain Paul Rabinow a été embarqué dans SynBERC, consortium dédié à la biologie de synthèse lancé en 2006 par Jay Keasling à l'université de Californie. Mais ce projet s'est terminé par un conflit.
Que s'est-il passé ?
P.-B.J. Paul Rabinow était censé contribuer à l'établissement de nouvelles règles concernant la biosécurité ou l'éthique de la recherche en observant les chercheurs associés à SynBERC et en interagissant avec eux. Or son projet n'a jamais abouti. Selon les biologistes, Paul Rabinow se contentait d'observer sans vraiment rien produire d'original. Selon ce dernier, ses propositions étaient refusées parce qu'elles impliquaient des changements de pratiques qui auraient pu retarder les chercheurs et les handicaper dans la compétition internationale. Au-delà de la polémique, cet exemple est révélateur de la difficulté qu'il y a à faire travailler ensemble biologistes et sociologues.
Et vous, avez-vous une approche différente ?
P.-B.J. Dans mon laboratoire, nous étudions la biologie de synthèse en ayant recours aux outils classiques des sciences sociales. Par exemple, nous utilisons la bibliométrie, et des enquêtes et des observations sur le terrain afin de saisir les caractéristiques de ce champ émergent. Nous avons montré qu'il est de petite dimension : environ 3 000 articles ont été publiés au total sur le sujet depuis environ dix ans, contre plusieurs millions pour les nanosciences et les nanotechnologies ! Mais le taux de croissance des publications est très élevé, de 20 % à 30 % par an. Cependant, sur les 10 000 auteurs qui apparaissent dans le corpus, une minorité est spécialisée en biologie de synthèse : 70 % ont publié une seule fois sur le sujet. En revanche, les 100 articles les plus cités appartiennent bien au domaine, car leurs auteurs travaillent dans des laboratoires états-uniens, développent des approches bottom-up et sont rattachés à un noyau d'institutions qui jouent un rôle crucial dans la structuration de ce domaine, le concours Igem, les conférences, la Fondation BioBricks, etc. Le champ a donc déjà une forte autonomie.
Mais s'agit-il d'une discipline à part entière ?
P.-B.J. C'est un champ avec beaucoup d'intermittents qui viennent d'autres domaines que la biologie (informatique, mathématiques, ingénierie), et caractérisé par l'importance des recherches liées aux applications. Cela ne suffit pas pour en faire une discipline à part entière. Il lui manque des caractéristiques institutionnelles : un enseignement spécifique, des diplômes, des professeurs, une société savante, des colloques. En France, vous ne pouvez pas dire qu'une discipline existe si elle ne possède pas ces caractéristiques. C'est différent dans les pays anglo-saxons, où le verrou institutionnel est moins fort. Le second problème est qu'une discipline scientifique se construit en général autour d'une énigme centrale à résoudre. La biologie synthétique se construit, elle, autour d'une promesse.
Autour d'une promesse, que voulez-vous dire ?
P.-B.J. La promesse porte sur la santé, l'énergie, la chimie verte et l'environnement avec l'objectif de concevoir des molécules synthétiques pour tous ces secteurs. C'est pourquoi des scientifiques considèrent qu'il ne s'agit pas d'une science, mais d'une technologie qui s'inscrit dans la droite ligne des biotechnologies. Certains vont jusqu'à dire que la biologie de synthèse n'existe pas. Au contraire, ceux qui y croient prétendent qu'elle va révolutionner le génie génétique en le rendant plus simple, plus accessible et plus créatif. En tant que sociologue, nous constatons que science et technologie sont tellement imbriquées dans ce domaine qu'on peut le considérer comme une « technoscience ».
La biologie de synthèse n'est-elle pas un peu survendue ?
P.-B.J. Son ambition est si élevée que cela peut en effet générer des effets pervers. Pour avoir des crédits on fait miroiter des applications utiles à l'homme. Si ces attentes ne sont pas satisfaites, on provoquera des déceptions, qui affecteront en retour le domaine. Autre exemple, le champ se développe dans l'idée que la seule source de solutions aux grands problèmes actuels de la planète, c'est la science et la technologie. Or il faut aussi des transformations sociales. Ainsi, on peut avoir une science médicale qui progresse et des conditions d'accès aux soins qui se dégradent, comme aux États-Unis. En résumé, la biologie de synthèse suscite des attentes mais aussi des craintes, qui sont toutes démesurées.
Certaines craintes ne sont-elles pas justifiées ?
P.-B.J. La biologie de synthèse suscite trois types de craintes classiques dès que l'on touche au vivant : les risques de contamination et de bioterrorisme, les dangers d'ordre plus ontologique qu'il y aurait à réduire le vivant à des machines et à brouiller les frontières entre nature et artifice, et enfin les questions liées aux brevets sur le vivant. Comme ce champ est en émergence, il est trop tôt pour dire si ces craintes sont justifiées. On peut reconnaître qu'elles sont légitimes. Pour en tenir compte, le ministre de l'Enseignement supérieur et de la Recherche a créé en France en 2012 un observatoire de la biologie de synthèse [4]. C'est un lieu d'échange pluridisciplinaire, auquel je collabore. Nous essayons d'associer la société civile à l'émergence du domaine afin de réfléchir à l'impact de son développement sur la société. Il ne faut pas attendre que les chercheurs se mettent d'accord sur ce qu'est la biologie de synthèse pour mener ce type de débat. Au contraire !
* Pierre-Benoît Joly, économiste et sociologue, est directeur de recherche à l'INRA et dirige l'Institut francilien recherche innovation et société. Ce spécialiste de l'étude des sciences et des techniques a écrit avec Christian Bonneuil Sciences, techniques et société, ouvrage paru en 2013 aux éditions La Découverte. Il est également coauteur de « Biologie de synthèse : conditions d'un dialogue avec la société », rapport commandé en 2011 par le ministère de l'Enseignement supérieur et de la Recherche.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
MIROSLAV RADMAN : « On devrait s'inspirer davantage de la nature » |
|
|
|
|
|
MIROSLAV RADMAN : « On devrait s'inspirer davantage de la nature »
Propos recueillis par Cécile Klingler dans mensuel 445
ENTRETIEN. Pour créer de nouveaux types de cellules, produisant des molécules qui nous seraient utiles, l'ingénierie du génome par génie génétique n'est pas l'unique solution.
LA RECHERCHE : La biologie de synthèse est-elle synonyme de nouveauté ?
MIROSLAV RADMAN : Elle le sera le jour où nous saurons synthétiser une séquence d'ADN qui n'existe pas dans la nature et qui code une protéine ayant une activité jusqu'alors jamais observée. Pour produire cette protéine, il faudra d'abord la concevoir par modélisation informatique, puis concevoir le ou les gènes nécessaires pour qu'elle soit synthétisée dans un système, par exemple des bactéries. Mais cette biologie de synthèse n'existe pas à l'heure actuelle, car nos connaissances en biochimie, en biophysique et en bio-informatique sont insuffisantes. Et peut-être manquons-nous aussi d'imagination pour inventer des « fonctions biosynthétiques » ! Aujourd'hui, ce que certains appellent « biologie de synthèse » n'est jamais qu'une extension du génie génétique classique : on utilise des gènes qui existent déjà, quitte à les modifier un peu.
Pour créer des cellules ayant des propriétés inédites, savoir manipuler le génome est-il le seul facteur qui entre en ligne de compte ?
M.R. C'est une question de fond, qui jusqu'à présent a été très peu étudiée. Par exemple, dans les expériences de transfert et remplacement des génomes entre bactéries d'espèces différentes ou de transfert d'un génome synthétique, à quel point la structure membranaire doit-elle être héritée en même temps que le génome, pour que l'ensemble fonctionne ? Il se trouve que, chez les bactéries, la composition et la structure de la membrane sont très différentes, selon qu'elles appartiennent à la catégorie dite « Gram+ » ou à celle dite « Gram- ». Si l'on prend une bactérie Gram+ et qu'on y introduise le génome d'une bactérie Gram-, les molécules caractéristiques d'une membrane Gram- vont être synthétisées. Mais vont-elles s'insérer dans la membrane Gram+ et la transformer en membrane Gram- ? Ou bien la membrane de la bactérie receveuse, qui résulte de milliards d'années d'évolution et de sélection naturelle, va-t-elle les refuser ? Dans ce cas, c'en est fini de l'expérience. C'est comme se demander si, lors d'un déménagement, on peut non seulement changer les meubles, mais aussi remplacer les briques de la maison dans laquelle on emménage par de la pierre de taille, sans que la maison s'effondre.
Le génie génétique classique, où l'on se contente souvent de transférer un seul gène, donne-t-il des informations à cet égard ?
M.R. On sait par exemple que plus l'espèce d'où provient le gène en question est éloignée de l'espèce dans laquelle on l'introduit, plus la synthèse de la protéine qu'il code est lente. Cette perte d'efficacité vient de ce que chaque organisme n'utilise pas exactement de la même façon le code génétique qui, à une séquence d'ADN donnée, fait correspondre une succession d'acides aminés, les constituants des protéines. Selon ce code, une combinaison donnée de trois des quatre « lettres » de l'ADN un codon correspond à un acide aminé précis, et une autre combinaison, à un autre acide aminé. Et pour la plupart des acides aminés, il existe plusieurs codons. Mais du fait de l'évolution, une espèce donnée utilise souvent l'un de ces codons de façon plus efficace que les autres. Par exemple, il y a six codons pour l'acide aminé « sérine », mais certaines espèces utilisent plutôt le codon n° 1, d'autres, le codon n° 2, etc. Or, lorsqu'on fait du génie génétique, il arrive que les « codons préférés » de l'organisme qui reçoit un gène étranger ne correspondent pas aux « codons préférés » de l'organisme d'où provient ce gène. Le receveur se retrouve donc confronté à un codon qu'il n'a pas l'habitude d'utiliser. Cela ralentit la synthèse de la protéine codée par le gène étranger. Dans un tel cas de figure, la biologie synthétique de l'ADN est utile car on peut utiliser, pour transformer la cellule, un gène synthétique ayant les codons adaptés.
Est-il possible de créer de nouveaux organismes n'existant pas dans la nature, et fonctionnant de façon harmonieuse ?
M.R. Je pense que oui, à condition de s'inspirer davantage de la nature et de tirer parti de la sélection naturelle, plutôt que de chercher à faire des chimères génétiques souvent fragiles. Par exemple, je voudrais développer ce que j'appelle le « génie de symbiose », un terme que j'emploie par analogie avec « génie génétique ». Il s'agit de s'inspirer d'un phénomène naturel qui s'est produit il y a un milliard et demi d'années, lorsque des bactéries photosynthétiques ont été absorbées par des cellules et que ces dernières ont acquis la capacité de réaliser la photosynthèse. L'un de mes projets est d'utiliser ce génie de symbiose pour transformer l'eau en éthanol, utilisable comme biocarburant.
Comment comptez-vous y parvenir ?
M.R. L'idée est de fusionner des cyanobactéries qui sont des bactéries photosynthétiques avec des levures, pour combiner les propriétés de ces deux organismes. En effet, les cyanobactéries produisent des sucres par photosynthèse, à partir d'eau, de soleil et de dioxyde de carbone. Quant aux levures, elles fermentent très efficacement ces sucres en éthanol. En associant les deux, on aurait donc un organisme produisant de l'éthanol à partir d'eau. Bien évidemment, il faut éviter que la levure digère la bactérie ou, inversement, que la bactérie se multiplie dans la levure, la parasite et la détruise. Pour y parvenir, nous créerons une grande quantité de mutants lors de la fusion, parmi lesquels nous sélectionnerons ceux capables de vivre dans l'eau grâce à la lumière. L'objectif est d'obtenir des organismes symbiotiques où la cyanobactérie mutée se divise au même rythme que la levure.
Ce type d'approche « naturaliste » est-il courant ?
M.R. Pas du tout, car il y a généralement peu d'approches nouvelles dans la biologie actuelle. Le problème est que les chercheurs suivent tous le courant dominant. Certains se vantent de faire la même chose que tel célèbre groupe du Massachusetts Institute of Technology. Ils devraient avoir honte de dire cela ! Ce sont des perdants. Or, on donne l'argent aux perdants. Les propositions plus audacieuses s'entendent répondre : « C'est risqué » . Eh oui, bien sûr que c'est risqué. Car ce qui n'est pas risqué n'est pas nouveau, et ce qui n'est pas nouveau ne vaut pas la peine. La société attend des chercheurs, à raison, de l'innovation. Reste qu'elle ne peut pas être décrétée sur mesure par les bureaucrates ! Imagine-t-on le ministère de la Culture dire : « Cette année, seuls auront un soutien financier les peintres qui peignent des tankers en vert, et les compositeurs qui composent en bémol » ? On a peine à l'imaginer, mais c'est exactement ce qui nous arrive en sciences.
NOTES
Miroslav Radman, professeur de biologie cellulaire à l'université Paris-V, anime l'équipe « Biologie de la robustesse », au sein de l'unité Inserm « Génétique moléculaire, évolutive et médicale », qu'il a dirigée de 1998 à 2009. Il a reçu en 2003 le Grand Prix Inserm de la recherche médicale pour l'ensemble de ses travaux sur les mécanismes des changements génétiques.
L'ESSENTIEL
LA BIOLOGIE DE SYNTHÈSE méritera ce nom quand nous saurons concevoir des gènes n'existant pas dans la nature.
IL FAUDRAIT DÉVELOPPER en parallèle des approches plus naturalistes pour obtenir de nouveaux types de cellules.
LE « GÉNIE DE SYMBIOSE », par exemple, fait coopérer des organismes aux propriétés complémentaires.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 ] Précédente - Suivante |
|
|
|
|
|
|