ecole de musique piano
     
menu
 
 
 
 
 
 

APPRENTISSAGE DES LANGUES

 

 

 

 

 

 

 

APPRENTISSAGE  DES  LANGUES

 

   DOCUMENT  cle-montpellier    LIEN

 

FRÉQUENCE  DES  LANGUES :

 

                                                                                         LIEN

 

 

 
 
 
 

Troubles du spectre de l'autisme : une étude d’imagerie cérébrale inédite semble remettre en cause le modèle théorique dominant

 

 

 

 

 

 

 

Troubles du spectre de l'autisme : une étude d’imagerie cérébrale inédite semble remettre en cause le modèle théorique dominant

Dans le cadre du programme scientifique InFoR-Autism*, soutenu par l’Institut Roche, une étude de neuroimagerie IRM s’est intéressée aux liens entre la connectivité anatomique locale et la cognition sociale chez des personnes présentant des troubles du spectre de l’autisme (TSA). Fruits de la collaboration entre la Fondation FondaMental, des chercheurs de l’Inserm, NeuroSpin (CEA Paris-Saclay) et les Hôpitaux universitaires Henri Mondor, AP-HP, les résultats semblent remettre en question le modèle théorique dominant selon lequel les TSA proviendraient d'un déficit de connexions « longue-distance » entre des neurones situés d'un bout à l'autre du cerveau, associé à une augmentation de la connectivité neuronale à « courte distance », entre des zones cérébrales adjacentes. Publiés dans Brain, ces travaux pourraient, s’ils étaient confirmés à plus large échelle, ouvrir la voie à l’exploration de nouvelles approches thérapeutiques.

Publié le 13 novembre 2018

Les troubles du spectre de l’autisme (TSA) sont des troubles du neuro-développement qui se caractérisent par des troubles de la communication, une altération des interactions sociales et des anomalies sensorielles et comportementales. Les travaux menés en génétique et en imagerie cérébrale suggèrent que des anomalies du développement du cerveau, concernant notamment la formation des réseaux neuronaux et le fonctionnement des synapses, pourraient participer à la survenue des TSA.

Ces dernières années, des travaux de neuroimagerie ont mis en évidence, chez des personnes présentant des TSA, des anomalies du fonctionnement de certaines aires cérébrales que l’on sait responsables du traitement des émotions, du langage ou encore des compétences sociales. Des travaux sur la connectivité cérébrale des personnes avec TSA ont notamment mis en évidence un déficit de connexions « longue distance » contrastant avec une augmentation de la connectivité « courte distance ». Ces résultats ont servi de base à l’élaboration d’un modèle théorique de compréhension des TSA, selon lequel le défaut d’attention sociale et de traitement de l’information observé (difficulté à appréhender une situation dans son ensemble, attention portée à certains détails) s’explique par une saturation d’informations traitées par le cerveau, liée à l’augmentation de la connectivité neuronale entre des zones cérébrales adjacentes.

Pour autant, le Pr Josselin Houenou, professeur de psychiatrie à l’UPEC, chercheur au sein de l’Inserm, praticien aux Hôpitaux universitaires Henri Mondor, AP-HP et dernier auteur de l’étude publiée dans Brain, précise : « ce modèle repose sur l’étude de populations pédiatriques hétérogènes, comprenant des enfants autistes d’âges variables et à la symptomatologie très variée, et sur des méthodes de neuroimagerie peu spécifiques ne permettant pas de mesurer avec fiabilité la connectivité ‘’courte distance’’. »

Afin de tester le modèle actuel, les auteurs de cette étude ont utilisé une innovation conçue par Miguel Guevara, Jean-François Mangin et Cyril Poupon à NeuroSpin, à savoir un atlas spécifiquement dédié à l’analyse par tractographie de 63 connexions « courte distance » à partir d’images obtenues par IRM de diffusion (IRMd). L’IRMd permet de mettre en évidence in vivo les faisceaux de matière blanche du cerveau en mesurant la diffusion des molécules d'eau, notamment le long des axones. Il est alors possible par tractographie de reconstituer de proche en proche les trajets des faisceaux de fibres nerveuses représentés sous la forme d'un tractogramme.

*         La Fondation FondaMental, l’Inserm, Inserm Transfert et l’Institut Roche sont partenaires depuis fin 2012 dans le cadre du programme scientifique InFoR Autism, dont l’objectif est de réaliser un suivi des variables cliniques, biologiques et d’imagerie cérébrale afin d’étudier la stabilité et l’évolution des TSA. Au total, 117 patient·e·s et 57 volontaires sain·e·s, âgé·e·s de 6 à 56 ans, ont été inclus dans l’étude. Il s’agit de l’une des cohortes proposant l’une des bases de données (cliniques, biologiques, eye tracking, et imagerie) les plus riches par patient et témoin.
Les auteurs ont pu ainsi étudier les liens entre la connectivité « courte distance » et la cognition sociale chez une population adulte homogène de personnes présentant des TSA, issues de la cohorte InFoR-Autism* (27 personnes présentant des TSA sans déficience intellectuelle et 31 personnes contrôle), cohorte offrant l’une des bases de données les plus riches par patient et par témoin.

« La puissance de la cohorte InFoR-Autism* réside dans la grande richesse des données recueillies pour chaque sujet inclus. Nous avons pu ainsi mettre en lien les résultats de neuroimagerie obtenus avec les scores de cognition sociale, mesurant l’habileté sociale, l’empathie, la motivation sociale, etc.) », rappelle le Dr Marc-Antoine d’Albis, Hôpital Henri Mondor, Inserm U955, premier auteur de l’étude.

Découverte d’un déficit de la connectivité cérébrale « courte distance » associé à un déficit d’interaction sociale et d’empathie

Les résultats obtenus montrent que les sujets souffrant de TSA présentent une diminution de la connectivité dans 13 faisceaux « courte distance », en comparaison avec les sujets contrôles. De plus, cette anomalie de la connectivité des faisceaux « courte distance » est corrélée au déficit de deux dimensions de la cognition sociale (à savoir, les interactions sociales et l’empathie) chez les sujets présentant des TSA.

Ces résultats préliminaires sont bel et bien en opposition avec le modèle théorique actuel selon lequel le défaut d’attention sociale et de traitement de l’information chez les personnes présentant des TSA s’explique par une augmentation de la connectivité neuronale entre des zones cérébrales adjacentes. Ils nécessitent maintenant d’être confirmés par des études menées chez des enfants présentant des TSA ainsi que l’explique le Pr Josselin Houenou.

Pour le Pr Josselin Houenou, « ces résultats sont préliminaires mais ils suggèrent que ces anomalies de la connectivité ‘’courte distance’’ pourraient être impliquées dans certains déficits de la cognition sociale présents chez les sujets autistes. Il est maintenant nécessaire de conduire des études similaires chez des enfants afin de confirmer les résultats obtenus chez les adultes. Les cohortes pédiatriques permettent des études chez des enfants d’âges - et donc de maturations cérébrales - variés et cela implique de prendre en compte une population de sujets bien plus importante.
Si ces premières conclusions étaient confortées, cela permettrait d’envisager le développement de nouvelles approches thérapeutiques pour les déficits de la cognition sociale. Par exemple, la stimulation magnétique transcrânienne pourrait être explorée car la connectivité cérébrale entre des zones adjacentes est localisée en superficie du cerveau. »

Références
* BRAIN-2018-00985. Local structural connectivity is associated with social cognitive deficits in ASD. d'Albis & al

 

   DOCUMENT     cea         LIEN
 

 
 
 
 

L'APPROPRIATION DU VIVANT : DE LA BIOLOGIE AU DÉBAT SOCIAL

 

 

 

 

 

 

 

L'APPROPRIATION DU VIVANT : DE LA BIOLOGIE AU DÉBAT SOCIAL

Conférence du 22 janvier 2000 par Bernard Chevassus.

Si la possession d'êtres vivants individualisés est une pratique ancienne, la volonté de revendiquer une propriété plus globale, s'étendant à un ensemble indéfini d'individus et à leur progéniture, n'est apparu qu'au vingtième siècle et s'est particulièrement affirmée avec l'essor des biotechnologies. L'émergence de cette revendication résulte en effet d'une conjonction entre des possibilités techniques nouvelles et des enjeux économiques devenus planétaires.
Nous examinerons dans un premier temps la genèse scientifique et technique de cette "maîtrise de la génération", en montrant que les procédés sur lesquels la société s'interroge aujourd'hui - transgenèse, clonage, gène "Terminator" - sont l'aboutissement d'une longue quête pour comprendre et maîtriser les processus de la transmission de la vie. Nos exemples seront principalement issus des espèces animales et végétales utilisées pour l'agriculture, les questions plus particulièrement liées à l'être humain étant abordées par d'autres conférences.

Texte de la conférence du 22 janvier 2000 réalisée par Bernard Chevassus-au-Louis dans le cadre de l'Université de tous les savoir
L’appropriation du vivant : de la biologie au débat social
La volonté de revendiquer une propriété globale du vivant, s’étendant à un ensemble indéfini d’individus et à leur progéniture, n’est apparue qu’au 20ème siècle et s’est particulièrement affirmée avec l’essor des biotechnologies. L’émergence de cette revendication résulte d’une conjonction entre des possibilités techniques nouvelles et des enjeux économiques devenus planétaires.
Nous examinerons dans un premier temps la genèse scientifique et technique de cette "maîtrise de la génération", en montrant que les procédés actuellement en débat sont l’aboutissement d’une longue quête pour comprendre et maîtriser les processus de la transmission de la vie. Dans un deuxième temps, nous présenterons les différentes facettes du débat social qui s’engage sur les applications concrètes de cette maîtrise.
1- La longue marche vers la “maîtrise de la génération”
Par rapport à des objets inertes, les êtres vivants se définissent par deux propriétés qui peuvent apparaître contradictoires :
- ils sont autoreproductibles, et donc capables de générer sans intervention humaine de nouveaux individus semblables,
- à quelques exceptions près, ils ne se reproduisent pas de manière conforme, autrement dit aucun individu n’est strictement identique à l’un ou l’autre de ses parents ou apparentés proches.
Jusqu’au 20ème siècle, ces deux propriétés constituaient un défi pour quiconque prétendait s’approprier le vivant, c’est-à-dire en maîtriser la descendance, en prédire les caractéristiques et en tirer avantage. Plus d’un siècle de recherches ont fourni les clés permettant de réaliser cette ambition. Nous évoquerons plus particulièrement trois d'entre elles :
- la définition des lois de l'hérédité et la découverte progressive, puis la manipulation du gène ;
- la compréhension de la recombinaison des caractères et l'obtention d'une reproduction à l'identique ;
- le contrôle de la reproduction, pour produire des êtres vivants "non reproductibles".
1/ D’Aristote à la transgenèse : Une brève histoire du gène

L’étude des similitudes et des différences entre parents et enfants est sans doute, parmi les activités humaines, l’une des plus anciennes et des plus pratiquées. Cependant, la contribution effective et équilibrée des deux sexes au patrimoine génétique de leur descendance fut longtemps mise en doute. A la suite d’Aristote, certains ne voyaient dans la mère qu’un support nourricier, fournissant la "matière", le mâle apportant à lui seul la "forme", qui détermine les caractères de sa descendance : “ Comme principe de la génération, on pourrait poser à juste titre le mâle et la femelle, le mâle possédant le principe moteur et générateur, la femelle le principe matériel ” [Aristote de la génération des animaux, cité dans André Pichot Histoire de la notion de vie, ed. Gallimard, 1993. pp. 106-116]. D’autres considéraient au contraire que le sperme n’était qu’un "fluide vital", qui stimulait le développement de l’œuf, au sein duquel un embryon était "préformé". Plus surprenante, la possibilité d’une influence durable du premier mâle sur les caractéristiques ultérieures des descendants d’une femelle,

1
même issus d’autres mâles (la "télégonie" ou "hérédité par imprégnation") est également restée longtemps considérée comme une vérité d’expérience
Par ailleurs, l’existence possible d’une génération spontanée pour de nombreux êtres vivants (rongeurs, batraciens, poissons, insectes) fut considérée jusqu’au 17ème siècle comme avérée. Cette théorie ne fut réfutée définitivement pour les micro-organismes qu’en 1865 par Pasteur. C’est donc dans un contexte où s’affrontaient encore de multiples théories de la génération que s’est opéré, à la fin du 19ième siècle un tournant majeur, avec l’apparition de deux approches visant à quantifier les lois de la transmission des caractères, l'hérédité "par mélange" de Galton et l'hérédité "particulaire" de Mendel.
Le mathématicien anglais Sir Francis Galton [dans la revue La Recherche M. Blanc (1984, n° 151, pp.46-59) et J-L. Serre (1984, n° 155, pp. 1072-1081)] s’interrogeait sur le fait que les descendants de parents "extrêmes" pour un caractère comme la taille ou le poids semblaient n’hériter que d’une partie de cette différence et se rapprochaient donc de la moyenne de la population. Pour décrire ce phénomène, il proposa en 1889 sa "loi de la régression universelle" et jeta les bases du calcul de "coefficients de régression" permettant de prédire statistiquement les performances de la descendance d’un couple donné. Si cette notion de régression a conduit Galton à développer de fâcheuses théories eugéniques, elle a également permis de fonder l’amélioration de nombreux caractères d’intérêt agronomique, comme la fertilité, la croissance, dont le déterminisme demeure encore aujourd’hui très mal compris.
Moins connu à l'époque, le moine austro-hongrois Gregor Mendel s’attacha de 1854 à 1868 à rechercher, en utilisant le petit pois, les "lois de l’hybridation". Sous ce terme général s’exprimaient deux questions :
- L’apparition et de la disparition de certains caractères au fil des générations, décrites mais non expliquées par le terme "d’atavisme".
- La capacité de certains caractères à s’associer chez un individu puis à se dissocier dans sa descendance.
Dans un mémoire publié en 1866, il soutient que la descendance d'une plante, même si elle n’exprime que les caractères d’un des parents, conservera les caractères apportés par les deux parents mâles et femelles et les dissociera dans sa descendance de manière indépendante. Ces principes conduisaient à des proportions simples et vérifiables ( par exemple 3/4-1/4 pour un caractère) pour les différents types d’individus dans la descendance. Cette vision du patrimoine génétique comme une mosaïque de caractères autonomes ou "unités héréditaires", se conservant et se transmettant de manière intangible et indépendante, ouvrait la voie vers la recherche du support matériel de l’hérédité, même s’il fallût attendre les travaux de l’école de l’américain Morgan en 1910 pour attribuer aux chromosomes ce rôle de support de ces unités héréditaires, les gènes, puis les années quarante (travaux d’Ephrussi, Avery) pour identifier l’ADN comme la molécule porteuse de l’information génétique.
Vient ensuite l’immense essor de la biologie moléculaire. Une fois identifiée la nature chimique des gènes et leurs lois de transmission, il est apparu envisageable d’isoler un gène et de l’introduire dans un individu de la même espèce ou d’une autre espèce, compte tenu de l’universalité du système de codage et de lecture de l’information génétique. C’est l’immense domaine de la transgénèse, ouvert par les travaux de Chang et Cohen en 1973 chez une bactérie et maintenant possible chez la quasi-totalité des espèces vivantes.
D’un concept purement formel, le gène est donc devenu en un siècle un véritable objet autonome que l’on peut conserver, multiplier, modifier, voire synthétiser indépendamment de l’organisme dont il provient : la première clé de l’appropriation du vivant, la maîtrise de ses “ particules élémentaires ”, est donc désormais disponible.

2
2/ La recombinaison : le mythe de Sysiphe de l’améliorateur
Si les travaux de Mendel ouvrirent la voie à l’identification et à la manipulation des gènes, ils soulignèrent également le caractère inévitable de leur recombinaison. Si deux caractères sont gouvernés par deux gènes différents ayant chacun un certain nombre de variants ou "allèles", cette recombinaison permettra au sélectionneur de créer des types nouveaux associant les allèles souhaités des deux caractères. Si un caractère donné est gouverné par un nombre important de gènes présentant chacun de nombreux allèles, chaque couple de reproducteurs donnera potentiellement naissance à un nombre infini d'individus tous différents La descendance d’un individu particulièrement performant obéira statistiquement à la loi de la régression de Galton, et sera très hétérogène, obligeant le sélectionneur à réitérer son travail de génération en génération (des modifications d'un caractère de l’ordre de 3 à 5% par génération sont considérés comme importants). La possibilité d’obtenir la reproduction conforme (c’est à dire reproduisant strictement le patrimoine génétique) d’un individu d’exception est donc depuis longtemps le vœu le plus cher des sélectionneurs.
A l'origine de cette diversité, la méiose (division particulière à l’origine des cellules sexuelles) préside à la reproduction de la quasi-totalité des espèces vivantes et ne conduit à une reproduction conforme que dans des cas particuliers comme l'autofécondation des plantes dites "autogames" comme le blé, les pois, la pomme de terre. Ce mode de reproduction, lorsqu’il est strict au fil du temps, conduit en effet à des individus "homozygotes" ne présentant plus de diversité d’allèles. Ils donneront une descendance constituée d’individus génétiquement identiques entre eux (un clone) et à leur parent. On parle alors de "lignée pure" et c’est sous cette forme que se diffusent la plupart des variétés actuelles d’une espèce comme le blé.
Les autres plantes, dites "allogames" (comme le maïs, le colza) se reproduisent entre individus différents mais on peut également les faire reproduire par autofécondations répétées. Une "dépression de consanguinité" accompagne l’augmentation progressive de l’homozygotie et constitue un obstacle de taille à l’utilisation de cette méthode. Le croisement de lignées pures donne ensuite des lignées "hybrides" homogènes, constituées d’individus tous identiques, parfois plus performantes que la population de départ : c’est l’effet "d’hétérosis", qui s’est illustré de manière spectaculaire chez le maïs, et dont l’application se développe maintenant chez diverses espèces de plantes de grande culture (riz, colza) ou de légumes (choux, tomates).
Chez les animaux, des phénomènes de reproduction conforme par autofécondation systématique ou parthénogenèse (développement de l’ovule sans contribution génétique d’un spermatozoïde) sont connus chez des invertébrés et quelques vertébrés inférieurs, mais ne concernent aucune des espèces élevées par l’homme.
L'utilisation de la consanguinité pour créer des clones apparaît donc longue et limitée à certaines espèces. C'est pourquoi l'homme s'est intéressé très tôt à des méthodes de clonage directe, n'impliquant pas la méiose et permettant d’obtenir des individus identiques (clones) en une seule opération.
Chez les végétaux, outre les méthodes anciennes de bouturage, il est possible d’induire la régénération de plantule à partir des cultures de tissus et d’obtenir la multiplication rapide et conforme d’une nouvelle variété de plante intéressante (rosiers, orchidées, palmiers, arbres

3
fruitiers et forestiers). Cette méthode de clonage est dite "horizontale", car les individus obtenus sont de la même génération (en terme de reproduction sexuée) que l’individu donneur du tissu.
Chez les animaux, un tel clonage horizontal n’était connu que chez des formes très simples d’invertébrés, dont l’hydre d’eau douce. C’est pourquoi la naissance en Ecosse, en juillet 1996, de la brebis Dolly, obtenue par l’équipe de Ian Wilmut à partir du transfert dans un ovocyte énucléé d’une cellule issue d’une culture de tissu de glande mammaire, a eu un tel retentissement médiatique. Il s’agit là d’un clonage "vertical", car les individus obtenus peuvent être considérés comme des enfants de leur mère. Un tel clonage avait été obtenu chez les batraciens dès 1952 puis chez divers mammifères (mouton, vache, chèvre, lapin) dans les années 80, mais en utilisant des noyaux de cellules d’embryon au début de son développement, considérées comme encore capable de régénérer un individu entier. L’utilisation de cellules issues de tissus différenciés, disponibles en grand nombre, ouvrait la porte à la reproduction conforme d’individus adultes, dont on aurait préalablement examiné les caractéristiques.
La deuxième clé de la maîtrise de la génération, la possibilité de reproduire au sens strict un individu performant, apparaît donc désormais potentiellement disponible pour l’ensemble des êtres vivants.
3/ Inhiber la reproduction : avatar ou finalité ?
L’observation d’êtres vivants incapables d’engendrer une descendance a débouché sur les pratiques anciennes de castration de nombreuses espèces animales domestiques (porcins, bovins, chevaux, volailles), pour améliorer les qualités gustatives ou la docilité.
Autre voie largement explorée, l'hybridation entre espèces peut permettre parfois d'obtenir des descendants viables et stériles. Le bilan demeure anecdotique pour les espèces animales domestiques : le mulet, le canard mulard et quelques faisans d’ornement en sont les principaux exemples. Par contre, dans le règne végétal, l’hybridation a constitué et demeure l’un des outils principaux de la création variétale (rosiers, rhododendrons, céréales comme le riz, agrumes, café). La stérilité n’est cependant pas systématique et ne constitue pasl’objectif majeur des améliorateurs, qui cherchent plutôt à combiner des caractères. Par contre, dans le cas d’hybrides fertiles, leur descendance apparaît extrêmement variée et ne reproduit donc pas les caractéristiques du parent : ils sont donc “ pratiquement ” non reproductibles.
Ce phénomène, qui se manifeste également dans les croisements entre des lignées pures de la même espèce (cas du maïs), oblige l’agriculteur à acheter chaque année de nouvelles semences. Cette dépendance n'est acceptable que si l’amélioration est manifeste en termes de rendement ou d’homogénéité, ce qui explique sans doute que le maïs est resté longtemps, malgré de nombreux essais dans d'autres espèces animales et végétales, un exemple relativement isolé de réussite incontestable dans ce domaine.
De développement plus récent, la multiplication du nombre de chromosomes, ou polyploïdisation, utilise des substances bloquant la division cellulaire (comme la colchicine) et permettant le plus souvent un doublement du nombre de chromosomes. On passe de l’état diploïde classique, où tous les chromosomes existent en deux exemplaires, à un état tétraploïde, voire hexa- ou octoploïde si l’opération est répétée. Cette modification se traduit par une augmentation de la vigueur des plantes et de la taille des organes et a donc trouvé de nombreuses applications chez les plantes ornementales mais aussi alimentaires (céréales,

4
tomates, aubergines). Ces plantes tétraploïdes permettent, par croisement avec des diploïdes, de produire des individus triploïdes, possédant chaque chromosome en trois exemplaires : une telle situation perturbe fortement la formation des cellules sexuelles et conduit donc à une réduction considérable de la fertilité, les graines étant peu nombreuses et souvent abortives (absence de pépins chez la banane ou certaines variétés de pastèques).
Chez les animaux, de nombreux essais ont eu lieu dès les années trente, mais il est apparu que seuls les invertébrés et les vertébrés inférieurs (poissons, amphibiens) pouvaient donner des individus polyploïdes viables. Ainsi, chez les truites et les huîtres, l’inhibition de la maturation sexuelle due à la triploïdie évite un affaiblissement des animaux et une dégradation de leurs qualités gustatives pendant la période de reproduction.
L’avènement de la biologie moléculaire a permis d’envisager le développement de méthodes de portée beaucoup plus générale, dans lesquelles l’expression de la fertilité pouvait être rendue étroitement dépendante de traitements par des molécules externes spécifiques, activant ou inhibant l’expression de certains gènes. L’exemple le plus connu est la technologie baptisée "Terminator" par ces détracteurs, mise au point aux USA dans le cadre d’une coopération entre une entreprise semencière et le ministère de l’agriculture (USDA). En l’absence de traitement, les plantes sont normalement fertiles et la construction génétique introduite est silencieuse. Le traitement des semences par un antibiotique déclenche une réorganisation de la construction, qui permet désormais l’expression d’un gène sécrétant une substance inhibant la formation de l’embryon. Les semences produiront donc des plantes ayant une production de graines normales, mais ces graines ne contiendront pas d’embryon et seront donc stériles. Même si l’utilisation de la technologie Terminator ne semble plus actuellement envisagée, bien d’autres options sont actuellement possibles et sans doute en cours de développement. Retenons donc l’information essentielle : La troisième clé technique de l’appropriation du vivant, celle permettant de contrôler à volonté la production d’une descendance, est désormais potentiellement disponible pour de nombreuses espèces animales ou végétales.
2- Le développement du débat social : fatalité à subir ou opportunité à saisir ?
Si la mise en place des outils permettant la maîtrise de la génération s’est étalée sur une longue période, l’interrogation sur le bien-fondé de leur utilisation n’est apparue que récemment et semble s’être dessinée autour de deux questions centrales qui, purement spéculatives il y a 50 ans, sont devenues peu à peu très concrètes :
- à qui appartient le vivant ? S’agit-il d’un patrimoine commun et inaliénable de l’humanité ou peut-on laisser des individus revendiquer la propriété exclusive d’une partie de ce patrimoine ?
- jusqu’où modifier le vivant ? Quelles limites faut-il fixer à la création d’êtres vivants "impossibles", c’est à dire possédant des caractéristiques que l’évolution naturelle n’avait aucune chance de leur conférer ?
1/ La propriété du vivant : un droit en évolution rapide
Jusqu’au début des années quatre vingt dix, une distinction claire semblait exister, tant dans la théorie que dans la pratique, entre les ressources génétiques “ naturelles ” et les races et variétés issues de l’activité des sélectionneurs.

5
Les ressources génétiques "naturelles" comprennent les espèces existant à l’état "naturel" et les variétés traditionnelles utilisées par les agriculteurs et issues de nombreuses générations de sélection collective empirique. Ces ressources ont fait l’objet au 20ème siècle d’un important travail de collecte et de conservation. En 1983, "l’Engagement international pour les ressources phytogénétiques pour l’agriculture et l’alimentation", conclu sous l’égide de la FAO (Organisation pour l’Agriculture et l’Alimentation, rattachée à l’ONU), réaffirme le principe selon lequel les ressources génétiques végétales constituent un "patrimoine commun de l’humanité".
A partir de ces ressources, des opérateurs publics ou privés ont développé par sélection et croisement des variétés "modernes", dont il est apparu légitime de protéger la diffusion. L’objectif de cette protection était d’encourager l’innovation, en assurant à l’obtenteur une juste rémunération de ses efforts via l’exclusivité de la commercialisation de sa variété, et de favoriser l’émulation, en permettant aux autres obtenteurs de repartir de ces variétés modernes, et non des ressources génétiques de départ, pour créer une nouvelle variété. Cette nouvelle variété pourra à son tour être homologuée et protégée, dès lors qu’elle se distinguera par un ou plusieurs caractères des variétés existantes. Ces règles régissant le Certificat d’Obtention Végétale ont été formalisées en 1961 par la Convention de Paris, qui rassemble une quarantaine de pays. Si l’obtenteur conserve l’exclusivité de la commercialisation de sa variété, l’agriculteur qui achète des semences peut librement ressemer les produits de sa récolte, et donc multiplier la variété pour son propre usage.
Pour les animaux, les règles sont encore moins contraignantes. En France, la loi sur l’élevage de 1966 a seulement rendu obligatoire, pour les grandes espèces et pour la pratique de l’insémination artificielle, l’utilisation de reproducteurs reconnus par une UPRA (Unité de Promotion de Race), organisation collective gérant l’amélioration génétique d’une race donnée. Ces organisations ne possèdent pas d’exclusivité sur cette race : la vente de mâles pour la monte naturelle ou de femelles reste possible pour tout éleveur.
La décennie quatre-vingt dix a marqué un tournant par rapport à cette vision très ouverte. Le premier bouleversement intervient en 1980 : La Cour Suprême des Etats-Unis affirme alors que le seul fait qu’une matière était vivante ne devait pas l’exclure de la brevetabilité. Plusieurs brevets concernant des micro-organismes, des plantes transgéniques, une huître triploïde en 1987, puis en 1988, une souris de laboratoire transgénique ont confirmé cette nouvelle approche du vivant, désormais considéré, au moins partiellement, comme une véritable "invention" humaine.
De même, L’Union Européenne a adopté en 1998 une directive sur la brevetabilité des "inventions biotechnologiques". Les variétés végétales et les races animales issues de méthodes classiques demeurent exclues du champ d’application et les agriculteurs restent autorisés à ressemer les semences transgéniques pour leur propre usage. Mais on imagine à l’avenir la complexité du statut juridique d’une plante combinant différents gènes brevetés apportés par transgénèse et des caractères améliorés par sélection et protégés par le système des obtentions végétales.
Enfin, la convention de Rio sur la diversité biologique en 1992, signée à ce jour par 174 états, a reconnu la souveraineté des états sur les ressources vivantes de leur territoire et les accords de Marrakech de 1994 obligent désormais les 132 états membres de l’OMC (Organisation Mondiale du Commerce) à protéger la propriété intellectuelle sur leur territoire

6
En l’espace de cinquante ans, le statut de la matière vivante est donc passé d’une conception d’objet naturel, dont on pouvait certes découvrir mais non s’approprier les composantes, à celui d’une invention issue de l’industrie humaine, pouvant être aussi strictement protégée que toute autre création humaine originale. Ce changement reflète une évolution de notre conception même du rôle respectif de la nature et des hommes, et également du rôle respectif des différents hommes qui, au fil du temps, ont contribué à modeler les êtres vivants d’aujourd’hui.

2/ Une vision économique : comment favoriser au mieux l’innovation ?
Une première analyse de cette évolution du droit peut-être fait sous l'angle de l'économie publique. L'enjeu peut être formulé de la manière suivante : quelle rémunération et quelle protection faut-il accorder à un opérateur (agriculteur, sélectionneur, multiplicateur) pour favoriser la poursuite de la création et de la diffusion de variétés adaptées à une agriculture en perpétuelle évolution ? La création permanente demeure en effet un enjeu majeur car les variétés doivent sans cesse s’adapter pour faire face à l’évolution des pathogènes, ravageurs et des conditions environnementales.
Il est relativement facile d'examiner les deux options extrêmes et de conclure à leur caractère non optimal : l’absence de protection sera peu motivante et peut conduire à réduire fortement la diffusion de l’innovation, qui ne sera exploitée que dans le cadre de systèmes très fermés. A l’inverse, des systèmes de protection excessifs, dans leur durée ou leurs modalités, créeront des rentes de situation, freineront l’application de la technologie à d’autres situations et pourront décourager l’implication de nouveaux opérateurs. Il convient donc de définir un compromis entre ces extrêmes, qui pourra être variable d'un pays à l'autre et devra s'ajuster à l'évolution de l'agriculture, d'où le danger de solutions universelles promues par les pays les plus développés.
En corollaire, deux questions s’expriment actuellement sur le rôle que doit jouer l'État dans l'organisation de la production alimentaire :
- Dans de nombreux pays développés ou en développement, l’État a joué depuis 50 ans un rôle majeur dans l’amélioration génétique animale et végétale, que ce soit en tant qu’organisateur ou en tant qu’opérateur direct. Depuis une vingtaine d’années, l’émergence progressive d’opérateurs privés performants, en particulier pour les plantes de grande culture, a conduit à un désengagement progressif et délibéré de la recherche publique. Jusqu’où doit aller ce désengagement ? L'État doit-il conserver un domaine réservé et lequel?
-Dans la filière agroalimentaire, l’augmentation de leur part de valeur ajoutée est l’ambition permanente de chaque opérateur, des fournisseurs d’amont aux distributeurs d’aval, en passant par les agriculteurs et les industries de transformation, et toute innovation est susceptible de modifier cette répartition. Dès lors que ces transferts permettent la concentration des activités entre un très petit nombre d’intervenants on peut se préoccuper des situations de dépendance pouvant en résulter pour les agriculteurs, et donc pour la sécurité alimentaire du pays. L'État doit-il donc intervenir pour réguler ces évolutions et comment? Définir et mettre en place des règles permettant l’appropriation du vivant, c’est donc implicitement faire un choix sur l’organisation économique et sociale future : de technique, le débat devient donc politique, comme l’ont clairement montré les récents débats entourant la conférence de Seattle.
3/ Le débat éthique : quelles bases pour une bioéthique du "non-humain" ?

7
Autre approche de l'appropriation, la question des enjeux éthiques est de plus en plus évoquée. Cette question de l’éthique des relations de l’homme et de la nature, surtout si elle est liée aux nouvelles capacités d’intervention permises par la science, pose plusieurs questions inédites :
- Ni la Bible ni le Coran ne fixent de limites nettes à la maîtrise de l’homme sur la nature, si ce n’est l’attention à porter aux espèces utiles à l’homme, attention dont la dimension utilitaire est évidente. Même le nouveau testament n’exprime aucune mansuétude pour le figuier qui ne porte pas de fruits (Matthieu, 21, 19) !
- Les comportements possibles vis-à-vis des espèces vivantes sont eux-mêmes inédits et leur dimension éthique n’est pas aisément perceptible. Si chacun perçoit aisément la dimension éthique de la vivisection, la transgenèse entre espèces éloignées ou la réalisation de xénogreffes apparaissent d’abord comme des actes purement techniques, n’ayant pas plus de dimension éthique que la réparation d’un moteur automobile.
Cette situation de quasi-absence de références conduit à une grande diversité d’attitudes individuelles, depuis ceux qui n’identifient aucune dimension éthique dans les possibilités techniques de la biologie moderne – dès lors que ces techniques sont efficaces et sûres – jusqu’à ceux qui considèrent que des transgressions majeures, affectant l’essence même de l’homme, sont en train de s’opérer sans qu’ils aient pu s’y opposer. En outre, derrière ces différentes attitudes s’expriment sans doute implicitement différentes représentations de la nature.
Pour fonder les bases de cette nouvelle éthique, plusieurs approches ont été proposées :
- l'approche classique et humaniste conserve comme finalité ultime le devenir des hommes et établit le lien entre les impacts sur la nature et les conséquences qui peuvent en résulter, à court où a plus long terme, pour l’avenir de l’homme lui-même. C’est en particulier l’approche du philosophe allemand Hans Jonas dans son ouvrage de 1979 Le Principe responsabilité [1990, ed. du Cerf, Paris. L’article de Dominique Bourg dans La Recherche (1993, n° 256, pp. 886-890)], principe ainsi énoncé : agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre et de façon que les effets de ton action ne soient pas destructeurs pour la possibilité future d’une telle vie.
- l’idée que la nature possède des droits propres que l’homme doit respecter, même aux dépens de son propre devenir, est mis en avant par le courant anglo-saxon de la "deep ecology", qui affirme que l’homme n’a pas plus de droits que les autres espèces vivantes et se doit de s’intégrer sans lui nuire au fonctionnement de la planète terre. La terre est elle-même assimilé à un "super-organisme" vivant : c’est "l’hypothèse Gaïa", développée il y a une vingtaine d’années par le Britannique James Lovelock [Robert Barbault, 1994, Des baleines, des bactéries et des hommes, ed. O. Jacob, Paris (pp. 209-211)]. De manière plus limitée, l’existence de droits propres de certaines espèces, en particulier les espèces animales domestiques, liées désormais par une "communauté de destin" avec l’homme, est défendue par des philosophes comme Elisabeth de Fontenay [Le silence des bêtes, ed. Fayard, Paris, 1998].
S’il n’appartient pas aux scientifiques d’imposer leur vue dans la définition de cette nouvelle éthique du vivant, il est par contre de leur responsabilité de contribuer à éclairer deux questions :
- Mettre en lumière la dimension éthique sous-jacente d’une innovation biotechnologique, qui, comme nous l’avons vu, n’est souvent pas immédiatement perceptible et est même occultée par la dimension essentiellement technique de l’approche. Ce caractère réducteur de

8
la démarche scientifique est bien analysé par Jean Ladrière [L'éthique dans l'univers de la rationalité, 1997, ed ARTEL-FIDES, Québec. chap. 3 et 12].
- Aider à définir ce qu’est "vraiment" la nature, en termes de sensibilité aux interventions humaines, ou indiquer dans certains cas les limites de la science, lorsqu’il apparaît impossible de prévoir réellement les conséquences d’un phénomène.

Conclusion
Les progrès de la biologie et les capacités d’appropriation du vivant qu’elle a développées ont donc conduit à placer ses progrès et surtout ses applications sous le regard attentif et parfois critique de la société. Certains regretteront le temps où la biologie se développait loin de ce regard, a fortiori le temps où ses réussites ne suscitaient qu’admiration.
Pour ma part, je me réjouis de cette attention, qui souligne que l’aventure de la recherche n’est pas seulement une quête individuelle mais aussi une participation à la construction de la société de demain, construction qui ne peut se faire qu’en dialogue avec ceux qui estiment avoir leur mot à dire sur ce qu’elle sera, c’est à dire tous les citoyens.
Comme l’a écrit Jean Rostand [p. 63 Inquiétudes d’un biologiste, 1967, Ed Stock, Paris] : “L’homme est devenu trop puissant pour se permettre de jouer avec le mal. L’excès de sa force le condamne à la vertu”.
Légendes des deux illustrations de la 22ème conférence réalisée par Bernard Chevassus

9
Figure 1 :
Le mathématicien anglais Sir Francis Galton s’interrogeait sur le fait que les descendants de parents "extrêmes" pour un caractère comme la taille ou le poids semblaient n’hériter que d’une partie de cette différence et se rapprochaient donc de la moyenne de la population. Pour décrire ce phénomène, il proposa en 1889 sa "loi de la régression universelle" et jeta les bases du calcul de "coefficients de régression" permettant de prédire statistiquement les performances de la descendance d’un couple donné.

Figure 2 :
Quelle rémunération et quelle protection faut-il accorder à un opérateur (agriculteur, sélectionneur, multiplicateur) pour favoriser la poursuite de la création et de la diffusion de variétés adaptées à une agriculture en perpétuelle évolution ? Il est relativement facile d'examiner les deux options extrêmes et de conclure à leur caractère non optimal : l’absence de protection sera peu motivante et peut conduire à réduire fortement la diffusion de l’innovation, qui ne sera exploitée que dans le cadre de systèmes très fermés. A l’inverse, des systèmes de protection excessifs, dans leur durée ou leurs modalités, créeront des rentes de situation, freineront l’application de la technologie à d’autres situations et pourront décourager l’implication de nouveaux opérateurs. Il convient donc de définir un compromis entre ces extrêmes, qui pourra être variable d'un pays à l'autre et devra s'ajuster à l'évolution de l'agriculture, d'où le danger de solutions universelles promues par les pays les plus développés.

 

VIDEO       CANAL  U         LIEN 
 

 
 
 
 

A l'heure des neurosciences

 

 

 

 

 

 

 

A l'heure des neurosciences
Jean-Jacques Slotine dans mensuel 350
daté février 2002 -

Connaît-on l'ascidie, ce petit animal marin qui, après s'en être servi pour se mouvoir, digère tranquillement son cerveau, car il n'en a plus besoin ? Plus que jamais à l'école du vivant, la robotique s'aventure aujourd'hui vers la prise en compte de phénomènes qui vont bien au-delà de la conception classique du « cerveau dans la boîte ».

« Alors la babouine demande timidement au babouin, les yeux chastement baissés : Aimez-vous Bach ? » Albert Cohen .

L'heure est au dialogue entre robotique et neurosciences, et, au-delà des analogies les plus évidentes, à l'élaboration de problématiques communes. Partout dans le monde se créent des centres regroupant neurosciences, biologie, modélisation mathématique et robotique. Témoin de l'ampleur du phénomène : le nouveau McGovern Institute, au MIT, qui va y consacrer pas moins de 350 millions de dollars - à peu près autant que le synchrotron Soleil ! Nous sommes sans doute à l'aube d'une véritable approche « système » de la compréhension du cerveau, réalisant le vieux rêve de la cybernétique.
Cette fertilisation croisée, cette coévolution, pourrait-on dire, n'est certes pas nouvelle. La nature inspirait déjà la robotique du temps des tortues de Grey Walter, en 1950. Mais l'accélération considérable au cours des vingt dernières années des découvertes sur le cerveau, la physiologie de l'action, ou encore l'acquisition de la parole et du langage, a changé la donne. Jim Watson, le codécouvreur de la structure de l'ADN et le promoteur du programme « Génome humain », fait avec raison de la compréhension du cerveau le grand défi scientifique du XXIe siècle. Compréhension susceptible de remettre en question notre conception de la science elle-même : c'est avec notre cerveau que nous créons des théories !
Mais à l'inverse, la robotique peut éclairer la physiologie, l'artificiel illuminer le vivant. Comme le remarque le biologiste Edward O. Wilson, dans son classique Consilience : the Unity of Knowledge 1998 « Le moyen le plus sûr d'appréhender la complexité du cerveau, comme de tout autre système biologique, est de le penser comme problème d'ingénierie . »I 1 L'ambition de la robotique est de comprendre de quelles capacités on peut doter une machine en interaction physique avec son environnement, et comment cette machine peut par elle-même s'adapter et apprendre.
En neurosciences, on associe de plus en plus l'évolution et le développement des processus cognitifs au raffinement des fonctions sensori-motrices2. Le neurologue Rodolfo Llinas3, à l'université de New York, cite l'exemple de l'ascidie, petit animal marin qui, après avoir nagé vers le rocher où il s'installera, digère son cerveau, devenu inutile dès lors qu'il n'a plus à se déplacer ! De même, l'interaction physique et dynamique avec l'environnement, le contrôle du mouvement, poussent la robotique au-delà du domaine conceptuel classique de l'intelligence artificielle, du brain in a box cerveau dans une boîte.

Mémoire parfaite. En règle générale, la robotique est très loin d'égaler la nature, mais ses contraintes ne sont pas les mêmes et, pour certaines tâches, elle fait même mieux que la nature. Malgré la grande flexibilité de positionnement des actionneurs moteurs, muscles artificiels, etc. et des capteurs caméras, encodeurs, etc., le hardware mécanique est très à la traîne, tant en complexité qu'en robustesse et en adaptabilité. En revanche, la robotique bénéficie de la possibilité de coder explicitement des relations mathématiques complexes les équations de la mécanique, par exemple, permettant souvent soit des raccourcis à travers les calculs de la nature, soit des techniques fondamentalement différentes. Les robots possèdent également une mémoire parfaite et une capacité de répétition exacte. Si l'on veut qu'un robot apprenne à marquer des paniers au basket-ball, il lui suffit de déterminer une fois pour toutes la relation entre son mouvement et l'endroit où la balle tombe : problème mathématique simple qui conduira à un apprentissage rapide. Le robot dispose également de possibilités de simulation en temps très accéléré, alors qu'il faut à l'homme à peu près autant de temps pour imaginer un mouvement que pour l'effectuer. Un robot peut « penser » en 5 ou 10 dimensions aussi facilement qu'en 3. Enfin la robotique tire profit de l'accélération constante des moyens de calcul4, au point de pouvoir calculer plus vite que la nature elle-même.
Un autre avantage des robots sur les systèmes biologiques est la rapidité de la transmission de l'information. La vitesse de transmission des impulsions nerveuses est bien inférieure à la vitesse du son. Elle est donc environ un million de fois plus petite que celle de l'information dans un câble électrique. De plus, à chaque connexion synapse entre neurones le signal électrique est transformé d'abord en signal chimique, puis de nouveau en signal électrique à l'arrivée, perdant chaque fois environ 1 ms : un peu comme un train qui prend un ferry-boat. Ce rôle central des délais conditionne certains aspects de l'architecture des systèmes biologiques, par exemple l'organisation massivement parallèle des calculs dans les cent milliards de neurones du cerveau et leurs millions de milliards de synapses. Laquelle architecture parallèle, il faut le reconnaître, se prête particulièrement bien aux problèmes d'approximation distribuée, c'est-à-dire d'apprentissage.

Cette question du temps est aussi au coeur de bien des aspects importants de la robotique, qu'il s'agisse de la téléprésence - comment commander un robot à l'autre bout de la planète ou au fond de l'océan, « comme si vous y étiez » -, pour coordonner la vision par ordinateur et la manipulation, et, comme chez les êtres vivants, pour tous les mécanismes permettant l'unité de la perception binding.

Notre laboratoire a beaucoup étudié l'adaptation et la coordination vision-manipulation5,6, et leur illustration expérimentale sur des robots rapides. Comment un robot attrape-t-il un objet qu'on lui lance ? Il doit anticiper la trajectoire de l'objet, sur la base d'informations visuelles - obtenir ces informations avec une précision suffisante peut nécessiter d'utiliser des caméras mobiles, comme le fait l'oeil quand il suit un objet en mouvement. Il doit planifier une trajectoire pour intercepter l'objet et l'attraper - il peut être judicieux, par exemple, d'attraper l'objet tangentiellement à sa trajectoire, de façon à nécessiter moins de précision du timing de la fermeture de la main, et aussi à attraper l'objet plus délicatement. Une fois l'objet attrapé, il faut le décélérer progressivement et ne pas le laisser tomber, en s'adaptant très vite à ses propriétés dynamiques inconnues masse, position du centre de masse, moments d'inertie. Ces travaux nous ont conduits à rechercher des méthodes et des concepts généraux pour aborder systématiquement des questions de plus en plus complexes, impliquant une réflexion plus directe sur ce que nous apprend le monde du vivant.

Primitives motrices. La solution de la nature à la construction progressive de tels systèmes est, bien sûr, l'évolution. Tout objet biologique, et le cerveau en particulier, résulte de l'évolution. Celle-ci procède par accumulation et combinaisons d'éléments intermédiaires stables, créant ainsi des structures fonctionnelles de plus en plus complexes7,8. Selon la formule de François Jacob, « De la bactérie à la drosophile, quel bricolage depuis trois milliards d'années ! » La réponse émotionnelle humaine, par exemple, combine deux éléments intermédiaires stables, une boucle archaïque rapide ne passant pas par le cortex, et une boucle corticale plus lente9. Le système immunitaire humain se compose d'une série de couches fonctionnelles, où se combinent notamment des mécanismes rapides et archaïques d'immunité innée, et des mécanismes plus lents d'immunité acquise ou adaptative, dont le temps de réponse dépend de l'exposition antérieure au pathogène.
De même, l'architecture de contrôle du mouvement chez les vertébrés utilise des combinaisons de primitives motrices. Emilio Bizzi et ses collègues, au MIT, ont fait, sous divers protocoles expérimentaux, l'expérience suivante. On excite la moelle épinière d'une grenouille anesthésiée, et un capteur placé sur la cheville de l'animal mesure le champ de forces ainsi créé. Deux conclusions. Tout d'abord, si l'on déplace l'excitation le long de la moelle épinière, on n'obtient que quatre champs de forces, correspondant à quatre régions de la moelle. De plus, si l'on excite deux régions en même temps, on obtient essentiellement la somme vectorielle des champs de forces. Ces résultats et des expériences plus récentes suggèrent que les mouvements de la grenouille, par exemple quand elle saute pour attraper un insecte, sont obtenus par simples combinaisons de primitives motrices élémentaires, modulées temporellement dans la moelle épinière sur la base d'informations provenant du cerveau.
Les accumulations progressives de configurations stables sont un thème récurrent dans l'histoire de la cybernétique et de l'intelligence artificielle, depuis les tortues de Grey Walter à la « Society of Mind10 » de Marvin Minsky 1986, en passant par les architectures hiérarchiques de Herbert Simon11 1962, les véhicules de Valentino Braitenberg12 1984, et autres insectes de Rodney Brooks13 1986, 1999.
Ces accumulations progressives forment aussi la base de théories récentes sur le fonctionnement du cerveau, qui privilégient l'interaction massive entre structures spécialisées pour expliquer la pensée et la conscience14,15,16.
Un des thèmes centraux des neurosciences est de comprendre comment des informations provenant de diverses modalités sensorielles, traitées par des centaines de régions spécialisées dans le cerveau, aboutissent à une perception unifiée. Dans le seul système visuel, par exemple, certaines aires corticales traitent les contours, d'autres les formes, le mouvement, les distances, la couleur... Mais ces processus sont inconscients. Vous ne voyez qu'un enfant en train de jouer au ballon sur la plage. Des recherches récentes suggèrent que cette unité de la perception, sans système centralisé de coordination « Il n'y a pas d'aire en chef » , comme le dit Gerald Edelman, pourrait essentiellement être le résultat de milliers de connexions réciproques entre aires spécialisées, particulièrement dans le système thalamo-cortical. Le thalamus est une formation qui a évolué avec le cortex. Toutes les informations sensorielles qui arrivent au cortex passent par le thalamus, où elles sont sélectionnées. De plus, beaucoup des connexions entre les différentes aires du cortex passent également par le thalamus17.
Boucles lentes. Il s'agit là de boucles rapides. La description se complique si on intègre l'existence de milliers d'autres boucles, « lentes » et inconscientes, qui partent du cortex, passent par les ganglions de la base ou le cervelet deux structures intervenant notamment dans la planification et dans le contrôle des mouvements, puis par le thalamus, avant de revenir au cortex. D'autres boucles encore passent par l'hippocampe une autre structure, liée à la mémoire à long terme. L'un des rôles de ces boucles pourrait être de permettre une sorte de « jeu des vingt questions » sélectionnant les informations les plus pertinentes pour une tâche donnée. Le délai de transmission de l'information à travers chacune de ces boucles est de l'ordre de 150 ms. Comment le système converge-t-il malgré ces délais ?
Intrinsèquement, accumulations et combinaisons d'éléments stables n'ont aucune raison d'être stables, et donc d'être retenues à l'étape suivante de l'évolution ou du développement. D'où notre hypothèse que l'évolution favorise une forme particulière de stabilité, automatiquement préservée en combinaison. Une telle forme de stabilité peut être caractérisée mathématiquement. Cette propriété, dite de contraction, fournit également un mécanisme très simple de construction progressive de systèmes robotiques arbitrairement complexes à partir d'un grand nombre de sous-systèmes eux-mêmes contractants, en sachant que la stabilité et la convergence des combinaisons seront automatiquement garanties18.
Plus spécifiquement, un système dynamique non linéaire est contractant s'il « oublie » exponentiellement ses conditions initiales. Autrement dit, si l'on perturbe temporairement un tel système, il reviendra à son comportement nominal - il reprendra ce qu'il était en train de faire - en un temps donné. On peut montrer que ce type de système peut être caractérisé par des conditions mathématiques relativement simples. Mais surtout que la propriété de contraction est automatiquement préservée par toute combinaison parallèle, en série ou hiérarchique, et certains types de rétroaction ou recombinaison dynamique de sous-systèmes eux-mêmes contractants. Permettant du coup de jouer au Lego avec des systèmes dynamiques19.
Remarquons qu'au moins pour des petites perturbations, un tel type de robustesse est en fait une condition nécessaire à tout apprentissage : un système dont les réponses seraient fondamentalement différentes à chaque essai serait incompréhensible.
Revenons à la grenouille d'Emilio Bizzi. L'architecture simplifiée mise à jour est intéressante intuitivement, car elle réduit considérablement la dimension et donc la complexité des problèmes d'apprentissage et de planification. Mathématiquement, ce type d'architecture est proche du concept - très classique en robotique - de champs de potentiels, où l'on utilise les moteurs du robot pour créer des « ressorts » virtuels dans des problèmes de navigation et de contrôle. Mais il en est aussi différent, de par la modulation temporelle des primitives, elle-même le résultat de processus dynamiques en amont. On peut montrer que chacune des primitives motrices de la grenouille vérifie la propriété de contraction, et donc que toutes ces combinaisons, parallèles et hiérarchisées, sont automatiquement stables.
Les signaux mesurés dans le système nerveux, par exemple ceux impliqués dans le contrôle du mouvement, correspondent rarement à des quantités physiques « pures », mais plutôt à des mélanges2, par exemple de positions et de vitesses. Alors qu' a priori ces signaux composites pourraient paraître mystérieux ou même être des imperfections, ils relèvent sans doute de bonnes raisons mathématiques. En effet, on peut montrer que l'utilisation de combinaisons judicieuses de variables peut réduire très sensiblement la complexité des problèmes d'estimation et de contrôle, et même réduire l'effet des retards de transmission de l'information.
En théorie du contrôle, par exemple, on utilise souvent des variables dites « de glissement » sliding variables , combinaisons linéaires d'une quantité et de ses dérivées temporelles. Ces combinaisons peuvent être facilement choisies de façon à réduire un problème d'ordre quelconque à un problème du premier ordre, beaucoup plus simple à résoudre. Elles correspondent à créer mathématiquement des séries de modules contractants.
D'autres problèmes que le système nerveux doit résoudre sont essentiellement identiques à des problèmes résolus par les ingénieurs. Dans le système vestibulaire humain l'oreille interne, par exemple, les « otolithes » mesurent l'accélération linéaire, et les « canaux semi-circulaires » mesurent la vitesse angulaire au moyen d'une mesure tres filtrée de l'accélération angulaire. Cette configuration est essentiellement la même que dans les systèmes dits strapdown de navigation inertielle sur les avions modernes, où un algorithme classique utilise ces mêmes mesures pour estimer la position et l'orientation de l'avion.
Faculté de prédire. Une notion essentielle à prendre en compte est la faculté de prédire2,3. Prédire est l'une des principales activités du cerveau. On la retrouve dans l'anticipation de la trajectoire d'une balle à attraper20, l'évitement d'obstacles mobiles, la préparation du corps à l'éveil dans les dernières heures de la nuit, voire dans l'aberrante efficacité de l'effet placebo plus de 30 % dans la plupart des maladies bénignes.
Prédire joue également un rôle fondamental dans la perception active orienter le regard, par exemple et l'attention. Dans le système nerveux, l'information est sélectionnée, filtrée, ou simplifiée à chaque relais sensoriel. Si l'on considère par exemple la partie du thalamus correspondant à la vision, moins de 10 % des synapses amènent des informations provenant des yeux et déjà préfiltrées au passage, et toutes les autres synapses servent à moduler ces informations17 !
Du point de vue mathématique, toutes ces questions relèvent de la théorie des observateurs, qui sont des algorithmes utilisés pour calculer ou pour prédire l'état interne d'un système en général non linéaire à partir de mesures partielles, souvent externes et bruitées. Typiquement, un observateur se compose d'une simulation du système utilisant un « modèle interne » peut-être approximatif, guidée et corrigée par les mesures prises sur le système. Dans les problèmes de perception active et sous certaines conditions, l'observateur permet aussi de sélectionner, a priori , la mesure ou la combinaison fusion de mesures à effectuer qui seront les plus utiles pour améliorer l'estimation de l'état du système à un instant donné, une idée inspirée du système nerveux et utilisée aujourd'hui dans les systèmes de navigation automobile automatique.

Parce qu'ils se fondent sur des mesures partielles, les observateurs permettent aussi de généraliser à des processus dynamiques la notion de mémoire adressable par le contenu content-addressable memory , chère aux amateurs de réseaux de neurones artificiels. Par exemple, une personne peut être reconnue à partir seulement d'une image de ses yeux, un concerto de Ravel à partir des premières mesures. Et, dans un processus physiologique minutieusement décrit, élaboré sur le plus archaïque de nos sens, la madeleine de Proust conduit automatiquement aux huit volumes de la Recherche .
Pour le problème de l'unité de la perception, la notion de contraction suggère un modèle possible pour expliquer la convergence globale des interactions rapides dans le système thalamo-cortical et la variation régulière de la perception au fur et à mesure que les données sensorielles changent : il suffirait que la dynamique de chacune des aires impliquées soit contractante. Inversement, le principe d'un vaste réseau de systèmes contractants spécialisés, totalement décentralisé mais globalement convergent, peut être utilisé dans un système artificiel pour intégrer diverses informations sensorielles et algorithmes de traitement. De plus, on peut montrer que ces boucles d'interaction sont un moyen particulièrement efficace et rapide de partager le traitement de l'information entre divers systèmes, puisque le temps de réponse de l'ensemble ne dépasse pas celui du système le plus lent. Cette rapidité contraste fortement avec celle d'une architecture centralisée ou hiérarchisée, où les temps de réponse s'accumulent et deviennent totalement prohibitifs pour de grands systèmes.

Téléprésence. Petite note historique : en Union soviétique, les discours fleuve annuels sur le socialisme scientifique ont suivi, littéralement, l'évolution de la cybernétique interprétée au sens large comme science du « gouvernement » et ont donc vu apparaître au début des années 1980 les ancêtres des systèmes décentralisés que nous venons de décrire. On connaît la suite.

Un problème similaire à celui des boucles lentes se rencontre en téléprésence, où des délais de transmission non négligeables entre robot-maître et robot-esclave créent d'importants problèmes de stabilité. L'une des façons de le résoudre est d'utiliser pour les transmissions un type particulier de variable composite, qui revient à ce que chaque transmission simule une onde dans une poutre mécanique virtuelle. En effet, une poutre transmet des ondes dans deux directions avec des délais, mais est naturellement stable. Le cerveau utilise-t-il de telles combinaisons dans ses boucles lentes14,18,21 ?
Ce type d'architecture et de telles « variables d'onde » pourraient également être exploités dans d'autres systèmes artificiels. Par exemple, dans les problèmes de calcul asynchrone distribué, où des milliers d'ordinateurs, communiquant entre eux par Internet, doivent être coordonnés pour résoudre un problème commun.

1 Edition française, Robert Laffont, 2000.
2 A. Berthoz, Le Sens du mouvement, Odile Jacob, 1997.
3 R. Llinas, I of the Vortex : from Neurons to Self, MIT Press, 2001.
4 R. Kurzweil, The Age of Intelligent Machines, Viking, 1999.
5 J.J.E. Slotine et W. Li, Applied Nonlinear Control , Prentice-Hall, 1991.
6 S. Massaquoi et J.J.E. Slotine, « The intermediate cerebellum may function as a wave variable processor », Neuroscience Letters, 215 , 1996.
7 R. Dawkins, The Salfish Gene, 2e ed., Oxford University Press, 1994.
8 M. Ridley, Mendel's Demon, Free Press, 2000.
9 J. Ledoux, The Emotional Brain, Simon and Schuster, 1996.
10 M. Minsky, The Society of Mind, MIT Press, 1986.
11 H.A. Simon, The Sciences of the Artificial, 3e éd., MIT Press, 1996.
12 V. Braitenberg, Vehicles, MIT Press, 1984.
13 R. Brooks, Cambrain Intelligence, MIT Press, 1999.
14 S. Massaquoi et J.J.E. Slotine, « The intermediate cerebellum may function as a wave variable processor », Neuroscience Letters, 215 , 1996.
15 S. Hanneton et al. , Biological Cybernetics , 776, 1998.
16 G. Tononi et al., Proc. Natl. Acad. Sci. USA, 95 , 3198, 1998.
17 S.M. Sherman et C. Koch, « Thalamus », in Synaptic Organization of the Brain , 4th éd., G.M. Shepherd éd., Oxford University Press, p. 289-328, 1998.
18 J.J.E. Slotine et W. Lohmiller, « Modularity, evolution, and the binding problem : A view from stability theory », Neural Networks, 14 , 2001.
19 W. Lohmiller et J.J.E. Slotine, Automatica, 346, 1998.
20 S. Dehaene, M. Kerzberg et J.-P. Changeux, Proc. Natl. Acad. Sci. USA, 95 , 14529, 1998.
21 J. Hong et J.J.E. Slotine, Experiments in Robotics Catching , ISER, 1995.
SAVOIR
:
-G. Edelman et G. Tononi, L'Univers de la conscience , Odile Jacob, 2000.

 

 DOCUMENT      larecherche        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon