ecole de musique piano
     
menu
 
 
 
 
 
 

ÉVOLUTION BIOLOGIQUE ...

 


 

 

 

 

 

 L'évolution biologique dans les théories et les faits


 
Hervé LE GUYADER
UMR CNRS 7622,
Laboratoire de biologie du développement
Université Pierre et Marie Curie     
 
 
 " Rien n’a de sens en biologie, si ce n’est à la lumière de l’évolution ". Ce célèbre aphorisme de Theodosius Dobzhansky (1900 – 1975) révèle bien ce qu’est la théorie de l’évolution pour un biologiste, le cadre conceptuel au sein duquel toute donnée scientifique trouve tout son sens.

LES GENES HOMEOTIQUES

Pour illustrer ce fait, prenons l’un des plus beaux exemples de la biologie moderne, celui des gènes homéotiques. Ces gènes particuliers de développement ont tout d’abord été mis en évidence, puis longuement étudiés, chez la drosophile.
Qui s’y intéressait jusqu’au milieu des années 80 ?
Principalement les généticiens et, surtout, les spécialistes de drosophiles. Puis on a découvert que les mêmes gènes (ou plus exactement des gènes homologues) structuraient également le développement antéro-postérieur des vertébrés. L’explication ? Elle est a priori simple : ces gènes ont été hérités d’un ancêtre commun.
Que disent alors les paléontologues ? Que cet ancêtre commun date au bas mot de 540 millions d’années. Subitement, cette dimension temporelle relativise complètement le premier résultat. Ce qui pouvait paraître à certains comme une caractéristique de la drosophile, voire des insectes, acquiert une grande généralité en devenant l’apanage d’une grande partie des animaux (en fait, seulement les bilatériens). La découverte des gènes homéotiques a alors été vulgarisée ; en 1995, Ed Lewis a reçu le Prix Nobel, avec Christiane Nüsslein-Volhard et Eric Wieschaus, un siècle et un an après la définition du concept d’homéose par William Bateson (1861 – 1926). C’est la théorie de l’évolution qui a permis d’appréhender l’importance considérable des gènes homéotiques, et c’est à ce moment qu’on les a popularisés. Pour généraliser cet exemple, toute démarche comparative en biologie ne brille de ses feux qu’à l’intérieur d’un schéma évolutif. En retour, de telles généralisations deviennent les principales preuves de la théorie de l’évolution qui reste le seul cadre conceptuel donnant son unité à l’ensemble de la biologie (paléontologie comprise), quelle que soit la sous-discipline ou le niveau d’organisation.

Reconnaître l’évolution conduit à constater l’existence d’une histoire, sur la Terre, de l’ensemble des organismes vivants. Comprendre l’évolution consiste à déceler les mécanismes qui ont présidé à la structuration actuelle de la biodiversité, en permettant les multiples adaptations des animaux, des végétaux, des organismes unicellulaires, adaptations qui sont parfois d’une telle précision qu’elles semblent défier l’imagination. Il s’agit donc tout à la fois de décrypter la manière dont les organismes se sont modelés dans leurs formes et leurs fonctions, et de rechercher l’origine des nouveautés et des potentialités évolutives. Ainsi les recherches sous-tendues par le concept d’évolution se séparent clairement en deux volets ; les unes visent la reconstruction de l’histoire de la vie, les autres tendent à comprendre les modalités et les processus de l’évolution.

Beaucoup de temps a été nécessaire pour qu’une telle ligne directrice puisse émerger. En effet, au cours de longs tâtonnements, il a fallu de la réflexion, et il a fallu des faits. Petit à petit, les éléments essentiels sont apparus pour donner un cadre conceptuel qui a acquis sa cohérence au milieu du XXème siècle, pour s’enrichir par les résultats les plus récents de la systématique et de la biologie moléculaire.

CLASSER LES ORGANISMES

Il est indispensable de retracer les grandes lignes de l’histoire de cette théorie, afin de comprendre l’émergence difficile de ce cadre conceptuel a priori simple, mais d’une grande complexité dans le détail. Tout a commencé par la volonté de classer les organismes. Les premières classifications du monde vivant ont été de type utilitaire, étant donné que c’était d’un catalogue raisonné dont on avait besoin. Ainsi, en botanique, dès Théophraste (vers 372 – 287 av. J.–C.), on distinguait les arbres, les arbustes, les plantes médicinales, les plantes vénéneuses... De telles classifications, réalisées par les Grecs puis les Romains, perdurèrent jusqu’à la Renaissance, jusqu’à ce que l’on reconnaisse qu’elles n’étaient pas satisfaisantes.
Mais comment faire autrement ? Ce fut tout d’abord un constat d’échec - qui amena certains auteurs à donner une classification par ordre alphabétique -, puis de multiples tentatives (les systèmes et les méthodes), les unes basées sur la morphologie des feuilles ou des racines, d’autres sur la structure des fleurs, d’autres encore sur la nature des graines ou des fruits... Les résultats, bien que sensiblement différents suivant les approches, permettaient dans bon nombre de ces tentatives de retrouver les grandes familles de la botanique. Certains naturalistes, comme le Suédois Carl von Linné (1707-1778), affirmèrent que ce ne pouvait être une simple coïncidence ; il devait exister une classification unique, dite Classification Naturelle, peut-être inaccessible dans sa totalité, mais que l’on retrouvait localement de temps à autre. Il y avait donc bel et bien un "Ordre de la Nature" qui, dans la culture judéo-chrétienne de l’époque, correspondait bien sûr à celui de la création divine. C’est de cette époque que date la hiérarchie des taxons, à savoir pour le monde animal : Règne / Embranchement / Classe / Ordre / Famille / Genre / Espèce.

UNE ECHELLE DES ETRES

Parallèlement, une longue tradition remontant à l’Antiquité défendait l’existence d’une " Échelle des Êtres ", c’est-à-dire l’établissement d’une hiérarchie de l’ensemble des éléments figurés d’origine naturelle, dont les organismes vivants, suivant une complexité croissante. On trouvait en bas de l’échelle les quatre éléments, puis les minéraux, suivis des végétaux ; les animaux étaient rangés selon leur plus ou moins grande ressemblance avec l’Homme : vers, poissons, amphibiens et reptiles, oiseaux et mammifères. L’Homme était bien évidemment au plus haut de l’échelle des êtres matériels,... mais, à une certaine époque, plus bas que les anges et archanges. Au XVIIIème siècle, Gottfried Leibniz (1646 - 1718) popularise cette échelle des êtres, qui va être reprise par Charles Bonnet (1720 - 1793) en biologie. Dès lors, deux conceptions vont interférer, celle de l’Échelle des Êtres et celle de la Classification Naturelle.

LA SUBORDINATION DES CARACTERES

Les progrès vont être très importants quand, avant la Révolution, Bernard de Jussieu (1799-1876) et son neveu Antoine-Laurent (1748-1836) vont définir la notion-clé de subordination des caractères. Ils se rendent compte que, pour déterminer un taxon donné, une classe par exemple, l’idéal est d’avoir un (ou plusieurs) caractère(s) constant(s) à l’intérieur de cette classe et variable(s) dans toutes les autres. Un type de caractère est donc utile à un niveau précis de la classification, certains au niveau de l’ordre, d’autres au niveau du genre... Les caractères sont donc "subordonnés". On peut alors faire un tri parmi les caractères issus de descriptions détaillées, et faire surgir ceux qui sont pertinents d’un point de vue taxinomique, en les hiérarchisant. On pensait avoir trouvé la "Méthode Naturelle" menant à la Classification Naturelle. Si les Jussieu l’appliquent en otanique, dès la fin du XVIIIème siècle, Jean-Baptiste Lamarck (1744-1829) et Georges Cuvier (1769-1832) l’appliquent au monde animal, le premier essentiellement chez les mollusques et les animaux vermiformes, le second chez les vertébrés et pour l’ensemble des animaux.

LA NOTION DE TRANSFORMISME

C’est à ce moment qu’émerge, de façon structurée, la notion de transformisme, c’est-à-dire l’idée que les organismes vivants peuvent se "transformer", suivant le temps. Mais, pour que ce concept puisse être développé de façon pertinente, il faudra démontrer l’inanité de certaines croyances. Citons en deux. L’adhésion à l’existence de la génération spontanée empêchait évidemment la structuration d’un quelconque concept évolutif, car on pouvait alors imaginer des apparitions d’animaux de la même espèce à différents moments de l’histoire, par différents événements de génération spontanée. Dès 1765, Lazzaro Spallanzani (1729 – 1799) conteste ce dogme. Mais il faudra en fait attendre la controverse Pasteur–Pouchet pour qu’il soit définitivement enterré. On peut tenir le même raisonnement avec l’idée de métamorphose. En effet, au XVIIème siècle existait encore l’idée de la transformation d’un organisme adulte en un autre organisme adulte. Par exemple, les anatifes (crustacés cirripèdes) pouvaient se transformer en canards ; ou encore, en Afrique, existaient des arbres dont les feuilles se transformaient en poissons quand tombant dans l’eau d’une rivière ou en chauve-souris quand entraînées par le vent. Tout cela, évidemment, dut être réfuté pas à pas. Enfin, il y a le problème du temps ; Georges Buffon (1707 – 1788) bat en brèche les 6000 ans proposés par certains théologiens comme âge de la Terre, âge calculé à partir du recensement des générations décrites dans la Bible. Il propose plusieurs centaines de milliers d’années puis, dans une lettre, plusieurs millions. L’intérêt de cette proposition réside dans la démarche. Buffon se base sur une expérience. Il considère que la Terre a été à un moment une boule de roche en fusion. Il calcule le temps qu’un boulet de canon met pour se refroidir, et applique une règle de trois, connaissant la masse de la Terre. Même si le raisonnement et le calcul étaient simplistes, on abandonne des temps brefs qui n’autorisaient pas d’évolution.

LE CONCEPT D'HOMOLOGIE

L’application au monde animal des idées des Jussieu eut des résultats extrêmement positifs ; ainsi, on constata qu’au niveau des embranchements, le caractère pertinent était le plan d’organisation. Les quatre embranchements définis par Cuvier - les vertébrés (Vertebrata), les articulés (Articulata), les mollusques (Mollusca) et les radiaires (Radiata) - se trouvent caractérisés par des plans si différents qu’ils en paraissent irréconciliables, confirmant Cuvier dans son fixisme. Étienne Geoffroy Saint-Hilaire (1772-1844) va être amené à définir l’homologie - bien qu’à l’époque ce n’était pas ce terme qui fut utilisé -, notion essentielle qui permet de comparer des organismes ayant même plan d’organisation. Sont homologues deux organes qui ont même situation dans un plan d’organisation, ce qui sera interprété plus tard comme témoignant d’une même origine embryologique. Ce concept va briser la notion de similitude globale. En effet, deux organes peuvent être homologues et n’avoir ni même taille, ni même forme, ni même fonction. Les pattes antérieures des mammifères en sont un bon exemple : la patte du cheval, l’aile de la chauve-souris, l’aileron de la baleine sont homologues. Un tel critère va être employé avec succès en zoologie, puis va revenir en botanique, principalement par le botaniste suisse Augustin-Pyrame de Candolle (1778-1841).

LA "MORT DES ESPECES"

Parallèlement, Cuvier, par ses travaux de paléontologie, montrait que les espèces pouvaient disparaître, introduisant le concept crucial de " mort des espèces ". On ne pourra alors sauver le fixisme que par le biais de créations multiples. Etienne Geoffroy Saint-Hilaire, entreprenant des travaux d’embryologie, constatait avec Étienne Serres (1786-1868) qu’au cours de leur développement, les embryons des organismes " supérieurs " passaient transitoirement par des formes identiques à celles revêtues de manière permanente par des organismes " inférieurs ". Parallèlement, Karl von Baer (1792-1876) clamait que la comparaison devait se faire entre embryons différents et non entre l’embryon d’un animal et le stade adulte d’un autre. Il montrait qu’au cours de l’embryogenèse les caractères généraux, par exemple ceux caractéristiques de l’embranchement ou de la classe, apparaissent avant les caractères particuliers des taxons de bas rang, comme le genre ou l’espèce.

Pendant ce temps, Lamarck avait proposé la première hypothèse transformiste raisonnée, ceci dans sa leçon introductive de son cours au Muséum en 1901, puis publiée en 1809 dans sa Philosophie zoologique. Il admettait que les espèces se modifiaient progressivement au cours du temps, à partir d’un état primitif très simple apparaissant par génération spontanée. Les organismes étaient alors engagés dans un processus d’accroissement de la complexité. Son interprétation n’eut pas beaucoup de succès.

LE CONCEPT DE DESCENDANCE AVEC MODIFICATION

En introduisant le concept de descendance avec modification, Charles Darwin (1809-1882) va donner une toute autre vision de la Classification Naturelle. Pour lui, les caractères utiles en taxinomie - les caractères homologues -, sont ceux qui sont hérités d’un ancêtre commun ; ainsi, il affirme que toute classification doit être généalogique, et que la communauté de descendance est le lien caché que les naturalistes ont longuement cherché. Classer les animaux et faire de la phylogénie deviennent alors une seule et même chose ; Il ne peut y avoir qu’une seule classification naturelle, puisqu’il n’y a eu qu’une seule histoire de la vie sur Terre. La structuration de la biodiversité actuelle n’est que le résultat d’une longue histoire. Définir les liens de parenté entre espèces peut permettre de mieux comprendre les mécanismes qui sous-tendent cette évolution.

Les relations entre embryologie et systématique s’éclairent alors différemment. Les intuitions de Geoffroy Saint-Hilaire et de Serres d’une part, de von Baer d’autre part s’interprètent dans un cadre historique. C’est ce qu'Ernst Haeckel (1834-1919) a proposé par sa "loi biogénétique fondamentale" :"La série des formes par lesquelles passe l’organisme individuel à partir de la cellule primordiale jusqu’à son plein développement n’est qu’une répétition en miniature de la longue série des transformations subies par les ancêtres du même organisme, depuis les temps les plus reculés jusqu’à nos jours".

LA SELECTION NATURELLE

Revenons à l’idée de descendance avec modification. En fait, Darwin l’eut lorsqu’il osa la comparaison entre certaines des observations qu’il fit dans la nature - en particulier pendant son voyage sur le Beagle (1831-1836) -, et les résultats obtenus par les sélectionneurs anglais - principalement de chevaux, de chiens et de pigeons. Il se rendit compte que ceux-ci, utilisant la variabilité des organismes au sein de l’espèce, choisissaient certains caractères héréditaires remarquables, en réalisaient par des croisements judicieux des combinaisons particulières, puis sélectionnaient les animaux porteurs de ces combinaisons en éliminant les autres. De cette manière, à l’intérieur d’une même espèce, des races étaient créées. La diversité des chiens est là pour en témoigner. Darwin fit l’analogie entre les différences entre races entretenues par le sélectionneur à l’intérieur d’une espèce et les différences qui existent dans la nature entre espèces proches. Il conclut que celles-ci ne pouvaient exister dans la nature que s’il y avait l’équivalent d’une sélection en œuvre. Pour lui, cette sélection est le résultat des conditions du milieu qui, dans leur ensemble, agissent à chaque instant en introduisant une inégalité entre les organismes qui, suivant leurs caractéristiques, seront plus ou moins favorisés. La résultante de toutes ces conditions environnementales - climat, prédateurs, parasites.. - a été appelée "sélection naturelle", pour insister sur l’analogie entre le rôle du sélectionneur et le rôle de la nature. Mais l’analogie s’arrête très vite : si le sélectionneur agit suivant un plan défini en vue d’un but précis, la sélection naturelle ne joue que dans l’instant.

L’idée-clé de Darwin a un corollaire : la variation des caractères est indépendante de la sélection et donc la précède, étant donné qu’on ne peut sélectionner que des caractères qui existent déjà. Le rôle du sélectionneur est de réaliser des combinaisons de caractères qui, naturellement, ont une faible probabilité d’apparaître, puis d’augmenter leurs occurrences en éliminant les autres organismes : ce qui était globalement rare devient alors localement fréquent. De même, la sélection naturelle va favoriser les organismes portant telle combinaison de caractères, et par là-même deux populations d’une même espèce soumises à deux environnements différents subiront des sélections naturelles différentes. Ils pourront donc présenter, après de nombreuses générations, des différences notables résultat d’un tri réalisé à partir des caractères existant déjà dans l’espèce. La sélection naturelle n’a donc pas créé de nouveauté ; elle n’a fait que trier parmi l’existant.

Une telle vision soulève certaines questions fondamentales. Elles sont en fait de deux ordres. On peut tout d’abord se demander comment ces caractères héréditaires passent de génération en génération, et comment en apparaissent des variations. D’autre part, on peut se demander comment ces caractères héréditaires, qui sont transmis de génération en génération de manière invisible uniquement par les cellules sexuelles, se mettent en place lors de la construction de l’organisme, au cours de son développement. Ce seront les buts respectivement de la génétique et de l’embryologie.

L'ESSOR DE LA GENETIQUE DES POPULATIONS

On comprend maintenant pourquoi Darwin n’a pas reçu les travaux de Gregor Mendel (1822-1884) comme on aurait pu le penser : Mendel avait trouvé en 1866 les lois de transmission des gènes, mais pas leur variation. Mendel amenait en fait des arguments aux fixistes, car il expliquait la manière dont les caractères sont immuablement transmis de génération en génération. En 1900, lors de la "redécouverte des lois de Mendel", suivant l’expression consacrée, Erich von Tschermak (1871-1962), Carl Correns (1864-1933) et Hugo de Vries (1848-1935) - surtout ce dernier - expliquèrent d’une part les règles de transmission des caractères héréditaires, d’autre part leur variation, c’est-à-dire la mutation. La génétique naissante pouvait alors se marier aux idées darwiniennes. Il suffisait d’affecter aux caractères héréditaires des coefficients de sélection. Qui plus est, on pouvait mathématiser cette démarche. Ce fut l’essor de la génétique des populations, initiée indépendamment en 1908 par Godfrey Hardy (1877-1947) et Wilhem Weinberg (1862-1937) et reprise entre les années 1920 et 1930 par la célèbre triade Ronald A. Fisher (1890-1962), John B. S. Haldane (1892-1964) et Sewall Wright (1889-1988).

L’ensemble de ces données permirent plus ou moins de régler une controverse qui faisait rage depuis la fin du siècle précédent. Les protagonistes, Karl Pearson (1857-1936) et William Bateson (1861-1926) n’étaient pas d’accord sur la nature de la variation. Le premier, élève du biométricien Francis Galton (1822-1911) et aidé du biologiste Walter Weldon (1860-1906), soutenait la notion très darwinienne du gradualisme, c’est-à-dire d’une variation continue au cours du temps. Le deuxième versait vers le saltationnisme, c’est-à-dire que la variation se faisait de manière discontinue, par saut. Il est clair que le mutationnisme de de Vries donnait des arguments à Bateson, tandis que la génétique quantitative plaidait pour le gradualisme. Cette controverse, qui fut à certains moments extrêmement violente, s’estompa avec le temps. La vision gradualiste gagna du terrain, pour plus ou moins s’imposer après la deuxième guerre mondiale avec la théorie synthétique de l’évolution.

ETUDIER LE SUPPORT DES CARACTERES HEREDITAIRES

L’étude du support des caractères héréditaires était alors patiemment entreprise. Ce furent : la théorie chromosomique postulée par E. Sutton en 1902, confirmée par l’équipe de Thomas Morgan (1866-1945) entre 1910 et 1920 ; la mutagenèse provoquée, réalisée par Hermann Müller (1890-1967) en 1926 ; le rôle fondamental de l’ADN par Avery, McLeod et McCarthy en 1944, confirmée par Hershey et Chase en 1951 ; enfin, la fameuse double hélice de l'ADN par James D. Watson et Francis Crick en 1953. Parallèlement, la fonction du gène était décortiquée. Haldane postulait en 1932 qu’il devait jouer un rôle dans le métabolisme. Avec Beadle et Tatum, la relation un gène-une enzyme était établie en 1941. Luria et Delbrück démontraient en 1943 l’indépendance entre mutation et sélection. Enfin, ce fut en 1960 la découverte de l’ARN messager par François Jacob et Jacques Monod (1910-1976).

Pendant ce temps, l’embryologie se développait et amenait des résultats importants. Outre les travaux de Haeckel, August Weissmann (1834-1914) rejetait l'hérédité des caractères acquis en montrant que la lignée germinale - celle qui produit les cellules sexuelles - était indépendante de la lignée somatique, celle qui produit l’organisme sensu stricto. D’autre part, Hans Spemann (1869-1941) démontrait le mécanisme-clé de l’embryologie, l’induction. À cette époque, de grands généticiens comme William Bateson (1861-1926), Morgan, puis plus tard Conrad Waddington (1905-1975), étaient aussi des embryologistes. Pourtant, paradoxalement, on voit se développer une opposition importante entre embryologistes et généticiens. Les premiers reprochent à leurs collègues de ne s’intéresser qu’à des futilités - comme la couleur des yeux -, et de ne pas tenir compte du rôle du cytoplasme en embryologie. Les derniers reprochent aux embryologistes de ne s’intéresser qu’à des caractères complexes, dont on ne connaît pas le soubassement génétique. L’animosité atteindra son paroxysme quand les généticiens se tournèrent vers les bactéries et les virus, organismes dépourvus d’embryologie...

LA THEORIE SYNTHETIQUE DE L'EVOLUTION

Les retrouvailles - correspondant au rêve des Bateson et Morgan - se feront par la génétique du développement à partir de 1980. Mais ne nous y trompons pas : il fallait pour cela les techniques de biologie moléculaire et de la phylogénie moderne pour pouvoir interpréter les données. Pour cela, le détour par les bactéries paraissait - a posteriori il est vrai - inévitable.

Entre 1950 et 1960, par coïncidence, se retrouvèrent à Harvard trois biologistes célèbres : le généticien Theodosius Dobzhansky (1900-1975), le systématicien Ernst Mayr et le paléontologiste George G. Simpson (1902-1984). La confrontation de leurs idées amena une convergence importante vis-à-vis des théories de l’évolution, et donna ce que l’on appela la "théorie synthétique de l’évolution". On se retrouve peut-être dans une autre période-clé au cours de laquelle une nouvelle vision unitaire de l’évolution peut être tentée. En effet, il faut maintenant intégrer de nombreuses données récentes. La génétique nous renseigne sur les sources de nouveauté au niveau du génome. La biologie du développement renseigne sur l’établissement des plans d’organisation. Les techniques de reconstruction phylogénétique amènent une description plus fine de l’histoire du vivant, en particulier sur les variations des rythmes évolutifs, scandés par des décimations et des explosions diversificatrices. Tout ceci nous permet de mieux comprendre cette biodiversité dont la structuration n’est pas que spatiale, mais spatio-temporelle.


 DOCUMENT       cnrs        LIEN
 

 
 
 
 

Un mécanisme d’élimination des protéines localisées par erreur dans le noyau cellulaire

 

 

 

 

 

 

 

Un mécanisme d’élimination des protéines localisées par erreur dans le noyau cellulaire


COMMUNIQUÉ | 17 DÉC. 2014 - 19H00 | PAR INSERM (SALLE DE PRESSE)

BASES MOLÉCULAIRES ET STRUCTURALES DU VIVANT | BIOLOGIE CELLULAIRE, DÉVELOPPEMENT ET ÉVOLUTION



Une collaboration internationale coordonnée par le Centre allemand de recherche contre le cancer (Université d’Heidelberg), associant en France des chercheurs de l’Institut de Génétique et Développement de Rennes (CNRS/Université de Rennes 1) sous la direction de Gwenaël Rabut, chercheur à l’Inserm, ainsi que des équipes suédoise et canadienne vient de mettre en évidence un nouveau mécanisme moléculaire qui permettrait aux cellules de détruire les protéines localisées par erreur dans leur noyau. Ces travaux sont publiés dans la revue Nature.

Les processus biologiques sont loin d’être parfaits. Malgré des millions d’années de perfectionnement, les mécanismes moléculaires qui assurent le fonctionnement des êtres vivants font de nombreuses erreurs qui, si elles ne sont pas détectées et corrigées, peuvent avoir de graves conséquences. Par exemple, de nombreux cancers ont pour origine des erreurs de copie de notre matériel génétique. De même, un mauvais repliement de certaines protéines neuronales entraîne la formation d’agrégats toxiques qui perturbent le fonctionnent du système nerveux et provoquent des maladies neurodégénératives, comme Alzheimer ou Parkinson.
Pour éviter d’en arriver là, les cellules ont mis en place des mécanismes moléculaires complexes qui contrôlent la qualité des protéines et éliminent celles qui sont défectueuses. Ces mécanismes sont localisés et mis en œuvre principalement dans le cytoplasme (compartiment des cellules où les protéines sont synthétisées).
En travaillant sur plusieurs facteurs impliqués dans le contrôle de qualité des protéines, les chercheurs se sont aperçus que certains d’entre eux étaient également localisés dans le noyau des cellules (le compartiment qui renferme le matériel génétique) et qu’ils permettaient de dégrader des protéines anormalement présentes dans ce compartiment.

Lors de cette étude, les chercheurs de l’Institut de génétique et de développement de Rennes (dont Gwenaël Rabut, chercheur Inserm, coordinateur et responsable du projet à Rennes et Ewa Blaszczak, doctorante, co-première auteure de l’article) ont pu observer que ces facteurs impliqués dans le contrôle de qualité des protéines interagissaient entre eux au niveau du noyau et qu’ils entraînaient l’ubiquitylation (l’étape précédant la dégradation) d’une protéine localisée par erreur dans le noyau.

En utilisant une méthode d’observation basée sur un décalage de fluorescence des protéines d’intérêt développée à l’Université d’Heidelberg, les chercheurs ont pu identifier une vingtaine de protéines dont la dégradation dépendait des facteurs de contrôle de la qualité localisés dans le noyau. Comme plusieurs de ces protéines sont normalement localisées dans le cytoplasme, et qu’elles s’accumulent au niveau du noyau lorsqu’elles ne sont plus dégradées, les chercheurs proposent que ce système de contrôle de qualité serve à éliminer non seulement des protéines défectueuses, mais aussi les protéines localisées par erreur dans le noyau.
Ces découvertes ont été réalisées en utilisant un organisme modèle, la levure de boulanger, mais il est vraisemblable que des mécanismes similaires existent également chez l’homme.

 

 DOCUMENT      inserm     LIEN 

 
 
 
 

Quand la nanoscopie déchiffre l'organisation moléculaire des neurones

 

 

 

 

 

 

 

Quand la nanoscopie déchiffre l'organisation moléculaire des neurones

Afin de traiter et transmettre l'information au sein de réseaux, les neurones présentent une organisation polarisée qui dépend d'assemblages moléculaires formant des compartiments distincts au sein de la cellule. La microscopie optique de super-résolution ou “nanoscopie” permet d'observer directement ces assemblages à l'échelle nanométrique pour élucider leur fonction. Une équipe du Centre de recherche en neurobiologie et neurophysiologie de Marseille a utilisé la nanoscopie pour déterminer l'architecture moléculaire du segment initial de l'axone, un compartiment clé pour l'organisation et la communication des neurones. Ces travaux, publiés dans la revue Cell Reports, apportent des informations d'une précision inégalée sur l'organisation neuronale. Ils ouvrent la voie à une meilleure compréhension des phénomènes de polarité et de transport cellulaires qui sont profondément affectés dans les maladies neurodégénératives comme la maladie d'Alzheimer.


Les capacités du cerveau à stocker et traiter l'information reposent sur l'organisation en réseaux des milliards de neurones qui le constituent. Afin de former ces réseaux, les neurones doivent s'organiser de manière polarisée, avec une arborisation complexe composée de dendrites qui reçoivent l'information et d'un axone qui envoie les messages sous forme de potentiels d'action. L'un des grands sujets de recherche de la biologie cellulaire du neurone est de comprendre comment les neurones parviennent à établir et à maintenir cette organisation complexe par une myriade de mécanismes de transport et d'assemblage cellulaires. A l'entrée de l'axone, un compartiment clé permet de le séparer du reste du neurone et de générer les potentiels d'action : c'est le segment initial de l'axone (SIA). Il est constitué d'un assemblage unique de protéines d'échafaudage et de canaux ioniques, mais leur arrangement macromoléculaire était jusqu'à aujourd'hui énigmatique. Connaitre cet arrangement permettrait de comprendre comment le SIA peut gérer l'entrée des protéines dans l'axone, une étape importante pour le maintien de l'organisation neuronale.
Pour déterminer l'arrangement des protéines du SIA, les membres de l'équipe “Architecture des Domaines Axonaux” ont utilisé la microscopie optique de super-résolution (nanoscopie). Cette méthode, couronnée par le prix Nobel de Chimie 2014, permet de visualiser les assemblages protéiques au sein des cellules avec une résolution de l'ordre de 20 nanomètres, dix fois meilleure que la microscopie classique, Grâce à un partenariat avec Nikon Instruments, les chercheurs ont exploité cette technique pour cartographier les composants du SIA et leur arrangement à l'échelle moléculaire. La précision de la nanoscopie, couplée à l'utilisation de plusieurs anticorps contre différentes parties de protéines du SIA, a permis de déterminer la position et l'orientation de ces protéines. Les  chercheurs ont confirmé que le complexe d'actine et de spectrine sous la surface du SIA est organisé de manière périodique, avec des paires de spectrines reliant des anneaux d'actine espacés de 190 nanomètres. Ils ont ensuite révélé que l'ankyrine G, la protéine d'échafaudage qui retient les canaux ioniques au SIA, a une extrémité insérée dans ce complexe périodique, tandis que l'autre dépasse vers l'intérieur de la cellule, avec une extension moyenne de 30 nanomètres.

Une fois cette cartographie moléculaire obtenue, ils ont testé la robustesse de cet assemblage en perturbant le cytosquelette neuronal ainsi que la signalisation intracellulaire. Ils ont démontré que le SIA est non seulement hautement organisé à l'échelle nanoscopique, mais que cette organisation est particulièrement résistante. Ces résultats suggèrent que l'organisation du SIA est importante pour maintenir et réguler le transport vers l'axone, permettant d'entretenir et de modifier l'arborisation axonale. Une meilleure compréhension de ce transport vers l'axone permettra d’appréhender comment et pourquoi il est profondément altéré dans les phases précoces des maladies neurodégénératives comme la maladie d'Alzheimer.
 

Figure : Image par nanoscopie d'un SIA marqué pour la ßIV-spectrine (en haut à gauche). L'organisation en bandes périodiques est clairement visible, contrairement à l'image de microscopie d'épifluorescence classique (encart) dont la résolution est trop limitée pour distinguer ces bandes. La nanoscopie peut être réalisée en 3D et en 2 couleurs (en bas à gauche), permettant de visualiser des coupes transverses du SIA, par exemple les microtubules à l'intérieur (en vert) entourés par la ßIV-spectrine sous-membranaire (en rose). A droite, schéma en zooms successifs montrant la localisation et l'organisation du SIA à l'échelle moléculaire, avec le complexe sous-membranaire périodique (190 nm) et l'extension de l'ankyrine G (32 nm).

© Christophe Leterrier
 

En savoir plus
* Nanoscale architecture of the axon initial segment reveals an organized and robust scaffold. 
Christophe Leterrier, Jean Potier, Ghislaine Caillol, Claire Debarnot, Fanny Rueda Boroni, Bénédicte Dargent. 
Cell Reports (2015), http://dx.doi.org/10.1016/j.celrep.2015.11.051





 Contact chercheur
* Christophe Leterrier 
Centre de recherche en neurobiologie 
et neurophysiologie de Marseille 
CNRS UMR7286, Aix Marseille Université 
Faculté de Médecine Secteur Nord
Boulevard Pierre Dramard 
13344 MARSEILLE CEDEX 15 


Tel: 04 91 69 89 30

 

 DOCUMENT       cnrs        LIEN
 

 
 
 
 

NEURO-MODELAGE DES SOUVENIRS

 

 

 

 

 

 

 

Neuro-modelage des souvenirs
Serge Laroche dans mensuel 344
daté juillet-août 2001 -

Comment les neurones parviennent-ils à enregistrer nos souvenirs de façon durable ? Les controverses sont vives. Néanmoins, le puzzle se constitue peu à peu autour d'une pièce centrale : la plasticité du cerveau. Variation de l'activité de certaines synapses, croissance de nouvelles d'entre elles, et peut-être même formation de nouveaux neurones semblent impliquées dans la formation de traces mnésiques au niveau cellulaire.
Plusieurs centaines de milliards de neurones, chacun relié directement à dix ou vingt mille autres neurones par des connexions appelées synapses : voilà la formidable machine de plus d'un million de milliards de connexions qui nous permet de percevoir, de construire nos souvenirs, mais aussi de savoir, de croire, de décider et d'agir.
La clé de ses capacités réside en une propriété étonnante : celle de pouvoir remodeler, reconfigurer ses propres circuits. A cette aune, qu'est-ce que la mémoire ? Le modèle général considère qu'à chaque souvenir correspondrait une configuration unique d'activité dans de vastes réseaux neuronaux. Or, on sait depuis longtemps que cette activité est, par nature, évanescente. Elle ne peut donc constituer une trace stable à long terme, compatible avec la quasi-permanence des souvenirs. Alors, comment ceux-ci s'inscrivent-ils ? Quelle est leur trace matérielle ?
L'idée d'une reconfiguration des circuits neuronaux naît en 1894, lorsque le neuroanatomiste Santiago Ramón y Cajal propose, au cours d'une conférence à la Royal Society de Londres, une hypothèse révolutionnaire : l'apprentissage faciliterait l'expansion et la croissance de protubérances - elles allaient bientôt s'appeler les synapses - qui connectent les neurones entre eux. Cette première formulation du concept de plasticité neuronale est, à l'époque, d'autant plus frappante que les études anatomiques du cerveau et de son développement révèlent la précision et la stabilité des assemblages neuronaux. Sans arguments expérimentaux directs, les positions théoriques s'affrontent entre les tenants de l'hypothèse de la plasticité et ceux qui, comme Lorente de Nó, un élève de Cajal, et Deslisle Burns, prônent une conception plus dynamique impliquant la circulation en boucle de l'activité neuronale dans des chaînes de neurones. En 1949, le psychologue canadien Donald Hebb énonce une hypothèse forte, qui permet de concilier les deux points de vue. Hebb propose que l'activité électrique que l'on observe dans des assemblées de neurones lors d'un apprentissage persiste pendant un certain temps, comme pour frayer un chemin, et que cela entraîne des modifications cellulaires ou biochimiques des neurones activés, de sorte que la force synaptique entre eux augmente. Un demi-siècle après la publication de l'ouvrage de Hebb, le postulat selon lequel l'activité simultanée de neurones connectés modifie les connexions synaptiques entre ces neurones est devenu la pierre angulaire de notre compréhension des bases cellulaires de la mémoire.
Mais un postulat n'a pas force de théorème. Comment prouver la réalité de cette plasticité ? Un premier argument en sa faveur est venu de l'étude de formes simples d'apprentissage en l'occurrence, du conditionnement chez un mollusque marin, l'aplysie. En 1970, Eric Kandel et ses collaborateurs mettent en évidence des changements fonctionnels des synapses de l'aplysie, corrélativement à cet apprentissage1. Ces résultats ne devaient trouver leur pendant chez les mammifères qu'en 1973. Timothy Bliss et Terje Lømo démontrent alors, en travaillant sur des lapins, l'extraordinaire capacité de plasticité des synapses de l'hippocampe - structure qui joue un rôle fondamental dans de nombreux types de mémoire voir l'article de Bruno Poucet dans ce numéro. Cette plasticité est désormais connue sous le nom de potentialisation à long terme, ou LTP2. Dans leur découverte initiale, les auteurs montrent qu'une brève stimulation à haute fréquence d'une voie neuronale envoyant des informations sensorielles du cortex à l'hippocampe, induit une augmentation importante et durable de l'efficacité de la transmission synaptique : les neurones cibles de l'hippocampe acquièrent une plus grande sensibilité à toute stimulation ultérieure. Le plus remarquable dans cette forme de plasticité, induite en quelques dizaines de millisecondes, est sa persistance : les synapses restent modifiées pour des semaines, voire des mois. Cette découverte suscita un enthousiasme considérable dans la communauté scientifique. Avait-on là le mécanisme du stockage de l'information dans le cerveau, que l'on cherchait depuis l'énoncé de la théorie de Hebb ? En étudiant les mécanismes de la LTP au niveau cellulaire, allait-on découvrir les mécanismes de la mémoire ? Cela semblait plausible à de nombreux chercheurs. Dès lors, un très grand nombre d'équipes ont orienté leurs travaux vers l'étude de ce modèle de plasticité.

Mécanismes de plasticité. Un premier courant, de loin le plus important en efforts de recherche, se penchait sur les mécanismes de la LTP au niveau cellulaire et moléculaire3. Les synapses concernées par le phénomène de plasticité utilisent le glutamate comme neuromédiateur. On en trouve dans l'hippocampe, bien sûr, mais aussi dans la plupart des structures corticales et sous-corticales du cerveau. Pour que ces synapses puissent être modifiées, il est impératif qu'elles soient d'abord activées, soit, en d'autres termes, que l'influx nerveux qui arrive au niveau du neurone présynaptique se propage au neurone post-synaptique. C'est le récepteur AMPA du glutamate qui permet la propagation de cet influx nerveux fig. 1. Si le neurone post-synaptique est suffisamment activé, un second récepteur jusqu'alors inactif, le récepteur NMDA, subit une modification qui fait que sa stimulation par le glutamate entraîne l'entrée de calcium dans la cellule. En découle l'activation de nombreuses protéines, en particulier des kinases* dont la calmoduline-kinase II CaMK II et les MAP kinases. Au moins deux types de mécanismes sont alors déclenchés : la phosphorylation* des récepteurs du glutamate tant NMDA que AMPA, et l'activation de la machinerie génique. Ainsi qu'on peut le voir en microscopie électronique, ces modifications aboutissent à un profond remodelage des circuits neuronaux : changement de la forme et de la taille des synapses, insertion de récepteurs du glutamate et transformation de synapses silencieuses en synapses actives, et croissance de nouvelles synapses.
Comment mettre à jour l'hypothétique lien entre plasticité synaptique et processus d'apprentissage et de mémorisation ? Le chemin était difficile, et l'histoire, encore jeune, de ces recherches est jalonnée de constantes fluctuations entre le rejet et l'acceptation de l'hypothèse. Toutefois, les connaissances sur les mécanismes moléculaires de la mémoire ont progressé ces dix dernières années à un rythme étonnant, et de plus en plus de résultats montrent que ces mécanismes de plasticité sont un élément déterminant du stockage des souvenirs.
Dans les années 1980, plusieurs laboratoires ont étudié des formes simples d'apprentissage associatif chez le rat, comme l'association d'un son avec un léger choc électrique. Après une certaine période de conditionnement, l'animal réagit au son seul comme il réagissait au choc électrique. Parallèlement, les neurones de nombreuses structures, y compris l'hippocampe, présentent une augmentation importante et sélective de leur fréquence de décharge. De plus, l'efficacité de la transmission synaptique dans les circuits de l'hippocampe augmente parallèlement aux progrès de l'apprentissage. Mais ces données n'ont qu'une valeur de corrélation, et ne sont pas la preuve d'une relation de cause à effet. Sans compter que les variations d'efficacité synaptique pen-dant l'apprentissage sont techniquement difficiles à mettre en évidence, car la transmission synaptique moyenne sur une large population de neurones reste relativement constante. De fait, des données suggèrent que le renforcement de certaines populations de synapses s'accompagne de l'affaiblissement d'autres. Ceci n'est pas si surprenant : comment concevoir que l'efficacité de très nombreuses synapses augmente chaque fois que l'on apprend ? Un tel système serait probablement très vite saturé. La dépression à long terme LTD, un mécanisme de plasticité inverse de la LTP que l'on peut observer dans certaines conditions d'activation synaptique, interviendrait-elle à ce niveau en évitant la saturation du système d'encodage et en augmentant le contraste entre synapses potentialisées et déprimées ? Ou jouerait-elle un rôle dans l'oubli comme le prédisent certains modèles théoriques ? Si des modifications synaptiques de type LTP ou LTD ont pu être observées dans différentes structures du cerveau en fonction de l'information à mémoriser, une analyse précise nécessitera le développement de nouvelles méthodes électro-physiologiques permettant d'isoler de petites populations de synapses.
La pharmacologie et la génétique ont apporté des réponses là où l'électrophysiologie se heurtait à ses limites. Le blocage de la LTP, obtenu en faisant appel à des techniques relevant de l'un ou l'autre de ces deux domaines, modifie-t-il les capacités d'apprentissage d'un animal ? A la fin des années 1980, le groupe de Richard Morris à Edimbourg montre que l'administration à des rats d'un antagoniste* des récepteurs NMDA, qui bloque la plasticité des synapses sans perturber la transmission des messages neuronaux assurée par le récepteur AMPA, rend ces animaux incapables d'apprendre une tâche de navigation spatiale. A mesure que les doses d'antagoniste augmentent, la plasticité synaptique diminue, et les déficits mnésiques se renforcent4. De notre côté, nous constations qu'en présence d'un antagoniste des récepteurs NMDA les neurones de l'hippocampe ne modifient plus leur activité pendant un apprentissage associatif, suggérant que ces mécanismes de plasticité sont nécessaires à la construction d'une représentation neuronale de l'information à mémoriser. Et, alors que l'équipe de Bruce McNaughton à Tucson montrait que la saturation de la LTP dans l'hippocampe par de multiples stimulations électriques perturbait l'apprentissage spatial, l'enthousiasme pour considérer que la LTP représentait un modèle des mécanismes de l'apprentissage grandissait. Mais le scepticisme quant au rôle de la LTP dans la mémoire s'installa de nouveau lorsque plusieurs équipes ne purent reproduire ce résultat. Il a fallu plusieurs années pour inverser la tendance et montrer que l'on observe un réel déficit mnésique pour peu que l'on s'approche autant que possible de la saturation maximale de la LTP, saturation qui empêche les synapses d'être modifiées pendant l'apprentissage.
Une autre approche déterminante a consisté à d'abord rechercher les mécanismes biochimiques et moléculaires de la mémoire, puis à voir s'ils étaient similaires à ceux de la plasticité. Les premières études que nous avons réalisées avec Tim Bliss au milieu des années 1980 ont ainsi mis en évidence une augmentation de la capacité de libération synaptique du glutamate dans différentes régions de l'hippocampe après un apprentissage associatif, par des mécanismes neurochimiques identiques à ceux de la LTP. Ces résultats ont été confirmés lors de la réalisation d'autres tâches d'apprentissage, comme l'apprentissage spatial. Nombre d'autres études ont montré que la phosphorylation de différentes kinases ou l'augmentation de la sensibilité des récepteurs du glutamate - ainsi que d'autres mécanismes cellulaires impliqués dans la LTP - sont activées lorsqu'un animal apprend5. Et inversement le blocage de ces événements biochimiques perturbe invariablement l'apprentissage.

Apports très récents. Plus récemment, les techniques de modification génique chez la souris ont permis d'apporter des réponses encore plus démonstratives. D'un grand nombre d'études il ressort que l'inactivation génétique de molécules importantes pour la plasticité perturbe corrélativement l'apprentissage. Des souris chez lesquelles les neurones de certaines zones de l'hippocampe n'expriment pas le récepteur NMDA se sont révélées particulièrement riches en enseignements. Chez ces souris, la LTP est abolie dans la région hippocampique concernée, la stabilité des cellules de lieu est altérée voir l'article de Bruno Poucet dans ce numéro et les animaux présentent corrélativement des déficits importants de mémoire spatiale6. Inversement, en augmentant, chez d'autres souris, l'expression d'un gène qui code une protéine du récepteur NMDA, l'équipe de Joe Tsien à Princeton a observé de nettes améliorations des performances mnésiques dans de nombreuses tâches d'apprentissage7. Au vu de ces résultats, il semble indéniable que le récepteur NMDA est un acteur clé de la mémoire. Mais, de façon surprenante, les déficits mnésiques observés chez les souris dépourvues de récepteur NMDA peuvent être compensés par une période d'élevage dans un environnement riche en stimulations sensorielles8 voir l'article de Claire Rampon. S'agit-il de la compensation de mécanismes moléculaires défectueux par d'autres ? La fonction déficiente est-elle prise en charge par d'autres circuits ? Il est encore trop tôt pour le dire, mais ce type de données montre qu'on ne saurait restreindre les capacités mnésiques d'un animal à la présence du récepteur NMDA dans telle zone du cerveau.
L'idée que la mémorisation repose sur des modifications synaptiques implique que ces modifications soient stabilisées et consolidées. Comment peuvent-elles perdurer en résistant au renouvellement des molécules de la cellule ? On a constaté que l'administration d'inhibiteurs de la synthèse protéique pendant l'apprentissage perturbe la mémoire à long terme sans altérer la mémoire à court terme. Il semble donc que ces deux types de mémoires reposent sur des mécanismes biologiques distincts - la mémoire à long terme requérant la synthèse de protéines. On observe du reste une dichotomie analogue dans la plasticité synaptique, dont seule la phase durable nécessite l'apport de nouvelles protéines. Déduction logique : les mécanismes de plasticité neuronale et de consolidation mnésique impliquent très probablement des régulations de gènes. C'est au début des années 1990 que les premières évidences en la matière ont été mises à jour : l'induction de la LTP dans l'hippocampe conduit à l'activation de gènes dans le noyau des neurones activés. Ces régulations transcriptionnelles commencent par l'activation rapide en quelques dizaines de minutes et transitoire jusqu'à quelques heures d'une classe de gènes appelés « gènes précoces ». Certains d'entre eux codent des protéines qui agissent directement au niveau de la synapse. Mais une fraction importante, dont fait partie le gène zif268 , code des facteurs de transcription nucléaires modifiant l'expression d'autres gènes appelés, eux, effecteurs tardifs5,9. La réponse transcriptionnelle globale se traduit, sur plusieurs jours, par des vagues successives d'expression de différents gènes. Par exemple, l'expression des kinases est augmentée dans une fenêtre temporelle de quelques heures à un jour, alors que les récepteurs du glutamate sont, quant à eux, surexprimés entre 2 et 4 jours après l'induction de la LTP.

Commutateur moléculaire. Ce sont les kinases activées par l'entrée de calcium induite par la stimulation du récepteur NMDA, et en particulier les MAP kinases, qui sont à l'origine de l'expression des gènes précoces. Une fois phosphorylées, ces kinases activent des facteurs de transcription tels que CREB, qui se fixent sur des sites spécifiques de promoteurs de gènes dans le noyau et modifient leur expression10. Plusieurs études montrent que ces mécanismes jouent un rôle important dans la mémoire : les MAP kinases sont rapidement phosphorylées lors de l'apprentissage et le blocage de leur phosphorylation pendant l'acquisition perturbe l'apprentissage. L'activation des gènes précoces serait, quant à elle, l'étape cruciale permettant le déroulement complet du programme cellulaire de transcription génique qui entraîne une modification durable de la connectivité neuronale. Les groupes d'Alcino Silva et d'Eric Kandel ont, par exemple, montré que l'inactivation génétique de CREB chez des souris mutantes conduit à un déclin rapide de la LTP hippocampique et à des déficits de mémoire dans de nombreuses tâches11,12. En collaboration avec Tim Bliss, nous avons montré que, chez des souris mutantes chez lesquelles le gène zif268 est invalidé, les neurones de l'hippocampe conservent leurs propriétés de plasticité, mais à court terme seulement. Corrélativement, seule la mémoire à court terme des souris mutantes est intacte : elles sont incapables de retenir une information au-delà de quelques heures dans des tâches de mémorisation de l'espace, de reconnaissance d'objets familiers ou des tests de mémoire olfactive ou gustative. Ainsi, les gènes précoces tels que zif268 joueraient-ils le rôle de commutateurs moléculaires permettant d'enclencher les changements synaptiques durables nécessaires à la formation de souvenirs à long terme13.

Nouveaux neurones. Le fait que les activations de gènes, et donc la synthèse de protéines, soient d'une telle importance lors de la LTP et de l'apprentissage a soulevé un autre problème : comment les nouvelles protéines synthétisées pouvaient-elles être dirigées vers les synapses activées, et seulement elles, sans être distribuées à toutes les synapses d'un neurone ? La question paraissait si difficile qu'on était amené à penser que la plasticité ne serait peut-être qu'un mécanisme non spécifique de facilitation globale de circuits. Mais, en 1997, Uwe Frey et Richard Morris démontrent par élimination de différentes hypothèses que le seul mécanisme possible est le marquage des synapses activées, marquage qui différencierait ces synapses des synapses non activées, et leur permettrait de « capter » les protéines nouvellement synthétisées14. La nature de ce marqueur est, pour l'heure, inconnue. La découverte d'ARN messagers et de ribosomes dans les dendrites, alors qu'on les pensait cantonnés au corps cellulaire du neurone, a, elle aussi, révolutionné l'approche du mécanisme de modification des synapses. Certains ARN messagers, comme celui qui code la kinase CaMKII, ont une expression dendritique qui augmente fortement dans la demi-heure qui suit l'induction de la plasticité et l'apprentissage. Il semble que ces ARNm migrent le long des dendrites, et soient capturés par les ribosomes qui se trouvent à proximité immédiate des synapses activées - mais pas par ceux qui se trouvent à proximité des synapses inactives fig. 2. Il n'est donc pas impossible que la synthèse locale de protéines soit un mécanisme important assurant la spécificité de la plasticité synaptique et du frayage neuronal.
Qui dit souvenirs à long terme, dit stabilisation de tout un relais synaptique. La plasticité se propage-t-elle dans des réseaux de neurones interconnectés ? On relève, là encore, l'importance des régulations de gènes. Prenons l'exemple du gène de la syntaxine, une protéine qui intervient dans la libération du neuromédiateur. Nous savions déjà que, après l'induction de la LTP, son expression augmente pendant plusieurs heures dans les neurones postsynaptiques d'une zone de l'hippocampe appelée gyrus denté. Une fois synthétisée, la protéine migre vers l'extrémité axonale de ces neurones, extrémité qui se trouve dans une autre zone de l'hippocampe, la zone CA3. Là, elle favorise la libération synaptique de glutamate, donc l'activation d'autres neurones, et l'induction d'une LTP à leur niveau. Il apparaît que la régulation de l'expression de la syntaxine intervient également lors d'un apprentissage. Lors d'une tâche de mémoire spatiale, son expression augmente non seulement dans les neurones de l'hippocampe, mais aussi dans des régions du cortex préfrontal15, ce qui suggère le frayage de réseaux neuronaux, en partie par son intermédiaire, lors de la mémorisation.

Comme on l'a vu, les recherches actuelles montrent que les expériences sensorielles laissent des traces dans le cerveau en modifiant l'efficacité des synapses entre neurones et en créant de nouvelles synapses. Et si de nouveaux neurones se créaient aussi ? Impossible, aurait-on dit, il y a encore peu de temps. Nous perdons des neurones en permanence parce que les neurones qui meurent continuellement dans le cerveau adulte ne sont pas remplacés, ce qui est probablement l'une des causes majeures de nombreux désordres neurologiques. Pourtant, des travaux de Joseph Altman à la fin des années 1960 suggéraient que de nouveaux neurones étaient générés dans le gyrus denté de l'hippocampe pendant la vie postnatale et chez le jeune adulte. D'autres travaux montraient aussi une neurogenèse dans certaines régions cérébrales impliquées dans la mémoire des chants chez les canaris. Ces recherches sont longtemps restées dans l'ombre car elles semblaient n'être que des exceptions face au dogme prévalent. Mais, en 1998, Elizabeth Gould et son équipe démontrent qu'une neurogenèse se produit dans le gyrus denté chez le singe adulte et, la même année, Freg Gage au Salk Institute en Californie et ses collègues suédois de l'université de Göteborg observent le même phénomène chez l'homme en étudiant les cerveaux de patients âgés de 57 à 72 ans16I. Ces nouveaux neurones sont produits à partir d'une population de cellules progénitrices qui migrent dans le gyrus denté et se différencient en neurones. D'autres études ont montré que cette neurogenèse chez l'adulte se produit aussi dans des régions corticales. Quel pourrait être le rôle fonctionnel de ce nouveau type de plasticité ? S'agit-il d'un mécanisme de remplacement compensant partiellement les pertes neuronales ou a-t-il un rôle spécifique dans certaines fonctions cognitives ? En ce qui concerne l'apprentissage, deux études viennent de montrer, d'une part, qu'il augmente la survie des nouveaux neurones formés dans le gyrus denté17 et, d'autre part, qu'il est perturbé lorsque l'on empêche la neurogenèse chez le rat adulte18 fig. 3. Peut-on en conclure qu'apprendre, c'est aussi former de nouveaux neurones et que ces nouveaux neurones sont impliqués dans le codage de l'information qui vient d'être apprise ? Peut-on imaginer faciliter ces mécanismes de neurogenèse pour tenter de compenser les déficits mnésiques associés à certaines maladies neurodégénératives ? Il est encore beaucoup trop tôt pour le dire.

Ouverture. De tous ces résultats fondamentaux, commencent à émerger, çà et là, des embryons d'explications quant aux mécanismes cellulaires de certaines pathologies de la mémoire, comme le syndrome de l'X fragile la plus commune des formes héréditaires de retard mental ou la maladie d'Alzheimer. Par exemple, chez des souris qui surexpriment la protéine APP* et présentent des signes neuropathologiques de la maladie d'Alzheimer, on observe, associée aux déficits mnésiques, une altération de la plasticité synaptique dans l'hippocampe19. Si les connaissances qui s'accumulent sur la plasticité synaptique constituent l'une des pierres de ce qui sera, un jour, une réelle théorie de la mémoire, elles pourraient donc aussi, à échéance peut-être plus courte, favoriser l'émergence de nouvelles pistes thérapeutiques pour compenser certains dysfonctionnements de la mémoire.

1 V. Castellucci et al., Science, 167 , 1745, 1970.
2 T.V.P. Bliss et T. Lømo, J. Physiol. Lond., 232 , 331, 1973.
3 T.V.P. Bliss et G.L. Collingridge, Nature, 361 , 31, 1993.
4 S. Davis et al., J. Neurosci., 12 , 21, 1992.
5 S. Davis et S. Laroche, C.R. Acad. Sci. Paris, 321 , 97, 1998.
6 T.J. McHugh et al ., Cell, 87 , 1339, 1996.
7 Y.P. Tang et al., Nature, 401 , 63, 1999.
8 C. Rampon et al., Nature Neurosci., 3 , 238, 2000.
9 K.L. Thomas et al., Neuron., 13 , 737, 1994.
10 S. Davis et al., J. Neurosci., 20 , 4563, 2000.
11 R. Bourtchuladze et al., Cell, 79 , 59, 1994.
12 M. Mayford et E.R. Kandel, Trends in Genetics, 15 , 463, 1999.
13 M.W. Jones et al., Nature Neurosci., 4 , 289, 2001.
14 U. Frey et R.G.M. Morris, Nature, 385 , 533, 1997.
15 S. Davis et al., Learning & Memory, 5 , 375, 1998.
16 P.S. Eriksson et al ., Nature Med., 11 , 1313, 1998.
17 E. Gould et al ., Nature Neurosci., 2 , 260, 1999.
18 T.J. Shors et al ., Nature, 410 , 372, 2001.
19 P.F. Chapman et al ., Nature Neurosci., 2 , 271, 1999.

NOTES
*Protéines-kinases
Enzymes qui catalysent une réaction de phosphorylation durant laquelle un groupement phosphate est fixé sur une protéine donnée.
*Antagoniste
Molécule capable de se lier spécifiquement à un récepteur donné sans produire d'effet physiologique.
*APP Protéine précurseur du peptide amyloïde qui est anormalement secrété dans la maladie d'Alzheimer et forme après agrégation la composante principale des plaques séniles observées chez les patients atteints de cette maladie.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon