ecole de musique piano
     
menu
 
 
 
 
 
 

UN HUMANISME EST-IL ENCORE POSSIBLE ? - RÉMI BRAGUE

 

 

 

 

 

 

 

Texte de la 685e conférence de l’Université de tous les savoirs donnée le 18 octobre 2008

Rémi Brague : « Un humanisme est-il encore possible ? »

Je viens en avant-dernier dans cette série de conférences. Mon titre se présente sous la forme d’une question. Cela laisse entendre que la réponse ne va pas de soi, et en particulier, qu’elle pourrait être négative. Mais vous pouvez vous rassurer : le dernier exposé, prévu pour demain, s’intitulera « Quel nouvel humanisme aujourd'hui ? » Cela suppose que, oui, un humanisme est possible. Ouf ! Moi qui suis moins confiant, je puis me permettre de vous faire un peu peur ce soir. Vous risquez tout au plus l’alternative de Schopenhauer : passer d’une soirée d’ennui à une nuit d’angoisse.

Mon titre ne parle pas de l’humanisme comme de quelque chose qui formerait un seul bloc. J’y emploie l’article indéfini, et laisse entendre par là qu’il existe plusieurs sortes d’humanismes. Parmi ceux-ci, il se peut que certains soient encore possibles, et d’autres non. Il importe donc de distinguer.

I. Deux sens de « humanisme »

Pour ce faire, je prendrai comme fil conducteur l’usage des mots. « Humanisme » s’emploie maintenant en deux sens.

A) Une catégorie historiographique

« Humanisme » peut désigner une catégorie historiographique, forgée pour nommer un mouvement que l’on peut dater et localiser, celui de la redécouverte de l’Antiquité classique à la Renaissance.

Il peut également désigner une attitude globale, une façon de voir l’ensemble de la réalité. On entend alors par « humanisme », en très gros, une certaine valorisation de l’humain. Cet humanisme-là n’est pas limité à une époque ou à une civilisation.

Ces deux usages sont relativement récents. Ils ne remontent pas plus haut que le XIXe siècle. Le substantif « humanisme » apparaît pour la première fois, en ces deux sens, respectivement, comme vision du monde, dans les années 40 du XIXe siècle, puis, comme catégorie historiographique, à la fin des années 50 de celui-ci .

L’adjectif « humaniste » était né bien avant, dans le contexte des institutions d’enseignement de la fin du XVe siècle. Il y désignait un métier, celui de professeur de lettres classiques. Le suffixe « -iste » a dans ce cas le même sens tout à fait humble que dans « dentiste » ou « trompettiste ». Le mot en vint ensuite à désigner quiconque s’occupait de ce champ du savoir, qu’il ait ou non pour métier de l’enseigner .

Un tel champ du savoir est ce que la tradition, depuis Cicéron, appelle litterae humaniores. Nous dirions plus volontiers les « belles lettres ». Cependant, il n’est pas sans importance que les lettres soient qualifiées d’« humaines », d’une façon qui peut passer à première vue pour une redondance, car enfin, il n’existe de lettres qu’humaines, il n’y a pas de lettres félines ou canines… Il n’est pas indifférent non plus que l’adjectif « humain » soit au comparatif, qu’il s’agisse donc, littéralement, des lettres « plus humaines ». J’y reviendrai.

En revanche, donc, le substantif « humanisme » est beaucoup plus tardif. Le suffixe « -isme » n’indique pas dans ce dernier cas un mode de vie, encore moins un gagne-pain, mais une valorisation et le choix d’un point de vue à partir duquel tout est censé recevoir sens et valeur.

B) Deux concepts

Les données de la lexicographie ne nous renseignent que sur le mot. Je m’en inspirerai librement pour distinguer deux dérivations de l’humanisme aboutissant à deux concepts. Le premier vient de l’adjectif humanus. Il désigne une propriété d’un certain vivant, l’homme en l’occurrence. Cette propriété est essentielle. Pourtant, elle est paradoxalement ressentie comme constamment menacée. C’est ce que suggère la forme comparative humanior: cette propriété est susceptible de plus et de moins.

Le second vient directement du substantif homo. Il implique que l’humanité de l’homme est une donnée paisiblement possédée et qui ne requiert donc pas d’être thématisée. En revanche, cette humanité qui est un point de départ doit être revendiquée et affirmée contre tout ce qui n’est pas elle.

On peut de la sorte esquisser une typologie des humanismes qui les verrait tendus entre deux pôles, l’espace intermédiaire étant occupé par tout un dégradé de nuances.

Le premier pôle de l’idée d’humanisme invite à un travail sur soi pour se rendre plus humain. Ce travail peut s’aider de la fréquentation des « bons auteurs », dits « classiques », avant tout ceux de l’Antiquité grecque et romaine. Leur étude n’est pas strictement indispensable, mais l’histoire de la culture européenne montre dans les faits qu’elle a joué un rôle capital dans la formation des élites du continent.

Le second pôle prend l’homme comme point de départ et en affirme la centralité, voire la souveraineté, par rapport à tout ce qui n’est pas lui, qu’il s’agisse de Dieu, de la nature, ou de quoi que ce soit d’autre. L’homme doit être l’unique origine de l’homme. On parle parfois, pour désigner cette seconde acception, d’un humanisme exclusif. L’expression d’humanisme athée ne recouvre qu’une partie du projet. Dieu n’est qu’un des aspects de l’extra-humain, une des références qu’il s’agit d’exclure.

Les deux humanismes ont en commun l’idée selon lequel être homme n’est pas un simple fait, mais une valeur à acquérir. La nuance qui les sépare est le point d’application du travail qui permet de franchir la distance entre le point de départ et le but recherché. S’agit-il d’un travail sur soi ; ou bien d’une conquête de la nature ? S’agit-il d’une réduction de ce qui, à l’intérieur même de l’homme, n’est pas encore pleinement humain ; ou bien d’une élimination théorique et/ou pratique de tout ce qui est autre que l’homme ?

II. L’humanisme comme vision du monde

C’est le second projet qu’implique et résume la seconde acception, qui, dans l’ordre chronologique, est la première apparue. Elle apparaît au XIXe siècle. Il est difficile de déterminer très exactement quand, mais il semble que ce soit vers le tournant des années 30 et 40. C’est sans doute le jeune-hégélien allemand Arnold Ruge qui l’a employé pour la première fois au sens d’une revendication d’auto-suffisance, fin août 1840 .

A) Dignité de l’homme

Bien avant que l’on ne parle explicitement d’humanisme, apparaît l’idée de dignité ou de noblesse de l’homme qui en constitue un des contenus. Elle plonge ses racines dans l’Antiquité païenne, juive et chrétienne. Elle reçoit une orchestration puissante dans la Renaissance italienne, où les traités qui en parlent forment comme un genre littéraire. A ce point que le plus connu de tous, celui de Pic de la Mirandole, avait été laissé sans titre par son auteur, et fut classé sans autre forme de procès dans cette catégorie, d’où son nom devenu depuis traditionnel : Discours sur la dignité de l’homme.

Les hommes de la Renaissance, qui écrivaient des traités de la dignité et de la noblesse de l’homme, ont vécu d’un capital religieux qu’ils ne songeaient d’ailleurs nullement à dilapider. L’homme était conçu comme la créature d’un Dieu bienveillant : Dieu païen, en style platonicien ou stoïcien, qui avait placé l’homme au sommet du monde ; Dieu biblique qui avait fait l’Homme à son image et à sa ressemblance et avait contracté alliance avec lui ; Dieu chrétien qui avait enfin racheté l’homme déchu par une intervention personnelle dans l’histoire.

Une seconde étape est plus tardive, puisqu’elle date du XVIIIe siècle. On y voit se répandre l’usage de l’adjectif « humain » en un sens normatif et laudatif. C’est encore en ce sens que nous demandons, par exemple, que l’on traite les animaux d’une façon « humaine » et que nous parlons d’actions « humanitaires ». Ce n’est plus faire une tautologie que de s’exclamer comme Rousseau aux éducateurs : « hommes, soyez humains ». Mais c’est le même Rousseau qui observe que « le beau mot d’humanité, <est> rebattu maintenant jusqu’à la fadeur, jusqu’au ridicule, par les gens du monde les moins humains ».

B) L’humanisme exclusif

Le mot « humanisme », là où il n’a pas le sens historiographique que j’ai dit, apparaît tard, comme je l’ai dit. Or, il le fait pour désigner la version extrême de cet humanisme comme vision du monde, à savoir la version exclusive.

1) Feuerbach

C’est dans cette acception que le mot se lit chez Ludwig Feuerbach en 1843. Celui-ci, curieusement, indique qu’il l’emploie sans prendre le soin de le définir par rapport à toute une série d’autres mots de même suffixe et de grand poids conceptuel : tous ces mots impliqueraient la « négation de la théologie », laquelle négation serait « l’essence des Temps Modernes ». Une note signale non sans une désinvolture qui laisse pantois : « Les distinctions entre matérialisme, empirisme, réalisme, humanisme sont naturellement ici, dans cet écrit, indifférentes ».

Dès 1835, il avait recyclé la formule, « l’homme est un dieu pour l’homme », par laquelle Hobbes prenait le contre-pied du fameux « l’homme est un loup pour l’homme » de Plaute : Homo homini deus, dans la mesure où l’autre homme « constitue pour l’homme le médiateur entre sa nature et sa conscience ».

Mais, à partir de 1841, Feuerbach s’écarte du penseur anglais : la formule n’exprime plus seulement l’un des deux pôles permanents entre lesquels oscille la description de la vie sociale. Elle sert désormais à désigner une étape postérieure de celle-ci, de telle sorte que l’adoption de la seconde formule doit représenter un tournant dans l’histoire du monde . De même que ce qu’il y a de plus haut dans l’art est la figure humaine, ce qu’il y a de plus haut dans la philosophie est l’être humain . « Pour nous du moins il n’existe pas d’être plus haut que l’homme ».

Dans l’ouvrage cité plus haut, où le mot « humanisme » apparaissait pour la première fois, Feuerbach écrit : « La nouvelle philosophie fait de l’homme, y compris la nature, base de l’homme, son objet unique, universel et suprême. L’anthropologie, y compris la physiologie, devient donc la science universelle ». Prise au pied de la lettre, la première phrase contient une absurdité qui en fait comme un acte manqué des plus révélateurs : « l’homme, y compris la nature » suppose que la nature fait partie de l’homme, alors qu’on attendrait plutôt le contraire. Seule la formule parallèle qui suit permet de comprendre ce que Feuerbach veut dire, à savoir qu’il faut prendre l’homme avec ce qui, de la nature, est à l’intérieur de lui, c’est-à-dire le corps propre. L’anthropologie ne peut devenir la science suprême que si l’on glisse subrepticement de la nature en l’homme à la nature autour de l’homme, du corps au monde.

2) Marx

On observe un phénomène identique chez Marx. Dans les textes restés manuscrits qu’il rédige en 1844 sur des questions économiques et politiques, Marx définit le but dernier de l’histoire comme étant l’« humanisme ».

« Ce communisme, en tant que naturalisme achevé est égal à l’humanisme; en tant qu’humanisme achevé, il est égal au naturalisme, il est la véritable résolution du conflit entre l’homme et la nature, entre l’homme et l’homme ». « L’athéisme est l’humanisme médiatisé avec soi par la suppression de la religion, le communisme est l’humanisme médiatisé avec soi par la suppression de la propriété privée ».

A la fin de sa dissertation pour le doctorat, soutenue en 1841, Karl Marx avait déjà fait de Prométhée le « premier saint du calendrier philosophique ». Le héros d’Eschyle déclarait haïr tous les dieux. Marx commente: « le Credo de Prométhée […] est celui de la philosophie, son propre slogan contre tous les dieux du ciel et de la terre, qui ne reconnaissent pas la conscience de soi humaine comme la divinité suprême. Il ne doit y avoir aucun autre dieu à côté d’elle ». Et en 1843, Marx exprime une idée analogue sous une forme très simple, par une étymologie de l’adjectif « radical » : « Etre radical, c’est saisir la chose par la racine. Mais la racine, pour l’homme, c’est l’homme lui-même ».

Quant à l’origine de l’humain, on rencontre chez Marx la même difficulté que chez Feuerbach. Marx écrit : « L’histoire dite universelle n’est rien d’autre que la génération de l’homme par le travail humain ». On peut se demander d’où vient l’adjectif « humain ». En quoi un travail déterminé peut-il humaniser celui qui l’exécute, s’il lui faut déjà mériter le qualificatif d’« humain » ? La génération spontanée (generatio aequivoca), écrit Marx, est la seule réfutation pratique de la théorie de la Création. L’expression est curieuse. Elle suppose en effet qu’un être vient de ce qui n’est pas lui, comme, chez Virgile, des abeilles étaient censées sortir du cadavre d’un bœuf, etc. Ici, la formule de Marx suppose au contraire que l’homme ne vient que de l’homme. Il fait en effet parler Aristote, et part de l’exemple même qu’il donnait d’une génération univoque, « l’homme engendrant l’homme ». La vision cyclique du monde devait d’ailleurs, quinze ans plus tard, recevoir de la part de Darwin un coup sévère que Marx lui-même devait considérer comme exemplaire. Ici, de toute façon, l’exemple pris par Marx constate qu’un individu humain est engendré par un autre individu de la même espèce. Il ne saurait rendre plus plausible l’idée selon laquelle l’homme comme espèce naîtrait d’un travail d’humanisation qui se supposerait soi-même accompli .

3) Les français

Le mot passe en français sans doute avec Proudhon, en 1846. Celui-ci identifie l’humanisme et l’athéisme . Renan choisit le mot en 1848 en sens contraire, puisque c’est pour nommer « la religion de l’avenir [...], c’est-à-dire le culte de tout ce qui est de l’homme, la vie entière sanctifiée et élevée à une valeur morale ». La même année, Auguste Comte choisit le même adjectif pour qualifier le « vrai point de vue », le « sacerdoce » et le « culte » de sa religion nouvelle, qui est celle de l’Humanité .

III. Impasses de l’humanisme exclusif

A) De l’humanisme à l’anti-antihumanisme en passant par l’antihumanisme

Nous sommes devenus depuis plus méfiants, et les déclarations que j’ai citées rendent aujourd’hui un son quelque peu naïf. Mais, à y regarder de près, le mouvement entier de la Modernité montre une dérive hors de la confiance naïve en la bonté et la dignité de l’humain qui caractérisait la Renaissance et les Lumières.

Un symptôme de ce désenchantement est l’apparition et la diffusion du mot « antihumanisme ». Le plus ancien emploi en français que j’aie pu en trouver se trouve en 1937, chez Jacques Maritain. Mais le plus ancien emploi, tout court, est peut-être en russe, auquel cas il remonterait à 1919. Dans la Russie où les bolcheviks sont au pouvoir depuis deux ans, et où fait rage la guerre civile, le poète Aleksandr Blok prononce le 7 avril 1919 une conférence : « L’effondrement de l’humanisme » qu’il préparait depuis le mois précédent. Il y constate déjà que « dans le monde entier retentit la cloche de l’antihumanisme (антигуманизм) ». Pour lui, cette cloche sonnait un joyeux avènement. Pour nous, elle est plutôt un tocsin, si ce n’est un glas.

On peut en effet se demander si nous sommes encore vraiment humanistes. J’aimerais citer ici une phrase de l’économiste anglais John N. Gray. Je ne partage pas toutes ses vues, mais il me semble avoir mis le doigt sur quelque chose d’essentiel : « Dans la modernité tardive qui est la nôtre, le projet des Lumières est affirmé principalement par peur des conséquences de son abandon. […] Nos cultures sont des cultures des Lumières, non par conviction, mais par défaut ». En d’autres termes : une bonne partie de notre attachement aux Lumières, ou à l’image que nous nous en faisons, est moins un amour des Lumières qu’une crainte de l’obscurantisme.

Je me demande si l’on ne pourrait pas dire la même chose de cet « humanisme » auquel nous tenons tant aujourd’hui. Ne serait-il pas plutôt un anti-antihumanisme qu’une affirmation directe de la valeur, de la dignité, ou comme on voudra dire, de l’humain ? Il est facile de s’indigner dès qu’on met en question l’« humanisme ». Il est facile d’écrire pour dénoncer l’antihumanisme ; on ne s’est pas fait faute de le combattre avec beaucoup de véhémence et de vertueuse indignation . Il est plus difficile d’expliquer ce que l’humanisme veut dire au juste ; il est encore plus difficile d’expliquer pourquoi il faudrait le promouvoir.

L’idée d’humanisme se heurte en effet à plusieurs difficultés. J’en mentionnerai quatre.

B) Les difficultés de l’humanisme

1) La hauteur de la tâche

Au début du XVIIe siècle retentit le coup de clairon de Bacon appelant à un règne de l’homme, puis de Descartes qui lui promet de devenir « maître et possesseur de la nature ». Or, voilà que, deux siècles et demi après, vers la fin du XIXe siècle, le Zarathoustra de Nietzsche clame que l’homme est « quelque chose qui doit être dépassé ».

Il faudrait raconter l’histoire de ce retournement. J’espère le faire ailleurs. Je ne m’arrêterai ici qu’à une seule étape, à peu près à mi-chemin. Il s’agit de Fichte. Pour lui, il faut croire en l’homme—mais pas au sens affadi que l’expression a pris depuis lors. Dieu, l’objet traditionnel de la foi, est donné dans la loi morale. Il n’a donc pas besoin d’être l’objet d’une démonstration d’existence ; il a encore moins besoin d’être un objet de foi. L’objet de celle-ci n’est pas Dieu, mais l’homme. En dépit de toutes les apparences, malgré les maux innombrables dont il est l’auteur, il faut croire à la capacité de l’homme de faire son devoir . Ce qui est ici central n’est pas l’aveu de l’insuffisance morale des hommes concrets ; on n’a guère attendu Fichte pour la constater. Le point décisif concerne le statut même de l’humanité de l’homme. Pour le bon kantien que veut être Fichte, faire son devoir, c’est obéir à la raison, laquelle est depuis toujours la différence spécifique qui définit l’humain. La foi de Fichte ne porte donc pas seulement sur les capacités de l’homme ; elle a pour objet l’humanité même de celui-ci. Cette humanité n’est plus constatée, mais bien livrée à la croyance—et en même temps à la possibilité de l’incroyance.

Quant à la parole énigmatique de Nietzsche, elle a été l’objet d’une réception large, au prix de bien des contresens. Lui-même parlait du « surhomme ». On a aujourd’hui plus ou moins renoncé à l’expression. En revanche, on parle de plus en plus d’un dépassement de l’homme, pour lequel on forge des expressions du genre de « posthumanisme », « métahumanisme » ou « transhumanisme ». La dernière fut lancée il y a déjà cinquante ans par un biologiste, Julian S. Huxley, frère du romancier, personnage officiel très fêté qui finit sa carrière comme premier président de l’UNESCO : « L’espèce humaine peut, si elle le veut, se transcender elle-même. Non pas de façon sporadique, un individu par ci, à sa façon, un autre par là, à la sienne, mais bien dans sa totalité, comme humanité. Il nous faut un nom pour cette croyance nouvelle. Peut-être que ‘transhumanisme’ pourrait convenir: l’homme restant homme, mais se transcendant soi-même et réalisant de nouvelles possibilités de sa nature humaine et pour celle-ci ». Le rêve d’une telle transformation n’a depuis lors guère quitté la conscience occidentale. Et ce, d’autant plus que les progrès de la biologie viennent au secours de ce rêve ancien, en nous promettant un « avenir posthumain » comme conséquence de la révolution biotechnologique .

2) Le coût de l’humanisme

Pour cette première difficulté, l’homme n’est pas assez. Pour la seconde, à l’inverse, il est trop. L’humanisme se heurte à l’objection de « spéciesisme ». Le terme a été forgé en 1970 par le psychologue britannique Richard D. Ryder. L’humanisme n’est-il pas une sorte de racisme pro-humain, au détriment des autres espèces animales, voire végétales qui peuplent la planète ?

L’orgueil humain, l’anthropocentrisme, est depuis fort longtemps l’objet des sarcasmes des philosophes. Il serait anodin, et ne mériterait que le ridicule s’il restait théorique. Mais il a des conséquences concrètes, et dévastatrices sur l’environnement.

Dès le XIXe siècle, on voit apparaître le rêve d’une terre délivrée de l’humain. Le jeune Flaubert écrit en 1838 : « les arbres pousseront, verdiront, sans une main pour les casser et les briser ; les fleuves couleront dans des prairies émaillées, la nature sera libre, sans homme pour la contraindre, et cette race sera éteinte, car elle était maudite dès son enfance ».

Quant à notre aujourd’hui, il faudrait donner la parole aux représentants les plus extrêmes de l’écologie. Par exemple à ceux qui prêchent l’extinction volontaire de l’espèce. Ou à ceux qui subordonnent le souci de l’humain au culte de la Terre. Auguste Comte l’appelait déjà le « Grand Fétiche ». Certains de nos contemporains y voient carrément une divinité.

3) Le point d’appui

La difficulté la plus dirimante est peut-être celle du point de référence à partir duquel juger la qualité de l’humain.

Sartre pose le problème de façon sarcastique dans sa conférence de l’immédiate après guerre, L’Existentialisme est un humanisme. Il y caractérise l’humanisme dont il ne veut pas en citant une phrase de Jean Cocteau. Celui-ci s’était exclamé devant une merveille de la technique : « l’homme est épatant ». Sartre fait remarquer que l’« on ne peut admettre qu’un homme puisse porter un jugement sur l’homme ». Car c’est être juge et partie. Il rappelle que jamais un animal n’a fait l’éloge de l’homme. Cette dernière remarque prend d’ailleurs un relief tout particulier de nos jours, lorsque la conquête technique de la nature met en danger de nombreuses espèces animales et menace de vider la terre de toute autre vie qu’humaine.

Sartre oppose à cet humanisme sa propre conception d’un humanisme selon lequel « il n’y a pas d’autre univers qu’un univers humain […] il n’y a d’autre législateur que <l’homme> lui-même ». Sans discuter sur le fond, on me permettra une remarque : la situation est encore pire : si la loi ne vient que de l’homme, non seulement il n’y a pas, de fait, de jugement sur l’homme extérieur à l’homme, mais encore, de droit, un tel jugement est impossible.

La question reste posée. Elle l’était d’ailleurs depuis très tôt. Elle reçoit, par exemple, une réponse narrative dans un texte arabe du Xe siècle, une des épîtres des « Frères Sincères », la plus longue de celles-ci . Ces « Frères Sincères » restés anonymes étaient sans doute des adeptes d’une forme extrême du chiisme, dite « Ismaélienne ». Dans ce long récit, peut-être influencé par la pensée indienne, un procès est intenté à l’homme par les animaux à propos de la domination exercée par celui-ci : l’homme domestique les bêtes, les soumet à la corvée et, tout brutalement, les capture et les dévore. L’homme doit se défendre. Devant qui ? Le juge, qui écoute successivement les plaidoiries des deux parties avant de se prononcer, est le roi des Jinns. Ceux-ci sont, dans la croyance islamique, des créatures intermédiaires entre l’homme et l’ange. Ils sont donc en position de neutralité. Mais que faire quand on ne croit pas au roi des Jinns ?

4) L’origine de l’humain

Le problème qui se pose est celui de l’origine même de l’humain. On a vu que l’humanisme exclusif tentait de faire de l’homme sa propre origine, au prix de contorsions logiques.

Depuis quelques décennies, des biologistes tendent à montrer dans l’homme le produit tout à fait contingent, nullement « voulu » par une quelconque instance, d’une série de hasards. Jacques Monod, dans Le Hasard et la nécessité, livre qui a eu un grand succès dans les années 70, l’exprimait avec un certain bonheur d’expression . La naissance de la vie, puis l’évolution de l’espèce humaine, sont dus à une série de coups heureux—heureux pour nous, s’entend. Nous avons gagné au jeu de Monte-Carlo.

L’ennui est que cette façon de voir les choses induit certains sentiments. Celui qui a gagné à la loterie, nous ne pouvons pas le respecter. Ni même l’admirer, puisqu’il n’a rien fait pour mériter ce qui lui arrive. Le seul sentiment que nous puissions entretenir à son égard est l’envie. On pourrait se demander si le sentiment dominant notre époque ne serait pas ce paradoxe d’une envie envers soi-même. Auquel cas il ne serait pas étonnant que les représentants les plus virulents de cette attitude soient… certains verts !

Il y a plus. A supposer que notre existence soit le fruit du hasard, ce n’est pas le cas de celle de nos descendants. Leur existence dépend de moins en moins de la nature et de l’instinct, et de plus en plus de nous, et plus que jamais avec les progrès du contrôle des naissances et des technologies de la reproduction. Du coup, c’est l’existence de l’espèce entière qui est entre les mains de la génération présente. Or, pourquoi serait-elle en droit de se perpétuer ? De quel droit refiler à ses enfants cette existence sur laquelle ils ne peuvent évidemment pas encore se prononcer, et que la génération présente n’a jamais été en état de choisir ?

IV. Conclusion : l’humanisme classique comme modèle d’une réponse

Devant ces quatre difficultés, comment se tirer d’affaire ?

La redécouverte d’un humanisme au premier des deux sens que j’ai distingués, à savoir celui d’un rapport au classicisme, pourrait nous aider à sortir des impasses de l’humanisme au second sens. De la sorte, une surprise nous attendrait : l’humanisme le plus ancien, voire le plus ringard, pourrait venir au secours de son homonyme plus moderne et plus progressiste.

J’ai déjà eu l’occasion de réfléchir sur ce qui me semble être le modèle fondamental du rapport européen à la culture à travers une série de métaphores et de concepts. Parmi les métaphores : la « voie romaine », qui m’a fourni le titre du livre où j’ai étudié ce rapport, l’aqueduc, etc. Parmi les concepts : la secondarité, l’adoption inverse, l’inclusion telle qu’elle se distingue de la digestion, la renaissance telle qu’elle se distingue de la réviviscence, etc. J’ai consigné ces résultats dans un livre déjà vieux de quinze ans . En conséquence, je n’y reviendrai pas. Le rapport que j’ai tenté d’expliciter définit en tout cas ce que l’on a appelé « humanisme » au premier des deux sens, celui des humanistes de la Renaissance.

Je ne me fais ici aucune illusion sur la probabilité d’un retour aux études classiques comme discipline centrale de l’éducation secondaire. Bien entendu, je n’aurais moi-même rien contre, et serais prêt à procéder à leur défense et illustration. Ma femme et moi avons fait faire des langues anciennes à nos enfants, qui ne s’en plaignent pas. Mais la question n’est pas là. Je voudrais moins plaider pour les humanités classiques que pour l’attitude qu’elles supposent et fomentent à leur tour. Elle pourrait fournir un modèle pour sortir des impasses de notre humanisme, de notre antihumanisme, et de notre antiantihumanisme—je m’arrête là…

Le modèle moderne de l’humanisme est celui de l’homme comme « maître et possesseur de la nature », selon la trop célèbre formule de Descartes. Je proposerais de lui opposer le concept paradoxal de l’homme comme plénipotentiaire de ce qui le précède, qu’on nomme ce Précédent des noms que l’on voudra. J’en proposerais pour ma part deux, qui ont l’avantage d’être des plus classiques : Dieu et la Nature. Le plénipotentiaire a, comme le nom l’indique, la pleine puissance ; mais en même temps, il tient sa puissance de l’instance qui la lui a conférée, et devant laquelle il se sait responsable. On lui a confié le rôle de représenter, par exemple, un Etat dans la négociation d’un traité. Mais il n’a nullement le droit de faire n’importe quoi, par exemple de trahir les intérêts qu’il est censé défendre. De la sorte, il a puissance, mais cette puissance ne lui appartient pourtant pas.

Le rapport « humaniste » au passé est marqué par une admiration mêlée de gratitude envers ce qui précède. On pourrait peut-être ramasser tout cela sous un seul mot. Je proposerais celui de piété, au sens que lui donnait Virgile et qui parle encore dans notre expression « piété filiale ».

La piété est un rapport souple à ce qui précède. Elle consiste à savoir dépendant de ce qui nous précède, mais en même temps investi d’une mission. La piété est chez Virgile la vertu du héros de l’épopée qui est son chef d’œuvre, Enée, fondateur mythique de Rome. La piété est ce dont fait preuve Énée envers son père. Elle ne consiste pas, si j’ose dire, à l’avoir en permanence sur le dos, littéralement (comme le vieil Anchise) et métaphoriquement. La piété d’Énée est à son plus haut point quand il enterre son père. Il faut aussi savoir enterrer, mais sans oublier ceux qui nous ont précédé, et surtout sans oublier qu’ils survivent aussi en nous. Savoir que nous avons eu des parents nous permet de comprendre que nous sommes aussi destinés à être des parents. Nous reconnaître un passé libère l’avenir en nous.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

Gerald M. Edelman, théoricien de la conscience

 

 

 

 

 

 

 

Gerald M. Edelman, théoricien de la conscience
Propos recueillis par Nicolas Chevassus-au-Louis dans mensuel 334
daté septembre 2000 -


Le cerveau fonctionne comme le système immunitaire, le développement individuel, ou encore l'évolution d'une espèce : en l'absence de toute instruction préalable, il s'adapte à la nouveauté en sélectionnant les éléments les plus adaptés. L'étude du cerveau et de la conscience s'insère donc dans une problématique plus large : la science de la reconnaissance.
La Recherche : Vous avez commencé votre carrière comme immunologiste. Vous vous intéressez maintenant aux neurosciences. Pourquoi ce tournant ?

Gerald M. Edelman : Lorsque j'ai commencé ma carrière scientifique, comme capitaine de l'US Army à l'Hôpital américain de Neuilly, j'étais étonné de voir que les immunologistes s'intéressaient plus aux antigènes qu'aux anticorps, dont on ne connaissait pas grand-chose. La théorie instructiviste, selon laquelle les anticorps sont « instruits » par les antigènes pour adopter une forme complémentaire était alors dominante. Mon travail a contribué à la rendre désuète au profit d'une théorie sélectionniste où les anticorps correspondant au motif antigénique sont sélectionnés parmi une variété incroyable d'anticorps existants. Parallèlement à ce travail, la compréhension de l'immunologie s'est accélérée avec la découverte des marqueurs HLA* de la sélection clonale*... Tout cela m'a convaincu que l'immunologie était devenue un champ scientifique fermé, où plus aucune découverte conceptuelle fondamentale n'était à faire. Je me suis alors tourné durant les années 1970 vers la biologie du développement qui était à cette époque un champ scientifique ouvert, pour étudier les phénomènes d'adhésion cellulaire et de morphogenèse. De la biologie du développement j'en suis venu au cerveau car le système rétine/cerveau est un superbe modèle d'étude de l'adhésion cellulaire et de la morphogenèse.

Quels sont les points communs entre ces thèmes de recherche que vous avez abordés à des moments différents de votre carrière ?

Je me suis toujours intéressé à ce que j'ai appelé la science de la reconnaissance. Par reconnaissance, j'entends la mise en correspondance adaptative et continuelle des éléments d'un domaine physique donné aux nouveautés survenant dans les éléments d'un autre domaine physique, plus ou moins indépendant du premier. Ces ajustements ont lieu en l'absence de toute instruction préalable, par sélection au sein d'un ensemble hypervariable. En immunologie, ces deux domaines sont évidemment les anticorps et les antigènes. Dans le développement, ce sont les déterminismes génétiques et épigénétiques*. En neurosciences, ce sont des structures neuronales dynamiques et des groupes d'informations, de stimuli, provenant du monde extérieur. Il faudrait ajouter à cette liste l'évolution, où l'on étudie la reconnaissance entre les organismes et leur environnement.

Y a-t-il des lois générales de cette science de la reconnaissance que vous évoquez ?

Ces systèmes de reconnaissance ont des principes communs mais des mécanismes différents. Ces principes sont au nombre de trois : il existe un générateur de diversité au sein du domaine interne ; il existe un mode d'interaction entre le domaine externe et les différents répertoires de variants du domaine interne, permettant de perpétuer les modifications qu'y opère la sélection ; enfin il existe une amplification différentielle de certains éléments du domaine interne. Dans le cas de l'évolution, la diversité est fournie par les mutations génétiques, l'interaction par les stimulations de l'environnement et l'amplification par la sélection naturelle darwinienne. Dans le cas de l'immunologie, le générateur de diversité se situe dans la région hypervariable des anticorps, l'interaction est fournie par les lymphocytes présentateurs d'antigènes et l'amplification par la sélection clonale.

Comment ces trois principes s'appliquent-ils au cas du cerveau ?

Ces mécanismes fondent ce que j'ai appelé la théorie de sélection des groupes neuronaux. Voyons d'abord le générateur de diversité. Tous les processus à l'oeuvre dans le développement et la morphogenèse du cerveau présentent un certain côté statistique : la neurogenèse, la migration neuronale, l'adhésion qui régule la croissance des extrémités neuronales, la mort neuronale programmée, la formation des connexions... Tous ces processus n'ont pas lieu exactement de la même façon, ni au même endroit d'un neurone à l'autre. Ces variations se combinent pour donner une diversité de structures absolument extraordinaire qui fait que deux individus, même jumeaux, n'ont jamais le même cerveau. C'est la sélection développementale, premierpilier de ma théorie. Par la suite, le câblage entre groupes neuronaux va être modifié en fonction des interactions avec l'environnement, notamment sensoriel, ce que les neurobiologistes résument par l'aphorisme « neurons that fire together wire together » . Les neurones qui sont actifs en même temps, par exemple parce qu'ils répondent à la même stimulation sensorielle, vont voir leurs connexions se renforcer. C'est la seconde étape, que j'ai appelé sélection par l'expérience. On obtient ainsi des répertoires primaires et secondaires, population de groupes neuronaux différents d'une région donnée comportant des réseaux mis en place par les étapes de sélection qui se sont déroulées respectivement au cours du développement et par l'expérience. Les répertoires s'arrangent entre eux en cartes, spécialisées en particulier dans le traitement de la couleur, de l'orientation... fig. 1.

La perception sensorielle d'un objet du monde extérieur est donc traitée par différentes cartes. Comment le cerveau procède-t-il pour reconnaître l'objet comme un tout ?

Par la réentrée des informations entre les différentes cartes, physiquement connectées entre elles par un réseau très dense de fibres réciproques et massivement parallèles.

Prenons l'exemple de deux cartes, disons l'une spécialisée dans la couleur et l'autre dans les contours. Chaque carte reçoit indépendamment des signaux du monde extérieur. En même temps, des signaux réentrants relient fortement certaines combinaisons actives de groupes neuronaux appartenant à l'une des cartes à différentes combinaisons appartenant à l'autre. Les fonctions et les activités des deux cartes sont donc reliées entre elles. Grâce à la réentrée, troisième pilier de ma théorie de la sélection des groupes neuronaux, les cartes vont pouvoir corréler des événements qui se déroulent dans le monde extérieur sans que l'on ait besoin d'un superviseur d'ordre supérieur ou de je ne sais quel homonculus fig. 2. Nous avons ainsi montré par simulation informatique à large échelle que la réentrée permettait de résoudre le problème de liaison que vous évoquiez dans votre question, c'est-à-dire l'association fonctionnelle et dynamique de groupes de neurones indépendants. Cette association sous-tend la perception consciente des différents éléments d'une scène : couleur, contour, mouvement...

Vous avez évoqué la simulation informatique. Vous êtes pourtant connu pour critiquer l'analogie cerveau/ ordinateur...

Je reproche aux tenants de l'intelligence artificielle d'être restés instructionnistes, de croire que le monde extérieur fournit des instructions au cerveauI. Mais ce n'est pas ainsi que les choses se passent. Prenez une diode, par exemple : elle ne reconnaît que deux états, l'obscurité et l'illumination. Le cerveau ne peut pas fonctionner comme une diode puisqu'il doit identifier une perception sensorielle parmi des milliards d'états dont l'obscurité et l'illumination ne sont que deux possibilités.

C'est pourquoi seule une théorie sélectionniste peut rendre compte des propriétés de reconnaissance du cerveau. Cela ne veut pas dire que la simulation informatique soit inutile : quand on fait un modèle, on ne recrée pas la réalité. On en mime simplement certaines propriétés.

Vous avez exposé la théorie de la sélection des groupes neuronaux pour la première fois il y a maintenant plus d'une quinzaine d'années. Comment les progrès des neurosciences réalisés depuis s'intègrent-ils dans votre cadre conceptuel ?

A merveille ! Quand j'ai suggéré qu'il fallait envisager le fonctionnement du système nerveux en termes de groupes neuronaux, j'ai rencontré un grand scepticisme. Aujourd'hui, plus personne ne met en doute l'existence de ces groupes neuronaux, démontrée par exemple par l'équipe de Wolf Singer à Francfort dans le cortex visuel1. De même Reinhart Eckhorn à Marburg, également en Allemagne, a montré que des groupes de neurones appartenant à des cartes distinctes émettent des signaux électriques selon des oscillations de même fréquence et de même phase en réponse à la présentation d'un stimulus visuel donné, même s'ils sont très éloignés2. Si l'on coupe les fibres permettant la réentrée, les oscillations deviennent déphasées et adoptent des fréquences différentes !

Ces arguments ne signifient pas que votre théorie soit juste...

Naturellement. Une théorie n'est pas une preuve. C'est une manière de voir les choses. Une autre théorie pourrait expliquer les mêmes données. Mais je constate que je suis le seul à proposer aujourd'hui une théorie globale. Lorsque Francis Crick soutient que les neurones de la conscience se trouveraient dans la couche 5 du néocortex3, cela me fait sourire. Cela nous ramène à la vieille querelle de la neurologie du XIXe siècle entre holisme* et localisationnisme*. Francis Crick est un excellent chercheur mais un piètre théoricien, qui veut tout expliquer de la molécule au comportement par une seule règle. Lorsque l'on bâtit une théorie, il faut savoir être modeste et accepter qu'elle conserve des zones d'ombre.

Comment vous situez-vous dans cette controverse entre holisme et localisationnisme?

Ma démarche est de définir d'abord les propriétés clés de la conscience, puis d'en rechercher les substrats neuronaux possibles. Ces propriétés sont au nombre de deux. D'abord l'intégration : chaque expérience consciente est unique et indivisible. L'intégration est permise par la réentrée. Ensuite la différenciation : le nombre d'états de conscience que l'on peut éprouver en quelques millisecondes est immense. Partant de cela, quels peuvent en être les substrats neuronaux ?

Mon hypothèse est qu'il s'agit d'un « noyau dynamique », rassemblement de groupes neuronaux qui à un moment donné interagissent plus entre eux qu'avec les autres groupes neuronaux4. Ce « noyau dynamique » inclut certainement les régions qui forment la boucle thalamocorticale, laquelle relie le thalamus profond et le néocortex superficiel, apparu plus récemment dans l'évolution fig. 3. J'insiste sur le caractère dynamique de ce processus : certains groupes de neurones, par exemple dans telle ou telle aire corticale, peuvent à un instant donné faire partie du « noyau dynamique » et sous-tendre l'expérience consciente, puis ne plus en faire partie l'instant suivant.

Quelle valeur explicative attribuez-vous aux théories de la conscience ?

D'abord ces théories doivent partir des seuls faits biologiques. C'est un non-sens logique que d'introduire des hypothèses exotiques ou extrêmes, comme le fait par exemple Roger Penrose qui a recours à la gravitation quantique pour expliquer la conscienceII. C'est un excellent mathématicien mais pas un neurobiologiste. Cela me rappelle Bergson et son « élan vital ». Pire encore, il y a les théories dualistes comme celle de feu mon ami John Eccles*, un esprit profondément religieux qui ne pouvait se résoudre à ce que l'âme meure avec le corps. Et pourtant, je crois que les neurobiologistes auront de plus en plus besoin de théories. Lorsque j'ai parlé pour la première fois de théorie de la sélection des groupes neuronaux, on en était à l'enregistrement unitaire des neurones. Aujourd'hui on enregistre des dizaines de neurones simultanément. C'est comme si des physiciens des particules pouvaient mesurer l'énergie à chaque instant de milliers d'atomes ou de quarks. Cela leur serait complètement inutile sans une théorie pour interpréter leurs données. Or l'histoire de la biologie n'a pas produit beaucoup de grands théoriciens - à l'exception évidente de Darwin.

Quel est le point faible de votre théorie aujourd'hui ?

C'est évidemment tout ce qui a trait aux états de conscience supérieurs. La conscience primaire est l'état qui permet de se rendre compte de la présence des choses dans le monde, d'avoir des images mentales. Mais elle ne s'accompagne pas d'un sens de la personne, de son présent et de son avenir. Dès que des systèmes symboliques entrent en jeu le langage, la musique, les arts visuels dans cette conscience supérieure, propre à l'homme, on atteint une complexité incroyable qui nous laisse assez démunis.

D'où attendez-vous les prochains progrès dans la compréhension de la conscience ?

Ce dont nous avons le plus besoin, c'est d'une technique d'imagerie cérébrale qui permette d'étudier les zones profondes du cerveau avec une bonne résolution temporelle. Aujourd'hui la magnétoencéphalographie* donne des résultats extraordinaires, mais cantonnés à la surface corticale. On sait peu de chose de ce qui se passe dans le thalamus, alors que la boucle thalamocorticale joue un rôle essentiel dans l'émergence des états de conscience. Par ailleurs, il y a beaucoup à apprendre de la neurologie psychiatrique, qui nous offre l'opportunité d'étudier les effets des lésions. Je pense en particulier aux expériences de Roger Sperry* avec ses « split brains » . En théorie, cela nous offre la possibilité d'étudier comment fonctionnent deux « noyaux dynamiques » dissociés. Quant à la schizophrénie, j'ai suggéré qu'elle pourrait traduire une perturbation généralisée de la coordination des boucles réentrantes, qui rendrait par exemple incapable de percevoir comme externes des stimulations sonores, d'où le phénomène d'hallucination auditive. Mais il faut rester extrêmement prudent. Ce sont des hypothèses sur le fonctionnement des cerveaux « malades », en aucun cas sur les causes des troubles psychiatriques. Ce qui est certain, c'est qu'il y a beaucoup à attendre de la convergence de la neurologie, qui étudie l'anatomie du système nerveux central, et de la psychiatrie, qui s'intéresse à son fonctionnement dynamique.
1W. Singer et C.M. Gray, Ann. Rev. Neurosci., 18 , 555, 1995.

2 M. Brosch et al., Cerebr. Cortex, 7 , 70, 1997. 3 F. Crick et C. Koch, Nature, 375 , 121, 1995. 4 G. Tononi et G.M. Edelman, Science, 282 , 1846, 1998.
NOTES
*Le complexe majeur d'histocompatibilité appelé HLA chez l'homme est un ensemble de protéines essentielles à la reconnaissance des antigènes du soi par les globules blancs lymphocytes.

*Selon la théorie de la sélection clonale, un organisme génère au hasard une grande diversité de lymphocytes, parmi lesquels ceux qui réagissent contre des anticorps étrangers sont sélectionnés et se multiplient.

*On qualifie d'épigénétique tout phénomène dépendant de l'environnement cellulaire et non pas des gènes.

*Le holisme ou globalisationnisme soutient que le fonctionnement du cerveau doit être appréhendé comme un tout non dissociable. Le localisationnisme vise à identifier les aires cérébrales nécessaires à la réalisation d'une fonction.

*John C. Eccles, prix Nobel de médecine en 1963 est l'un des plus célèbres partisans modernes de la dualité cerveau/esprit qu'il a notamment défendue dans Comment la conscience contrôle le cerveau Fayard, 1997.

*La magnéto encéphalographie est une technique d'étude non invasive de l'activité cérébrale qui repose sur l'enregistrement des variations du champ magnétique à la surface du cerveau.*Né en 1913, le neuropsychologue américain Roger Sperry prix Nobel de médecine en 1981 a étudié la perception sensorielle chez des patients dont les deux hémisphères cérébraux étaient dissociés après une intervention chirurgicale.

 

 DOCUMENT       la recherche.fr

 
 
 
 

PRIVÉE D'ÉMOTIONS, LA MÉMOIRE FLANCHE

 

 

 

 

 

 

 

Privée d'émotions, la mémoire flanche
Martine Meunier dans mensuel 344
daté juillet-août 2001 -


Emotions et souvenirs se forment dans la même partie du cerveau. Mais l'impact de cette découverte a été négligé durant le XXe siècle. Leurs relations commencent seulement à être étudiées grâce à l'émergence des neurosciences affectives.
Nos émotions jouent un rôle essentiel dans notre mémoire autobiographique. Mais l'étude des mécanismes cérébraux qui les gouvernent a longtemps été négligée par les neurosciences. Toute émotion affecte simultanément notre corps, notre comportement, nos sentiments et notre mémoire. Autant d'aspects difficiles à mesurer objectivement et à évaluer simultanément. Face à une même situation, les réponses émotionnelles varient en fonction de l'individu, de son tempérament et de son environnement physique et social. Une versatilité qui complique encore leur évaluation.

A la fin du XIXe siècle, Sigmund Freud attribuait pourtant aux émotions une influence déterminante dans le développement des individus. Le psychologue William James soulignait déjà leur importance pour le bon fonctionnement de la mémoire . « Se souvenir de tout serait aussi fâcheux que ne se souvenir de rien », insistait-il. Le cerveau doit effectuer une sélection. Il le fait en fonction de la valeur affective qu'un événement revêt pour nous. Tout au long du XXe siècle, les émotions ont conservé une place centrale au sein de la psychologie. En revanche, la compréhension de leur organisation cérébrale ne s'est imposée comme un enjeu majeur pour les neurosciences qu'au cours de ces dernières années. Cette lente évolution est bien illustrée par l'histoire de nos connaissances de deux régions présentes dans chaque hémisphère du cerveau, les lobes frontal* et temporal*. Découverte vers le milieu du XIXe siècle, leur importance pour les émotions n'a longtemps suscité qu'un intérêt marginal. A l'opposé, leur implication dans la mémoire, identifiée plus tard, a immédiatement suscité un nombre considérable de travaux.

Dès 1848, John Harlow, médecin d'une petite ville de l'Est américain, décrivait le cas spectaculaire de Phineas Gage voir l'encadré : « Comment la barre de Phineas Gage révéla le rôle du lobe frontal » et remarquait le rôle des lobes frontaux dans le contrôle des émotions. Mais la localisation cérébrale des fonctions mentales, idée largement acceptée aujourd'hui, suscitait alors de vives controverses. Elle ne s'imposera lentement qu'après la démonstration, dans les années 1860-1870, du rôle de certaines aires de l'hémisphère gauche dans le langage. En 1848, le cas de Phineas Gage fut donc plutôt perçu comme un encouragement pour la neurochirurgie balbutiante du moment. Il s'avérait en effet possible d'ôter une grosse portion du cerveau en cas de tumeur par exemple sans provoquer la mort, ni altérer aucune des fonctions psychologiques « majeures », perception, motricité, langage, intelligence, ou mémoire. Dans les décennies qui suivirent, la neurochirurgie fit d'énormes progrès, aidée, paradoxalement, par la Première Guerre mondiale et ses nombreux blessés. Le cas de Phineas Gage ne fut plus guère évoqué dans la littérature médicale. Le lobe frontal fascinait les chercheurs de la première moitié du XXe siècle, mais en tant que siège des fonctions intellectuelles « supérieures » spécifiques aux primates. Cette région du cerveau est en effet si développée chez l'homme qu'elle occupe à elle seule un tiers du cortex.

Lobotomies frontales. Lors du 2e Congrès international de neurologie, à Londres, en 1935, le neuropsychologue Carlyle Jacobsen et le neurochirurgien John Fulton présentèrent leurs travaux sur les effets d'une ablation des lobes frontaux chez des chimpanzés. Placées face à deux coupelles identiques, les deux femelles opérées, Becky et Lucy, étaient incapables de retrouver laquelle dissimulait une friandise, bien que la récompense ait été cachée sous leurs yeux quelques secondes auparavant seulement. Cette étude pionnière ouvrit la voie vers la compréhension des relations entre lobe frontal et mémoire. Jacobsen et Fulton mentionnèrent également des changements surprenants de comportement chez les animaux opérés. Lucy, à l'origine calme et tempérée, devint plus coléreuse et violente. A l'inverse, Becky, irascible avant l'opération, semblait d'une indéfectible bonne humeur après. Bien qu'apportant une nouvelle preuve du lien entre lobe frontal et émotions, ces anecdotes eurent peu de répercussions sur la recherche fondamentale. Le cas de Becky eut, en revanche, une conséquence inattendue en psychiatrie. Le neurologue portugais Egas Moniz allait, dès son retour du congrès de Londres, pratiquer des lobotomies frontales chez des patients psychotiques. Ainsi naquit la psychochirurgie, thérapeutique audacieuse consistant à ôter une partie du cerveau pour traiter les maladies mentales.

En dépit de ses effets secondaires, ce traitement radical allait rapidement être appliqué à des milliers de patients dans le monde entier. Et même valoir un prix Nobel à Moniz en 1949, avant que son usage abusif ne lui fasse une sinistre réputation, et que l'arrivée des neuroleptiques dans les années 1950 ne le rende obsolète1. Le cortex préfrontal ou partie avant du lobe frontal, celle qui fut touchée chez Gage, cible des lobotomies, allait cependant rester la structure la moins bien connue du cerveau jusque dans les années 1970 ! Les nombreux travaux suscités par les déficits d'apprentissage rapportés par Jacobsen et Fulton établiront seulement après cette date le rôle de la partie latérale du cortex préfrontal dans la mémoire de travail, celle qui nous permet de garder en tête une information, un numéro de téléphone par exemple, juste le temps de l'utiliser.

Inadaptation émotionnelle. En ce qui concerne les lobes temporaux, les premiers indices de leur implication dans les émotions remontent à des observations faites en 1888. Mais ils tombèrent dans l'oubli jusqu'à la découverte du psychologue Heinrich Klüver et du neurologue Paul Bucy de l'université de Chicago en 1938. Etudiant des singes porteurs de lésions des lobes temporaux, ces auteurs furent surpris par les comportements émotionnels inadaptés de ces animaux. Ils approchaient, manipulaient ou portaient à la bouche, de façon compulsive, tout ce qu'on leur présentait. Ils paraissaient également ne plus ressentir aucune peur, même face à un serpent. Une attitude qui leur aurait été fatale dans leur milieu naturel. En 1956, on établit que ce syndrome, dit de Klüver et Bucy, est principalement dû à l'atteinte de la région antérieure de la partie médiane du lobe temporal, celle qui contient l'amygdale2, une petite structure en amande. On ne s'interrogera plus guère ensuite sur les fonctions exactes des lobes temporaux pour les émotions. Car commence alors la saga, toujours d'actualité, de leurs relations avec la mémoire.

En 1957 et 1958, la psychologue Brenda Milner de l'institut neurologique de Montréal décrit les cas dramatiques de patients devenus amnésiques à la suite d'une ablation chirurgicale de l'un ou des deux lobes temporaux. Elle a observé cet effet inattendu chez quatre patients, deux parmi les trente opérés par William Scoville aux Etats-Unis, et à nouveau deux parmi plus de quatre-vingt-dix patients opérés par Wilder Penfield au Canada. La postérité retiendra l'un d'entre eux, qui deviendra célèbre sous les initiales H.M. Une large partie de nos connaissances actuelles sur l'organisation cérébrale de la mémoire repose sur lui. En 1953, ce jeune homme de 27 ans subit une ablation des deux lobes temporaux pour ôter le foyer d'une épilepsie très invalidante et rebelle à tout traitement médicamenteux. L'opération soulagea l'épilepsie. Mais elle provoqua une amnésie profonde qui perdure aujourd'hui.

Hippocampe. Depuis près de cinquante ans maintenant, H.M. oublie au fur et à mesure tous les événements de sa vie quotidienne. Or sa lésion, contrairement à celle de la plupart des patients opérés en même temps que lui, s'étendait au point d'inclure non seulement l'amygdale, mais aussi une large portion de l'hippocampe. Ainsi découvrait-on que l'hippocampe, dont la fonction était jusqu'alors inconnue, était en fait nécessaire pour la formation des souvenirs nouveaux. Cette découverte allait motiver un nombre considérable de travaux expérimentaux. Un intense effort qui a abouti aujourd'hui à une remarquable connaissance des bases cérébrales de la mémoire épisodique et sémantique, celles, respectivement, des événements personnellement vécus et des connaissances générales sur le monde.

En revanche, H.M. n'a jamais été l'objet d'une évaluation approfondie sur le plan émotionnel. Seules quelques anecdotes ont été rapportées à son sujet qui suggèrent un appauvrissement émotionnel, différent mais néanmoins proche de celui des singes de Klüver et Bucy, après le même type de lésion. En dehors de quelques accès d'irritabilité, H.M. a en effet été décrit d'une humeur étonnamment placide, parlant sur un ton monotone, et témoignant d'une résistance inhabituelle à la douleur, la faim ou la fatigue.

Les émotions sont aujourd'hui l'objet d'un intérêt grandissant en neurosciences, comme en témoigne la croissance exponentielle des publications dans ce domaine depuis la fin des années 1990. Ce rebondissement s'explique par la convergence d'au moins trois facteurs. En premier lieu, l'essor des neurosciences cognitives, tout au long du XXe siècle, a considérablement accru notre savoir sur le cerveau, fournissant ainsi les bases indispensables pour aborder la complexité des phénomènes affectifs. En second lieu, des perspectives entièrement nouvelles ont émergé grâce à de récents progrès techniques. Notamment, l'imagerie fonctionnelle nous donne aujourd'hui la possibilité de voir le cerveau humain normal en action, alors qu'autrefois nous devions nous contenter des indices fournis par le cerveau lésé. Enfin, plusieurs chercheurs contemporains, ouvrant la voie des neurosciences affectives, ont su réactualiser l'idée ancienne selon laquelle les émotions sont en réalité la cheville ouvrière du bon fonctionnement de nombre de nos facultés, adaptation sociale, raisonnement, prise de décision, ou mémoire. Les neurosciences affectives offrent déjà un aperçu des mécanismes cérébraux qui gouvernent l'influence des émotions sur la mémoire.

Les travaux actuels concernent principalement les deux amygdales situées chacune à l'avant de la partie médiane du lobe temporal. Chez le rat, différentes équipes dont celles de Michael Davis à Yale et de Joseph LeDoux à New York, ont réussi à démonter la machinerie complexe qui contrôle les peurs conditionnées3. Il s'agit de ce phénomène, commun à nombre d'espèces, de l'escargot de mer à l'homme, par lequel un stimulus neutre associé à un événement désagréable acquiert ensuite le pouvoir de déclencher à lui seul une réaction de peur. Parmi les différents noyaux composant l'amygdale, le noyau latéral reçoit des informations des régions sensorielles comme le cortex visuel. Il les transmet au noyau central relié aux centres cérébraux qui déclenchent les réactions dites autonomes, comme l'accélération du rythme cardiaque. Ce circuit assure l'apprentissage des peurs conditionnées. Il influence des structures voisines comme l'hippocampe qui restituent les souvenirs liés à ces peurs.

Imagerie fonctionnelle. Les expériences chez le rongeur ont ouvert la voie à l'exploration du comportement plus riche des primates. Chez le singe, la destruction sélective des seules cellules des amygdales suffit à perturber l'utilisation de l'ensemble du savoir émotionnel et social des animaux4. Chez l'homme, leur importance pour la mémoire émotionnelle a été particulièrement bien démontrée par une étude utilisant l'imagerie fonctionnelle par TEP5 Tomographie par émission de positons, voir l'article de Francis Eustache. Le neuropsychologue Larry Cahill et ses collègues de l'université de Californie ont mesuré l'activité du cerveau de huit volontaires pendant qu'ils regardaient des documentaires relatant soit des événements neutres, soit des images très négatives de crimes violents, par exemple. Trois semaines plus tard, les sujets se souvenaient beaucoup mieux des films négatifs que des films neutres, reflétant l'amélioration de la mémoire par les émotions. Mais le résultat important était le suivant : plus l'amygdale située du côté droit du cerveau avait été active pendant la présentation des films, meilleurs étaient les souvenirs des films négatifs. A l'inverse, l'activité de cette amygdale ne prédisait en rien la qualité des souvenirs pour les films neutres. Cette étude fournit donc la preuve d'un lien entre l'activité de l'amygdale droite pendant l'encodage d'informations riches en émotions et leur rétention ultérieure.

En accord avec cette conclusion, les patients dont l'amygdale a été endommagée présentent une mémoire correcte mais insensible à l'effet accélérateur des émotions. A l'inverse, cet effet reste présent chez les amnésiques dont l'amygdale est intacte, ainsi que chez les personnes atteintes de la maladie d'Alzheimer. Ces patients oublient moins les événements à forte connotation émotionnelle que les autres. Une découverte qui pourrait se révéler utile pour améliorer le soutien quotidien apporté à ces malades.
1 E. S. Valenstein, Great and D esperate C ures: The R ise and D ecline of P sychosurgery and other R adical T reatments for M ental Illness , Basic Books Inc., New York, 1986.

2 On utilise en français le terme amygdale du grec, amande à la fois pour la structure cérébrale amygdala, en anglais située au coeur du lobe temporal du cerveau en avant de l'hippocampe, et pour les organes situés dans la gorge tonsils, en anglais dont l'ablation chirurgicale très fréquente chez l'enfant n'a bien sûr aucune conséquence néfaste sur les émotions.

3 J. LeDoux, The E motional Irain , Simon & Schuster, 1996.

4 M. Meunier et al., European Journal of Neurosciences, 11, 4403, 1999.

5 L Cahill & J.L. McGaugh, Trends in Neuroscience, 21, 294, 1998,.

 

 DOCUMENT       la recherche.fr

 
 
 
 

THÉORIE LINGUISTIQUE ET APPRENTISSAGE

 

 

 

 

 

 

 

Théorie linguistique et apprentissage texte intégral
Noam Chomsky dans mensuel 99


Les travaux de Noam Chomsky ont mis un certain temps à pénétrer en France. Il a fallu la vogue extraordinaire que connaît la linguistique depuis quelques années chez nous pour que soient révélés non seulement aux universitaires mais aussi au grand public les apports techniques et théoriques de l’un des plus importants chercheurs d’aujourd’hui. Novateur, Chomsky l’est en effet aussi bien dans ses méthodes d’analyse des structures logiques du langage, de la phonologie ou de la syntaxe, que dans son approche de la psychologie de la connaissance. Dans le chapitre qui ouvre Aspects de la théorie syntaxique 1965, dont la traduction doit paraître prochainement aux Editions du Seuil, Chomsky résume un certain nombre de problèmes méthodologiques. Pour les lecteurs de la Recherche, nous avons extrait de ce premier chapitre le passage où sont évoqués les rapports de l’apprentissage et de l’acquisition du langage : Chomsky y montre combien certaines intuitions de la pensée rationaliste sont proches du champ de la science la plus moderne. Le débat sur l’inné et sur l’acquis est. loin d’être clos : on a pu à ce propos reprocher à Chomsky de reprendre à son compte un certain nombre des ambiguïtés de la pensée cartésienne. On prendra donc connaissance avec intérêt de ce texte dans lequel un des plus grands linguistes d’aujourd’hui se penche sur les origines de sa science.
Nous avons formulé certains problèmes de la théorie linguistique comme autant de questions touchant la construction d’un dispositif hypothétique, pour l’acquisition du langage. Cela semble un cadre utile et suggestif pour poser et examiner ces problèmes. Nous pouvons imaginer que le théoricien dispose d’une association empirique reliant des collections de données linguistiques primaires à des grammaires construites par le dispositif sur la base de ces données. On peut obtenir beaucoup d’informations tant sur les données primaires constituant l’input que sur la grammaire qui est l’ « output » d’un tel dispositif et le théoricien est confronté au problème de déterminer les propriétés intrinsèques d’un dispositif capable d’articuler cette relation input-output".

Il ne peut pas être sans intérêt de replacer cette discussion dans un cadre un peu plus général et traditionnel.

Empirisme et rationalisme.

Historiquement, nous pouvons distinguer deux manières générales d’aborder ’le problème de l’acquisition de la connaissance, dont le problème de l’acquisition du langage est un cas particulier et spécialement éclairant. Dans l’approche empiriste, on est parti de l’hypothèse selon laquelle la structure du dispositif d’acquisition se limite à certains « mécanismes périphériques d’organisation » - par exemple, dans les versions récentes, un « espace qualitatif» inné, sur lequel est défini une « distance » innée, un ensemble de réflexes inconditionnés primitifs, ou bien, pour le langage, l’ensemble de tous les « composants différenciables par l’oreille » de « l’impression auditive » complète. De plus, on est parti de l’hypothèse selon laquelle le dispositif est pourvu de certains mécanismes analytiques de traitement des données ou de principes inductifs d’une espèce très élémentaire, par exemple, certains principes d’association, des principes faibles de « généralisation » mettant en jeu des graduations concernant les dimensions de J’espace qualitatif donné, ou, dans le cas qui nous intéresse, des principes taxinomiques de segmentation et de classification, tels ceux qui ont été développés avec assez de soin dans la linguisitique moderne, conformément à l’insistance saussurienne sur le caractère fondamental de principes de ce genre. On fait alors l’hypothèse que les mécanismes d’organisation périphériques fournissent une analyse préliminaire de l’expérience et qu’à partir de là les concepts et la connaissance sont acquis par l’application des principes inductifs à cette expérience analysée initialement. Il est possible d’une manière ou d’une autre de formuler clairement ces points de vue comme autant d’hypothèses empiriques sur la nature de l’esprit.

C’est une approche assez différente du problème de l’acquisition de la connaissance qui a caractérisé la réflexion rationaliste sur les processus mentaux. L’approche rationaliste soutient qu’en plus des mécanismes d’organisation périphériques, il existe des idées et des principes innés de types divers qui déterminent la forme de la connaissance acquise, d’une façon éventuellement assez restrictive et très organisée. Pour que les mécanismes innés soient mis en branle, il faut que se présente un stimulus approprié. Ainsi, pour Descartes 1647, les idées innées sont celles qui procèdent de la faculté de penser, plutôt que des objets extérieurs : « ... rien des objets extérieurs ne parvient à notre âme par l’intermédiaire des organes des sens, sinon certains mouvements corporels.... mais même ces mouvements, ou les figures qui en proviennent, ne sont pas conçus par nous tels qu’ils se produisent dans les organes des sens... D’où il suit que les idées des mouvements et des figures sont elles-mêmes innées en nous. Quant aux idées de la douleur, de la couleur, du son, etc., il faut qu’elles soient à ce point plus innées que notre âme peut se les représenter à l’occasion de certains mouvements corporels ; il n’y a, en effet, aucune ressemblance entre elles et les mouvements corporels... » R. Descartes, Notae in programma quoddam, Adam et Tannery, VIII-2, p. 359.De même, sont innées des notions du genre : des choses égales à la même chose sont égales entre elles, puisque ces notions ne peuvent apparaître comme des principes nécessaires à partir de « mouvements particuliers ». En général, « la vue ne représente rien sinon des images, l’ouïe rien sinon des voix ou des sons.... au point que tout ce que nous pensons en plus de ces voix ou de ces images, comme étant leur signification, nous est représenté par des idées qui ne viennent que de notre faculté de penser, qui donc sont innées en nous au même titre que celle-ci, c’est-à-dire existent depuis toujours en nous potentiellement . en effet, être dans une faculté, ce n’est pas être en acte, mais en puissance, précisément parce que le nom «faculté » ne désigne rien d’autre que la potentialité... » 1bid., p. 360. [Donc les idées sont innées de la même façon que] «la générosité est innée dans certaines familles ou en d’autres, certaines maladies, comme la podagre ou la gravelle : ce n’est pas que pour autant les enfants de ces familles soient atteints de ’ces maladies dans les entrailles de leur mère, mais qu’ils naissent avec une certaine disposition ou faculté à les contracter».



L’inné et l’acquis.


Encore plus tôt, Lord Herbert de Cherbury De veritate , 1624, soutient que les idées, et les principes innés « restent cachés lorsque les objets correspondants ne sont pas présents, et qu’ils vont jusqu’à disparaître sans donner aucun signe de leur existence; « il faut y voir moins le produit de l’expérience que les principes sans lesquels nous n’aurions aucune expérience... [p. 132] ». Sans ces principes, « nous ne pourrions avoir aucune expérience et serions incapables d’observer » ; « nous ne parviendrions jamais à distinguer parmi les choses, ou à saisir aucune nature générale... [p. 105] ». Ces notions sont développées de manière très large, tout au long de la philosophie rationaliste du XVIIe siècle. Pour mentionner un seul exemple, R. Cudworth A Treatise concerning Eternai and Immutable Morality , 1731, présente une argumentation développée pour appuyer son opinion : « pour de nombreuses idées de l’esprit, il arrive bien souvent qu’on ne les pense qu’en y étant invité à l’occasion par le mouvement ou l’impulsion donnée à nos corps par des objets sensibles de l’extérieur ; néanmoins les idées elles-mêmes ne pourraient être gravées ou imprimées dans l’âme par ces derniers, parce que le sens ne reconnaît rien de tel dans ces objets corporels, et par conséquent elles doivent nécessairement procéder de la force et de l’activité innées de l’esprit lui-même... [Livre IV] ». Jusque chez Locke, on retrouve essentiellement la même conception, ainsi que l’ont souligné Leibniz et de nombreux commentateurs depuis.

Dans la Logique de Port-Royal, le même point de vue est exprimé de la manière suivante : « Il est donc faux que toutes nos idées viennent de nos sens ; mais on peut dire, au contraire, que nulle idée qui est dans notre l’âme de se former diverses idées qu’elle ne se formerait pas sans cela, quoique presque toujours ces idées n’aient rien de semblable à ce qui se fait dans les sens et dans le cerveau, et qu’il y ait de plus un très grand nombre d’idées, qui ne tenant rien du tout d’aucune image corporelle, ne peuvent sans une absurdité visible être rapportées à nos sens. » Première partie, chap. 1.

Dans le même sens, Leibniz refuse d’accepter une distinction stricte entre l’inné et l’acquis : «Je demeure d’accord que nous apprenons les idées et les vérités innées, soit en prenant garde à leur source, soit en les vérifiant par l’expérience... Et je ne saurais admettre cette proposition : tout ce qu’on apprend n’est pas inné. Les vérités des nombres sont en nous, et on ne laisse pas de les apprendre, soit en les tirant de leur source lorsqu’on les apprend par raison démonstrative ce qui fait voir qu’elles sont innées soit en les éprouvant dans des exemples comme font les arithméticiens vulgaires... » Nouveaux Essais , Livre 1, chap. 1, Garnier- Flammarion, p. 62. [Ainsi] « toute l’arithmétique et toute la géométrie sont innées et sont en nous d’une manière virtuelle, en sorte qu’on les y peut trouver en considérant attentivement et rangeant ce qu’on a déjà dans l’esprit... » ibid., p. 62. [De manière générale, « nous avons une infinité de connaissances dont nous ne nous apercevons pas toujours, pas même lorsque nous en avons besoin » ibid., p. 61. « Les sens, quoique nécessaires pour toutes nos connaissances actuelles, ne sont point suffisants pour nous les donner toutes, puisque les sens ne -donnent jamais que des exemples, c’est-à-dire des vérités particulières ou individuelles. Or tous les exemples qui confirment une vérité générale, de quelque nombre qu’ils soient, ne suffiront pas pour établir la nécessité universelle de cette même vérité... » Nouveaux Essais , Préface, p. 34. « Les vérités nécessaires... doivent avoir des principes dont la preuve ne dépend point des exemples, ni par conséquence du témoignage des sens, quoique sans les sens on ne se serait jamais avisé d’y penser... Il est vrai qu’il ne faut point s’imaginer qu’on peut lire dans l’âme ces éternelles lois de la raison à livre ouvert... ; mais c’est assez qu’on les peut découvrir en nous à force d’attention, à quoi les occasions sont fournies par les sens, et le succès des expériences sert encore de confirmation à la raison.» [Il existe des principes généraux innés qui] « entrent dans nos pensées, dont ils font l’âme et la liaison. Ils y sont nécessaires comme les muscles et les tendons le sont pour marcher, quoiqu’on n’y pense point. L’esprit s’appuie sur ces principes à tous moments, mais il ne vient pas si aisément à les démêler et à se les représenter distinctement et séparément, parce que cela demande une grande attention à ce qu’il fait... C’est ainsi qu’on possède bien des choses sans le savoir ... » Nouveaux Essais , Livre - 1, chap. 1, p. 68. Par exemple, les Chinois ont des sons articulés, et par conséquent la base de l’écriture alphabétique encore qu’ils ne l’aient pas inventée.




Les tablettes de Leibniz.


Il faut observer en passant que, tout au long de ces discussions classiques sur le jeu d’échange entre les sons et l’esprit dans la formation des idées, on ne fait pas de distinction stricte entre la perception et l’acquisition : pourtant il n’y aurait aucune inconsistance à prendre pour hypothèse que les structures mentales innées latentes, une fois « activées », sont désormais disponibles pour l’interprétation des données sensibles d’une autre manière qu’auparavant.

Appliquant ce point de vue rationaliste au cas particulier de l’apprentissage linguistique, Humboldt parvint à la conclusion que l’on ne peut pas réellement enseigner une langue, mais seulement présenter les conditions où elle pourra se développer dans l’esprit spontanément et à sa manière propre. Ainsi la forme d’une langu e, le schéma de sa grammaire, est dans une large mesure donnée, encore qu’elle ne soit pas disponible sans une expérience appropriée qui mette en action les processus formateurs de la langue. Comme Leibniz, il reprend le point de vue platonicien suivant lequel, apprendre chez l’individu est dans une grande mesure un problème de Wiedererzeugung , c’est-à-dire extraction de ce qui est inné dans l’esprit.Ce point de vue contraste vivement avec la conception empiriste point de vue dominant chez les modernes suivant laquelle le langage est essentiellement une construction accessoire, enseignée par «conditionnement » c’est ce que soutiendraient par exemple Skinner ou Quine ou par dressage et instruction explicite c’est ce que posait Wittgenstein ou édifiée par des procédures élémentaires de traitement des données data-processing, c’est typiquement ce que soutient la linguistique moderne, mais en tout cas, relativement indépendante dans sa structure de toute faculté mentale innée.

En bref, la réflexion empiriste a, de façon caractéristique, pris pour hypothèse que seuls les procédures et les mécanismes de l’acquisition de la connaissance constituent une propriété innée de l’esprit. Ainsi pour Hume, la méthode du « raisonnement expérimental » est un Instrument fondamental chez les animaux et les hommes, sur le même pied que l’instinct

« qui enseigne à un oiseau, et avec quelle exactitude, l’art de couver, ainsi que l’économie et l’ordonnance de son nid » - cette méthode est issue de « la propre main de la nature » D. Hume, An enquiring concerning Human Understanding , 1748, ch. -IX. Cependant, la forme de la connaissance est pour le reste tout à fait libre. D’un autre côté, la réflexion rationaliste a fait l’hypothèse que la forme générale d’un système de connaissance est fixée par avance comme une disposition de l’esprit, et que la fonction de l’expérience est d’amener cette structure schématique générale à se réaliser et à se différencier plus pleinement. Pour suivre l’analogie éclairante de Leibniz, nous pouvons prendre : « ... la comparaison d’une pierre de marbre qui a des veines, plutôt que d’une pierre de marbre toute unie, ou des tablettes vides, c’est-à-dire de ce qui s’appelle tabula rasa chez les :philosophes. Car si l’âme ressemblait à ces tablettes vides, les vérités seraient en nous comme la figure d’Hercule est dans un marbre, quand ce marbre est tout à fait indifférent à recevoir ou cette figure ou quelque autre. Mais s’il y avait des veines dans la pierre qui marquassent la figure d’Hercule préférablement à d’autres figures, cette pierre y serait plus déterminée et Hercule y serait comme inné en quelque façon, quoiqu’il faudrait de travail pour découvrir ces veines, et pour les nettoyer par la polissure, en retranchant ce qui les empêche de paraître. Et c’est ainsi que les idées et les vérités nous sont innées, comme des inclinaisons, des dispositions, des habitudes ou des virtualités naturelles, et non pas comme des actions ; quoique ces virtualités soient toujours accompagnées de quelques actions souvent insensibles qui y répondent » . Nouveaux Essais , Préface, Garnier-Flammarion, p. 36-37.

Il n’est pas nécessaire, évidemment, de supposer que les points de vue empiriste et rationaliste peuvent toujours être strictement distingués et que ces courants ne peuvent se confondre. Néanmoins, il est historiquement exact et, de plus, intéressant pour la recherche, de distinguer ces deux façons très différentes d’aborder le problème de l’acquisition de la connaissance. Il est possible de donner une grande précision à des points de vue empiriste et rationaliste particuliers, et de les présenter sous forme d’hypothèses explicites sur l’acquisition de la connaissance et en particulier sur la structure innée d’un dispositif d’acquisition du langage. En fait, il ne serait pas inexact de décrire l’approche taxinomique de la linguistique moderne comme un point de vue empiriste qui s’oppose à la position essentiellement rationaliste proposée par les théories récentes de la grammaire transformationnelle. La linguistique taxinomique est empiriste en posant que la théorie linguistique générale est constituée uniquement par un corps de procédures permettant de déterminer la grammaire d’une langue à partir d’un corpus de données, la forme de la langue étant non-spécifiée, sinon dans la mesure où cet ensemble de procédures détermine des restrictions sur les grammaires possibles. Si nous interprétons la linguistique taxinomique comme une thèse empirique, cette thèse doit être celle-ci : seront descriptivement adéquates les grammaires résultant de l’application des procédures postulées à une sélection de données suffisamment riche - autrement dit, l’ensemble des procédures peut être considéré comme une hypothèse sur le système inné de l’acquisition linguistique. En revanche, la discussion que nous menons à propos de l’acquisition linguistique est rationaliste en partant de l’hypothèse que divers universaux de forme et de substance sont des propriétés intrinsèques du système d’acquisition, celles-ci fournissant un schéma que l’on applique aux données et qui détermine d’une façon très restrictive la forme générale et même en partie les traits de substance de la grammaire qui peut apparaître sur la présentation des données appropriées. Une théorie linguistique générale de ce type doit par conséquent être considérée comme une hypothèse spécifique, d’un modèle essentiellement rationaliste sur la nature des structures et des processus mentaux.


L’acquisition de la langue.


Lorsque des points de vue aussi opposés sont formulés avec clarté, nous pouvons nous demander, à titre de question empirique, lequel des deux est correct s’il en est un : il n’existe pas de moyen a priori de régler ce problème. Lorsque les points de vue empiriste et rationaliste ont été présentés avec assez de soin pour que la question de leur justesse puisse être sérieusement posée, il est impossible par exemple de soutenir que l’un des deux est supérieur à l’autre en simplicité - étant donné un sens clair de ce mot - sur la base de sa réalisation physique potentielle ; du reste, même si la démonstration pouvait être faite, dans un sens ou dans l’autre, cela n’affecterait pas ce qui est entièrement un problème de fait. Cette question de fait peut être abordée de plusieurs façons. En particulier, pour nous limiter maintenant à la question de l’acquisition linguistique, nous devons garder présent à l’esprit que toute suggestion empiriste concrète impose bien certaines conditions sur la forme des grammaires qui -peuvent résulter de ’l’application aux données primaires de ses principes inductifs. Nous sommes donc fondés à nous demander si les grammaires que ces principes peuvent fournir en droit sont proches de celles que nous découvrons en fait quand nous étudions les langues réelles. La même question peut être posée à propos d’une suggestion rationaliste concrète. Il s’est révélé dans le passé que c’était là une manière utile de soumettre de telles hypothèses à une sorte de test empirique.

Si l’on donne une réponse positive à ce problème d’adéquation en droit, nous pourrons, dans un cas comme dans l’autre, passer à la question de la possibilité de réalisation : les procédures inductives empirisme ou les mécanismes élaborant et réalisant les schémas innés rationalisme peuvent-ils réussir à produire des grammaires en tenant compte des contraintes données de temps et de disponibilité et du caractère d’uniformité que l’on observe dans l’output ? En fait, la deuxième question a rarement été posée de manière sérieuse à propos de points de vue empiristes ; en effet l’étude de la première question s’est révélée suffisante pour éliminer toutes les suggestions explicites ayant un caractère essentiellement empiriste qui ont pu apparaître dans les discussions modernes à propos de l’acquisition linguistique.

Les seules suggestions assez explicites pour soutenir une étude sérieuse ont été développées dans le cadre de la linguistique taxinomique. On a démontré, semble-t-il, sans qu’il puisse y avoir de doute, que, mis à part toute question de possibilité de réalisation, des méthodes de ce genre sont intrinsèquement incapables de produire les systèmes de connaissance grammaticale qu’il faut attribuer au sujet parlant une langue. De manière générale, il nous semble juste dès lors de soutenir ceci : toutes les fois que les théories empiristes sur l’acquisition linguistique sont claires, elles sont réfutables, et pour le reste, les spéculations empiristes se sont révélées parfaitement vides et peu éclairantes. D’un autre côté, l’approche rationaliste, Illustrée par les travaux récents dans la théorie transformationnelle, semble s’être révélée assez productive ; elle semble s’accorder pleinement avec ce que l’on sait du langage et donner au moins quelque espoir de pouvoir présenter; sur la structure intrinsèque de l’acquisition linguistique, une hypothèse qui remplisse la condition d’adéquation de droit, et cela d’une façon assez restreinte et intéressante pour que, pour la première fois, l’on puisse Poser sérieusement la question de la possibilité de réalisation.

On pourrait rechercher d’autres manières de tester la validité des hypothèses particulières touchant un dispositif d’acquisition linguistique. Lorsqu’une théorie pose qu’un système de l’acquisition linguistique comporte certains universaux et fait de ceux-ci une propriété du système, qui se réalise étant donné certaines conditions extérieures, elle implique que seuls certains types de systèmes symboliques peuvent être acquis et employés comme des langues par ce dispositif ; les autres devront être en dehors de sa capacité d’acquisition linguistique. il est certainement possible d’inventer des systèmes enfreignant les conditions de forme et de substance qui ont été proposées comme universaux linguistiques provisoires, par exemple dans la théorie des traits distinctifs de Jakobson ou dans la théorie de la grammaire transformationnelle. En principe, on pourrait tenter de déterminer si les systèmes inventés qui enfreignent ces conditions posent bien des problèmes exceptionnellement difficiles pour l’apprentissage linguistique et sont effectivement en dehors du domaine pour lequel le système d’acquisition est construit.




L’avenir de la psychologie expérimentale.


En soutenant qu’un système ne peut être appris par un mécanisme d’acquisition linguistique qui reflète les capacités de l’homme, nous n’affirmons pas, il faut le noter, que par une autre voie un homme ne puisse maîtriser ce système en le traitant comme un casse-tête ou un exercice intellectuel quelconque. Le mécanisme d’acquisition linguistique est seulement l’un des composants du système total des structures intellectuelles qui peuvent être appliquées à la résolution d’un problème ou à la formation d’un concept ; autrement dit, la faculté de langage n’est que l’une des facultés de l’esprit. Cependant, ce à quoi l’on peut S’attendre, c’est qu’il y ait une différence qualitative -dans la manière dont un organisme pourvu d’un système d’acquisition linguistique abordera et traitera des systèmes, selon , qu’ils seront ou non de type linguistique.

[On a des raisons de penser que le système d’acquisition du langage n’entre peut-être entièrement en fonction que pour une « période critique » du développement mental, ou, plus précisément, que les diverses étapes de maturation ont des périodes critiques. Il faut observer que nous ne voulons pas dire évidemment que les fonctions d’acquisition du langage sont assurées par des composants, entièrernent séparés, de l’esprit abstrait ou du cerveau physique ; de même, lorsqu’on étudie les mécanismes d’analyse dans la perception, cela ne veut pas dire que ceux-ci soient des composants distincts et séparés du système perceptuel complet. En fait, c’est un problème important pour la psychologie que de déterminer en quelle mesure d’autres aspects de la connaissance ont les mêmes propriétés que l’acquisition et l’emploi du langage, et de tenter de cette façon de développer une théorie du psychisme plus, riche, et plus étendue.]

Retracer les capacités cognitives intrinsèques d’un organisme, identifier les systèmes d’opinion et l’organisation de comportement qu’il peut atteindre facilement, ce devrait être un problème central en psychologie expérimentale ; cependant, ce domaine ne s’est pas développé dans cette direction. La théorie de l’apprentissage s’est concentrée pour la plus grande partie sur un thème qui paraît bien plus marginal : la question des régularités qui, indépendamment des espèces particulières, caractérisent l’acquisition des éléments composant un « répertoire de comportement », étant donné des conditions manipulables de façon expérimentale. En conséquence, l’attention s’est portée sur des tâches qui sont extérieures aux capacités cognitives d’un organisme - et qui doivent être abordées d’une manière oblique, indirecte et fragmentaire. Au cours de ce travail, on a bien recueilli un peu d’information sur l’effet que la structure cognitive intrinsèque et l’organisation intrinsèque du comportement peuvent avoir sur ce qui est appris, mais cela n’a pas été l’objet d’une attention sérieuse en dehors de l’éthologie. Les exceptions sporadiques sont très suggestives et c’est le cas de nombreuses études éthologiques des organismes Inférieurs. Mais la question générale, avec ses nombreuses ramifications, en reste à un stade primitif.




Grammaire générative et « théorie du monde extérieur ».


En bref, il paraît clair qu’en ce qui concerne l’étude de l’apprentissage linguistique, la situation actuelle est essentiellement la suivante : nous disposons d’une certaine quantité de renseignements touchant le caractère des grammaires génératives qui doivent former l’«output » d’un modèle d’acquisition pour le langage. Ces renseignements montrent clairement que les conceptions taxinomiques de la structure linguistique sont inadéquates et que l’on ne peut parvenir à la connaissance de la structure grammaticale en appliquant les divers types d’opérations inductives, procédant pas à pas segmentation, classification, procédures de substitution, cases remplies dans une structure, association, etc., qui ont pu être développées jusqu’à présent dans la linguistique, la psychologie ou la philosophie. Dans les spéculations empiristes quand elles vont plus loin, on ne trouve rien qui suggère, fût-ce vaguement, un moyen de surmonter les limites intrinsèques des méthodes qui ont été proposées et élaborées jusqu’à présent. En particulier, les spéculations de cet ordre n’ont donné aucun moyen de fonder, ni même d’exprimer, le fait fondamental touchant l’acte linguistique normal : à savoir la capacité du sujet parlant de produire et de comprendre instantanément de nouvelles phrases, qui sont différentes - que ce soit du point de vue physique, pris en un sens défini, ou sur la base des constructions ou des classes d’éléments - de celles qu’il a précédemment entendues, ne leur sont pas associées par le conditionnement, ni ne peuvent être obtenues à partir d’elles par quelque type de « généralisation » que ce soit, parmi ceux que l’on connaît en psychologie ou en philosophie. Il semble évident que l’acquisition linguistique est fondée sur la découverte par l’enfant de ce qui, d’un point de vue formel, constitue une théorie profonde et abstraite- une grammaire générative de sa langue- dont les concepts et les principes ne sont reliés à l’expérience que de loin, par des chaînes longues et complexes d’étapes inconscientes de type quasiment déductif. Le caractère de la grammaire acquise, la qualité inférieure et l’étendue extrêmement limitée des données dont le sujet dispose, la frappante uniformité des grammaires obtenues, le fait qu’elles soient indépendantes de l’intelligence, de la motivation, de la situation émotionnelle, ces facteurs pouvant avoir une grande marge de variantes - tout cela ne permet pas d’espérer que la structure de la langue puisse être apprise par un organisme qui ne disposerait d’aucune information préalable sur son caractère général.

Il est impossible, pour le moment, de formuler à propos de la structure initiale une hypothèse de travail qui soit assez riche pour rendre compte du fait que la connaissance grammaticale est acquise par le sujet sur la base des renseignements dont il dispose. En conséquence, lorsque les empiristes s’efforcent de montrer comment les hypothèses touchant un dispositif d’acquisition linguistique peuvent être réduites à un minimum conceptuel, leur tentative est tout à fait hors de propos. Le vrai problème est justement de développer sur la structure une hypothèse qui soit assez riche pour rendre compte de l’acquisition linguistique, sans pourtant l’être assez pour contredire la diversité linguistique que l’on connaît. Une hypothèse de cet ordre ne pourra évidemment pas satisfaire les préjugés sur l’apprentissage qui découlent de plusieurs siècles de doctrine empiriste ; mais c’est là un point de peu d’importance et qui n’a qu’un intérêt historique. Non seulement ces préjugés ne sont pas plausibles, mais de plus, lis n’ont aucune base de fait, et s’accordent mal avec le peu que l’on sait sur la façon dont les animaux ou les humains construisent une «théorie du monde extérieur ».

On voit clairement pourquoi la conception suivant laquelle la connaissance tout entière dérive uniquement des sens par des opérations élémentaires d’association et de « généralisation » devait être très séduisante dans le contexte des luttes menées au XVIIIe siècle pour promouvoir le naturalisme scientifique. Cependant, il ne reste aucune raison aujourd’hui pour adopter sérieusement une position qui, étant donné une performance complexe de l’être humain, l’attribue entièrement à des mois tout au plus à des années d’expérience, plutôt qu’à des milliers d’années d’évolution ou à des principes d’organisation neurologique qui sont peut-être encore plus solidement fondés du point de vue des lois physiques ; cette position, de plus, mènerait à la conclusion que la façon on l’homme acquiert la connaissance en fait, apparemment, un être unique en son genre parmi les animaux. Une telle position est particulièrement invraisemblable en ce qui concerne le langage qui, dans l’univers de l’enfant, représente un aspect de création humaine et dont on attendrait naturellement qu’il reflète dans son organisation interne des capacités intrinsèquement caractéristiques de l’homme.

En bref, la structure des langues particulières est peut-être largement déterminée par des facteurs sur lesquels l’individu n’a pas de contrôle conscient et que la société ne peut guère choisir librement. En prenant pour base les meilleures informations dont nous disposions à présent, il parait vraisemblable de supposer qu’un enfant ne peut pas ne pas construire un type particulier de grammaire transformationnelle pour rendre compte des données auxquelles il est confronté, pas plus qu’il ne peut contrôler sa perception des solides ou l’attention qu’il porte à la ligne ou à l’angle. Ainsi, il est très possible que les traits généraux de la structure linguistique reflètent moins la progression de l’expérience du sujet que le caractère général de sa capacité à acquérir la connaissance - au sens traditionnel, ses idées et ses principes innés. Clarifier cette question et raffiner notre compréhension de ses multiples aspects, c’est là, croyons-nous, la raison la plus intéressante et la plus importante que nous puissions avoir d’étudier les grammaires descriptivement adéquates, et, par-delà, de chercher à formuler et à justifier une théorie linguistique générale qui remplisse la condition d’adéquation explicative. En poursuivant cette recherche, l’on peut espérer donner un contenu effectif à l’opinion traditionnelle selon laquelle « les principes de la grammaire forment une partie importante et fort curieuse de la philosophie de l’esprit humain ».

SAVOIR
Noam Chomsky, le Langage et la pensée , petite Bibliothèque Payot, 1970.

Noam Chomsky, la Linguistique cartésienne , suivie de la Nature formelle du langage , Seuil, 1969.

Noam Chomsky, Structures syntaxiques, Seuil, 1969.

Noam Chomsky et G.A. Miller, l'Analyse formelle des langues naturelles , Gauthier-Villars. Nicolas Ruwet, Introduction à la Grammaire générative , Plon, 1968.


   DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon