|
|
|
|
|
|
UN REGARD SUR LE FUTUR |
|
|
|
|
|
(si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )
CANAL U LIEN
UN REGARD SUR LE FUTUR
Un regard sur le futur : pouvons-nous comprendre l'infiniment grand à partir de l'infiniment petit ? Les dernières décennies du siècle ont été témoin de progrès extraordinaires dans notre compréhension des constituants ultimes de la matière et des forces qui agissent sur eux. Grâce à l'effort de nombreux scientifiques, nous sommes parvenus à élaborer une « théorie standard » qui décrit et explique tous les phénomènes ainsi observés au coeur du monde des particules élémentaires. Avec la théorie standard, nous pouvons retracer l'histoire de l'Univers en remontant dans le temps, jusqu'à quelques fractions de milliards de secondes après le Big Bang, à un moment où la température de l'Univers s'élevait à un million de milliards de degrés centigrade. A cette époque le plasma primordial qui constituait l'Univers était peuplé de particules que nous ne pouvons produire aujourd'hui seulement dans les accélérateurs de particules les plus puissants en Europe et aux USA. L'évolution de l'Univers a été profondément affectée par les phénomènes qui se déroulèrent alors, et même avant. Ainsi la compréhension des constituants fondamentaux et de leurs interactions est cruciale pour saisir la distribution sur une grande échelle des galaxies, la matière et l'énergie qui le composent, et sa destinée finale. Malgré les progrès, des éléments importants de la microphysique sont encore à l'Etat d'hypothèse. L'existence et les propriétés du « boson de Higgs » ou la nature de la « matière noire » qui constitue l'essentiel de la masse de l'Univers devront être éclaircis par le LHC (Large Hadron Collider), une machine révolutionnaire qui mènera l'Europe à la frontière des hautes énergies. Le LHC est actuellement en construction au CERN (conseil Européen pour la Recherche Nucléaire) à Genève, dans le cadre d'une collaboration internationale, et devrait entrer en activité en 2007. Le LHC et les machines qui succèderont éclaireront plusieurs aspects fondamentaux de notre monde, comme l'existence de dimensions additionnelles à l'espace et aux temps et permettront la synthèse de la Mécanique Quantique et de la Relativité Générale, le problème théorique le plus profond de notre époque.
Un regard vers le futur
Luciano Maiani
Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.
Un premier exemple : l'énergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.
La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.
La forme de l'espace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.
Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.
La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.
Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.
La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.
Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.
Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.
Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.
La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.
( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )
|
|
|
|
|
|
|
I A 5 |
|
|
|
|
|
La reconnaissance des formes à l'épreuve des faits
mensuel 312
daté septembre 1998 - 
Née avec les ordinateurs, l'intelligence artificielle vise à reproduire les facultés humaines les plus élevées. Moins ambitieuse, la reconnaissance des formes se limite à la simulation des capacités humaines de perception, visuelles ou auditives. Force est de reconnaître que ces deux disciplines scientifiques n'ont pas tenu leurs promesses initiales. Les résultats ont longtemps tardé à sortir des laboratoires et à se manifester dans la vie quotidienne. Pourquoi ? Le développement récent d'un système industriel éclaire les obstacles, conceptuels et pratiques, qui se dressent sur le chemin des applications. Ce système est opérationnel dans un domaine particulièrement sensible aux erreurs d'interprétation : la reconnaissance des montants manuscrits sur les chèques bancaires !
Que signifie une loi physique ? En quoi explique-t-elle un phénomène, comment le prévoit-elle ?
Depuis Galilée, les mathématiques sont censées expliquer le monde et, à l'évidence, de très grands succès ont été obtenus par leur application dans tous les domaines de l'étude de la nature. On sait que, le plus souvent, des équations différentielles ou aux dérivées partielles sont au coeur de ces réussites. Et l'on sait également qu'il reste toujours à en calculer les solutions !
Dans les années 1940-1950, les ordinateurs ont été créés pour cela même. Bien que binaires, on s'aperçoit qu'ils permettent d'effectuer n'importe quelle opération d'analyse numérique. Mais, plus fondamentalement, ils sont capables de transformer toute chaîne de caractères en une autre chaîne de caractères par des « algorithmes », qu'on peut écrire dans des programmes et mettre en oeuvre avec des ordinateurs. De fait, cette faculté ouvre la voie à des modélisations inédites.
Aujourd'hui, avec les progrès inouïs des machines informatiques, nous voyons naître des modèles du deuxième type, appelés ainsi par opposition aux modèles mathématiques ou aux modèles de l'analyse numérique. Ces modèles, représentés par des programmes mettant en oeuvre des algorithmes, ne sont en rien des applications numériques de formules ou d'équations. Ils ont une existence propre, quasi indépendante de la culture de la physique mathématique, et ils permettent tout aussi légitimement d'expliquer ou de simuler des phénomènes naturels. Ils ont acquis droit de cité là où les mathématiques ne sont quasiment d'aucune aide, en biologie, en linguistique et, pour ce qui nous intéresse ici, en reconnaissance des formes. En 1966, dans la nouvelle formule d' Atomes , journal auquel a succédé La Recherche , j'avais exposé l'intérêt d'étudier et de construire des « opérateurs » de reconnaissance, matérialisés par des programmes exécutables par ordinateur1. L'énoncé du principe est simple : recueillir les données d'un capteur, c'est-à-dire une représentation le signifiant, et en obtenir une ou des interprétations les signifiés par l'exécution d'algorithmes. Le but ultime est la reproduction des capacités humaines de perception, visuelles ou auditives. Contrairement aux prévisions optimistes des pionniers de l'époque, dont je faisais partie, les problèmes ainsi posés se sont pourtant révélés très coriaces. Certains détracteurs ont même été jusqu'à affirmer l'impossibilité de les résoudre !
Dans ce domaine, comme dans bien d'autres, la preuve ultime de la validité des idées et des recherches et de leur intérêt se trouve dans la résolution d'un problème « réel », par opposition à celle d'un problème « d'école » restant confinée dans les laboratoires. La physique nucléaire aurait-elle connu un tel développement sans le bruit de la bombe et les centrales nucléaires ? Toute proportion gardée, la saisie industrielle par programme des montants de chèques n'est-elle pas une preuve de la validité des idées en matière de reconnaissance des formes ?
Dès son irruption sur la scène scientifique, l'intelligence artificielle avait affiché de hautes ambitions : reproduire avec des moyens informatiques toutes les facultés humaines, y compris les plus élevées, telles que le raisonnement logique, la compréhension du langage et le comportement. Moins ambitieuse, la discipline scientifique de la reconnaissance des formes RdF - Pattern Recognition, en anglais s'est développée depuis la fin des années 1960, en même temps que l'intelligence artificielle IA, et ceci au fur et à mesure de l'augmentation de la puissance et des capacités de mémoire des ordinateurs. Très tôt, dès le début des années 1970, les deux disciplines se sont séparées. Le fait était aussi regrettable qu'inévitable, étant donné les origines différentes des chercheurs de chaque domaine : les premiers IA provenaient des mathématiques tandis que les seconds RdF étaient en majorité des physiciens et des ingénieurs2. Malgré de nombreux efforts des uns et des autres, les résultats des premiers programmes d'IA ou de RdF se sont révélés très éloignés des performances humaines ou même animales. Pourquoi ? Nous avons souligné qu'une machine informatique programmable - un ordinateur - est capable d'opérer n'importe quelle transformation d'une donnée de départ, la représentation, en une image d'arrivée, une interprétation. C'est une machine « universelle » et elle est opérationnelle, c'est-à-dire qu'elle donne un résultat concret : une image, un texte, des chiffres. Toutefois, cette généralité se paye par des contraintes importantes : le volume de mémoire, le temps de calcul. Tout algorithme, en particulier un opérateur de reconnaissance, est en effet caractérisé par une complexité de calcul Ofn*, nombre d'opérations à effectuer en fonction du volume n des données d'entrée. La plupart des algorithmes utilisés en RdF sont exponentiels, leur complexité varie en Oean, ce qui les rend vite impraticables si n est un peu grand, quelle que soit la puissance de calcul et de mémoire à disposition.
Comment échapper à cette complexité ? On dispose de trois possibilités, non exclusives l'une de l'autre :
1. diminuer n, c'est-à-dire avoir affaire à des sous-images, donc à des sous-problèmes ;
2. décomposer le processus global de décision en niveaux multiples de décision ;
3. utiliser des opérateurs qui ne sont pas exponentiels, mais polynomiaux, en particulier linéaires. Ce faisant, on introduit nécessairement des erreurs mais, idée essentielle, on échange de la précision pour de la rapidité.
Toute opération de reconnaissance de formes s'organise ainsi selon des niveaux successifs fig. 1. A chaque niveau, une opération concrète permet de passer d'une représentation à une ou plusieurs interprétations, lesquelles vont constituer la représentation du niveau suivant. Chaque interprétation est plus abstraite, donc plus générale, et ce qui est gagné en abstraction est perdu en localisation. Avec un peu d'audace, on verrait là une analogie avec les relations d'incertitude de la physique quantique.
Les opérations de RdF apparaissent chaotiques, c'est-à-dire qu'une variation très petite de la donnée de départ peut faire basculer l'interprétation d'une décision à une autre. Ceci distingue particulièrement ces simulations, accomplies par ces opérateurs informatiques, de la perception humaine dont chacun sait, par expérience, qu'elle tolère des bruits et des déformations très importants. Pour éviter ce caractère chaotique, notre pratique nous a appris à introduire du « continu » là où l'algorithmique impose du « discret ». Faut-il s'en étonner si l'on se souvient que l'on tente en fait de simuler des processus analogiques* à l'aide de machines qui, par construction, sont d'essence binaire ?
Un caractère essentiel des décisions des différents niveaux est donc de ne pas conclure tout de suite par « vrai ou faux », mais d'affecter chaque possibilité de décision d'un coefficient de vraisemblance. Il s'agit d'entretenir l'ambiguïté sur l'interprétation et, autant que faire se peut, de retarder la décision définitive. Pour obtenir un optimum, une autre leçon de l'expérience consiste à utiliser, pour une même interprétation, plusieurs opérateurs de RdF élaborés selon des principes différents. Chacun fournit un résultat qui, pris isolément, est le plus souvent peu informatif, mais c'est leur combinaison qui devient pertinente. D'où d'intenses travaux visant à trouver la meilleure façon de combiner les données produites par ces opérateurs. En fait, il semble qu'une simple combinaison multiplicative de leurs résultats - l'addition des logarithmes, ce qu'en physiologie on appelle la loi de Fechner - soit voisine de l'optimum.
On souhaiterait bien sûr que de tels opérateurs puissent être créés par apprentissage automatique à partir de bases de données réelles. Malheureusement, cette direction de recherche n'a pas donné de résultats satisfaisants. Dans la pratique, les opérateurs de RdF sont le plus souvent programmés « à la main », suivant l'intuition et l'imagination du reconnaisseur. Seuls les réseaux de neurones* présentent une solution générale intéressante, mais leur mise en oeuvre est relativement lourde3.
On ne peut s'empêcher de rapprocher ces descriptions de ce que nous savons du cortex visuel humain : existence de couches multiples, multiplicité des neurones. Là s'arrêtent malheureusement les analogies : un cerveau n'est pas un ordinateur dans lequel on peut implanter un programme et, heureusement pour nous, ses opérations ne sont pas chaotiques...
Parmi les activités humaines, la perception visuelle ou auditive est un automatisme, en ce sens que nous ne pouvons la contrôler, au contraire par exemple des mouvements corporels ou de la pensée. Peut-on s'empêcher de reconnaître un objet visible ? Dans l'évolution du vivant, ces capacités essentielles sont arrivées très tôt les insectes sont de parfaits automates visuels par exemple, bien avant le contrôle volontaire. Ce dernier provient-il effectivement de l'addition, au cours de l'évolution, de niveaux similaires à ceux que nous avons décrits ? Là réside peut-être la cause des échecs répétés de l'intelligence artificielle, dont le paradigme s'inspire de la logique formelle, en particulier de la démonstration de théorème. Il suffisait, pensait-on, de trouver les règles logiques et d'appliquer des techniques inductives ou déductives pour simuler les activités humaines de traitement de l'information. Dans la réalité, à cause de leur caractère chaotique, les « systèmes experts » se révèlent inutilisables en dehors de cas d'école ou d'applications très limitées. Inspirée par la physique et l'expérimentation plus que par les mathématiques et les idées a priori, la RdF a pris une voie différente, largement expérimentale4. Peut-être suffisait-il d'écouter les leçons de l'ontogenèse pour se convaincre que la modélisation de l'humain passait d'abord par celle des facultés perceptives, et non par celle de la pensée logique ?
Comment parvient-on à résoudre un problème particulier de RdF, la reconnaissance de l'écriture manuscrite et, plus précisément, celle des chiffres et des lettres, mots et phrases sur les chèques bancaires ? Au départ, un capteur d'image - un réseau de diodes - fournit une matrice bidimensionnelle de valeurs numériques - une image dite « de niveaux de gris ». Chaque valeur correspond à la luminosité d'une petite zone.
Le terme de pixel* correspond à la fois à la zone en question et à sa valeur. Fixant un seuil, une image bitonale ou binaire s'en déduit en affectant un 1 aux valeurs supérieures à un seuil, un 0 aux valeurs inférieures. Cette opération de binarisation se fait soit au niveau du capteur lui-même, soit par programme.
Une valeur 0 ou 1 demande évidemment moins de mémoire d'ordinateur - un bit - qu'une valeur numérique de 64 niveaux 5 bits, ou 256 niveaux 7 bits. A titre d'exemple l'image d'un écran de PC demande environ un million de pixels. Pour la garder en mémoire, 1 Mo méga-octet est nécessaire. En général, la représentation d'un document écrit demande 200 dpi dots per inch ou 8 pixels/mm, soit environ 90000 pixels pour un chèque. Les contraintes de mémoire et de transmission amènent à représenter les images de chèques en binaire. Toutefois, l'opération de binarisation est délicate et, située en début de chaîne, elle comporte des défauts ayant des conséquences importantes sur l'ensemble du traitement. Dans le principe, il serait donc préférable de traiter des images primaires en « niveaux de gris » plutôt qu'en binaire. Mais l'opération se révèle encore trop coûteuse pour être réalisée industriellement.
Après binarisation de l'image, le traitement des informations met en oeuvre, à chaque niveau, deux principes qui se sont dégagés au cours de nos recherches : la segmentation-reconnaissance et le principe de régularité-singularité.
Nous avons indiqué la nécessité de segmenter les images en sous-images. Ainsi, sur un chèque, le montant numérique doit être segmenté en chiffres, le montant littéral en mots, les mots en lettres. Parfois, la segmentation est clairement définie : les objets à reconnaître sont connexes et séparés les uns des autres. Mais souvent ce n'est pas le cas. Il faut choisir entre différentes hypothèses de segmentation : elles sont évaluées en probabilités a priori et a posteriori par la reconnaissance de l'élément segmenté, y compris la non-reconnaissance « ce n'est pas une lettre », « ce n'est pas un mot ».... La segmentation implique la reconnaissance et inversement : les deux opérations ne sont pas séparables.
Que signifie notre second principe, la régularité-singularité ? Pour l'illustrer, plaçons-nous dans un autre domaine, celui de la reconnaissance de la parole. D'une façon générale, il est possible de décomposer un signal de parole en régions périodiques, qui correspondent aux voyelles. Celles-ci sont faciles à reconnaître : elles constituent les parties régulières du signal. En revanche, les consonnes, « accidents » des voyelles, sont les parties singulières, dont l'expérience montre qu'elles sont difficiles à localiser et identifier. L'idée consiste à détecter en priorité les parties régulières et à les retirer du signal. Il reste ainsi les parties singulières, bien localisées, et donc plus faciles à reconnaître. De même, pour une écriture, un mot manuscrit, mal et rapidement écrit, se réduit à une oscillation autour de l'horizontale, signal périodique, comparable aux voyelles de la parole bien que sans contenu en information utile fig. 2. Les « accidents » de cette partie régulière sont les parties singulières de l'écriture : ascendants, descendants, boucles, ligatures. La mise en oeuvre de ce principe est illustrée sur la figure 3 : la partie supérieure montre l'image d'origine et, en dessous, s'affiche la décomposition en parties singulières, que nous appelons les graphèmes, alternativement en blanc et en noir, après suppression de la partie dite régulière. D'une façon générale, un chiffre ou une lettre quelconque est constituée d'un à trois graphèmes. Ces graphèmes représentent les formes primitives de premier niveau.
La figure 4 donne le schéma général d'un système de reconnaissance d'un montant de chèque :
1. l'image bitonale du montant en chiffres est localisée l'absence de norme française sur sa position ne facilite pas la tâche et le fond est « nettoyé », c'est-à-dire qu'on ne retient que les traits identifiés comme tels par les programmes ;
2. les chiffres sont reconnus ; une liste de montants, ordonnés en valeurs de vraisemblance décroissantes, est obtenue ;
3. Si la valeur de vraisemblance de la tête de liste est suffisamment élevée, ce montant est retenu ; si cette valeur est trop faible, le chèque est rejeté et proposé à un observateur humain. Entre les deux valeurs seuils, on met en route la reconnaissance du montant littéral, nécessairement plus coûteuse en temps calcul ;
4. L'image du montant littéral est alors à son tour localisée et nettoyée ;
5. Le montant littéral est segmenté ; les mots sont reconnus. Une liste de montants, ordonnés en valeurs de vraisemblance décroissantes, est dressée ;
6. Combinant les informations indépendantes recueillies sur les chiffres et les lettres, on aboutit à une nouvelle liste de montants. Si une valeur de vraisemblance dépasse le seuil admissible, le montant est adopté ; sinon l'image du chèque est proposée à un opérateur humain.
Précisons quelques détails de ce processus. Que ce soit pour les chiffres ou les lettres, après l'extraction et le nettoyage du fond, les images binaires sont normalisées en taille et en inclinaison les écritures penchées sont redressées. Pour les lettres, la nature « imprimés ou bâtons » par rapport à « manuscrits » est détectée en France 20 % des chèques sont imprimés. Si l'écriture est manuscrite, une zone de lettres ne comportant ni partie ascendante ni partie descendante est déterminée : elle donne une information importante sur la nature des lettres « ce n'est probablement pas un b, ni un d, ni un p, etc. ». Enfin, on établit un graphe, c'est-à-dire une description d'un ensemble de points reliés entre eux par des traits fig. 5. Ce graphe est utilisé pour trouver les parties régulières, et donc, par complémentarité, les graphèmes, point essentiel de notre technique. A chaque étape, sont mis en oeuvre divers opérateurs de reconnaissance faisant appel à des techniques multiples mentionnons-les pour mémoire : classifieur de Bayes, silhouettage corrélation, programmation dynamique, automates probabilisés, Hidden Markov Models, réseaux de neurones. C'est à ce prix qu'on parvient à augmenter le résultat moyen final et à diminuer le caractère inévitablement chaotique de la programmation. Les opérateurs sont optimisés par un apprentissage statistique, en utilisant des bases d'images de chèques pour lesquels on dispose du montant saisi. Ces bases doivent être aussi larges que possible. Ainsi, pour la mise au point adaptative des réseaux de neurones du montant littéral, nous avons dû faire appel à 100 000 images de chèques. Un tel chiffre est nécessaire parce que la fréquence d'apparition des mots cent, mille, sept... est très inégale. Pour l'apprentissage du réseau de neurones de reconnaissance des caractères, il a fallu exploiter jusqu'à 400 000 exemples !
Là également diverge l'analogie avec les mécanismes humains. Si apprendre à lire demande beaucoup de temps, il suffit de présenter un seul exemple de caractère à un lecteur normal, pour qu'il soit capable de le reconnaître sous une infinité de représentations : la base d'apprentissage semble vraiment minimale. Sur une seule image de chèque, l'erreur de lecture d'un opérateur humain est très faible. Cette remarquable stabilité n'est malheureusement pas atteinte par notre système qui, en dépit des efforts accomplis, affiche un comportement parfois erratique sur une image isolée. Les taux de reconnaissance ne deviennent stables que sur un très grand nombre de chèques : par exemple, sur 1 000 chèques, la fluctuation des résultats peut dépasser 10 %. En revanche, sur des échantillons d'au moins 100 000 images de chèques, le taux de reconnaissance absolument stable est de l'ordre de 70 %, avec un taux d'erreur de 1 % voisin de celui des opérateurs humains. Ces performances sont atteintes dans un environnement industriel quotidien par un système Interchèque , de la société A2iA qui, pour fixer les idées, est constitué par une centaine de milliers de lignes de code, écrites en langage C, et s'exécute sous Windows NT 4.0 sur de simples PCs.5
Au terme de cette description, le lecteur aura peut-être l'impression qu'on lui a présenté les résultats d'un « bricolage », certes habile mais très spécifique. Et il aura raison ! Mais il se souviendra aussi que, selon François Jacob, le bricolage n'est pas étranger aux phénomènes de l'évolution du vivant : leur simulation devrait-elle l'être ? De fait, ce système de reconnaissance de l'écriture manuscrite sur des chèques bancaires n'a rien de générique. Il est spécifiquement adapté à cette tâche, même si sa conception a été guidée par les idées et les principes généraux que nous avons évoqués. Au-delà de cet exemple, il nous semble ainsi que s'ouvrent des perspectives de modélisation constructive de la vision et, plus largement, de la compréhension de nos mécanismes perceptifs, tout en restant conscient des différences considérables entre un ordinateur programmé et un cerveau. Jusqu'à présent, l'explication de la perception et des interprétations des sens était largement « philosophique ». Si une immense quantité de recherches a été faite par les physiologistes de la vision et de l'ouïe, nous savons peu de choses sur le fonctionnement du cerveau en tant que système d'information. D'où d'innombrables discussions sur ce qu'il faut entendre par le sens, c'est-à-dire l'interprétation d'un message extérieur. Sans prétendre que nos algorithmes « expliquent » la vision humaine, on peut penser que ce type de démarches introduit la méthode expérimentale dans un domaine dont l'état empirique rappelle celui de la médecine au début du XIXe siècle, avant que Claude Bernard y introduise la méthode expérimentale.
La science fait affecter des budgets gigantesques à des domaines tels que l'espace, la physique des particules, l'astrophysique, pour des retours que l'on peut parfois estimer minimes. En comparaison, les études qui concernent les mécanismes humains de compréhension et d'interprétation ne sont pratiquement pas soutenues alors que leur intérêt pour comprendre l'homme est extrême. Qu'est-ce que « communiquer » sinon interpréter des représentations ? Continuerons-nous à appréhender ces sujets avec la culture du passé ? En liaison avec les physiologistes, la voie de l'explication par la modélisation est ouverte. Comme l'a dit le prix Nobel Francis Crick, « il n'y a pas d'étude scientifique plus vitale pour l'avenir de l'homme que l'étude de son propre cerveau. Toute notre conception de l'Univers en dépend » .
1 J.-C. Simon, Atomes, 231 , 157, avril 1966.
2 R.O. Duda et P. Hart, Pattern Classification and Scene Analysis , Wiley Interscience 1974 ; K. Fukunaga, Pattern Recognition , Academic Press, 1972.
3 C.M. Bishop, Neural Network for Pattern Recognition , Oxford University Press, 1995.
4 J.-C. Simon, La Reconnaissance des formes par algorithmes , Masson, Paris, 1984.
5 S. Knerr et al ., The A2iA Intercheque System : Courtesy Amount and Legal Amount Recognition for French Checks, International Journal of Pattern Recognition and Artificial Analysis, vol. 11, n°4, 505-548, 1997.
NOTES
*O fn correspond à la partie dominante de la fonction fn quand n croît infiniment.
*Un signal est dit ANALOGIQUE s'il transcrit de façon continue, par une relation de proportionnalité, le message dont il est porteur. Les disques vinyles, par exemple, sont gravés par des procédés analogiques. En revanche, on sait que les disques compacts font appel à des procédés numériques où l'information est codée de façon discontinue, le signal étant représenté par une succession de 0 et de 1.
*Les RÉSEAUX DE NEURONES formels, inventés en 1943, n'ont que de très lointains rapports avec ce que l'on sait aujourd'hui du fonctionnement des neurones cérébraux. Schématiquement, un neurone formel est doté d'un nombre n d'entrées affectées chacune d'un poids ai i=1 à n, et d'une sortie S. Une mesure xi se présente sur chaque entrée : S vaut 1 si la somme des ai xi est supérieure à un seuil, 0 dans le cas contraire. La théorie des neurones formels porte sur l'assemblage de telles entités et sur les mécanismes d'apprentissage des poids ai.
*Un PIXEL est le résultat de mesure d'intensité donné par un capteur d'image - une diode par exemple - dans une petite surface ou un petit angle solide. C'est un échantillon d'amplitude. Regardant à la loupe une photo imprimée dans un journal, on voit qu'elle est constituée de tels éléments isolés dans des petits carrés. Si l'amplitude est 0 ou 1, on dit que le pixel - I'image - est binaire ou bitonale, sinon qu'elle est « en niveaux de gris ».
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
Pluie de mercure sur l'Arctique |
|
|
|
|
|
Pluie de mercure sur l'Arctique
Christophe Ferrari dans mensuel 381
daté décembre 2004 - Réservé aux abonnés du site
Les populations des contrées polaires sont-elles menacées par une pollution au mercure ? Sa présence de plus en plus forte dans la chaîne alimentaire des écosystèmes de haute latitude inquiète. En surveillant l'évolution de concentrations de ce polluant au-dessus des régions arctiques, les spécialistes de la chimie de l'atmosphère ont découvert un nouveau phénomène.
Depuis une vingtaine d'années, les concentrations en mercure, plus précisément de sa forme la plus toxique, le méthylmercure, n'ont cessé d'augmenter dans les écosystèmes arctiques, des poissons aux ours polaires en passant par les mammifères marins [1]. Dans les lacs canadiens, l'ensemble des espèces piscicoles ont dépassé les valeurs jugées limites* pour une consommation régulière. Et récemment, en Norvège, la viande de baleine a, pour la même raison, été interdite aux femmes enceintes.
Dès que l'on parle de pollution au mercure, surgit immédiatement le spectre de la contamination catastrophique de Minamata au Japon qui fit plus d'un millier de morts dans les années cinquante lire « Le spectre de Minamata », p. 40. On est heureusement bien loin d'une telle situation dans les régions de hautes latitudes. Mais pour fixer les idées une étude menée entre 1970 et 1992 sur 38 000 Canadiens nés et vivant sur l'ensemble du territoire a montré que 9 000 d'entre eux avaient des concentrations de méthylmercure dans le sang supérieures à 20 microgrammes par litre µg/l. Ces concentrations dépassaient les 100 µg/l chez 610 personnes, le seuil au-dessus duquel il existe un risque pour la santé selon les critères de l'Organisation mondiale de la santé au-delà de 330 µg/l, les dommages sont considérés irréversibles.
Cette situation préoccupante a conduit les spécialistes de la chimie de l'atmosphère polaire à s'interroger sur les causes de cette accumulation. En effet, si, dans le cas de l'intoxication de Minamata, l'origine de la pollution était connue, les raisons d'une augmentation des niveaux de ce polluant dans les écosystèmes arctiques restaient floues. Les écosystèmes de haute latitude, éloignés des sources d'émissions, tant naturelles qu'anthropiques lire « D'où vient le mercure ? », p. 38, ne doivent donc a priori leur mercure qu'aux seules retombées de la pollution atmosphérique globale.
Du ciel aux poissons
Dans l'atmosphère, le mercure se trouve essentiellement sous la forme de mercure élémentaire gazeux Hg°. Sa durée de vie est en moyenne d'un an, un laps de temps suffisant pour assurer une concentration quasi homogène, dans toute la troposphère*, d'environ 1,5 nanogramme par mètre cube ng/m3. Ce mercure élémentaire peut être oxydé et donner la forme divalente* et réactive du métal, qui se concentre facilement dans l'eau ou se fixe sur des particules. Celle-ci se dépose donc beaucoup plus facilement. Et ensuite, dans les eaux, les sols ou les sédiments, elle peut à son tour être transformée par des processus biologiques en méthylmercure. C'est cette forme toxique qui est ingérée par les organismes vivants. Elle s'accumule tout au long de la chaîne alimentaire et peut ainsi atteindre, en bout de chaîne, des concentrations un million de fois plus fortes que celles mesurées dans l'eau de surface.
C'était donc aux spécialistes de l'atmosphère polaire qu'il revenait de comprendre pourquoi ces retombées étaient aussi fortes dans les régions polaires. Une première voie s'est dessinée avec la découverte, en 1998, d'un phénomène atmosphérique très particulier, les « pluWIies de mercure ». Au printemps de cette année-là, William Schroeder, Alexandra Steffen et leurs collègues de l'agence gouvernementale « Environnement Canada », à Toronto, mesuraient simultanément les concentrations de mercure élémentaire et de l'ozone dans l'atmosphère à Alert, dans le Grand Nord du Canada [fig. 1]. Ce faisant, ils ont observé pour la première fois des chutes brutales de teneurs en mercure élémentaire gazeux [2]. En une dizaine de minutes, ces concentrations pouvaient passer de 1,5 ng/m3 à moins de 0,1 ng/m3, comme si l'atmosphère se vidait de son mercure élémentaire. Depuis ces premières observations, plusieurs équipes ont détecté et enregistré en différents sites de l'Arctique de telles pluies de mercure pouvant durer de quelques heures à quelques jours [fig. 1]. Elles font aujourd'hui l'objet d'un suivi régulier chaque année au printemps, de mars à juin, en différentes stations de mesure à Barrow en Alaska, à Station Nord au Groenland, à Kuujjuarapik au Québec et enfin à Ny-Älesund, au Spitzberg. Plus récemment, des collègues allemands, Ralf Ebinghaus et Christian Temme du GKSS de Hambourg en ont même observé en Antarctique, à la base de Nuymayer située près de la côte atlantique [3].
Tous ces enregistrements ont montré que les chutes de mercure élémentaire s'accompagnent toujours d'une forte diminution de l'ozone atmosphérique [fig. 2]. Ces fortes corrélations entre les concentrations de mercure élémentaire gazeux et d'ozone suggéraient une piste quant à l'origine de ces « pluies » : les mécanismes chimiques en jeu doivent impliquer ces deux molécules. En suivant cette piste, Steve Lindberg, du laboratoire américain d'Oak Ridge, a proposé un premier scénario au début des années 2000 : selon lui, le mercure élémentaire gazeux serait oxydé par des formes réactives du brome produites par les sels marins contenus dans la neige [4]. En effet, le bromure de sodium NaBr, un sel marin présent dans les embruns émis par les océans, peut être transformé chimiquement sur une surface gelée, les cristaux de glace par exemple, en molécules de brome Br2. Ce gaz est donc plus abondant au printemps quand l'eau, libérée des glaces, dégage plus d'embruns. De plus, dans les conditions d'insolation polaires printanières, les molécules de brome peuvent être facilement cassées par le rayonnement solaire. Or, les atomes de brome ainsi dissociés Br sont extrêmement réactifs vis-à-vis de l'ozone et du mercure. Ce serait donc eux qui oxyderaient le mercure élémentaire et détruiraient l'ozone, provoquant les pluies de mercure au cours du printemps arctique. Le mercure ainsi converti en sa forme divalente, qui, on l'a vu, se dépose plus rapidement, se déverserait sur les surfaces neigeuses et dans les premiers centimètres de neige. Et au moment de la fonte du manteau neigeux il passerait dans l'eau et pourrait alors être transformé en méthylmercure.
Les premières mesures de mercure divalent dans la neige attestent bien d'une accumulation soudaine, les quantités pouvant y être multipliées jusqu'à cinquante fois dans certains cas. Ce scénario a aussi été très vite conforté par les observations du satellite ERS-2 de l'Agence spatiale européenne, qui cartographie la distribution des composés chimiques dans la troposphère. Elles ont en effet révélé la présence de brome réactif, sous forme d'atomes isolés ou associés à de l'oxygène au moment des pluies de mercure. Si l'on considère l'épisode du 10 avril 2002 enregistré à Kuujjuarapik par exemple, la carte de l'hémisphère nord exhibe des concentrations de cette forme de brome particulièrement fortes ce jour-là, notamment dans la baie de Hudson, où se situe le site de mesure.
Influence océanique
Les pluies de mercure ont certes toujours été enregistrées en zone côtière, près des sources de brome. Cependant, la proximité de l'océan ne suffit pas à les déclencher. En effet, nos collègues allemands du GKSS de Hambourg, Ralf Ebinghaus en particulier, qui mesurent depuis une dizaine d'années maintenant le mercure élémentaire gazeux et l'ozone à Mace Head sur la côte ouest de l'Irlande, n'ont jamais enregistré ce type d'événements. Quelles sont alors les conditions qui président à ce type de réactions très particulières ?
Depuis la découverte des pluies de mercure en 1998 par William Schroeder, les spécialistes avaient uniquement porté leur attention sur l'atmosphère, négligeant un autre compartiment important dans ces régions, le manteau neigeux saisonnier. Dans le scénario de Steve Lindberg, la couche de neige ne joue qu'un rôle passif, libérant en fondant le métal dans les sols et les rivières. Mais est-elle si passive ?
En 2001, avec Aurélien Dommergue au laboratoire de glaciologie et géophysique de l'environnement à Grenoble, nous avons entrepris d'étudier de plus près ce manteau neigeux, non seulement pour cerner son rôle dans le déclenchement des pluies toxiques mais aussi pour évaluer ses capacités à stocker du mercure. Nous avons ainsi mis au point un système portable de prélèvement et d'analyse de la neige elle-même, et également de l'air piégé entre les cristaux appelé « air interstitiel » de manière à y suivre l'évolution du mercure [5].
Au printemps 2002, nous avons réalisé les deux premières campagnes de mesure en Arctique avec le soutien de l'institut Paul-Émile-Victor. L'une à Station Nord au Groenland et l'autre à Kuujjuarapik au Canada. Sur les deux sites, nous avons mesuré les concentrations de mercure élémentaire dans un manteau neigeux saisonnier de 100 à 120 centimètres d'épaisseur. Résultat : elles diminuent de manière exponentielle avec la profondeur, passant de 1,6 ng/m3 en surface à environ 0,1 ng/m3 à la base de la couche.
Une telle diminution peut s'expliquer uniquement par une transformation chimique du mercure gazeux sous l'effet des composés bromés dans l'air interstitiel de la neige [6]. Ce mercure divalent, produit par le manteau neigeux lui-même, s'ajoute ainsi à celui déposé par les pluies et renforce le rôle de puits de mercure de la neige. Même si ce deuxième apport joue à la marge en termes de flux, il représente environ 0,01 nanogramme par mètre carré par heure ng/m2/h.
Mais le rôle du manteau ne s'arrête pas là. Sur chacun de ces deux sites, nous avons aussi observé un autre phénomène dans l'air piégé. La concentration de mercure élémentaire gazeux y augmente au cours de la journée. Et ce, dès l'apparition des premiers rayons du soleil. Elle y dépasse même la concentration extérieure : il y a donc forcément aussi production de mercure élémentaire gazeux [7]. Cette production suit parfaitement le taux d'insolation et est beaucoup plus forte dans les premiers centimètres de la neige qu'en profondeur. Elle est donc très probablement liée à des phénomènes photochimiques. Ce gaz fabriqué dans l'air piégé s'échappe-t-il de la neige ? Nous avons évalué le flux qui repart vers l'atmosphère entre 1,6 et 6,5 ng/m2/h selon les conditions d'insolation qui varient d'un jour à l'autre en fonction de la couverture nuageuse, etc.
Comme nous ne pouvons pas encore établir un bilan des quantités échangées sur l'année ou la saison, il reste cependant difficile d'estimer le bilan global de ces deux phénomènes, imprégnation et réémission qui se produisent à l'intérieur du manteau neigeux.Cependant, au final, lors de la fonte de ce dernier au printemps, les mesures montrent que seulement 15 à 20 % du mercure est émis sous forme de gaz élémentaire vers l'atmosphère, alors que dans la neige la concentration en mercure réactif décroît de plus de 60 à 80 % [8].
Poumon de neigeLe manteau neigeux polaire est donc loin d'être inerte vis-à-vis du mercure et serait aussi un véritable réservoir tampon, le libérant sur une période courte au moment de la fonte de la neige. Qui plus est, capable d'être à la fois le siège d'une transformation chimique du mercure gazeux présent dans l'air interstitiel et celui d'une production de ce même mercure élémentaire, ce réservoir jouerait un double rôle. L'image qui vient à l'esprit est celle du poumon, un poumon qui d'une part respire et incorpore le mercure, et d'autre part expire et rejette du mercure.
Mais à quel rythme et en quelles proportions fait-il l'un ou l'autre ? À y regarder de plus près il apparaît qu'au moment des mesures sur le site groenlandais, le manteau neigeux se comportait plutôt comme un puits de mercure, oxydant plus de mercure élémentaire qu'il n'en réémettait. En revanche, sur le site canadien, c'est l'émission du mercure élémentaire qui dominait, sauf la nuit. Or, la principale distinction entre ces deux campagnes de mesures tenait aux conditions de température et d'insolation. Celle du Groenland s'est déroulée de la fin février à la fin mars, au tout début du lever de soleil polaire. Les températures de l'air oscillaient entre - 30 et - 45 °C, la neige atteignant quant à elle - 10 °C à 1 mètre de profondeur et - 25 °C à 20 centimètres. Au Canada, la campagne à Kuujjuarapik a eu lieu début avril, quand le soleil est déjà haut. L'air ambiant y avoisinait les - 5° à - 10 °C et le manteau - 8 °C à - 2 °C .
Plus encore que la présence de neige, la température et l'insolation seraient-elles les paramètres déterminants ? Nos dernières campagnes de mesures, menées avec Pierre-Alexis Gauchard et Olivier Magand, vont dans ce sens [9]. La plus récente, réalisée à bord du navire Polarstern dans l'océan Arctique au cours de l'été 2004, avait essentiellement pour but d'identifier les paramètres clés dans le déclenchement des pluies. Pendant plus d'un mois, du 14 juillet au 31 août, nous avons mesuré en continu le mercure élémentaire gazeux et l'ozone atmosphériques. Toutes les conditions étaient réunies pour que du brome gazeux soit émis, soit par l'eau de mer, libre entre les blocs de glace, soit par la neige déposée à la surface de ces blocs. Pourtant, nous n'avons observé aucune pluie ! Il y a bien eu émissions de brome, mais pas les conditions nécessaires pour transformer le brome gazeux en atomes réactifs.
Température décisive
Là encore, la différence essentielle par rapport à nos campagnes printanières tenait à la température, comprise entre - 5 °C et + 2 °C ; alors qu'il faisait moins de - 10 °C à - 15 °C lors des pluies de mercure enregistrées au Groenland et au Canada.
Nous sommes donc convaincus aujourd'hui que, pour activer la production de brome gazeux qui déclenche les pluies de mercure, le thermomètre doit descendre au-dessous de - 10 à - 15 °C degrés au printemps. Pour nous, la température et l'insolation sont donc bien les paramètres déterminants. De plus, une fois le mercure lessivé de l'atmosphère, ce seraient encore ces paramètres qui réguleraient le comportement du manteau neigeux : tantôt puits, tantôt source. Pour garder l'image du poumon, ces deux paramètres imposeraient un double rythme d'inspiration et d'expiration, au cours de la journée d'une part et saisonnier de l'autre, car au tout début du printemps l'irradiation solaire est plus faible qu'en pleine saison. Mais sur ce point, nous n'en sommes qu'au stade des hypothèses.
Quoi qu'il en soit, toutes ces avancées montrent que les conditions requises pour vider l'atmosphère de son mercure et le concentrer dans la neige sont très particulières. En découlent de nouvelles questions. On peut ainsi se demander si ce phénomène, que l'on croyait au départ assez courant aux hautes latitudes, n'est pas beaucoup plus restreint et local. Dans ce cas, il ne serait peut-être pas la bonne explication à la hausse de méthylmercure relevée dans ces écosystèmes. On peut aussi s'interroger sur l'ancienneté de ces phénomènes : ont-ils toujours existé ou au contraire sont-ils récents ? Nous travaillons actuellement sur ce point à Grenoble, notamment Xavier Faïn, en cherchant à détecter et à analyser les pluies de mercure du passé, un peu comme la paléoclimatologie reconstitue les anciens événements climatiques. Nous commençons également à étudier les accumulations de mercure dans les écosystèmes alpins, car pour l'instant les travaux étaient surtout focalisés sur les régions polaires. Par ailleurs, et c'est rassurant, les derniers inventaires des émissions de mercure à l'échelle globale montrent qu'elles seraient en légère diminution depuis 1990, en percevrons-nous bientôt les conséquences ?
EN DEUX MOTS
L'augmentation des teneurs en mercure observées ces dernières années dans les écosystèmes arctiques serait-elle liée à un phénomène atmosphérique propre à ces régions ? Cette hypothèse a été avancée récemment, après la découverte d'événements très particulier, « les pluies de mercure », qui, au cours du printemps arctique, déverseraient ce polluant sur la neige. En fondant, celle-ci libérerait le mercure dans les sols et rivières qui entrerait ainsi dans la chaîne alimentaire. De nouvelles études mettent l'accent sur le rôle actif du manteau neigeux : il pourrait concentrer et stocker le mercure avant de le relâcher en fondant, cela en fonction des conditions de température et d'insolation.
[1] R. Wagemann et al., The Science of the Total Environment, 186, 41, 1996.
[2] W.H. Schroeder et al., Nature, 394, 331, 1998.
[3] R. Ebinghaus et al., Environmental Science and Technology, 36, 1238, 2002.
[4] S.E. Lindberg et al., Environmental Science and Technology, 36, 1245, 2002.
[5] A. Dommergue et al., Analytical and Bioanalytical Chemistry, 375, 106, 2003.
[6] C.P. Ferrari et al., Geophys. Res. Lett., 31, L03401, 2004.
[7] A. Dommergue et al., Environmental Science and Technology, 37, doi: 10.1021/es026242b, 2003.
[8] A. Dommergue et al., Geophys. Res. Lett., 30 12, 1621, 2003.
[9] P.A. Gauchard et al., The Science of the Total Environment, sous presse.
NOTES
* Les valeurs limites des teneurs en mercure dans les poissons varient, selon les espèces et les pays, de 0,3 µg/g à 1 µg/g.
* La troposphère est la partie la plus basse de l'atmosphère. Elle s'étend en moyenne jusqu'à 12 kilomètres d'altitude.
* Le mercure divalent correspond à la forme oxydée au degré +II, c'est-à-dire qui a cédé deux électrons, d'où l'appellation HgII.
SAVOIR
Le site du laboratoire de glaciologie et géophysique de l'environnement où Christophe Ferrari travaille avec Claude Boutron : http://lgge.obs.ujf-grenoble.fr/
Institut Paul-Émile-Victor : www.ifremer.fr/ifrtp/
Cartes satellitaires G.O.M.E. : www-iup.physik.uni-bremen.de/gome/
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
ce que n'explique pas la physique |
|
|
|
|
|
J.-M. Lévy-Leblond : ce que n'explique pas la physique
Propos recueillis par Olivier Postel-Vinay dans mensuel 349
daté janvier 2002 - Réservé aux abonnés du site
Beaucoup de physiciens ont besoin de la conviction que le progrès scientifique nous conduira un jour sinon à l'explication totale des phénomènes, du moins à leur explication finale. La physique quantique nous rapprocherait du but. Mais conviction ne vaut pas preuve. Réflexion sur les pièges des mots.
La Recherche : Weinberg lire p. 25 espère que nous saurons un jour comprendre toutes les régularités de la nature. Pour lui, toutes ces régularités pourront être déduites de quelques principes. Nous allons, pense-t-il, vers une « explication finale ». Et vous ?
Jean-Marc Lévy-Leblond : Cette position m'intéresse d'un point de vue historique et psychologique, mais je n'y adhère pas. La conviction de Weinberg est partagée par beaucoup de physiciens et joue probablement un rôle moteur pour la physique. Il est possible que les grands « trouveurs » - dont Weinberg fait partie - aient besoin de se rassurer ainsi pour croire à la vérité et à la force de ce qu'ils découvrent. Mais cette conviction est aussi ancienne que la physique et elle a été déçue à répétition. Quand Newton parle de la gravitation « universelle », ce n'est pas seulement au sens où deux corps quelconques s'attirent universellement, c'est aussi, et plus profondément, on l'a un peu oublié, avec l'idée que c'est La loi universelle de la nature, qui va expliquer - moyennant éventuellement quelques modifications - l'ensemble de ses manifestations. Rappelons-nous aussi Lord Kelvin au début du siècle quand il affirmait qu'il n'y avait plus rien à découvrir en physique et qu'il ne restait qu'à ajouter quelques décimales aux constantes fondamentales. Il conseillait aux plus brillants jeunes gens de ne pas s'engager dans la carrière de physicien. Ce genre de conviction, à mon avis, n'est étayé sur rien d'autre qu'un acte de foi, un sentiment presque d'ordre religieux.
Votre scepticisme est-il surtout fondé sur l'argument historique, ou y a-t-il autre chose ?
Cela va plus loin. La position de Weinberg n'est rien d'autre qu'une conviction, il n'en propose aucune démonstration. Je ne peux donc lui opposer que ma propre conviction : à savoir, que le monde est beaucoup plus riche et compliqué que ne le pensent les physiciens et les hommes en général. Croire à la possibilité d'en toucher le fond du fond est peu crédible et présomptueux.
Voyez-vous quelque chose de spécifiquement américain dans la façon dont Weinberg aborde cette question ?
Pas à ce niveau-là. Ce qui me paraît assez spécifiquement américain, c'est la façon qu'a Weinberg d'évoquer le rapport entre les principes fondamentaux de la physique - sous-entendu de la science - et ceux de l'action humaine, y compris de la morale. Weinberg affirme bien qu'on ne peut pas étayer la morale sur la physique, on est heureux de l'entendre dire, mais le fait même qu'il éprouve le besoin de le préciser est assez typique d'un certain contexte culturel, qui a sans doute à voir avec le fondamentalisme biblique. Il me semble qu'en France et dans le monde latin en général personne n'aurait besoin d'affirmer une telle évidence !
Dans sa réflexion sur la possibilité d'une explication finale, Weinberg apporte malgré tout d'autres bémols. Il fait, par exemple, observer que si la chimie demeure une discipline à part entière, c'est que la mécanique quantique et le principe de l'attraction électrostatique ne suffisent pas à expliquer entièrement les phénomènes chimiques. Vous êtes bien sûr d'accord avec ce point de vue ?
Oui, mais j'irais plus loin. Si l'on en reste à la chimie, on voit bien que l'explication physique ne nous satisfait plus dès qu'une molécule est un peu compliquée. Dans le meilleur des cas, le physicien va pouvoir rendre compte du comportement de cette molécule à l'aide de calculs extrêmement lourds sur ordinateur. Mais ces calculs ne nous donneront pas une vraie compréhension du problème. Comprendre, c'est avoir le sentiment intime de saisir les mécanismes en jeu. Eugene Wigner* disait, un jour où on lui montrait effectivement de tels calculs informatiques qui décrivaient le comportement d'un système chimique : « Bon,d'accord, l'ordinateur a compris, mais moi j'aimerais bien comprendre aussi ! » La chimie dégage des concepts spécifiques, autonomes, comme celui de valence, qui à leur niveau rendent compte de façon beaucoup plus convaincante de la réalité.
Mais c'est vrai aussi de la physique elle-même, au niveau macroscopique. Pourquoi la thermodynamique reste-t-elle pertinente ? Parce qu'il ne suffit pas de savoir que la notion de température caractérise l'agitation thermique moyenne des milliards et des milliards de molécules qui remplissent la pièce où nous discutons pour disqualifier cette notion. Elle garde toute sa valeur conceptuelle comme facteur explicatif d'une situation macroscopique. Et on peut en dire autant de descriptions d'objets microscopiques mais non élémentaires, comme le noyau de l'atome. Les interactions élémentaires entre les constituants du noyau n'expliquent son comportement que grossièrement. Malgré les succès considérables de la physique des particules fondamentales ou considérées comme telles, il reste nécessaire d'attaquer les différents niveaux de la matière pour ce qu'ils sont. Il nous faut respecter cette autonomie des divers aspects de la réalité. Bien entendu, c'est encore plus vrai si l'on considère les rapports entre la physique et les sciences du vivant. Sans parler des sciences de la société.
Weinberg fait à cet égard une distinction qui remonte à Aristote et qui lui paraît essentielle, entre ce qui relève du principe et ce qui relève de l'accident. Quelle est selon vous la valeur explicative de cette distinction ?
Elle n'est pertinente que dans certaines limites. Nous ne disposons pas de critères nous permettant d'affirmer que tel principe n'est pas lui-même le résultat d'un accident. Et réciproquement, des lois qui peuvent nous sembler accidentelles, comme celles de la géologie ou encore le code génétique, que Weinberg évoque, ont aussi, à leur niveau, une valeur de principe. La notion d'accident appelle un regard critique au même titre que celle de principe. Je ne suis pas sûr que l'on puisse séparer de façon absolue, d'un côté l'élémentaire, qui relèverait des principes, et de l'autre le composite, le compliqué, qui - lui - relèverait de l'accidentel.
En faveur de cette distinction, Weinberg évoque malgré tout une idée non négligeable, c'est ce qu'il appelle « les brumes du temps ». A propos du code génétique, il dit qu'on ne saura peut-être jamais pourquoi il est ce qu'il est, car son origine se perd dans les brumes du temps. Donc dans un accidentel auquel nous n'aurons peut-être jamais accès. Qu'en pensez-vous ?
Que cet argument peut se retourner contre sa thèse maîtresse. Richard Feynman* avait avancé une fois l'idée, en plaisantant à moitié comme il le faisait souvent, que les régularités au niveau subatomique, en physique des particules, pouvaient être elles-mêmes non pas initiales et constitutives, mais le résultat d'une évolution primitive, dans un passé inaccessible. Il disait : « On a découvert de superbes symétries dans ce monde des particules - fort bien ! Mais il a fallu attendre Kepler pour que les belles symétries circulaires des orbites planétaires apparaissent comme approximatives et contingentes ; qu'est-ce qui nous prouve que les symétries du monde des particules sont constitutives ? » Apparemment personne n'a rien fait de cette idée pour l'instant, mais elle est intéressante, serait-ce au titre de contre argument : ce que Weinberg considère comme le plus fondamental pourrait n'être qu'accidentel, et se perdre dans « les brumes du temps ».
L'accident par excellence n'est-ce pas l'apparition de l'Univers ? Weinberg, Davies et la plupart des physiciens pensent que la physique quantique est capable de rendre compte de cet accident. Et vous ?
Je voudrais d'abord remarquer qu'il n'est pas besoin de la physique quantique pour disqualifier l'idée même d'origine de l'Univers. Ni les temps imaginaires de Hawking ni la super inflation ne sont nécessaires à cet égard. C'est déjà le fait de la cosmologie la plus traditionnelle, celle qui remonte aux équations de Friedmann-Lemaître, dans les années 1920. Ces équations décrivent l'évolution de l'Univers en fonction du temps. Elles peuvent être utilisées pour remonter du présent jusqu'à un instant que l'on peut appeler « origine » si l'on veut, mais où justement les- dites équations cessent d'être valables. Il s'agit d'une singularité mathématique. C'est dire que ce premier instant n'en est pas un ; il n'appartient pas à la gamme des temps. A cet égard, je suis toujours surpris que la comparaison ne soit pas devenue banale avec le zéro absolu de la température. Tous les physiciens sont d'accord pour dire que ce zéro n'est pas une température. C'est un zéro qui n'existe pas, qu'on peut approcher asymptotiquement d'aussi près qu'on veut mais sans jamais l'atteindre. Ce zéro absolu est par convention un nombre fini mais conceptuellement un infini. Pourquoi en irait-il différemment du temps zéro de l'Univers ? De fait, la théorie de l'expansion de l'Univers implique cette idée que l'instant premier n'en est pas un ; d'où il ressort inévitablement qu'il n'y a pas d'« avant »- Big Bang. Vous pouvez rembobiner le film autant que vous voulez, vous n'atteindrez jamais le Big Bang. La question de l'origine est une mauvaise question, due au fait que nous plaquons une représentation du temps liée à notre expérience quotidienne sur un domaine où elle est probablement inapplicable.
Est-ce à dire que le Big Bang échappe à toute forme de représentation ?
Non, je crois qu'on peut construire des représentations, mais après être passé par le détour du formalisme mathématique. Et il restera de toute manière cette ambiguïté irréductible liée à la notion d'origine. J'invite souvent mes étudiants à faire une expérience de pensée : imaginez que le monde dans lequel vous vivez soit un plan infini et que vous soyez isolé dans une tour, dans une cellule dont la fenêtre est grillagée. Les lointains sont perdus dans la brume, mais vous voyez ce qui se passe près de la tour. Une route y arrive, sur laquelle il y a des gens, des voitures qui vont et viennent. Votre seul instrument de mesure, ce sont les barreaux verticaux et horizontaux de votre fenêtre. Et vous observez sur ce carroyage que la route rétrécit à mesure qu'elle s'éloigne. Au début la route fait une largeur de carreau, puis une demi-largeur, et ainsi de suite mais à la fin vous ne savez plus parce qu'elle est noyée dans la brume. Et puis un jour la brume se dégage et vous constatez que la route, à l'horizon, devient un point. Ce point est parfaitement repérable à l'aide des coordonnées fournies par la grille, et rien ne vous empêche de le considérer comme l'origine de la route. Mais vous pouvez aussi comprendre que ce « point » se situe à l'horizon, à l'infini. Cette image montre qu'une échelle de mesure finie peut parfaitement rendre compte d'une grandeur infinie. Il n'est pas besoin de la physique quantique pour discuter cette aporie.
Je reviens à ma question : la physique peut-elle rendre compte de cet accident qu'est l'apparition de l'Univers, du temps, de l'espace, de la matière... ?
Tout dépend de ce que vous entendez par « rendre compte ». On peut imaginer que la physique puisse éventuellement donner un sens, dans un nouveau cadre théorique, à ce qu'il y a sous l'espace tel que nous le connaissons, avant le temps tel que nous le connaissons. Le physicien pourra peut-être créer des concepts appropriés et leur donner un nom : l'infra-espace, le pré-temps, que sais-je ? Mais en quoi cette réponse de physicien changera-t-elle quoi que ce soit à la question d'ordre méta physique que vous posez en réalité ? La physique ne peut répondre qu'en tant que physique.
Ne sommes-nous pas terriblement prisonniers des mots que nous utilisons ? Nous, à la fois les profanes et les scientifiques ?
C'est évident, et j'aurais tendance, à cet égard, à être assez sévère avec la physique et toute la science du XXe siècle. Je pense qu'elle s'est montrée quelque peu désinvolte dans son usage des mots, qu'elle ne les a pas pris assez au sérieux, qu'elle ne les a pas soumis à un regard suffisamment critique.
Les physiciens du XIXe siècle étaient beaucoup plus attentifs à ce problème. On peut lire dans les oeuvres de Maxwell le soin avec lequel il choisit les mots qu'il emploie, surtout quand il les emprunte à la langue courante. Maxwell est éminemment conscient du piège que peuvent représenter les mots. Pour revenir à la question de l'origine, les physiciens continuent, comme nous venons de le faire, à utiliser l'expression « Big Bang », alors qu'elle a été inventée par Fred Hoyle pour ridiculiser cette théorie, et que ces mots sont effectivement d'une absurdité totale. Du coup, les physiciens sont obligés de courir après ces mots et de les corriger : « M ais attention, ils ne veulent pas du tout dire ce que vous avez compris, ce n'est pas une explosion, ça n'a pas eu lieu en un point donné de l'espace, ni d'ailleurs à un moment donné... » . L'usage essentiellement publicitaire de tels vocables finit par occulter leur signification. Je ne crois pas qu'on puisse éviter le dilemme de base : soit on forme des néologismes sans écho dans la langue courante, soit on utilise des mots usuels qui sèment des malentendus. Mais il faut affronter ce dilemme de façon consciente et délibérée.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 ] Précédente - Suivante |
|
|
|
|
|
|