ecole de musique piano
     
menu
 
 
 
 
 
 

LES ALGORITHMES

 

 

 

 

 

 

 

Les algorithmes
Jean-Luc Chabert dans mensuel 369

Le concept est surtout aujourd'hui l'apanage des informaticiens, qui s'en nourissent pour composer les programmes d'ordinateurs. Au cours de sa longue histoire, il a connu plusieurs significations, qui avaient toutefois en commun la référence à la notion de règles opératoires.
Où rencontre-t-on des algorithmes ?

Bien que le mot paraisse technique, la vie de tous les jours nous donne à voir de nombreux algorithmes. Une recette de cuisine, une règle de grammaire en sont des exemples. Une fiche-tricot ressemble aussi de façon frappante à la description d'un algorithme. Voici, par exemple, celle du point des « côtes piquées » [1].
Nombre de mailles pour la symétrie : multiple de 3 + 2, + 1 maille lisière à chaque extrémité.
1er et 3e rang : 1 maille lisière ; *2 mailles à l'endroit, 1 maille à l'envers* ; répéter de * à * ; terminer par 3 mailles à l'endroit, 1 maille lisière.
2e rang : tricoter les 3 mailles comme elles se présentent.
4e rang : tout à l'endroit.
Répéter toujours ces 4 rangs.
On a, dans tous les cas, affaire à l'énumération d'une liste ordonnée de règles et de consignes à respecter en vue de parvenir à un résultat. Une condition essentielle pour que la procédure considérée soit à proprement parler un algorithme est que le nombre d'étapes à effectuer soit fini. Cette condition de bon sens est évidemment vérifiée dans le cas de notre fiche- tricot : même si son rédacteur suggère de « répéter toujours », il va de soi que l'algorithme a vocation à prendre fin lorsque assez de mailles ont été tricotées. Cependant, pour des algorithmes plus compliqués dont le déroulement varie en fonction des données de départ, il peut être difficile de s'assurer que cette condition de finitude est bien vérifiée.

Est-ce différent en mathématiques ?
En dehors du tricot, de la cuisine et de la grammaire, les algorithmes sont très présents en mathématiques, et même aussi anciens que la discipline elle-même. Un exemple particulièrement emblématique d'algorithme mathématique est une procédure de calcul du plus grand commun diviseur PGCD entre deux nombres, appelée algorithme d'Euclide. Pour calculer le PGCD de deux nombres a et b, on effectue la division eucli- dienne du plus grand disons a par le plus petit, c'est-à-dire la division en entiers avec reste sans virgule, ce qui donne a = bq + r, où q est le quotient et r le reste compris entre 0 et b – 1. Si r = 0, alors c'est que a est divisible par b et donc que le PGCD de a et b est b lui-même. Dans le cas contraire, on remarque que tout diviseur commun à a et b est aussi diviseur commun à b et à r, et réciproquement, de sorte que le PGCD de a et b est aussi celui de b et r. On effectue alors la division euclidienne de b par r, et on recommence, encore et encore. Chaque fois, les nombres en jeu sont de plus en plus petits. Le processus finit donc par s'arrêter, en produisant un couple de nombres dont l'un est un diviseur de l'autre, et est donc le PGCD des deux, et donc aussi en raisonnant de proche en proche le PGCD de a et b. L'algorithme d'Euclide vérifie bien les conditions demandées aux algorithmes, notamment la finitude. Il comporte aussi l'idée d'un processus itératif, avec cette succession de divisions euclidiennes, comme dans l'exemple de la fiche tricot.

Quand la notion a-t-elle été explicitée ?
L'appellation d'« algorithme d'Euclide » est un brin anachronique, à la fois parce qu'Euclide lui-même, vers 300 av. J.-C., n'utilisait pas ce terme et parce que le point de vue du géomètre grec était un peu différent du nôtre. L'origine du mot est vraisemblablement arabe. Il s'agirait de la déformation d'al-Khwarizmi, nom de l'auteur du premier traité d'algèbre, au IXe siècle. Lorsqu'au XIIe siècle les ouvrages arabes ont commencé à être traduits en latin, le système de numération décimale que nous connaissons s'est diffusé en Europe. Très adapté pour effectuer les opérations arithmétiques, il dut toutefois batailler ferme pour s'imposer face à l'abaque, version occidentale du boulier chinois. Le terme algoritmus est alors introduit pour désigner les procédés de calcul utilisant l'écri- ture décimale, par opposition à ceux utilisant des jetons sur un abaque. Malgré la souplesse et la simplicité des calculs à l'aide du système de numération décimale, la victoire définitive des algoristes sur les abacistes est tardive : c'est seulement à la Révolution française que l'usage de l'abaque est interdit à l'école et dans l'administration.

Au XVIIIe siècle, l'Encyclopédie de d'Alembert définit le terme comme « l'arithmétique par chiffres », ainsi que « la pratique de l'algèbre » et, plus généralement, « la méthode et la notation de toute espèce de calcul ». En 1666, déjà, Leibniz s'intéressait à une « langue caractéristique universelle » dans laquelle les raisonnements mathématiques seraient de simples calculs. L'idée pointe donc d'une mécanisation par le calcul pour résoudre des problèmes. Au XIXe siècle, des logiciens tels que Charles Babbage, George Boole, Gottlob Frege ou Giuseppe Peano tentent de théoriser le raisonnement mathématique en « algébrisant » la logique. Avant l'avènement de l'informatique, le terme d'algorithme désigne alors tout procédé de calcul rendu systématique, voire automatique, par l'indication de règles précises. Au XXe siècle, enfin, sous l'impulsion de la science informatique, la condition de finitude acquiert une place essentielle, et la question est clairement posée de savoir ce que l'on peut faire ou non avec des algorithmes.

Y a-t-il un rapport entre logarithme et algorithme ?
Ce ne sont que des anagrammes. Au début du XVIIe siècle, l'Écossais Napier invente la notion de logarithme qui fournit un procédé opératoire efficace pour effectuer rapidement des multiplications en les transformant en additions. Le mot est construit sur une racine grecque. En quelque sorte, la fonction logarithme intervient dans un algorithme de calcul des multiplications. Celui-ci, à la base du fonctionnement des règles à calcul, n'a été supplanté que dans les années quatre-vingt par l'apparition des calculatrices de poche.

Existe-t-il toujours un algorithme permettant de répondre à une question donnée ?
En 1900, le mathématicien David Hilbert propose une liste de questions mathématiques non résolues comptant parmi les plus importantes de l'époque. En particulier, existe-t-il une méthode un algorithme permettant de savoir si une équation diophantienne* donnée a ou non des solutions ? Si l'on avait trouvé un processus général répondant positivement à ce problème, les choses auraient été simples, mais ce ne fut pas le cas. Or, pour pouvoir affirmer que la réponse au problème de Hilbert est négative, c'est-à-dire affirmer que l'on ne pourra jamais exhiber un algorithme, parce qu'il n'en existe pas, on est contraint de formaliser de façon très précise les notions qui gravitent autour de celle d'algorithme.
Les logiciens se sont attelés à une telle formalisation dans les années trente. Entre 1931 et 1936, Kurt Gödel, Alonzo Church et Stephen Kleene introduisent des notions de fonctions récursives, formalisant la notion de fonction effectivement calculable.
Cette appellation fait référence aux fonctions dont on peut calculer la valeur à l'aide d'un algorithme pour toutes valeurs fixées des variables. Les fonctions récursives les plus simples sont l'addition et la multiplication, dont les écoliers apprennent dès leur plus jeune âge les algorithmes de calcul. Les fonctions récursives, concept mathématique formalisé, traduisent-elles correctement la notion floue et intuitive d'algori- thme ? La « thèse » de Church affirme que oui. C'est sur la base de cette affirmation, d'ordre métamathématique et qui ne peut pas être prouvée, que Matijasevic a répondu négativement, en 1970, au problème de Hilbert sur les équations diophantiennes.

Quel lien y a-t-il avec les programmes d'ordinateur ?
En 1922, Hilbert encore lui pose de manière générale le problème de la décision : existe-t-il une procédure générale permettant en un nombre fini d'étapes de dire si un énoncé mathématique est vrai ? Cette question donne l'occasion à l'Anglais Alan Turing d'introduire, en 1936, la notion de « machine de Turing » qui lui permet de répondre négativement à la question de Hilbert. Il s'agit d'une machine abstraite, à la fois très simple dans son fonctionnement et capable d'effectuer, de façon plus ou moins rapide, toutes les opérations que l'on peut demander à une machine, donc à un ordinateur [fig. 1].
Grosso modo, cette machine est composée de trois parties : un ruban, suite infinie de cases dans lesquelles on écrit des lettres ou des symboles tirés d'un alphabet fini ; une unité centrale, qui ne prend qu'un nombre fini d'états ; et une tête de lecture/écriture reliant l'unité centrale et le ruban. Turing montre qu'il y a équivalence entre la calculabilité effective au sens de Church c'est-à-dire à l'aide des fonctions récursives et la calculabilité par sa machine. Ainsi, le fonctionnement de cette machine formalise la notion intuitive d'un algorithme de calcul. Dans nos ordinateurs, descendants de la machine de Turing, le programme n'est donc pas autre chose qu'un algorithme pour peu qu'il ne tourne pas en boucle et un langage informatique est une langue permettant d'écrire un algorithme que notre ordinateur sait lire et effectuer.

Comment comparer des algorithmes ?
L'importance croissante des algorithmes a conduit à la naissance d'un nouveau domaine scientifique : l'algorithmique ou science des algorithmes. L'algorithmique n'a pas pour but de produire des algorithmes, mais d'étudier des questions relatives aux algorithmes d'un point de vue général : par exemple, comme on l'a vu, la possibilité de l'existence d'algorithmes pour résoudre certains types de problèmes, ou encore la preuve d'algorithmes, c'est-à-dire la preuve de ce que les algorithmes considérés se terminent bien en un temps fini et répondent bien à la question posée.

Les preuves d'algorithmes sont une arme, encore à l'état d'ébauche, qui permettra peut-être un jour de réduire de façon drastique les bugs informatiques, ces erreurs dans la programmation qui font qu'un algorithme censé faire une chose en fait en réalité une autre sans qu'on le sache. On peut aussi vouloir comparer deux algorithmes différents répondant à une même question, pour savoir quel est le plus économique en temps ou en place. L'évaluation se fait en étudiant d'une part le nombre d'opérations qu'ils requièrent, d'autre part la place nécessaire pour garder en mémoire les données intermédiaires utiles pour l'avancement des calculs. On parle de complexités respectivement temporelle et spatiale. Par exemple, pour ce qui est du tricot, la complexité temporelle pourrait être le nombre total de mouvements à effectuer, tandis que la complexité spatiale serait le nombre d'aiguilles nécessaires pour mener le travail à bien. Selon les données initiales, le temps mis par un algorithme et la place qu'il utilise peuvent se révéler variables, ce qui fait que, quand on change ces données, on change aussi l'ordre des algorithmes en terme d'efficacité. Pour faire un classement objectif, on tient alors compte en général de la complexité « au pire », c'est-à-dire, pour chaque algori-thme, du temps et de l'espace nécessaires au traitement des données qui se révèlent pour lui les plus « encombrantes », à savoir les plus coûteuses en temps et en espace. Plutôt qu'une complexité au pire, on peut aussi classer les algorithmes par une complexité moyenne sur toutes les données initiales possibles. C'est ainsi que la complexité est susceptible de multiples variantes, d'où la nécessité d'être toujours précis dans la formulation des énoncés.

Peut-on produire du hasard à partir d'algorithmes ?
La façon la plus simple, sinon la plus naturelle, d'obtenir du hasard est d'effectuer de véritables expériences aléatoires, par exemple une succession de tirages à pile ou face. Il ne s'agit pas alors de simulation, et on peut établir des tables de nombres au hasard, ou nombres aléatoires, en utilisant de tels tirages. Mais pour ne pas toujours réutiliser les mêmes tables, il faudrait en établir de grandes quantités. Avec l'avènement des ordinateurs, on a été amené, pour des besoins pratiques, à utiliser des générateurs de nombres aléatoires. Ce que l'on obtient ainsi, ce ne sont pas des nombres aléatoires, puisqu'ils sont produits à l'aide d'un algorithme, donc à partir d'un processus purement déterministe. Toutefois, sous certaines conditions, certains algorithmes comme certains phénomènes physiques ou chimiques fournissent des successions de sorties qui, bien que déterminées, n'en présentent pas moins une apparence erratique. Des nombres obtenus avec de tels algorithmes sont dits pseudo-aléatoires ; en pratique, leur succession offre l'apparence du hasard.

Qu'est-ce qu'un algorithme probabiliste ?
Comme un algorithme classique, un algorithme probabiliste donne une réponse au bout d'un nombre fini d'étapes. La différence : la réponse fournie n'est pas toujours exacte. Elle est donnée avec une certaine incertitude que l'on pré-cise en terme de probabilité. C'est en particulier le cas du « test de primalité de Miller-Rabin ».
Celui-ci, comme tout test de primalité, a pour fonction de déterminer si un entier N donné est un nombre premier ou non. Les méthodes classiques étant trop longues à mettre en oeuvre pour de grandes valeurs de N, l'idée est d'accepter de perdre un peu de fiabilité au profit d'une plus grande rapidité. Le test de Miller-Rabin sur N s'effectue à l'aide d'un entier auxiliaire a choisi au hasard : si N et a ne vérifient pas certaines relations, alors N n'est pas premier. Dans le cas contraire, on ne peut rien dire de façon certaine. Mais si, en répétant le test avec d'autres valeurs de a, on obtient encore et toujours le même résultat, alors la probabilité que N ne soit pas premier devient de plus en plus faible. L'algorithme de Miller-Rabin fonctionne donc en effectuant des essais sur N avec diverses valeurs de a, jusqu'à ce que l'une d'entre elles permette d'établir que N n'est pas premier ou que la probabi- lité que N soit premier soit grande. En pratique, si un nombre N passe le test de Miller-Rabin pour une vingtaine de valeurs de a sans qu'aucune d'elles ne per- mette de conclure que N n'est pas premier, alors N est considéré comme presque sûrement premier.

Les algorithmes ont-ils une influence sur les mathématiques contemporaines ?
En mathématiques s'est toujours posée la question de l'existence de certains objets. Par exemple, existe-t-il des nombres transcendants, c'est-à-dire des nombres ne vérifiant aucune équation algébrique à coefficients entiers ? Il y a deux façons de répondre à cette question. La première est dite constructive, elle consiste à exhiber un nombre transcendant, par exemple le nombre *. La seconde façon de répondre à la question consiste à démontrer, comme l'a fait Georg Cantor à la fin du XIXe siècle, la nécessaire existence de nombres transcendants sans en exhiber aucun. Ainsi, la preuve de l'existence théorique d'objets mathématiques a longtemps été considérée comme suffisante en soi, bien que le début du XXe siècle ait vu éclore l'opinion contraire : l'école dite intuition- niste, initiée par Brouwer, rejette les preuves reposant sur le « principe du tiers exclu », affirmant que tout énoncé mathématique est, soit vrai, soit faux. Dans ce type de preuves, pour démontrer l'existence d'un objet, on commence par montrer que sa non-existence conduit à une absurdité : le principe du tiers exclu est alors invoqué pour affirmer l'existence de l'objet concerné.

L'ordinateur, quant à lui, ne peut pas se satisfaire de résultats non constructifs, c'est-à-dire qui n'exhibent pas effecti- vement l'objet envisagé. Jusqu'à récemment, l'arithmétique fournissait des bataillons de théorèmes dont l'énoncé commençait par : « Il existe un entier n0 tel que, dès que l'entier n est supérieur à n0 , alors... » Un moyen d'obtenir un énoncé affranchi de cette condition sur n est de mener une vérification exhaustive sur tous les n plus petits que n0, en se servant de l'ordinateur. Mais, bien sûr, une telle vérification n'est envisageable que si l'on connaît une valeur explicite de n0, ce que seule une preuve constructive permet d'obtenir. Ainsi, la possibilité ouverte par l'informatique d'obtenir des théorèmes valables pour tous les entiers, et pas seulement pour ceux plus grands qu'une certaine valeur, a incité les chercheurs à s'intéresser aux valeurs explicites. Quand celles-ci se révèlent trop grandes pour que les ordinateurs actuels soient en mesure de traiter les cas résiduels, il convient de montrer qu'on peut remplacer ces valeurs par des valeurs plus petites ; c'est aujourd'hui l'objet d'un nombre non négligeable de publications.

NOTES
* Une équation diophantienne ne met en jeu que des nombres entiers, et on en cherche les solutions, qui sont elles-mêmes des nombres entiers.
SAVOIR
Jean-Luc Chabert et al.,
Histoire d'algorithmes, du caillou à la puce,
Belin, 1995.
Jacques Stern,
Fondements mathématiques de l'informatique, Édiscience, 1990.
Patrice Hernert,
Les Algorithmes, PUF, coll. « Que sais-je ? », 2003.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
 

CONNAISSANCES ET PENSÉE MATHÉMATIQUES : LES BASES CÉRÉBRALES DE L'INTUITION NUMÉRIQUE

 

 

 

 

 

 

 

Texte de la 167e conférence de l’Université de tous les savoirs donnée le 15 juin 2000.

Les bases cérébrales de l’intuition numérique

par Stanislas Deheane

Le cerveau des mathématiciens fascine. Par quels mécanismes un tissu de neurones et de synapses, un imbroglio de neurotransmetteurs peuvent-ils « transformer du café en théorèmes » ? Quelles représentations mentales et quelles architectures neuronales donnent au cerveau humain – et à lui seul – accès aux vérités des mathématiques ? Périodiquement, certains affirment avoir trouvé la réponse dans le cerveau du plus mythique des savants du XXe siècle, Albert Einstein. De son vivant déjà, le grand physicien était sollicité pour toutes sortes d’expérimentations qui suscitaient les commentaires amusés de Roland Barthes : « Une image le montre étendu, la tête hérissée de fils électriques : on enregistre les ondes de son cerveau, cependant qu’on lui demande de ‘‘penser à la relativité’’ ». Plus tard, le précieux encéphale sera préservé, photographié, étiqueté, découpé, perdu et retrouvé. Il ressort périodiquement de son bocal pour de nouvelles révélations. En 1985, Marian Diamond, de l’université de Californie à Berkeley, rapporte une densité plus élevée de cellules gliales, qui constituent l’environnement des neurones corticaux, dans une région pariétale du cortex d’Einstein. En 1999, Sandra Witelson, de l’université McMaster dans l’Ontario, affirme avoir identifié, plus de quarante ans après la mort du physicien, une anomalie macroscopique de son anatomie cérébrale : ses lobes pariétaux seraient enflés, et leurs sillons se seraient si profondément détournés de leur tracé normal qu’une région corticale entière, l’opercule pariétal, en serait absente.

Je fais partie de ceux, nombreux, qui estiment anecdotiques et prématurées ces recherches qui prétendent trouver l’origine du génie dans quelques centimètres cubes de cortex supplémentaire. Malgré leurs avancées spectaculaires, les neurosciences cognitives ne sont pas prêtes à analyser le substrat neural de variations individuelles aussi subtiles que celles qui distinguent un prix Nobel d’un physicien de moindre envergure. Il leur revient de plein droit, par contre, de commencer à explorer ce qu’il y a de commun à tous les cerveaux capables de mathématiques. En dernière analyse, comme l’affirme Jean-Pierre Changeux dans son dialogue avec le mathématicien contemporain Alain Connes, « les objets mathématiques s'identifient à des états physiques de notre cerveau, de telle sorte qu'on devrait en principe pouvoir les observer de manière extérieure grâce à des méthodes d'imagerie cérébrale. » De fait, les nouvelles méthodes des sciences cognitives et de l'imagerie par résonance magnétique permettent aujourd’hui d’aborder empiriquement la représentation cérébrale des plus simples des objets mathématiques, ceux qui sont partagés par l’ensemble de l’humanité : les petits nombres entiers.

Focalisés sur les abstractions des mathématiques les plus récentes, quelques mathématiciens pourront ne voir là que des travaux d’intérêt périphérique sur des objets trop simples qui ne font pas ou plus partie du champ de la recherche mathématique. Ce serait oublier, cependant, que les nombres font partie des briques de base sans lesquelles l’édifice des mathématiques n’aurait jamais pu s’élever. La question des fondements de l’arithmétique occupe une place centrale en philosophie des mathématiques, depuis Platon et Descartes jusqu’à Bertrand Russell ou David Hilbert. Nos recherches suggèrent qu’un des fondements de l’arithmétique, l’intuition du concept de nombre, trouve son origine dans l’architecture de notre cerveau qui représente spontanément, vraisemblablement dès la naissance, ce paramètre essentiel du monde physique.

Les bases cérébrales de l’intuition numérique

Comment cerner l’intuition numérique en laboratoire ? Considérons un exemple très simple : l’addition des petits nombres. L’addition 43+39=51 est-elle juste ? Un coup d’œil suffit pour répondre que non. Sans avoir à faire le calcul, nous reconnaissons que le résultat proposé est manifestement faux. Nous utilisons spontanément une métaphore spatiale : le résultat proposé, 51, est trop distant, peut-être même trop à gauche. Cette opération mentale d’approximation et de comparaison se déroule hors de notre introspection : nous savons que le résultat est trop petit, mais nous ne savons guère comment nous savons que nous le savons. Voilà caractérisée, en quelques phrases, cette intuition arithmétique que nous possédons tous. Il s’agit d’une sorte de carte spatiale, de « ligne numérique » sur laquelle nous posons mentalement les quantités et qui nous permet immédiatement de repérer les relations de proximité entre nombres, en sorte que nous savons immédiatement, mais de façon imprécise, quelle place tel nombre occupe relativement à d’autres.

La simplicité de ce sens du nombre est trompeuse. En effet, en dépit de son minimalisme, notre intuition numérique partage avec l’introspection des grands mathématiciens au moins deux traits fondamentaux. Tout d’abord, la pensée mathématique de haut niveau s’élabore souvent sans le support du langage. « Les mots et le langage, écrits ou parlés, ne semblent pas jouer le moindre rôle dans le mécanisme de ma pensée », affirme Einstein. De même l’intuition numérique ne fait appel ni aux mots, ni aux aires corticales du langage, mais dépend des régions pariétales associées à la perception de l'espace. En second lieu, la découverte mathématique repose sur des mécanismes inconscients. « Ce qui frappe », dit Poincaré, « ce sont les apparences d’illumination subite, signes manifestes d’un long travail inconscient ; le rôle de ce travail inconscient dans l’invention mathématique me paraît incontestable. » En ce qui concerne l’intuition du nombre, cette introspection fréquente chez les mathématiciens peut être confirmée rigoureusement par les méthodes de la psychologie expérimentale, qui démontrent l’existence de calculs subliminaux.

Le caractère non-linguistique de l’intuition des nombres apparaît clairement chez les personnes bilingues. Il faut cependant distinguer clairement le calcul exact de l’intuition des quantités. Le calcul exact dépend des circuits du langage. Tous ceux qui maîtrisent bien une seconde langue peuvent en faire l’expérience : même après des années, il est extrêmement difficile de faire des calculs mentaux dans une langue autre que celle dans laquelle nous avons appris l’arithmétique. Je connais un collègue italien qu’un séjour de plus de vingt ans aux États-Unis a transformé en bilingue presque parfait. Il parle et écrit en anglais dans une syntaxe rigoureuse et avec un vocabulaire étendu. Pourtant, dès qu’il doit faire un petit calcul, on l’entend marmonner les nombres dans son italien natal. Il ne parvient toujours pas à calculer avec fluidité en anglais. Cette anecdote révèle à quel point la mémoire exacte de l’arithmétique dépend du langage. Mais qu’en est-il de la faculté d’approximation intuitive ?

Dans une étude comportementale conduite par Elizabeth Spelke au Massachusets Institute of Technology, des sujets parlant couramment le russe et l'anglais étaient entraînés, dans l'une de leurs deux langues, à résoudre une série de problèmes d'addition. Certains problèmes requéraient une réponse exacte, et ne pouvaient donc pas être résolus par la seule intuition. Les autres ne nécessitaient que l’évaluation d’un ordre de grandeur. Après entraînement dans une langue donnée, on examinait ensuite la capacité des sujets à résoudre les mêmes problèmes posés dans l’autre langue. Au bout de quelques séances, tous les sujets donnaient plus vite la bonne réponse aux problèmes qui demandaient une réponse exacte lorsque la question leur était posée dans la langue utilisée au cours de l’entraînement, que lorsqu’elle était posée dans l’autre langue. Cela confirmait que ces connaissances exactes sont stockées dans le cerveau dans un format linguistique spécifique à une langue donnée. Cependant, les problèmes approximatifs se comportaient différemment : les performances étaient équivalentes dans les deux langues. Une fois mémorisé que cinquante plus quarante-sept font environ cent, répondre à la même question dans une autre langue ne pose aucune difficulté supplémentaire.

Nos connaissances sur les quantités approximatives sont donc stockées sous une forme indépendante du langage. Il y a au moins deux circuits cérébraux du calcul mental : un circuit verbal, qui permet de coder les nombres sous forme de mots et de stocker des tables sous formes de phrases apprises par cœur dans une langue donnée ; et un circuit non-verbal, où les quantités sont représentées sous une forme spatiale, et qui permet l’approximation.

Grâce à l’imagerie fonctionnelle par résonance magnétique (IRM) du Service Hospitalier Frédéric Joliot d’Orsay, nous avons pu visualiser directement quelles aires du cortex cérébral contribuent à ces deux circuits. L’IRM permet de voir l’entrée en activité des circuits cérébraux dans une tâches cognitive. Toute activation d’un groupe de neurones s’accompagne en effet d’une augmentation locale du débit sanguin dans les capillaires qui entourent cette région. Cette augmentation vient compenser la consommation accrue d’oxygène et de glucose dans le tissu nerveux. L’afflux de sang altère les propriétés magnétiques locales des tissus examinés, et modifie de façon mesurable le signal de résonance magnétique. Celui-ci reflète donc, indirectement, l’état d’activité des populations de neurones du tissu.

Pendant la mesure d’IRM, nous avons demandé à un groupe d’étudiants de résoudre alternativement des problèmes d’approximation (par exemple, 2+1 font-ils environ 4 ou 9 ?) et d’autres qui exigeaient un calcul exact (2+1 font-ils 3 ou 5 ?). Bien que les sujets aient été soumis aux mêmes problèmes d’addition dans les deux cas, les résultats ont montré que l’adoption d’une stratégie d’approximation ou de calcul exact s’accompagnait de modifications radicales de l’activité cérébrale. Le calcul exact activait un réseau latéralisé dans l’hémisphère gauche et impliquait des aires associées au traitement linguistique de haut niveau (la portion inférieure du cortex frontal gauche et le gyrus angulaire). Au cours de l’approximation, au contraire, l’activité était bilatérale et équivalente dans les deux hémisphères cérébraux. Elle était centrée sur le sillon intrapariétal, une région située hors des aires du langage et associée à la manipulation des objets dans l’espace. [figure] Cette région cérébrale joue un rôle crucial dans l’intuition des nombres. Elle s’active dès que nous devons réfléchir aux quantités mises en jeu dans un problème d’arithmétique. Bien entendu, elle n’est pas dépositaire de l’ensemble de nos connaissances mathématiques. Il ne s’agit pas d’une « bosse des maths » au sens des phrénologistes du XIXe. Insérée au sein d’un vaste réseau distribué, et en coordination étroite avec les aires associées au traitement des mots et des chiffres, la région pariétale semble contribuer à une fonction restreinte mais cruciale, le positionnement des nombres dans l’espace des quantités.

Figure : Localisation du sillon intrapariétal, où l’on observe une intense activité cérébrale lors du calcul mental et du traitement des quantités. Seul l’hémisphère gauche est visible, vu de trois-quarts arrière.

Activations cérébrales et lecture subliminale

Récemment, Lionel Naccache et moi-même sommes parvenus à démontrer que la région pariétale peut effectuer ses calculs sans que nous en ayons aucunement conscience, confirmant ainsi les hypothèses de Poincaré et d’Hadamard. Dans le domaine des nombres au moins, l’intuition mathématique se fonde bien sur la possibilité d’un intense travail inconscient.

Notre expérience est simple. Un volontaire est placé face à un écran d’ordinateur. On le prévient que vont s’afficher au centre de l’écran, d’abord un signal composé de lettres aléatoires, puis un nombre. Celui peut être écrit en toutes lettres (SIX) ou en chiffres arabes (6). La personne dispose de deux boutons, l’un à main droite, l’autre à main gauche. On l’instruit d’appuyer le plus rapidement possible à droite si le nombre est supérieur à 5, et à gauche s’il est inférieur à 5. Les boutons sont connectés à l’ordinateur, qui mesure à la milliseconde près combien de temps s’écoule entre l’apparition du nombre sur l’écran et la réponse motrice du sujet.

Voilà tout ce que notre volontaire a conscience de faire... mais nous ne lui avons pas tout dit. À son insu, chaque nombre cible est précédé d’un autre nombre totalement invisible, que nous appellerons le nombre amorce. Comment celui-ci est-il rendu invisible ? Nous utilisons une méthode de masquage visuel qui consiste à faire précéder et suivre le mot amorce, que l’on désire effacer de la conscience, par des chaînes de caractères sans signification telles que XHJGKS ou PLMZTA. Lorsque ces lettres sont présentées exactement au même point que le mot amorce, et que la durée de présentation de ce dernier n’excède pas quelques centièmes de secondes, le sujet ne perçoit qu’un clignotement de caractères illisibles. Il est incapable de déchiffrer le mot masqué, ou même d’en percevoir l’existence.

Bien que tous nos volontaires nient ainsi farouchement avoir vu le moindre nombre dans les instants précédant la cible, cela suffit-il à affirmer l’absence de toute conscience ? Comme l’a souligné le philosophe américain Daniel Dennett, il est impossible de savoir si la personne qui nie avoir eu conscience d’une information n’en a effectivement jamais perçu la teneur, ou si elle ne souvient plus d’en avoir brièvement pris conscience. Toutefois, nous pouvons quantifier, de façon objective, à quel point le nombre masqué est inaccessible au traitement conscient. Nous avons recruté un nouveau groupe de volontaires chez lesquels nous avons examiné la capacité de perception des nombres amorces dans des condition extrêmes. Nous fournissions à ces nouveaux volontaires tous les détails sur la nature des nombres amorces utilisés dans notre expérience. Nous leur disions également de focaliser leur attention sur ce nombre amorce, et de négliger totalement le second nombre. Dans ces conditions, parviendraient-ils à recueillir consciemment au moins quelques bribes d’informations sur l’amorce? La réponse fut clairement non. À la durée de présentation utilisée dans nos expériences, les volontaires entraînés ne parvenaient même pas à dire s’il y avait une amorce ou pas (en fait, ils répondaient presque toujours qu’il n’y en avait pas). Ils étaient encore moins capables de dire si l’amorce était un nombre ou une chaîne aléatoire de lettres. Dans les deux cas, leur capacité de détection, mesurée par la théorie de la détection des signaux dans le bruit, était nulle.

La profondeur du traitement de tels stimuli subliminaux dans le cerveau humain a toujours fait l’objet d’un intense débat en psychologie. Certains psychologues soutiennent qu’un mot subliminal peut éventuellement être analysé au niveau de la forme visuelle de ses lettres, mais certainement pas au niveau de son sens. Nos données montrent clairement que leur scepticisme n’est pas justifié. Plusieurs résultats démontrent que le nombre amorce, quoique totalement invisible, peut être comparé inconsciemment avec un autre nombre, ce qui implique que son sens – la quantité qu’il représente – a été analysé. Tout d’abord, les réponses de nos sujets sont accélérées lorsque le nombre invisible représente une quantité proche de celle du nombre qu’ils ont à juger consciemment. Ainsi, il est plus facile de juger consciemment que 6 est plus grand que 5 lorsque cette présentation est précédée du nombre subliminal 9 (qui est également plus grand que 5), que lorsqu’elle est précédée du nombre 1 (qui est plus petit que 5). À l’extrême, cette facilitation devient très importante lorsqu’il y a répétition de la même quantité dans le nombre amorce et dans le nombre cible. « Voir » le chiffre 4, inconsciemment, quelques centièmes de secondes avant de le revoir, cette fois consciemment, accélère grandement notre vitesse de traitement de l’information numérique.

Crucialement, le changement de notation n’affecte en rien le traitement subliminal des quantités. Même lorsque les nombres cible et amorce sont présentés dans des notations différentes (par exemple amorce QUATRE, cible 4), le même degré de facilitation est observé. Ainsi, l’influence inconsciente s’exerce à un niveau de traitement sémantique des informations qui ne dépend pas de la notation utilisée. Serait-ce donc la représentation spatiale des quantités ? Grâce à l’IRM, nous avons pu visualiser directement les aires cérébrales traversées par l’information inconsciente, et démontrer l’implication du cortex pariétal. La répétition subliminale d’un même nombre conduit à une habituation de l’activation cérébrale dans les régions pariétales qui sous-tendent le sens approximatif des quantités. L’influence du nombre invisible s’étend même bien au delà : les aires motrices, qui s’activent lorsque nous préparons un mouvement de la main, montrent une pré-activation induite par l’amorce. Si par exemple, le nombre invisible est plus petit que 5 alors que le suivant est plus grand, on pourra voir s’activer très brièvement l’aire de contrôle de la main gauche, puis la rectification de cette activation en direction de la main droite. Il s’agit là de la première démonstration qu’un stimulus inconscient peut traverser le cerveau de part en part, depuis les aires visuelles jusqu’aux représentations sémantiques et aux circuits moteurs, sans pour autant que le sujet s’en aperçoive.

Que conclure de ces expériences ? Le traitement subliminal des mots fait l’objet d’un très vieux débat en sciences cognitives, et il ne suffira sans doute pas de quelques nouveaux résultats pour convaincre les plus sceptiques. Néanmoins, notre expérience apporte de l’eau au moulin de ceux qui, tels le psychologue anglais Anthony Marcel, affirment depuis longtemps que notre cerveau restitue inconsciemment le sens des mots. Nos manipulations indiquent qu’une chaîne sensori-motrice complexe, qui implique une opération mathématique, peut s’exécuter sans conscience. La particularité de nos expériences est de démontrer que même des instructions arbitraires – appuyez à droite si vous voyez un nombre plus grand que 5 – sont susceptibles de s’exécuter intégralement sans être accompagnées d’un sentiment de contrôle conscient. Quelles sont les limites du traitement inconscient dans le cerveau ? Y a-t-il certaines opérations qui ne peuvent s’effectuer que sous contrôle conscient ? Ces fonctions pourraient-elles expliquer l’avantage évolutif qu’a apporté l’émergence de la conscience chez les primates supérieurs et l’ homo sapiens ? L’exploration de ces questions permettra peut-être de confirmer ou infirmer les introspections des mathématiciens qui rapportent que même des opérations aussi complexes que la démonstration d’un théorème d’algèbre sont susceptibles de s’exécuter en l’absence de conscience.

Perdre l’intuition du nombre

L’intuition du nombre est si profondément ancrée dans la profondeur de nos sillons pariétaux, si inconsciemment présente derrière le moindre de nos calculs, que nous n’en réalisons pas l’importance. Nous comprenons sans le moindre effort que 3 est plus petit que 5. Il nous paraît tellement évident que 2 et 2 font 4 que nous nous interrogeons guère sur l’appareil cérébral qui est à l’origine de cette intuition.

Nous ne prenons conscience de son importance, paradoxalement, que lorsqu'elle se détériore. Depuis près de 80 ans, les neurologues savent qu’une lésion cérébrale de la région pariétale, à l'âge adulte comme dans la petite enfance, peut entraîner une incapacité totale de comprendre ce que signifient les nombres. Dans certains cas, le déficit est si global que même la lecture et l’écriture des nombres devient impossible ; ces objets deviennent soudain si vides de sens que le patient est incapable d’en faire le moindre usage. D’autres patients peuvent conserver de bonnes capacités de lecture et d’écriture des nombres, voire même de récitation par cœur de la table de multiplication. Cependant, même s’ils se souviennent des mots « trois fois neuf, vingt-sept », ils n’en connaissent plus le sens.

À l’hôpital de la Pitié-Salpêtrière, le professeur Laurent Cohen et moi-même avons examiné un homme âgé d’une soixantaine d’années et qui avait eu l’infortune de subir un accident vasculaire dans la région pariétale droite. Il éprouvait de telles difficultés de soustractions que nous avions dû interrompre le test après qu’il ait échoué sur le calcul de 3-1 (il avait répondu 7). Ses difficultés n’étaient pas liées à une modalité particulière de présentation : il faisait autant d’erreurs, que les problèmes lui soient présentés par écrit ou par oral, et qu’il doive produire le résultat à haute voix ou se contenter de le sélectionner parmi plusieurs. Il échouait également dans des tests de comparaison, jugeant par exemple que 6 était plus petit que 5. Dans un test de bissection, il jugea tout naturellement que le nombre qui tombe entre 2 et 4 est 6 « parce que deux-quatre-six ». Il comprenait pourtant notre requête, puisqu’il savait dire quel jour tombe entre mardi et jeudi, ou quelle lettre se situe entre B et D. Seul le domaine des nombres semblait dramatiquement détérioré.

Nous disposons aujourd’hui de plusieurs observations similaires, chez des patients de tous âges et de tous pays. Toutes indiquent que les lésions de la région pariétale s’accompagnent de troubles sévères de l’intuition des quantités – y compris, semble-t-il, chez le très jeune enfant. La dyscalculie du développement est un trouble de l’arithmétique comparable à la dyslexie en ce qu’elle touche une fraction importante des enfants (entre 3 et 6 % selon les rares enquêtes épidémiologiques disponibles). Certains au moins de ces enfants souffrent de déficits isolés de l’arithmétique, remarquablement comparables à ceux que l’on peut observer chez l’adulte après un accident vasculaire. Mes collègues anglais Brian Butterworth et Luisa Girelli ont ainsi étudié un jeune adulte d’intelligence normale, appelé Charles, qui a toujours souffert de difficultés extrêmes avec les nombres. Charles possède une thèse de psychologie, maîtrise le langage à la perfection, et a bénéficié d’une éducation normale doublée de cours particuliers en mathématiques. Néanmoins, il doit toujours compter sur ses doigts pour réaliser le moindre calcul. Les tests psychologiques révèlent au moins deux déficits majeurs. Premièrement, Charles n’a aucune perception immédiate du nombre. Il est incapable de décider combien d’objets sont présents devant lui, même s’il n’y en a que 2 ou 3, si on ne lui laisse pas le temps de les compter. Deuxièmement, l’intuition de la taille des nombres lui fait défaut. Nous prenons normalement d’autant moins de temps pour comparer deux nombres que la distance qui les sépare est grande, sans doute parce que des nombres clairement séparés sont plus faciles à positionner mentalement sur l’espace des quantités. Chez Charles, cet effet de distance est inversé : il lui faut d’autant plus de temps que les nombres sont distants, parce qu’il doit compter même pour se rendre compte que 9 est plus grand que 2.

Aucun examen d’imagerie cérébrale n’a été proposé à Charles. Cependant, un autre cas de dyscalculie du développement, récemment examiné en spectroscopie par résonance magnétique, montre une anomalie focale du métabolisme exactement là où nous postulons que se situent les circuits neuronaux de la compréhension des quantités : la région pariétale inférieure. Il semble que, bien avant la naissance, la migration neuronale des neurones du cortex pariétal ait été anormale. Certaines maladies génétiques, mais aussi d’autres facteurs tels que la prématurité ou l’exposition à l’alcool au cours de la grossesse, semblent favoriser ces dysfonctionnements cérébraux précoces et accroître l’incidence de la dyscalculie.

Intuition et éducation mathématique

La dyscalculie du développement, plus que toute autre donnée empirique, place le cerveau au cœur de notre compétence mathématique. On a cru voir dans les mathématiques une construction culturelle fondée sur l’invention de symboles et de règles formelles, ou encore un langage universel pour décrire la structure de l’univers. Mais cette construction, ce langage, ne prennent leur sens que parce que notre cerveau est doté, dès la naissance, de circuits neuronaux aptes à saisir la structure intuitive du domaine qui deviendra celui des mathématiques. Si les mathématiques de haut niveau se construisent grâce au langage et à l’éducation, leurs fondements les plus élémentaires – concepts de nombre, mais aussi d'espace, de temps, d'opération... – sont à rechercher dans l’organisation même de notre cerveau. Les recherches en neurosciences cognitives de l’arithmétique confirment de façon éclatante la modularité des opérations cérébrales. Le cerveau n’est pas un organe isotrope qui absorberait comme une éponge la culture de son environnement. Il est plutôt comme une collection d’organes, chacun pré-adapté pour préparer l’enfant en développement à trouver, dans son environnement, des points de repères cognitifs. L’école, que ce soit en mathématiques ou dans d’autres domaines, ne peut construire que sur ces intuitions fondatrices incrustées dans nos circuits cérébraux au cours de l’évolution. Qu’une maladie neurologique interfère avec l’une de ces pré-adaptations, et c’est un domaine du savoir, l’arithmétique peut-être, qui risque de s’étioler, voire de disparaître.

Replacer le cerveau et ses représentations modulaires aux fondements de l’apprentissage des mathématiques n’oblige pas à adhérer à une forme naïve de réductionnisme. Il ne faut nier ni l’existence de représentations cérébrales stables des objets mathématiques, ni l’influence de la culture et de l’éducation sur ces états neuronaux. Les états d’activité que nous voyons par imagerie cérébrale chez l’adulte sont le résultat des contraintes croisées de l’apprentissage et de la structure initiale des réseaux cérébraux. Souligner le rôle des contraintes biologiques n’implique aucun fixisme, ni aucune passivité face au handicap. De même que la myopie se soigne par le port de lunettes, rien n’interdit de penser que l’étude attentive des réseaux neuronaux des dyscalculiques ne conduira pas au développement de stratégies d’éducation ou de ré-éducation optimisées pour ces enfants. Au minimum pourra-t-on éviter que ces élèves, qui sont répétons-le d’intelligence normale dans de nombreux domaines, ne soient étiquetés comme cancres ou paresseux et découragés de poursuivre leurs études.

Inversement, l’existence d’une base biologique universelle du sens des nombres n’implique en rien que celle-ci montre des variations anormales chez les surdoués des mathématiques. S’il existe d’authentiques déficits de l’intuition numérique, rien, pour l’instant, n’indique que dans la population normale, certains naîtraient dotés d’une plus grosse « bosse des maths ». Bien au contraire, tout suggère que l’intuition numérique fait partie du patrimoine génétique de tous, mais qu’elle est susceptible de s’épanouir à des degrés divers selon le travail et la passion que nous y apportons. Les enquêtes internationales montrent que les stratégies éducatives européennes, américaines ou asiatiques ont un impact radical sur le taux de réussite des étudiants aux mêmes tests. Les biographies des plus grands mathématiciens soulignent que ceux-ci ont travaillé et réfléchi intensément et quotidiennement, souvent dès le plus jeune âge, avant de voir leur talent s’épanouir. Peut-être le mathématicien de talent est-il celui qui, mieux que les autres, sait exploiter les multiples intuitions que notre cerveau projette sur le monde.

Bibliographie

– Dehaene (S.), La bosse des maths, Paris, Odile Jacob, 1997.

– Butterworth (B.), The Mathematical Brain, London: Macmillan, 1999.

– Dehaene (S.), Spelke (E.), Stanescu (R.), Pinel (P.), et Tsivkin (S.), Sources of mathematical thinking: Behavioral and brain-imaging evidence, Science, 284, p970-974, 1999.

– Dehaene (S.), Naccache (L.), Le Clec'H (G.), Koechlin (E.), Mueller (M.), Dehaene-Lambertz (G.), van de Moortele (P.-F.), et Le Bihan (D.), Imaging unconscious semantic priming, Nature, 395, p597-600, 1998.

– Levy (L.-M.), Reis (I.-L.), et Grafman (J.), Metabolic abnormalities detected by H-MRS in dyscalculia and dysgraphia, Neurology, 53, 639-641, 1999.

– Witelson (S.-F.), Kigar (D.-L.), et Harvey (T.), The exceptional brain of Albert Einstein, Lancet, 353(9170), p2149-53, 1999.

 

DOCUMENT       canal-u.tv     LIEN

 
 
 
 

THÉORIE DES JEUX

 

THÉORIE  DES  JEUX

 

CHAPITRE I LES COMPORTEMENTS STRATEGIQUES VIA LA THEORIE DES JEUX


Dans l’introduction, nous avons fait l’hypothèse qu’un producteur ou un consommateur devait maximiser quelques chose dans un contexte de risques ou d’incertitude sans tenir compte des décisions des autres producteurs ou consommateurs. Il n’y a ainsi aucune interaction stratégique.
La théorie des jeux étudie les interactions stratégiques entre individus, c’est à dire les situations dans lesquelles les décisions prises par un individu ont des répercussions sur les autres individus. Dans ce contexte, l’utilité d’un agent dépend non seulement de ses propres actions mais également des actions choisies par les autres. Afin de déterminer quelles sont les actions des autres agents lui permetant de maximiser son bien être, un individu doit anticiper le actions des autres agents.
Un jeu est défini à partir des éléments suivants : (i) un ensemble de joueurs, quels sont les agents qui interagissent?, (ii) les règles du jeu, quelles sont les actions qu’un individu peut entreprendre ? Quelles informations les agents disposent ils lorsqu’ils prennent leurs décisions ? (iii) les résultats, quels sont ils à l’issue du jeu ? (iv) les paiements, est-ce que les agents peuvent gagner ou perdre?

DOCUMENT   www.oeconomia.net     LIEN

 
 
 
 

MATHÉMATIQUES

 


Pour résoudre un problème mathématique ouvert depuis 35 ans, des chercheurs ont produit par ordinateur la plus longue preuve jamais construite à ce jour.


Il faudrait 10 milliards d’années à un être humain pour la lire. D’une taille phénoménale de 200 téraoctets – soit l’équivalent de tous les textes numérisés détenus par la bibliothèque américaine du Congrès –, c’est la plus grande preuve mathématique jamais produite. Trois informaticiens américano-britanniques viennent d’annoncer l’avoir établie grâce à un supercalculateur1. Leurs travaux seront présentés au cours de la conférence internationale SAT, qui se tiendra à Bordeaux du 5 au 8 juillet prochains.
Un problème trentenaire résolu en force
Le problème qu’ont résolu les trois chercheurs et qui a nécessité une preuve aussi longue est celui dit de la « bicoloration des triplets de Pythagore ». Resté sans réponse depuis les années 1980, ce problème simple en apparence pose la question suivante : est-il possible de colorier chaque entier positif en bleu ou en rouge de telle manière qu’aucun triplet d’entiers a, b et c qui satisfait la fameuse équation de Pythagore a² + b² = c² soient tous de la même couleur ? Par exemple, pour le triplet 3, 4 et 5, si 3 et 5 sont coloriés en bleu, alors 4 doit être rouge.
À cette énigme, le trio d’informaticiens a répondu non. Ils ont montré que, jusqu’à 7 824, il est possible de colorier ainsi les entiers, et même de plusieurs façons mais, arrivé à 7 825, cela devient impossible. « Pour le prouver, les chercheurs n’ont pas eu d’autres choix que d’y aller “en force” en énumérant et en vérifiant toutes les combinaisons possibles », explique Laurent Simon, du Laboratoire bordelais de recherche en informatique2.

Une preuve inhumaine
Une tâche hors de portée pour un humain mais accessible à un ordinateur. Rendez-vous compte : il y a plus de 102 300 façons de colorier les entiers jusqu’à 7 825 ! Heureusement, en tirant parti des différentes symétries du problème et en utilisant diverses techniques issues de la théorie des nombres, les chercheurs sont parvenus à réduire le nombre de possibilités à étudier à 1 000 milliards. « L’astuce de l’équipe a ensuite été de découper tous ces cas possibles en un million de paquets différents pour pouvoir résoudre le problème plus facilement », précise Daniel Le Berre, du Centre de recherche en informatique de Lens (Cril)3.
Il aura fallu alors deux jours au supercalculateur Stampede de l’université du Texas et à ses 800 processeurs pour passer en revue toutes ces possibilités et apporter la preuve tant attendue, générant pour cela 200 téraoctets de données. « Les chercheurs ont ensuite vérifié la preuve, trop longue pour être relue par un humain, en utilisant un autre programme informatique indépendant », précise Laurent Simon.
Désormais, les ordinateurs sont devenus des alliés indispensables aux mathématiciens pour résoudre ce genre de problème dit combinatoire. Déjà, en 2014, une preuve de 13 gigaoctets – c’était le record précédent – construite par ordinateur avait permis de mettre fin à une énigme similaire à celle des triplets de Pythagore.
La révolution des solveurs SAT
La raison de cette petite révolution ? C’est la mise au point par les informaticiens de nouveaux algorithmes très efficaces pour résoudre ces problèmes : les « solveurs SAT ». Dans le langage informatique, SAT signifie « satisfiabilité ». Il s’agit d’un formalisme logique qui capture toute la difficulté d’un problème combinatoire pour tenter ensuite de le satisfaire. Prenez un jeu de Sudoku ou un démineur, ce sont là deux exemples très simples de problèmes qui peuvent être appréhendés et résolus très facilement par ce formalisme.

En quinze ans, les informaticiens ont accompli des progrès considérables dans ce domaine. « Si bien que les solveurs SAT, cantonnés au départ à l’informatique théorique, ont vu leur utilisation exploser et ont permis de résoudre des problèmes de plus en plus difficiles », confie Daniel Le Berre. Aujourd’hui, Microsoft fait appel à ces algorithmes pour tester ses nouveaux systèmes d’exploitation. Il s’agit alors d’identifier une succession d’instructions parmi des millions susceptibles de causer un bug dans le logiciel ou au contraire de prouver qu’il n’y en aura pas. Même chose pour Intel qui vérifie grâce à ces outils le bon fonctionnement de ses microprocesseurs. Et le nombre d’applications ne cesse de croître en robotique, en bio-informatique ou encore en cryptographie.
D’autres preuves à venir…
Aujourd’hui, c’est au tour des mathématiques, donc, d’être touchées par cette vague. Ainsi, pour établir la preuve du problème des triplets de Pythagore, le trio d’informaticiens a utilisé le solveur baptisé Glucose, développé par Laurent Simon et un collègue du Cril. En 2014 aussi, c’est Glucose qui avait permis de construire ce qui constituait alors la plus longue preuve mathématique.
Et cette tendance ne semble pas près de s’arrêter. « Ce dernier résultat montre qu’il est possible de s’attaquer avec cette méthode à des problèmes mathématiques combinatoires extrêmement difficiles, pour lesquels aucune approche classique à la main n’est encore disponible, confie Laurent Simon. Il préfigure probablement la fin d’autres conjectures similaires qui résistent encore aujourd’hui aux mathématiciens. »
Notes
        1.
Article à paraître, https ://arxiv.org/abs/1605.00723
        2.
Unité CNRS/Univ. de Bordeaux/Bordeaux INP.
        3.
Unité CNRS/Univ. d’Artois.


 DOCUMENT         cnrs        LIEN  

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon