ecole de musique piano
     
menu
 
 
 
 
 
 

CHAOS, IMPRÉDICTIBILITÉ, HASARD

 

 

 

 

 

 

 

CHAOS, IMPRÉDICTIBILITÉ, HASARD


Le monde qui nous entoure paraît souvent imprévisible, plein de désordre et de hasard. Une partie de cette complexité du monde est maintenant devenue scientifiquement compréhensible grâce à la théorie du chaos déterministe. Cette théorie analyse quantitativement les limites à la prédictibilité d'une l'évolution temporelle déterministe : une faible incertitude initiale donne lieu dans certains cas à une incertitude croissante dans les prévisions, et cette incertitude devient inacceptable après un temps plus ou moins long. On comprend ainsi comment le hasard s'introduit inévitablement dans notre description du monde. L'exemple des prévisions météorologiques est à cet égard le plus frappant. Nous verrons comment les idées à ce sujet évoluent de Sénèque à Poincaré, puis nous discuterons comment le battement d'ailes du papillon de Lorenz peut affecter la météo, donnant lieu à des ouragans dévastateurs des milliers de kilomètres plus loin. Ainsi, la notion de chaos déterministe contribue non seulement à notre appréciation pratique des incertitudes du monde qui nous entoure, mais encore à la conceptualisation philosophique de ce que nous appelons cause et de ce que nous appelons hasard.

Texte de la 218e conférence de l’Université de tous les savoirs donnée le 5 août 2000.

Chaos, imprédictibilité et hasard par David Ruelle

Pour interpréter le monde qui nous entoure nous utilisons un grand nombre de concepts très divers. Certains concepts sont concrets comme vache, puceron, papillon, d’autres abstraits comme espace, temps, hasard, ou causalité. Ces concepts sont des créations humaines : leur histoire est intimement liée à celle du langage, et leur contenu peut varier d’une culture à une autre. Nous pensons que des mots comme espace, temps, hasard, causalité correspondent à des réalités fondamentales, indépendantes de la culture où nous vivons, et même indépendantes de l’existence de l’homme. Mais il faut bien admettre que les concepts abstraits que nous venons d’énumérer ont évolué au cours de l’histoire, et que cette évolution reflète un progrès dans notre compréhension de la nature des choses. Dans ce progrès, la philosophie et la science ont joué un rôle important. Dès l’Antiquité, par exemple, les gens cultivés avaient acquis une certaine idée de l’immensité de l’univers grâce aux travaux des astronomes. Des notions comme « erratique et imprévisible » ou « peu fréquent et improbable » ont sans doute une origine préhistorique ou même antérieure au langage. En effet, une bonne appréciation des risques peut aider à la survie. Ainsi si l’orage menace il est prudent de se mettre à l’abri. En général il faut se méfier des caprices des gens et de la nature, caprices qui expriment la liberté des hommes et des choses de se comporter parfois de manière aléatoire et imprévisible. Si les notions liées au hasard et au libre choix sont d’une grande aide dans la pratique, la notion de cause est aussi une conceptualisation utile : la fumée par exemple a une cause qui est le feu. De même les marées ont une cause qui est la lune : ce n’est pas tout à fait évident, mais la chose était connue des anciens, et cette connaissance pouvait être fort utile. On peut ainsi essayer de tout expliquer comme un enchaînement plus ou moins évident de causes et d’effets. On arrive de cette manière à une vision déterministe de l’univers. Si l’on y réfléchit un peu, le déterminisme, c’est-à-dire l’enchaînement bien ordonné des causes et des effets semble en contradiction avec la notion de hasard. Sénèque qui eut la charge d’éduquer le jeune Néron se penche sur le problème dans le De Providentia et dit ceci : « les phénomènes mêmes qui paraissent le plus confus et le plus irrégulier : je veux dire les pluies, les nuages, les explosions de la foudre, ..., ne se produisent pas capricieusement : ils ont aussi leurs causes. » Cette affirmation porte en germe le déterminisme scientifique, mais, il faut bien voir que son contenu est surtout idéologique. Sénèque était un amateur d’ordre, un ordre imposé par une loi éternelle et divine. Le désordre et le hasard lui répugnaient. Cependant, comme je l’ai dit, les notions liées au hasard sont utiles, pratiquement et conceptuellement, et l’on perd peut-être plus qu’on ne gagne à les évacuer pour des motifs idéologiques. On peut d’ailleurs reprocher de manière générale aux idéologies de vouloir supprimer des idées utiles, et cela s’applique encore aux idéologies modernes, dans leurs ambitions simplificatrices et leur intolérance aux fantaisies individuelles. Mais quittons maintenant le domaine idéologique pour parler de science. Et puisque le feu est la cause de la fumée, allons voir un physico-chimiste spécialiste des phénomènes de combustion. Il nous apprendra des choses fascinantes, et nous convaincra que les problèmes de combustion sont importants, complexes, et encore mal compris. En fait si l’on s’intéresse aux problèmes de causalité et de déterminisme, plutôt que de passer sa vie à étudier les problèmes de combustion, mieux vaut choisir un problème plus simple. Par exemple celui d’une pierre jetée en l’air, surtout s’il n’y a pas d’air. On peut en effet, avec une très bonne précision, décrire par des équations déterministes la trajectoire d’une pierre jetée en l’air. Si l’on connaît les conditions initiales, c’est-à-dire la position et la vitesse de la pierre à l’instant initial, on peut calculer la position et la vitesse à n’importe quel autre instant. Au lieu d’une pierre jetée en l’air nous pouvons considérer le ballet des planètes et autres corps célestes autour du soleil, ou la dynamique d’un fluide soumis à certaines forces. Dans tous ces cas l’évolution temporelle du système considéré, c’est-à-dire son mouvement, satisfait à des équations déterministes. Si l’on veut, on peut dire que les conditions initiales d’un système sont la cause de son évolution ultérieure et la déterminent complètement. Voilà qui devrait satisfaire Lucius Annaeus Seneca. Notons quand même que le concept de cause a été remplacé par celui d’évolution déterministe, ce qui n’est pas tout à fait la même chose. Par exemple, les équations de Newton qui déterminent les mouvements des planètes permettent à partir de conditions initiales données de calculer non seulement les états futurs du système solaire, mais également les états passés. On a oublié que la cause devait précéder l’effet. En fait, l’analyse scientifique du concept de cause montre qu’il s’agit d’une notion complexe et ambiguë. Cette notion nous est très utile pour vivre dans un monde complexe et ambigu, et nous ne voudrions pas nous en passer. Cependant la science préfère utiliser des concepts plus simples et moins ambigus, comme celui d’équation d'évolution déterministe. Notons d’ailleurs que l’idée de hasard semble incompatible avec la notion d’évolution déterministe tout autant qu’avec un enchaînement bien ordonné de causes et d’effets. Nous allons dans un moment revenir à ce problème. Mais avant cela je voudrais discuter une précaution verbale que j’ai prise en parlant d’équations d’évolution déterministe valables avec une très bonne précision. Si vous demandez à un physicien des équations d’évolution pour tel ou tel phénomène, il vous demandera avec quelle précision vous les voulez. Dans l’exemple de la dynamique du système solaire, suivant la précision requise, on tiendra compte ou non du ralentissement de la rotation de la terre par effet de marée, ou du déplacement du périhélie de Mercure dû à la relativité générale. Il faudra d’ailleurs bien s’arrêter quelque part : on ne peut pas tenir compte, vous en conviendrez, des déplacements de chaque vache dans sa prairie, ou de chaque puceron sur son rosier. Même si, en principe, les déplacements de la vache et du puceron perturbent quelque peu la rotation de la terre. En Bref, la physique répond aux questions qu’on lui pose avec une précision qui peut être remarquable, mais pas absolument parfaite. Et cela n’est pas sans conséquences philosophiques, comme nous le verrons plus loin. J’ai parlé des équations d’évolution déterministes qui régissent les mouvements des astres ou ceux des fluides, de l’atmosphère ou des océans par exemple. Ces équations sont dites classiques car elles ne tiennent pas compte de la mécanique quantique. En fait la mécanique quantique est une théorie plus exacte que la mécanique classique, mais plus difficile à manier, et comme les effets quantiques semblent négligeables pour les mouvements des astres, de l’atmosphère ou des océans, on utilisera dans ces cas des équations classiques. Cependant, la mécanique quantique utilise des concepts irréductibles à ceux de la mécanique classique. En particulier la mécanique quantique, contrairement à la mécanique classique, fait nécessairement référence au hasard. Dans une discussion des rapports entre hasard et déterminisme, ne faudrait-il pas par conséquent utiliser la mécanique quantique plutôt que classique ? La situation est la suivante : la physique nous propose diverses théories plus pou moins précises et dont les domaines d’application sont différents. Pour une classe donnée de phénomènes plusieurs théories sont en principe applicables, et on peut choisir celle que l’on veut : pour toute question raisonnable la réponse devrait être la même. En pratique on utilisera la théorie la plus facile à appliquer. Dans les cas qui nous intéressent, dynamique de l’atmosphère ou mouvement des planètes, il est naturel d’utiliser une théorie classique. Après quoi il sera toujours temps de vérifier que les effets quantiques ou relativistes que l’on a négligés étaient réellement négligeables. Et que somme toute les questions que l’on s’est posées étaient des questions raisonnables. Les progrès de la physique ont montré que les équations d’évolution déterministes étaient vérifiées avec une précision souvent excellente, et parfois stupéfiante. Ces équations sont notre reformulation de l’idée d’enchaînement bien ordonné de causes et d’effets. Il nous faut maintenant parler de hasard, et essayer de reformuler ce concept en termes qui permettent l’application des méthodes scientifiques. On dit qu’un événement relève du hasard s’il peut, pour autant que nous sachions, soit se produire soit ne pas se produire, et nous avons tendance à concevoir notre incertitude à ce sujet comme ontologique et fondamentale. Mais en fait l’utilité essentielle des concepts du hasard est de décrire une connaissance entachée d’incertitude, quelles que soient les origines de la connaissance et de l’incertitude. Si je dis qu’à cette heure-ci Jean Durand a une chance sur deux d’être chez lui, je fournis une information utile : cela vaut la peine d’essayer de téléphoner à son appartement. La probabilité un demi que j’attribue au fait que Jean Durand soit chez lui reflète ma connaissance de ses habitudes, mais n’a pas de caractère fondamental. En particulier, Jean Durand lui-même sait très bien s’il est chez lui ou pas. Il n’y a donc pas de paradoxe à ce que des probabilités différentes soient attribuées au même événement par différentes personnes, ou par la même personne à des moments différents. Le hasard correspond à une information incomplète, et peut avoir des origines diverses. Il y a un siècle environ, Henri Poincaré a fait une liste de sources possibles de hasard. Il mentionne par exemple qu’au casino, c’est le manque de contrôle musculaire de la personne qui met en mouvement la roulette qui justifie le caractère aléatoire de la position où elle s’arrête. Pour des raisons historiques évidentes, Poincaré ne mentionne pas la mécanique quantique comme source de hasard, mais il discute une source d’incertitude qui a été analysée en grand détail beaucoup plus tard sous le nom de chaos et que nous allons maintenant examiner. Prenons un système physique dont l’évolution temporelle est décrite par des équations déterministes. Si l’on connaît l’état du système à un instant initial, d’ailleurs arbitraire, on peut calculer son état à tout autre instant. Il n’y a aucune incertitude, aucun hasard. Mais nous avons supposé implicitement que nous connaissions l’état initial avec une totale précision. En fait, nous ne pouvons mesurer l’état initial qu’avec une précision limitée (et d’ailleurs les équations déterministes que nous utilisons ne représentent qu’approximativement l’évolution réelle du système physique qui nous occupe). Il faut donc voir comment une petite imprécision dans notre connaissance de l’état initial au temps 0 (zéro) va affecter nos prédictions sur un état ultérieur, au temps t. On s’attend à ce qu’une incertitude suffisamment petite au temps 0 donne lieu à une incertitude petite au temps t. Mais la question cruciale est de savoir comment cette incertitude va dépendre du temps t. Il se trouve que pour beaucoup de systèmes, dits chaotiques, l’incertitude (ou erreur probable) va croître rapidement, en fait exponentiellement avec le temps t. Cela veut dire que si l’on peut choisir un laps de temps T au bout duquel l’erreur est multipliée par 2, au temps 2T elle sera multipliée par 4, au temps 3T par 8, et ainsi de suite. Au temps 10T le facteur est 1024, au temps 20T plus d’un million, au temps 30T plus d’un milliard ... et tôt ou tard l’incertitude de notre prédiction cesse d’être petit pour devenir inacceptable. Le phénomène de croissance rapide des erreurs de prédiction d’un système physique, que l’on appelle chaos , introduit donc du hasard dans la description d’un système physique, même si ce système correspond à des équations d’évolution parfaitement déterministes comme celles de la dynamique des fluides ou du mouvement des astres. Voici ce que dit Henri Poincaré dans le chapitre sur le hasard de son livre Science et Méthode publiée en 1908 : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. » Cette affirmation, Poincaré en donne un exemple emprunté à la météorologie : « Pourquoi Les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir de la pluie ou du beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de la dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées ni assez précises, et c’est pour cela que tout semple dû à l’intervention du hasard. » Les affirmations de Poincaré sur la météorologie dépassent, il faut bien le dire, ce que la science du début du 20-ième siècle permettait d’établie scientifiquement. Les intuitions géniales de Poincaré ont été confirmées, mais on trouverait sans peine des intuitions d’autres savants qui se sont révélées fausses. Il est donc heureux que, après avoir été oubliées, les idées de Poincaré aient été redécouvertes, étendues, et soumises à une analyse scientifique rigoureuse. Cette nouvelle période commence avec un article de Lorenz relatif à la météorologie en 1963, un article de Takens et moi-même sur la turbulence en 1971, puis une foule de travaux dans les années 70, 80, 90 qui édifient la théorie moderne du chaos. Le mot chaos lui-même apparaît dans son sens technique en 1975. Il n’est possible de donner ici qu’une vue très sommaire des aspects techniques de la théorie du chaos, mais j’insiste sur le fait que les résultats techniques sont essentiels. Ces résultats permettent de changer l’affirmation du sens commun suivant laquelle « de petites causes peuvent avoir de grands effets » en affirmations quantitatives comme celle concernant l’effet papillon dont nous parlerons dans un moment. La théorie du chaos étudie donc en détail comment une petite incertitude sur l’état initial d’une évolution temporelle déterministe peut donner lieu à une incertitude des prédictions qui croît rapidement avec le temps. On dit qu’il y a dépendance sensitive des conditions initiales. Cela veut dire que de petites causes peuvent avoir de grands effets, non seulement dans des situations exceptionnelles, mais pour toutes les conditions initiales. En résumé, le terme chaos désigne une situation où, pour n’importe quelle condition initiale, l’incertitude des prédictions croît rapidement avec le temps. Pour donner un exemple, considérons un faisceau de rayons lumineux parallèles tombant sur un miroir convexe. Après réflexion, nous avons un faisceau divergent de rayons lumineux. Si le faisceau initial était divergent, il serait encore plus divergent après réflexion. Si au lieu de rayons lumineux et de miroir nous avons une bille de billard qui rebondit élastiquement sur un obstacle convexe, la situation géométrique est la même, et on conclut qu’une petite incertitude sur la trajectoire de la bille avant le choc donne lieu à une incertitude plus grande après le choc. S’il y a plusieurs obstacles convexes que la bille heurte de façon répétée, l’incertitude croît exponentiellement, et on a une évolution temporelle chaotique. Cet exemple était connu de Poincaré, mais ce n’est que bien plus tard qu’il a été analysé de manière mathématiquement rigoureuse par Sinaï. Comme l’étude mathématique des systèmes chaotiques est d’une grande difficulté, l’étude du chaos combine en fait trois techniques : les mathématiques, les simulations sur ordinateur, et l’expérimentation (au laboratoire) ou l’observation (de l’atmosphère, des astres). Notons que les simulations sur ordinateur n’existaient pas du temps de Poincaré. Ces simulations ont joué un rôle essentiel en montrant que les systèmes déterministes tant soit peu complexes présentent fréquemment de la sensitivité aux conditions initiales. Le chaos est donc un phénomène très répandu. La météorologie fournit une application exemplaire des idées du chaos. En effet, on a de bons modèles qui décrivent la dynamique de l’atmosphère terrestre. L’étude par ordinateur de ces modèles montre qu’ils sont chaotiques. Si l’on change un peu les conditions initiales, les prédictions après quelques jours deviennent assez différentes : on a atteint la limite de la fiabilité du modèle. Bien entendu les prédictions faites avec ces modèles décollent après quelques jours de la réalité observée, et l’on comprend maintenant pourquoi : le chaos limite la prédictibilité du temps qu’il va faire. Le météorologiste Ed Lorenz, que nous avons déjà mentionné, a rendu populaire le concept de sensitivité aux conditions initiales sous le nom d’effet papillon. Dans un article grand public, il explique comment le battement des ailes d’un papillon, après quelques mois, a un tel effet sur l’atmosphère de la terre entière qu’il peut donner lieu à une tempête dévastatrice dans une contrée éloignée. Cela rappelle ce qu’écrivait Poincaré, mais paraît tellement extrême qu’on peut se demander s’il faut accorder à l’effet papillon plus qu’une valeur métaphorique. En fait, il semble bien que l’affirmation de Lorenz doit être prise au pied de la lettre. On va considérer la situation où le papillon bat des ailes comme une petite perturbation de la situation où il se tiendrait tranquille. On peut évaluer l’effet de cette petite perturbation en utilisant le caractère chaotique de la dynamique de l’atmosphère. (Rappelons que les modèles de l’atmosphère terrestre montrent une dynamique chaotique aux grandes échelles ; aux petites échelles, on a aussi du chaos à cause de la turbulence généralisée de l’air où nous baignons). La perturbation causée par le papillon va donc croître exponentiellement, c’est-à-dire très vite, et l’on peut se convaincre qu’au bout de quelques mois l’état de l’atmosphère terrestre aura changé du tout au tout. De sorte que des lieux éloignés de celui où se trouvait le papillon seront ravagés par la tempête. La prudence m’incite à prendre ici quelques précautions verbales. Il s’agit d’éviter qu’un doute sur un point de détail ne jette le discrédit sur des conclusions par ailleurs bien assurées. On peut se demander comment des perturbations aux petites dimensions (comme la dimension d’un papillon) vont se propager aux grandes dimensions (comme celle d’un ouragan). Si la propagation se fait mal ou très mal, peut-être faudra-t-il plus que quelques mois pour qu’un battement d’ailes de papillon détermine un ouragan ici ou là. Cela rendrait l’effet papillon moins intéressant. A vrai dire, la turbulence développée reste mal comprise et la conclusion de Lorenz reste donc un peu incertaine. L’image du papillon est jolie cependant, il serait dommage qu’on doive l’enterrer et, jusqu’à plus ample informé, j’y reste personnellement attaché. Quoi qu’il en soit, la circulation générale de l’atmosphère n’est pas prédictible plusieurs mois à l’avance. C’est un fait bien établi. Un ouragan peut donc se déclencher ici ou là de manière imprévue, mais cela dépendra peut-être d’incertitudes autres que les battements d’ailes d’un papillon. Si l’on y réfléchit un instant, on voit que le déclenchement d’une tempête à tel endroit et tel moment résulte d’innombrables facteurs agissant quelques mois plus tôt. Que ce soient des papillons qui battent des ailes, des chiens qui agitent la queue, des gens qui éternuent, ou tout ce qui vous plaira. La notion de cause s’est ici à ce point diluée qu’elle a perdu toute signification. Nous avons en fait perdu tout contrôle sur l’ensemble des « causes » qui, a un instant donné, concourent à ce qu’une tempête ait lieu ou n’ait pas lieu ici ou là quelques mois plus tard. Mêmes des perturbations infimes dues à la mécanique quantique, à la relativité générale, ou à l’effet gravitationnel d’un électron à la limite de l’univers observable, pourraient avoir des résultats importants au bout de quelques mois. Aurions-nous dû en tenir compte ? Il est clair qu’on n’aurait pas pu le faire. L’effet de ces perturbations infimes peut devenir important après quelques mois, mais un mur d’imprédicibilité nous interdit de le voir. Pour l’atmosphère terrestre, ce mur d’imprédicibilité est situé à quelques jours ou semaines de nous dans le futur. Je voudrais revenir brièvement à mon implication personnelle dans l’histoire du chaos. A la fin des années 60, je m’étais mis à l’étude de l’hydrodynamique, qui est la science de l’écoulement des fluides. Certains des écoulements que l’on observe sont tranquilles et réguliers, on les dit laminaires, d’autres sont agités et irréguliers, on les dit turbulents. Les explications de la turbulence que j’avais trouvées, en particulier dans un livre de Landau et Lifschitz sur l’hydrodynamique, ne me satisfaisaient pas, car elles ne tenaient pas compte d’un phénomène mathématique nouveau, dont j’avais appris l’existence dans les travaux de Smale. Quel est ce phénomène ? C’est l’abondance d’évolutions temporelles de nature étrange, avec dépendance sensitive des conditions initiales. Je m’étais alors convaincu que la turbulence devait être liée à une dynamique « étrange ». Dans un article joint avec Takens nous avons proposé que la turbulence hydrodynamique devait être représentée par des attracteurs étranges, ou chaotiques, et étudié le début de la turbulence, ou turbulence faible. Par la suite, de nombreux travaux expérimentaux ont justifié cette analyse. Cela ne résout pas le problème de la turbulence, qui reste l’un des plus difficiles de la physique théorique, mais on sait au moins que les théories « non chaotiques » jadis à l’honneur ne peuvent mener à rien. Quand le chaos est devenu à la mode, il a donné lieu à d’innombrables travaux. Certains de ces travaux développaient les aspects techniques de la théorie du chaos, et il n’est pas question d’en parler ici, d’autres analysaient diverses classes de phénomènes naturels dans l’espoir d’y trouver un comportement chaotique. C’est ainsi que j’ai proposé qu’il devait y avoir des oscillations chimiques chaotiques, ce qui effectivement a été démontré par l'expérience dans la suite. Ce fut une période féconde où, en réfléchissant un peu, on pouvait faire des découvertes d’un intérêt durable. Toutes les idées n’ont d’ailleurs pas été également bonnes. Ainsi, des essais d’application du chaos à l’économie et à la finance se sont révélés moins convaincants ; j’y reviendrai. Mais quand Wisdom et Laskar ont cherché du chaos dans la dynamique du système solaire, ils ont eu la main remarquablement heureuse. Le mouvement des astres du système solaire semble extraordinairement régulier, puisque l’on peut par le calcul prédire les éclipses, ou retrouver celles qui ont eu lieu, il y a plus de mille ans. On a donc longtemps pensé que le mouvement des planètes, et en particulier de la Terre, était exempt de chaos. On sait maintenant que c’est faux. L’orbite de la Terre est une ellipse dont les paramètres varient lentement au cours du temps, en particulier l’excentricité, c’est-à-dire l’aplatissement. En fait on a maintenant montré que la variation temporelle de l’excentricité est chaotique. Il y a donc de l’imprédicibilité dans le mouvement de la Terre. Le temps nécessaire pour que les erreurs de prédiction doublent est de l’ordre de 5 millions d’années. C’est un temps fort long par rapport à la vie humaine, mais assez court à l’échelle géologique. Le chaos que l’on a trouvé dans le système solaire n’est donc pas sans importance, et les travaux dans ce domaine se poursuivent activement, mais ce n’est pas ici le lieu d’en discuter. Les résultats accumulés depuis plusieurs décennies nous ont donné une assez bonne compréhension du rôle du chaos en météorologie, en turbulence hydrodynamique faible, dans la dynamique du système solaire, et pour quelques autres systèmes relativement simples. Qu’en est-il de la biologie, de l’économie, de la finance, ou des sciences sociales ? Il faut comprendre que les modélisations utiles dans le domaine du vivant sont assez différentes de celles qui nous satisfont pour des systèmes physiques simples. Les relations du hasard et la nécessité sont d’une autre nature. En fait le domaine du vivant est caractérisé par l’homéostasie qui maintient les organismes dans des conditions appropriées à la vie. L’homéostasie tend par exemple à maintenir la température de notre corps dans d’étroites limites. Elle supprime les fluctuations thermiques et est donc de nature antichaotique. La correction des fluctuations apparaît aussi au niveau du comportement individuel : un projet de voyage est maintenu même si une panne de voiture ou une grève fortuites obligent à changer de moyen de transport. Il s’agit ici de processus correctifs compliqués et qu’il est difficile de représenter par des modèles dynamiques simples auxquels on pourrait appliquer les techniques de la théorie du chaos. Clairement, de petites causes peuvent avoir de grands effets dans la vie de tous les jours, mais aux mécanismes causateurs de chaos s’ajoutent des mécanismes correcteurs, et il est difficile de débrouiller la dynamique qui en résulte. Dans le domaine de l’économie, de la finance ou de l’histoire, on voit aussi que des causes minimes peuvent avoir des effets importants. Par exemple une fluctuation météorologique peut causer la sécheresse dans une région et livrer sa population à la famine. Mais des mécanismes régulateurs effaceront peut-être l’effet de la famine, et l’histoire poursuivra son cours majestueux. Peut-être, mais ce n’est pas certain. Une guerre obscure en Afghanistan a précipité la chute du colossal empire Soviétique. Cette guerre obscure a concouru avec de nombreuses autres causes obscures à miner un empire devenu plus instable qu’on ne le pensait. En fait nous vivons tous dans un monde globalement instable : la rapidité des transports, la transmission presque instantanée de l’information, la mondialisation de l’économie, tout cela améliore peut-être le fonctionnement de la société humaine, mais rend aussi cette société plus instable, et cela à l’échelle de la planète. Une maladie virale nouvelle, ou un virus informatique, ou une crise financière font sentir leurs effets partout et immédiatement. Aujourd’hui comme hier le futur individuel de chaque homme et chaque femme reste incertain. Mais jamais sans doute jusqu’à présent l’imprédictibilité du futur n’a affecté aussi globalement notre civilisation tout entière.

 

 VIDEO       CANAL  U         LIEN

 
 
 
 

MATHÉMATIQUES

 

MATHÉMATIQUES

PLAN
    *         MATHÉMATIQUES
    *         Introduction
    *         Historique
    *         L'Antiquité
    *         La période classique
    *         La période moderne
    *         Les mathématiques aujourd'hui
    *         La logique
    *         Les ensembles
    *         L'algèbre
    *         La topologie
    *         Les nombres
    *         Analyse, probabilités, géométrie…
    *         L'activité mathématique
    *         L'apprentissage des rudiments
    *         Les mathématiques, les autres sciences et les techniques

mathématiques

Consulter aussi dans le dictionnaire : mathématiques
Science qui étudie par le moyen du raisonnement déductif les propriétés d'êtres abstraits (nombres, figures géométriques, fonctions, espaces, etc.) ainsi que les relations qui s'établissent entre eux.


L'évolution des mathématiques, sur plus de vingt-cinq siècles, a été considérable. Non seulement elles ont donné lieu à une impressionnante quantité d'inventions et de découvertes, mais la constitution même de cette science a été modifiée. Les mots qui servent à désigner ses branches (algèbre, géométrie, etc.) ont en grande partie changé de sens. Un survol de leur évolution aide à comprendre cette diversité de sens. Une connaissance plus fine de leur histoire permettrait de saisir aussi combien des mots comme « fonction » ou « mesure » ont pu changer de signification.

Historique
Tout au long de leur histoire, les mathématiques offrent un double aspect. Elles sont d'abord une science, la plus théorique de toutes sans doute : elles traquent la vérité à propos d'objets fort peu naturels. D'un autre côté, le souci de mettre au point des procédés pratiques efficaces, calculatoires notamment, pour répondre à des besoins de nature très diverse, n'a jamais cessé d'animer les recherches. Tantôt les deux genres de préoccupations s'accordent étroitement, tantôt leurs liens se relâchent.

L'Antiquité

        La géométrie et l'arithmétique ont des origines pratiques indéniables. On les rencontre dans presque toutes les civilisations quelque peu évoluées (en Inde, en Chine, en Égypte, etc.). Des préoccupations s'approchant du mysticisme, comme en témoigne le cas de Pythagore et de ses disciples (vie s. avant J.-C.), ont pu également avoir un rôle moteur.
La particularité de la Grèce est de leur avoir donné une forme déductive, avec définitions, principes et théorèmes. Euclide (iiie s. avant J.-C.) rassembla tout le savoir théorique qui avait été ainsi élaboré. Les treize livres de ses Éléments allaient constituer la référence majeure jusqu'au xixe s., notamment pour la géométrie, dans le plan et dans l'espace.
Dans les Éléments, l'arithmétique est la science qui prend pour objet les propriétés des nombres dans toute leur généralité. Il s'agit alors exclusivement de nombres qui expriment la pluralité : les entiers, à partir de 2. La simple pratique des calculs, sous le nom de logistique, était abandonnée aux hommes de l'art.

Le Moyen Âge et la Renaissance
Les successeurs des Grecs furent d'abord les savants du monde arabe puis, grâce à ces derniers, l'Occident latin. Tout en recueillant l'héritage d'Euclide et des autres grands géomètres, tous consacrèrent beaucoup au développement de méthodes pratiques. La plus importante de toutes fut la numération décimale de position, importée des Indes, aux algorithmes si efficaces. À la longue, le calcul écrit supplanta les autres techniques telles que l'usage des jetons.
Égyptiens, Mésopotamiens et Grecs savaient déjà résoudre ces petits problèmes qui, pour nous, débouchent sur la résolution d'une équation. Des méthodes approximatives leur donnaient quelques succès pour les degrés un et deux. Dans la géométrie grecque, on trouvait des problèmes équivalents, débouchant sur des constructions à la règle et au compas. Celui de la quadrature du cercle (construire un carré égal en aire à un cercle donné) fut un de leurs plus célèbres échecs.
Les Arabes réussirent à traiter de manière systématique les équations du second degré. Leur algèbre, comme on dit depuis, consistait en une méthode de manipulation des nombres, confirmée en parallèle par une preuve géométrique de sa validité. Il ne s'agissait pas encore de calculs littéraux : on exposait avec des mots, sur un exemple. Mais les calculs numériques, néanmoins, étaient devenus plus hardis : on opérait avec des fractions, parfois même avec des racines. Les Italiens, au xvie s., s'attaquèrent avec succès aux équations du troisième et du quatrième degré, inventant les nombres complexes pour pouvoir passer outre aux difficultés. Cette longue période a donc surtout vu se réaliser un superbe progrès désordonné, mais considérable, de la « logistique ».

La période classique

L'époque de la fin de la Renaissance vit apparaître d'autres nouveautés, comme les logarithmes. Deux d'entre elles allaient conduire à la naissance de l'analyse, destinée à supplanter arithmétique et géométrie : l'une fut l'usage des lettres en algèbre ; l'autre fut l'habitude qui se prit alors de ne pas hésiter à mêler l'infini aux calculs. On se mit notamment à user des séries, c'est-à-dire de sommes comportant une infinité de termes et prenant néanmoins une certaine valeur. Ainsi de la somme de fractions

qui, lorsque l'on ajoute des termes toujours diminués de moitié, donne 1.
René Descartes (1596-1650) combina la nouvelle algèbre avec la géométrie, créant ainsi la géométrie analytique. Cette dernière, avec ses équations de courbes, conduisit tout naturellement à la notion de fonction. C'est pour en déployer les potentialités que Isaac Newton (1642-1727) et Gottfried Wilhelm Leibniz (1646-1716) mirent au point le calcul infinitésimal. L'analyse, regroupement de toutes ces nouveautés, offrit le vaste champ de ses méthodes et de ses problèmes : limites, dérivation, intégration, équations différentielles, développements en série, etc. La géométrie et la mécanique en bénéficièrent pleinement.

La période moderne

L'expansion quantitative n'a fait que s'accélérer depuis. Un souci de rigueur accrue, qui se fit jour au xixe s., allait conduire à de nouvelles créations en même temps qu'à un bouleversement des mathématiques.
L'exigence de rigueur s'exerça d'abord sur les bases de l'analyse, laquelle n'avait été, quant à sa démarche, qu'une nouvelle logistique. Toutes les catégories de nombres reçurent enfin une définition solide ; en particulier les réels, grâce à Richard Dedekind (1831-1916) et à Georg Cantor (1845-1918). Non seulement l'analyse, mais même la géométrie (par un renversement de la géométrie analytique) pouvaient ainsi recevoir des bases bien organisées.
C'est vers la même époque que la découverte des géométries non euclidiennes commença d'ébranler la confiance en la vérité des mathématiques. Il devenait patent que cette science ne pouvait plus recevoir pour fondements que des axiomes, principes que l'on pose librement comme prémisses aux développements déductifs. L'Italien Giuseppe Peano (1858-1932) le réalisa pour l'arithmétique et l'Allemand David Hilbert (1862-1943) pour la géométrie.
Les ensembles, promus par Cantor en cette même fin de siècle, se révélèrent de bien meilleurs objets élémentaires que les entiers et les figures. L'équipe Bourbaki en vint à procéder à une reconstruction de la totalité des mathématiques à partir des ensembles. Ainsi peut-on y jouer depuis sur tous les degrés possibles de généralité, ce qui confère unité, souplesse et puissance.
Cette reconstruction a bénéficié, en plus de l'invention décisive des ensembles infinis, de trois développements. L'algèbre, après avoir porté sur les calculs littéraux, tendait à devenir la science des opérations elles-mêmes. En second lieu, l'étude des équations algébriques et celle des invariances géométriques avaient conduit à remarquer l'importance des groupes de transformations. Une troisième nouveauté, appelée à jouer un rôle d'importance, fut la topologie ; elle s'intéressait au départ à des problèmes de positions qui la conduisirent à relativiser l'importance des formes géométriques dans certaines questions. Le point commun à ces trois avancées est à repérer dans une certaine évanescence de l'objet initialement étudié : le nombre en algèbre, au profit de l'opération ; les équations d'un côté et les figures de l'autre, dans le cas des groupes, au profit des transformations ; la forme de la figure, enfin, qui perd en quelque sorte sa rigidité. Ainsi s'opérait une certaine décomposition de l'objet traditionnel des mathématiques, qui allait permettre et appeler une recomposition autour de nouveaux objets : les ensembles et les relations.

Les mathématiciens se sont livrés, en même temps qu'à cette vaste réorganisation, à un travail de fondation. Le besoin s'en faisait sentir depuis que les géométries non euclidiennes avaient mis à mal l'idée de vérité mathématique. Estimant que tout pouvait se réduire au nombre, les logicistes, avec l'Allemand Gottlob Frege (1848-1925) et le Britannique Bertrand Russell (1872-1970), entreprirent de faire sortir celui-ci de la logique. Il est vrai que cette dernière était enfin devenue une science, très mathématique d'allure, et qu'elle apparaissait comme science de la pensée pure. Les intuitionnistes, ou constructivistes, avec le Néerlandais Luitzen Brouwer (1881-1966), refusèrent cette réduction et pratiquèrent une logique un peu modifiée. Mais les mathématiciens ont plutôt suivi Hilbert dans sa tentative formaliste. Son but était de prouver, par le développement d'une métamathématique, que les mathématiques elles-mêmes ne risquaient pas de contenir une contradiction qui, en se révélant un jour, les aurait ruinées. Si cet aspect du projet n'a pas eu tout le succès escompté, la conception d'ensemble des mathématiques qui y est cultivée a largement prévalu.

Les mathématiques aujourd'hui
Les mathématiques, telles qu'un traité complet peut les exposer aujourd'hui, commencent par les ensembles, éventuellement accompagnés de la logique. Elles continuent par l'étude des structures générales, topologiques, algébriques ou d'ordre. Puis viennent les nombres et tout ce qui peut se produire par l'entrecroisement de ces premières branches.

La logique
Plus ou moins tenue pour une branche des mathématiques, en charge de la rigueur de ces dernières, la logique étudie la structure des propositions et celle des théories déductives. La logique dont les mathématiques ont besoin est bivalente : une proposition est soit vraie soit fausse, quelque sens que l'on donne à ces mots. Elle n'est pas modale : ni la temporalité ni le souhait n'y ont leur place.
La structure déductive d'une théorie s'examine à l'aune de règles telles que celle du modus ponens : des théorèmes A et (A ⇒ B) on peut déduire le théorème B. Il s'agit là du point de vue que l'on appelle syntaxique : le travail se réalise au niveau le plus formel possible. Le point de vue sémantique s'intéresse, sinon au sens à proprement parler, du moins à la possibilité pour une proposition d'être vraie dans une interprétation donnée du système symbolique.

Les ensembles
La théorie des ensembles la mieux acceptée est celle de Zermelo-Fraenkel (ZF). On adjoint généralement à ses axiomes celui du choix, nécessaire pour pouvoir démontrer, en tous domaines, nombre de théorèmes auxquels on tient. On forme ainsi la théorie ZFC.
Les axiomes définissent la manière licite de produire des ensembles, notamment par les opérations telles que l'intersection. La suite de la théorie des ensembles porte surtout sur les cardinaux, c'est-à-dire sur les nombres d'éléments des ensembles infinis, ainsi que sur les ordinaux, expressions des manières de classer ces éléments.

L'algèbre
L'algèbre générale n'est que le prolongement de la théorie des ensembles. Elle étudie les opérations qui peuvent se faire sur les ensembles eux-mêmes ainsi que les relations que l'on peut établir entre éléments de l'un et éléments d'un autre, ou bien entre éléments d'un même ensemble. Dans le premier cas se rangent surtout les fonctions, avec des catégories importantes, comme celle des bijections. Dans le second cas, les relations d'équivalence se distinguent par la possibilité qu'elles donnent d'effectuer des partitions, c'est-à-dire des découpages. Une fois cet arsenal disponible, on peut aborder l'étude des structures algébriques, c'est-à-dire des opérations et de leurs propriétés, toujours en toute généralité : structures de groupes, d'anneaux, de corps, d'espaces vectoriels. Avec ces derniers, on entre dans l'algèbre linéaire, très influencée dans ses idées et dans son vocabulaire par la géométrie des vecteurs. Par addition de propriétés supplémentaires, on enrichit les structures, au prix bien entendu d'une perte de généralité : plus on suppose de propriétés à des opérations, moins on rencontrera de situations pouvant entrer dans ce moule qu'est une structure.
La question des équations algébriques, autrement dit la bonne vieille algèbre, trouve sa place à ce niveau. Il n'est pas nécessaire de construire les nombres réels pour commencer d'étudier la factorisation des polynômes et la résolution des équations. Ces notions reçoivent une définition générale dans le cadre des structures d'anneau et de corps. Les théorèmes généraux ainsi établis s'appliqueront, en particulier, au cas des polynômes réels et à celui des polynômes complexes.

La topologie
La visée de la topologie générale est de fournir à l'analyse des bases larges. Elle traite, de la façon la plus abstraite possible, des questions de voisinage, de proximité, de limite, de continuité. Elle leur donne un sens dans les espaces topologiques, c'est-à-dire dans tout ensemble dans lequel on trouve des sous-ensembles satisfaisant à certaines conditions. L'usage des ensembles permet d'éviter complètement toute notion de distance, tout en ménageant la possibilité de prendre cette dernière en compte. Comme pour les structures algébriques, on peut enrichir à loisir les structures topologiques.
Les résultats s'appliquent, sans surprise, à des espaces tels que l'ensemble des réels. Mais les retombées vont bien au-delà. Les espaces topologiques sont tout aussi bien des ensembles de fonctions numériques : leurs « points » sont des fonctions.
Des branches plus spécialisées de la topologie la conduisent à se lier à d'autres branches, notamment à l'algèbre.

Les nombres
À partir des ensembles on sait reconstruire les entiers et, à partir de ces derniers, les rationnels, les réels, les complexes et d'autres encore.
L'arithmétique n'est plus, dans l'usage le plus courant, que l'étude des entiers. Lorsque cette science commence à faire appel à d'autres branches, dont l'analyse, pour trouver des solutions à ses problèmes, on l'appelle plutôt théorie des nombres. L'étude des rationnels est parfois considérée comme faisant partie de l'arithmétique, ce qui, jusqu'à un certain point, n'entraîne aucun inconvénient. Cette partie du langage des mathématiques n'a rien d'officiel. Elle ne donne pas lieu à des définitions en bonne et due forme, parce que le découpage des mathématiques que ces mots opèrent n'est guère important : on ne leur demande que de fournir un vague repérage.

Analyse, probabilités, géométrie…

        L'étude classique des fonctions, à variables réelles ou complexes, bénéficie de la puissance de la topologie. L'intégrale, par exemple, a pu être définie dans le cadre très général des espaces topologiques. De nombreux théorèmes relatifs aux intégrales peuvent ainsi se voir démontrer en une seule fois.
Nées au xviie s. en tant que calcul des chances, les probabilités ont reçu leurs bases axiomatiques précises, permettant une déduction impeccable de leurs théorèmes. On n'a besoin pour cela que des ensembles et des nombres réels, sans aucune allusion aux boules et aux urnes. Cela n'empêche pas d'employer un vocabulaire marqué par les origines réelles : on parle toujours d'événements ; mais ce ne sont plus que des sous-ensembles d'un ensemble qui peut être des plus quelconques. Le maintien de ce vocabulaire n'est d'ailleurs pas seulement la conséquence des habitudes prises : il aide à faire le lien entre la théorie et l'application pratique.
La structure d'espace affine, définie à partir de la notion d'espace vectoriel, est une reconstruction de la droite, du plan et de l'espace de la géométrie traditionnel. Mais son caractère très général va jusqu'à les appauvrir. La notion de distance, par exemple, n'est introduite que dans une étape ultérieure, celle des espaces affines euclidiens. Il faut ensuite que l'analyse vienne prêter main-forte pour que toute la richesse des courbes et des surfaces réapparaisse. La géométrie, qui avait été la science reine depuis Euclide, est de toutes les anciennes branches la plus écartelée.

L'activité mathématique
L'apprentissage des rudiments

       
L'acquisition du savoir d'un bachelier – qu'un mathématicien considère comme tout juste rudimentaire – s'étale sur plusieurs années dans la vie d'un jeune humain. La géométrie étudiée représente une petite fraction des Éléments, repensée en terme de transformations et rendue plus calculatoire que démonstrative par l'emploi des vecteurs. Ces deux améliorations nous viennent du xixe s. L'algèbre se limite au second degré ; c'est donc celle des Arabes mais pratiquée avec le calcul littéral. La géométrie analytique est à peu près celle que Descartes connaissait. L'analyse est celle de Newton et de Leibniz, moins les séries. Les probabilités, enfin, sont celles des débuts, avec Pascal et Fermat. Ce n'est qu'en passant dans l'enseignement supérieur que l'on découvre véritablement les ensembles ainsi que l'algèbre moderne.

Les mathématiques, les autres sciences et les techniques
Le développement de la recherche mathématique poursuit sa croissance. On estime à cent mille le nombre des théorèmes produits chaque année dans le monde. Corrélativement, la spécialisation va en s'accentuant, comme pour toute l'activité scientifique. La recherche se scinde en recherche pure et recherche appliquée, cette dernière concernant les autres sciences ainsi que les techniques.
Depuis le xviie s., la physique est une science mathématisée : ses concepts de base sont des grandeurs (par exemple, la vitesse) ou le sont devenus (les couleurs). La mécanique céleste a été la première science de la nature à profiter pleinement de la richesse de moyens offerte par l'analyse. Au xxe s., la physique, et la cosmologie à sa suite, ont pu envisager un univers à quatre dimensions, non euclidien. Il n'est pas jusqu'aux sciences humaines, telle l'économie ou la sociologie, qui n'aient tenté de conquérir leur brevet de haute scientificité par le biais de la mathématisation. Certaines philosophes avaient d'ailleurs donné l'exemple en important des mathématiques, non certes des grandeurs, mais la démarche axiomatique elle-même, le cas de Spinoza étant le plus célèbre.
Les retombées des mathématiques dans le domaine des techniques ne sont pas moindres. Depuis la mesure des terrains jusqu'au calcul des trajectoires spatiales, du décompte des troupeaux aux techniques de sondage d'opinion, elles sont présentes dans toutes les activités par lesquelles les hommes s'efforcent de maîtriser la nature et la société. Les moyens informatiques n'ont fait que démultiplier les possibilités de calcul. Le domaine des statistiques, qui doit brasser d'énormes quantités de chiffres, est un de ceux qui en profitent pleinement.
Les thèmes de recherche


Les questions relatives aux fondements des mathématiques ont occupé le devant de la scène pendant les premières décennies du xxe s. On a tendance, depuis, à les laisser aux logiciens. Mais à aucun moment elles n'ont constitué plus qu'une petite partie de la recherche. Les moteurs de celle-ci sont des problèmes, tantôt vastes, tantôt d'un intérêt minuscule à première vue : certains viennent des mathématiques elles-mêmes, d'autres sont posés par les sciences et les techniques.
Un grand thème de recherche, pour se limiter à un exemple, est celui de la complexité, qui porte sur les méthodes de calcul en rapport avec les capacités des machines. Parmi les petits thèmes, la démonstration du théorème de Fermat a reçu une solution satisfaisante au bout de trois siècles et demi d'efforts passionnés. D'autres, comme la conjecture de Goldbach – tout nombre pair est la somme de deux nombres premiers – ou la nature de la constante d'Euler, continuent de jouer leur rôle de défi et celui de prétexte à développer des nouveautés.


 DOCUMENT   larousse.fr    LIEN

 
 
 
 

INFORMATIQUE

 


 

 

 

 

 

PLAN
    *         INFORMATIQUE
    *         1. La science de l'information
    *         2. Historique et évolution de l'informatique
    *         2.1. Les précurseurs de l'informatique
    *         2.2. La machine de Turing
    *         2.3. La machine de von Neumann
    *         2.4. Les premiers ordinateurs
    *         2.5. De l'EDVAC à l'Univac
    *         2.6. Un nouveau langage, le Fortran
    *         2.7. L'IBM-360
    *         2.8. Les premiers micro-ordinateurs
    *         2.9. Évolutions actuelles
    *         3. Le codage de l'information
    *         3.1. Les codes utilisés en informatique
    *         3.2. Le « mot informatique »
    *         3.3. Représentation des nombres
    *         4. Les principes du traitement de l'information
    *         4.1. La notion d'algorithme et de calculabilité
    *         4.2. La complexité de calcul
    *         4.3. Les langages de programmation
    *         4.4. La programmation
    *         5. L'architecture des machines et leurs systèmes d'exploitation
    *         5.1. L'architecture classique
    *         5.2. Les systèmes d'exploitation
    *         Les disques et mémoires
    *         5.3. Le parallélisme
    *         6. Les applications de l'informatique
    *         6.1. L'informatisation des entreprises
    *         6.2. Le modèle client-serveur
    *         6.3. L'automatisation de la production
    *         6.4. L'intelligence artificielle
    *         6.5. Le calcul scientifique
    *         7. La Commission nationale de l'informatique et des libertés (CNIL)
    *         L'INFORMATIQUE QUANTIQUE
    *         La logique quantique

informatique

(de information et automatique)

Cet article fait partie du dossier consacré à l'informatique.
Science du traitement automatique et rationnel de l'information considérée comme le support des connaissances et des communications.

L'informatique est au centre d'un secteur industriel dont les produits ont évolué avec une rapidité fulgurante. Elle apparaît tour à tour accusée de tous les maux ou auréolée de tous les pouvoirs. De machine à rêver, l'ordinateur est devenu un outil qui a investi tant la vie privée que le monde professionnel. Cette évolution technologique a transformé au fur et à mesure ses méthodes d'utilisation et provoqué une diversification du paysage informatique.

1. La science de l'information
Le terme « informatique », qui désigne une discipline née avec l'ordinateur, est un néologisme français, introduit en 1962 par Philippe Dreyfus, condensant les mots information et automatique. Les Anglo-Saxons parlent de computer science et de data processing.

Deux définitions de l'informatique se sont toujours télescopées : celle concernant l'ensemble des techniques mises en œuvre pour l'utilisation des ordinateurs et celle concernant la science du traitement rationnel de l'information, notamment par des moyens automatiques. Dans le langage courant, l'information est soit l'action ou la démarche par laquelle on cherche des connaissances sur un sujet précis, soit le résultat de cette action.
On a, bien souvent, tendance à assimiler les termes information et donnée, ce dernier étant issu du vocabulaire statistique. Une donnée est l'aboutissement de tout un processus d'élaboration et de codification. Au sens informatique du terme, l'information est le résultat d'une représentation, auquel on peut appliquer des traitements qui fournissent une autre information. On s'accorde cependant pour limiter le champ de l'informatique au traitement automatique des données.

2. Historique et évolution de l'informatique

2.1. Les précurseurs de l'informatique

De tout temps, les hommes ont cherché à rendre les calculs plus rapides. Les premières machines à calculer mécaniques étaient les machines à roues dentées de Wilhelm Schickard (1592-1635), de Blaise Pascal (1623-1662) et de Gottfried Wihelm Leibniz (1646-1716). Fragiles et peu maniables, elles ne furent guère utilisées. Le premier véritable précurseur de l'informatique est l'anglais Charles Babbage (1792-1871). Sa « machine analytique », qui utilise, au xixe s., des cartes perforées indiquant les données et les opérations à effectuer, était théoriquement novatrice mais techniquement tellement complexe qu'elle n'a jamais fonctionné.
→ machine à calculer.

2.2. La machine de Turing

       


Alan Turing (1912-1954) est un mathématicien britannique qui a étudié des problèmes de logique et de fondements des mathématiques qui le conduisent à définir, en 1936, ce que l'on appelle maintenant « machine de Turing » et qui est un des concepts de base de l'informatique. C'est un pur objet mathématique abstrait, qui permet de formaliser rigoureusement la notion de calcul et de délimiter la frontière entre problèmes « calculables » et problèmes non « calculables ». La notion introduite par Turing de « machine universelle » préfigure le principe de l'ordinateur. Par ailleurs, pendant la Seconde Guerre mondiale, Turing a travaillé pour les services secrets alliés en participant à l'équipe de scientifiques qui ont utilisé des moyens automatiques de calcul pour déchiffrer les codes secrets de l'armée allemande (→ cryptographie).

2.3. La machine de von Neumann

Johann von Neumann (1903-1957), mathématicien américain d'origine hongroise, est l'un des plus brillants scientifiques du xxe s. Pendant la Seconde Guerre mondiale, von Neumann participe, entre autres, aux calculs nécessaires à la mise au point de la bombe atomique américaine (→ projet Manhattan). Pour faire ces calculs, il cherche à utiliser les calculateurs disponibles aux États-Unis. En 1944, il rencontre à l'université de Pennsylvanie J. P. Eckert et J. W. Mauchly qui construisent un très gros calculateur : l'ENIAC (Electronic Numerical Integrator, Analyser and Computer). Bien que très puissante, cette machine n'est pas encore un ordinateur. Son usage est très fastidieux et von Neumann cherche à améliorer sa conception. Avec Eckert, Mauchly et une équipe d'ingénieurs, il conçoit les plans d'une nouvelle machine qu'il appelle l'EDVAC (Electronic Discrete Variable Automatic Computer). Cette machine est fondamentalement nouvelle dans son architecture. L'innovation fondamentale est que dans sa mémoire centrale sont placés non seulement les données mais aussi le programme. Une unité de commande interne permet d'organiser le travail de la machine et les échanges avec l'extérieur.
C'est le principe de base de l'architecture des ordinateurs classiques (séquentiels). Seules les machines parallèles d'avant-garde actuelles sortent des limites de ce modèle.

2.4. Les premiers ordinateurs

Une controverse éclate rapidement entre Eckert, Mauchly et Von Neumann. Les premiers veulent construire et commercialiser immédiatement une machine de ce type et revendiquent la propriété de l'invention ; ils veulent déposer un brevet, ce que Von Neumann conteste. La justice américaine tranche et dit que l'idée de la machine n'appartient à personne, tout le monde est autorisé à construire une machine ayant cette architecture. Eckert et Mauchly fondent alors une entreprise et se lancent dans la fabrication des ordinateurs.

2.5. De l'EDVAC à l'Univac

C'est en Grande-Bretagne, en 1948, à l'université de Manchester, que sera finalement construit le premier ordinateur conçu selon le principe de l'EDVAC. Alan Turing a participé à sa mise au point technique et c'est lui qui a écrit le premier « langage » pour communiquer les informations à la machine. Ce langage très simple est composé d'une cinquantaine d'instructions et c'est la machine qui les traduit en langage binaire.
Les premiers ordinateurs étaient uniquement des ordinateurs universitaires ou militaires. C'est Eckert et Mauchly qui commercialisèrent, en 1951, l'Univac, le premier ordinateur civil jamais vendu. L'Univac utilise le langage mis au point par Alan Turing.
→ numérique, numérisation.
2.6. Un nouveau langage, le Fortran

Les progrès techniques vont se succéder rapidement. Les lampes à vide seront remplacées par le transistor, ce qui permettra la miniaturisation des machines et leur plus grande fiabilité. Mais en même temps, la science du logiciel, c'est-à-dire des programmes, fait des progrès. John Backus met au point le langage Fortran (FORmula TRANslator) en 1953. C'est le premier langage qui permet d'écrire un programme indépendant de la machine sur laquelle il est exécuté. Le langage Fortran, adapté au calcul scientifique, est toujours utilisé actuellement.

2.7. L'IBM-360
L'année 1964 est une étape importante dans l'histoire de l'industrie informatique : la firme américaine IBM commercialise l'ordinateur IBM-360. Cet ordinateur était équipé de circuits imprimés et fut un véritable succès commercial. L'informatique n'était plus seulement un outil principalement utilisé pour les applications militaires ou de recherche scientifique, elle pénétrait massivement dans les entreprises.
À cette époque, tous les ordinateurs sont encore très coûteux. Ils sont installés dans des salles climatisées dans lesquelles seuls certains informaticiens peuvent accéder. Des armées d'employées appelées « perforatrices », perforent à longueur de journée les cartes qui serviront à entrer les données.

2.8. Les premiers micro-ordinateurs

La micro-informatique se développe à partir de 1975. Les immenses progrès dans la miniaturisation des circuits conduisent à l'invention du microprocesseur, qui est l'organe de base du micro-ordinateur. Ce ne sont pas les grosses firmes comme IBM, qui à l'époque dominait le marché, qui sont à l'origine de cette invention. Les premiers micro-ordinateurs ont été mis au point et commercialisés par des étudiants contestataires californiens. La légende dit que la société Apple a été fondée dans un garage.
→ Steve Jobs, Silicon Valley.
Lancé en avril 1977, l’Apple II préfigure le futur de l’informatique. Il peut accueillir un lecteur de disquette qui facilite la sauvegarde de données. Mais surtout, avec la sortie d’un premier tableur (Visicalc), il rencontre un franc succès dans le monde de l’entreprise. Le chiffre d’affaire d’Apple s’envole et la société devance IBM sur le marché des ordinateurs personnels.
→ logiciel.

En 1984, Apple dévoile le Macintosh qui sidère par sa simplicité inégalée : pour la première fois, une souris (inspirée des laboratoires Xerox) permet de naviguer dans une interface graphique au design épuré qui jette les bases de l’informatique grand public (le « bureau », les « icônes » et les « dossiers »). De taille réduite, doté d’un écran de 23 centimètres et d’un lecteur de disquette intégré, le Macintosh dispose d’un traitement de texte et d’un logiciel de dessin, intuitifs grâce au système d’exploitation OS. Le succès est mondial et inspirera Bill Gates pour son système Windows (Microsoft).

2.9. Évolutions actuelles

La société Microsoft de Bill Gates connaît un succès fulgurant à partir de 1981, lorsque le système MS-DOS (auquel est adjoint, à partir de 1985, le système d'exploitation Windows) est choisi par IBM pour équiper ses PC et devient un standard de la micro-informatique durant les décennies 1990 et 2000.

       

D’année en année, les performances des ordinateurs domestiques sont multipliées (notamment avec le développement des cartes son, vidéos, mémoire, etc.) tandis que les prix baissent. De nombreux foyers s’équipent d’autant que les périphériques et les logiciels associés confèrent à l’outil informatique une dimension de plus en plus ludique : imprimantes, scanners, lecteur/graveurs de CD et DVD, connexion Internet par ajout d’un modem, lectures et traitements d’images, de textes et de sons plus intuitifs, microphones, haut-parleurs, manettes de jeux et jeux vidéos variés, webcams, etc. Le principe des connexions wi-fi et Bluetooth permet de se connecter facilement à Internet et d’associer plusieurs équipements sans fil. En 1996, encore une fois, les modèles d’Apple anticipent l’avenir : pour l’iMac, le lecteur de disquette disparaît au profit d’un modem intégré. S’ensuivent la version portable (iBook) et plusieurs modèles à écran plat dont le design et les performances fédèrent une communauté d’utilisateurs, fidèles à la marque.

Début 2007, une nouvelle révolution s’amorce, cette fois dans le domaine des télécommunications : l’iPhone (Apple), puis de nombreux autres Smartphones, constituent une nouvelle génération de téléphones mobiles, dits intelligents, sans clavier mais équipés d’un écran tactile. Intégrant un navigateur Web, un GPS, un gyroscope, une caméra (→ photographie numérique) et de multiples applications téléchargeables, ils ouvrent l’ère de l’Internet mobile et de l’informatique nomade.

En 2010, la première tablette tactile, l’iPad (Apple), rencontre le succès, notamment grâce aux applications qui l’enrichissent, et ce malgré le côté hybride de l’objet (ni ordinateur, ni téléphone). Des lecteurs MP3 et vidéos sont intégrés dans tous ces outils. Pour améliorer le confort de lecture (de romans, par exemple), l’informatique a développé des liseuses qui utilisent de l’encre électronique, moins éblouissantes que les écrans rétro-éclairés (format e-book).
En 2013, la firme Google propose une nouvelle voie innovante : la « Google glass », une paire de lunette à réalité augmentée (avec superposition d'infographies, de données, sur le champ vision de l'utilisateur) équipée d'une caméra intégrée, d'un micro, d'un pavé tactile sur l'une des branches, de mini-écrans et d'un accès à Internet.

De simple curiosité technique, le micro-ordinateur s'est hissé au rang de système personnel, se taillant une place chaque jour plus importante parmi les outils de traitement de l'information en milieu professionnel, dans les domaines du commerce (vente en ligne), des loisirs, mais aussi de la vie privée (explosion des réseaux sociaux, du type Facebook avec l'avènement du Web 2.0 au début des années 2010). Aujourd'hui, la puissance de calcul d'un micro-ordinateur dépasse largement ce qu'étaient les possibilités des ordinateurs vers 1975, pour un coût d'équipement, de mise en service et de formation qui est considérablement inférieur. À la même époque, les circuits électroniques, répartis sur des dizaines de circuits imprimés de 20 × 15 cm chacun, occupaient plusieurs armoires de taille imposante. Cette même électronique occupe aujourd'hui moins de 1 cm2 sur une plaque de silicium. Les premiers microprocesseurs commercialisés en 1971 comprenaient à peine 2 000  transistors, ceux de 2012 en contiennent plus de 1 milliard.

Les ordinateurs suivent la fameuse loi de Moore qui stipule que le nombre de transistors par circuit de même taille double, à prix constants, tous les 18 mois. La limite physique à cette augmentation exponentielle de la puissance des ordinateurs (dimension des puces réduite à la taille d’un atome) devrait toutefois être atteinte vers 2020. Une nouvelle révolution informatique est donc à prévoir…

3. Le codage de l'information
Pour traiter les données, le système informatique doit être capable de « comprendre » cette information. Les systèmes informatiques actuels comportent des circuits intégrés qui rassemblent sur une puce de silicium quelques millions de transistors. Ils ne peuvent donc fonctionner que selon une logique dite binaire déterminée par deux états logiques correspondant à deux niveaux électroniques, conventionnellement notés 0 et 1.
Le passage d'une information, d'un langage compréhensible par l'homme à un langage compréhensible par le système informatique se nomme codage.

Les informations que doivent traiter les systèmes informatiques sont composées de lettres, de chiffres et de symboles particuliers (points d'exclamation, guillemets…). On est donc amené à coder l'information pour qu'elle soit assimilée par le système. Avec un code à 1 bit (binary digit), on peut représenter deux états notés 0 et 1, soit 21 combinaisons. Pour représenter les 10 chiffres (0 à 9) utilisés dans le système décimal, il faut donc utiliser un code à 4 bits – le code à 3 bits n'étant pas suffisant puisqu'il ne permet que 23 combinaisons. Mais si nous voulons aussi représenter les lettres de l'alphabet, il faut alors un code capable de représenter les 26 combinaisons qui correspondent aux lettres en plus des 10 combinaisons qui correspondent aux chiffres, soit 36 combinaisons différentes. Il nous faut donc un code à 6 bits (215 = 32 combinaisons est insuffisant, 216 = 64 combinaisons est suffisant) qui permette de coder plus de 36 combinaisons et même des informations particulières.

3.1. Les codes utilisés en informatique

Dans le BCD (binary code decimal, « décimal codé binaire »), chaque chiffre du nombre à coder est donné par son équivalent binaire représenté sur 4 bits. Ce code est utilisé pour le codage de nombres, notamment avec le langage COBOL (COmmon Business Oriented Language).
Le code ASCII (American Standard Code for Information Interchange) est l'un des codes les plus utilisés en informatique. Défini en 1963 aux États-Unis, il a été repris par les organismes de normalisation des transmissions internationales de données, qui en ont fait le code ISO (International Standard Organization) à 7 bits. Il est souvent assimilé à un code à 8 bits, car on ajoute 1 bit de contrôle, le bit de parité .

3.2. Le « mot informatique »
Les systèmes informatiques manipulant des informations binaires travaillent en général sur une longueur fixe de bits, le mot. Suivant le système, la taille de ce mot est différente ; les tailles classiques de mots sont de 8, 16, 32 ou 64 bits. Par exemple, sur un système équipé d'un microprocesseur 8086, on utilisait des mots de 16 bits, tandis qu'avec le 360 d'IBM, ou sur une machine comportant un microprocesseur 80486, on employait des mots de 32 bits. Les microprocesseurs actuels manipulent des mots de 64 bits.

3.3. Représentation des nombres

Un nombre entier est représenté par une suite de bits.
La représentation des nombres réels (« nombres à virgule ») est assurée grâce à deux suites de bits : la mantisse, qui représente les chiffres significatifs du nombre, et l'exposant, ou caractéristique, qui indique la puissance à laquelle la base de numération doit être élevée. Ainsi, dans le nombre décimal 12 E 8, 12 est la mantisse et 8 est l'exposant. L'ensemble est équivalent à 12 . 108. On trouve, selon les constructeurs, différentes normes de représentation des nombres en virgule flottante. Il appartient au programmeur de choisir une forme de stockage des nombres adaptée à son problème.

4. Les principes du traitement de l'information
4.1. La notion d'algorithme et de calculabilité
Le traitement que la machine effectue sur les données est spécifié par ce que l'on appelle un algorithme. Il décrit la suite d'opérations élémentaires qui doivent être effectuées. (Un algorithme est quelquefois comparé à une recette de cuisine ou à une partition musicale).
L'informatique théorique, et en particulier les travaux de Turing, a permis de formaliser rigoureusement la notion de problème résoluble par algorithme (on parle de problème décidable et de fonction calculable). Un programme est l'expression d'un algorithme dans un langage de programmation.
L'exécution d'un algorithme est un processus de calcul qui peut quelquefois ne pas se terminer (on dit qu'il boucle). Ce danger est à la base de l'une des difficultés de la programmation. On montre, en informatique théorique, que le problème de la détection du bouclage est un problème indécidable, c'est-à-dire qu'il ne peut pas être résolu par un algorithme.
→ programme.

4.2. La complexité de calcul
Même si un problème est soluble par algorithme, il se peut que le temps de calcul soit prohibitif. Par exemple, si l'on est sûr que le calcul va se terminer mais qu'il faut attendre un centaine de siècles, il vaut mieux y renoncer. La machine de Turing est aussi utilisée pour la théorie de la complexité qui vise à caractériser les problèmes qui sont effectivement solubles en un temps de calcul raisonnable.

4.3. Les langages de programmation

Un programme est destiné à être exécuté par une machine mais cela n'est possible que si les instructions du programme sont directement interprétables par la machine. Écrire un programme dans le langage d'une machine est extrêmement fastidieux, que ce soit pour la machine de Turing ou pour le processeur d'un ordinateur. Il est préférable, en particulier pour éviter de faire des erreurs, d'écrire un programme dans un langage de plus haut niveau, c'est-à-dire dont les instructions sont plus proches de l'esprit humain et seraient exécutables seulement par un machine virtuelle.
Il reste ensuite à traduire ce programme de haut niveau en un langage de bas niveau interprétable par la machine qui va l'exécuter effectivement. Cette tâche de traduction est confiée à l'ordinateur, c'est-à-dire que c'est un programme, en général appelé compilateur, qui résout ce problème de traduction. La production de ces compilateurs nécessite de décrire rigoureusement la syntaxe de ces langages par des « grammaires » et de représenter la signification des programmes par des procédés formels appropriés.

4.4. La programmation

Partant d'un problème, le chemin à parcourir, pour arriver finalement à un programme qui résout convenablement le problème, n'est pas facile surtout s'il s'agit de problèmes de taille industrielle et de programmes produits par une équipe nombreuse. Les risques d'erreurs sont nombreux, à la fois dans la compréhension du problème et dans la conception du programme. D'ou la nécessité d'une science et d'une ingénierie du logiciel (génie logiciel). En particulier, il est nécessaire de mettre en œuvre des méthodes rigoureuses de conception des programmes, ce qui nécessite une connaissance approfondie, aussi bien de la structure des algorithmes que des structures de données.
Parmi les méthodes de conception de programmes en vogue actuellement citons l'approche par objets (programmation orientée objets, par exemple le Java ou le C++). Cette approche permet de maîtriser la complexité de la tâche par une abstraction des procédures et des données. Elle facilite aussi la modularité et la réutilisation des « composants logiciels » qui constituent un programme.

Le langage html (hypertext markup langage) est un langage de description de documents servant à présenter les pages web et à préciser à l’aide de balises les liens hypertextes avec d’autres documents. Il est souvent utilisé avec le Javascript et les feuilles de style de cascade (CSS).

5. L'architecture des machines et leurs systèmes d'exploitation
5.1. L'architecture classique

Le principe de base, très simplifié, de l'ordinateur classique (séquentiel) est l'interaction entre une unité centrale et des périphériques. L'unité centrale est constituée essentiellement d'une mémoire centrale et d'un processeur. La mémoire centrale contient le programme ainsi que les données et les résultats intermédiaires des calculs. Le processeur exécute l'une après l'autre les instructions du programme en allant les chercher en mémoire. Les périphériques sont d'une part des unités de stockage (disque dur, par exemple) et des unités d'entrée-sortie qui permettent la communication homme-machine (clavier, écran, souris, imprimante, etc).

5.2. Les systèmes d'exploitation

Pour qu'un programme d'application puisse utiliser facilement les ressources de la machine (gestion des fichiers stockés sur les disques, gestion des entrées-sorties), il existe un ensemble de programmes intermédiaires qu'on appelle système d'exploitation et qui dispense le programmeur de se préoccuper de ces questions.

Les disques et mémoires
Les disques ont un support magnétique semblable à celui des bandes, et le principe d'enregistrement des informations y est analogue. La différence fondamentale réside dans l'organisation du support en cellules adressables permettant un accès direct à l'information. Une mémoire à disques est formée d'une pile de disques animés d'un mouvement de rotation permanent et rapide, faisant défiler les pistes sous les têtes de lecture-écriture.

Actuellement, les disques durs équipant les ordinateurs personnels permettent de stocker jusqu’à 1 To (1 téraoctet, soient 1012 octets). Les supports de stockage de données amovibles ont considérablement évolués ces dernières décennies  : les disquettes utilisées dans les années 1990 permettaient de stocker quelques centaines de Ko (kilo-octets). Elles ont été remplacées par des CD-Rom et des DVD enregistrables pouvant contenir de 600 Mo (mégaoctets) à quelques dizaines de Go (gigaoctets). Les mémoires flash et les clés USB sont aujourd’hui préférées pour les transferts rapides de données de quelques Mo, les sites F.T.P. pour les données plus volumineuses (quelques Go). Les disques durs externes, également amovibles, contiennent plusieurs centaines de Go.
Au début des années 2010, le cloud computing (informatique en nuage) qui externalise le stockage des données sur des serveurs distants, propose un nouveau mode d’accès aux informations personnelles, via Internet, à tout moment et sur tous supports connectés.

5.3. Le parallélisme
Le parallélisme est né de l'idée d'augmenter la puissance des machines pour résoudre efficacement, c'est-à-dire rapidement, des problèmes de très grande taille, en dépassant les limitations du modèle d'ordinateur de von Neumann. Une machine parallèle est un ensemble de processeurs qui communiquent et qui coopèrent. Des éléments de parallélisme sont apparus très tôt dans les ordinateurs, même dans les machines classiques, mais le besoin se fait sentir maintenant d'un parallélisme « massif », en particulier pour les applications demandant du calcul numérique intensif (notamment, les supercalculateurs utilisés pour la recherche scientifique, voir plus bas). Mais le parallélisme pose des problèmes matériels et logiciels qui sont loin d'être tous résolus.

6. Les applications de l'informatique
Tous les aspects du monde moderne sont pénétrés par les applications de l'informatique, d'autant plus qu'on assiste à une intégration entre les télécommunications et l'informatique, chacun s'appuyant sur l'autre.

La gestion des entreprises, y compris l'aide à la décision, a été l'un des champs d'applications principaux de l'informatique. Quasiment tous les secteurs ont été transformés par l'essor de l'informatique : les transports, la bureautique, la gestion de documents, l'informatique médicale, bancaire, le cinéma (→ image de synthèse) la presse et l'édition (avec la PAO, publication assistée par ordinateur), etc. Ces industries ont dû s'adapter aux techniques multimédia et aux modèles économiques de l'Internet qui reposent souvent sur un accès gratuit. L'industrie du disque souffre particulièrement du téléchargement illégal de fichiers.

6.1. L'informatisation des entreprises

Elle permet un gain de temps considérable pour les tâches répétitives. Les données traitées sont des informations précieuses utilisables à d'autres fins. En effet, les fonctions administratives évoluent : les gestionnaires peuvent s'interroger sur les tendances de la masse salariale, l'élaboration du bilan annuel, mais aussi sur l'échéancier des commandes, l'incidence d'un plan de formation sur les salaires. Les informations contenues dans les bulletins de salaire ou les états comptables peuvent être exploitées et permettre une simulation de commande ou de trésorerie, le calcul de l'incidence d'une prime sur certaines catégories de personnel, l'établissement d'un historique des qualifications ou d'un suivi de carrière…
L'informatisation touche de plus en plus les métiers de l'entreprise, par conséquent les professionnels collaborent plus étroitement avec les informaticiens. La diffusion de la technologie des réseaux locaux permet le développement d'une informatique dite répartie et en particulier du modèle client-serveur.

6.2. Le modèle client-serveur

Dans les années 1970, l'architecture des systèmes d'entreprise était caractérisée par une centralisation autour de gros ordinateurs auxquels on accédait par des terminaux. Les utilisateurs de ces systèmes étaient très dépendants des constructeurs. Les années 1980 ont vu le développement des base de données dans l'entreprise. Deux phénomènes se sont produits : d'une part une ouverture permise par exemple par la diffusion du système d'exploitation UNIX, qui ne dépend pas d'un constructeur particulier ; d'autre part le développement des réseaux locaux. Cette évolution a posé le problème du partage des données par plusieurs utilisateurs du réseau. Elle a permis l'émergence d'un modèle d'architecture dit « client-serveur ». Il est caractérisé par la distinction entre deux catégories de machines dans le réseau : les ordinateurs « serveurs », qui gèrent des données partagées entre plusieurs utilisateurs ; les stations de travail des utilisateurs (ou « clients »). Le client envoie des requêtes, c'est-à-dire interroge les bases de données du serveur.

6.3. L'automatisation de la production

La gestion de la production assistée par ordinateur (GPAO) d'une entreprise fait appel à des systèmes complexes et remet en question l'organisation de la production. Grâce à un suivi constant et automatique de la production, il devient possible de prévoir le marché et de s'y adapter. L'outil micro-ordinateur oblige à un choix stratégique des informations à traiter, et transforme les fonctions techniques de la production en fonctions décisionnelles. Le suivi de la production va par exemple permettre, à partir de contraintes extérieures et de coûts internes, d'optimiser les décisions sur les occasions favorables ou sur la rationalisation des dépenses internes (→ gestion). La simulation, une fonction puissante de ce pôle, permet, pour une production donnée, de faire varier des paramètres (délais de livraison, prix des matières premières, temps de production d'un poste de travail) afin de déterminer une stratégie de production.

6.4. L'intelligence artificielle
C'est encore un article de Turing, daté de 1947, qui est considéré comme l'un des points de départ de l'intelligence artificielle. Il s'agit de faire en sorte que des machines réalisent des comportements considérés comme intelligents, en particulier simulent l'intelligence humaine.

Les premières recherches en intelligence artificielle concernent la résolution de problèmes puis les robots intelligents. Le domaine de l'intelligence artificielle comprend aussi le traitement de la langue naturelle, en particulier l'aide à la traduction automatique de langues étrangères, la perception et la reconnaissance des formes.
Les « systèmes experts » permettent de représenter et de gérer des connaissances dans divers domaines comme en médecine par exemple.
Les « réseaux neuronaux » sont une autre approche de l'intelligence artificielle basée sur un modèle inspiré par les neurones du cerveau.
Dans les années 1950, les échecs ont constitués un objectif de modélisation en intelligence artificielle et dès 1997 l'ordinateur Deeper Blue l'emportait sur le champion de la discipline, Garri Kasparov. En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs). L'intelligence artificielle séduit beaucoup les industriels et les géants du numérique comme Google ou Facebook ; cependant, elle en inquiète d'autres comme le scientifique Stephen Hawking ou Bill Gates. En 2017, beaucoup de produits high-tech sont estampillés « intelligence artificielle » souvent pour des raisons marketing. Une machine peut s'adapter, faire évoluer ses objectifs, mais aucune n'a pu passer le célèbre test de Turing, propre à l'intelligence artificielle, ou faire preuve de conscience.

6.5. Le calcul scientifique
Il s'agit de traiter des problèmes de modélisation, simulation, optimisation (souvent à l’aide de supercalculateurs). Par exemple : calcul d'une aile d'avion, prévisions météo, modèles économiques.Réservés aux traitements de données extrêmement lourds et complexes, les supercalculateurs, ou superordinateurs, sont avant tout utilisés pour la recherche. Certains dépassent, en 2012, la dizaine de pétaflops, soient plusieurs millions de milliards d’opérations par seconde.

7. La Commission nationale de l'informatique et des libertés (CNIL)
En France, selon la loi du 6 janvier 1978, l'informatique ne doit, en aucun cas, porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques. Aucune décision de justice, aucune décision administrative ou privée impliquant une appréciation sur un comportement humain ne peut donner lieu à un traitement automatisé. C'est la Commission nationale de l'informatique et des libertés (CNIL) qui est chargée de veiller à ce que les traitements automatisés publics ou privés d'informations nominatives soient effectués conformément à la loi.
Toute personne justifiant de son identité a le droit d'interroger l'organisme traitant et d'obtenir les informations le concernant. Toutefois, lorsqu'il s'agit d'informations médicales, celles-ci ne peuvent être transmises à l'intéressé que par l'intermédiaire d'un médecin qu'il désigne à cet effet.

L'INFORMATIQUE QUANTIQUE
La puissance de calcul des ordinateurs n'a cessé de croître, doublant régulièrement tous les deux ans. Il existe cependant des problèmes dont la solution est trop complexe pour qu'un ordinateur classique les traite efficacement. Des ordinateurs utilisant les propriétés étranges du monde quantique pourraient s'y attaquer en offrant une puissance de calcul inimaginable.
Les ordinateurs classiques traitent de façon efficace certains problèmes. La multiplication de deux nombres se calcule en un temps qui ne croît, dans le pire des cas, que comme le carré du nombre de chiffres impliqués. Un algorithme, un programme dont le temps d'exécution croît comme une puissance de la taille des données est considéré comme efficace, le problème qu'il résout comme facile. En revanche, la solution d'un problème difficile requiert un temps qui croît exponentiellement avec la taille des données (comme la valeur du nombre, non comme le nombre de chiffres ou de bits). La décomposition d'un nombre entier en facteurs premiers (la factorisation) est sans doute un problème difficile.
L'algorithme naïf consiste à essayer systématiquement tous les diviseurs. Le temps de calcul croît comme la racine carrée du nombre considéré. Pour l'instant, on ne connaît pas d'algorithme qualitativement beaucoup plus rapide. À titre d'exemple, calculer le produit de deux nombres premiers de 64 et 65 chiffres ne prend que quelques microsecondes. À partir du nombre de 129 chiffres obtenu (environ 400 bits), retrouver les facteurs a pris des mois avec un réseau de gros ordinateurs. Même si la puissance de calcul a doublé depuis, la factorisation d'un nombre de 150 chiffres prendrait encore des mois. La solution d'un problème d'échecs, la recherche d'un élément dans une liste non triée sont aussi des problèmes complexes.
En raison de sa difficulté et de la simplicité du problème inverse, la factorisation est utilisée dans les systèmes cryptographiques. La multiplication du message, codé comme un nombre, par une clé secrète suffit à le rendre inaccessible. Le destinataire peut en prendre connaissance par une simple division. La plupart des systèmes cryptographiques modernes reposent sur ce principe. Un algorithme de factorisation efficace aurait des conséquences économiques incalculables.

La logique quantique
Si les ordinateurs traditionnels sont peu efficaces pour factoriser, c'est parce qu'ils ne traitent qu'une information à la fois. On peut faire fonctionner en parallèle plusieurs processeurs, mais la méthode est limitée : pour rendre « facile » la factorisation, il faudrait autant de calculateurs que de diviseurs à essayer! On remplace un temps de calcul exponentiel par un coût exponentiel, tout aussi insupportable. Exploiter, dans un ordinateur, les propriétés de la mécanique quantique permettrait peut-être de contourner cette difficulté.
Pour en savoir plus, voir l'article informatique quantique.

 

DOCUMENT   larousse.fr    LIEN

 

 

 
 
 
 

CRÉER UN ALGORITHME ...

 

CRÉER  UN  ALGORITHME ...

 DOCUMENT   r2math.enfa.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon