ecole de musique piano
     
menu
 
 
 
 
 
 

LA PHYSIQUE QUANTIQUE (PHILIPPE GRANGIER) (1)

 

LA PHYSIQUE QUANTIQUE (PHILIPPE GRANGIER)

Nous décrirons des expériences permettant de mettre en évidence des propriétés simples et fondamentales de la physique quantique, comme l'existence de superpositions linéaires d'états, ou celle d'états "enchevêtrés" ou "intriqués". Nous montrerons ensuite comment de tels états peuvent être utilisés dans le domaine très actif de "l'information quantique", pour réaliser des dispositifs de cryptographie parfaitement sûrs, ou pour effectuer certains calculs de manière potentiellement beaucoup plus efficace qu'avec des ordinateurs usuels.

ranscription* de la 574e conférence de l'Université de tous les savoirs prononcée le 17 juin 2005
Par Philippe Grangier: « La physique quantique »
La Physique Quantique est un sujet extrêmement vaste, et je n'aurai pas la prétention d'en présenter tous les aspects dans cet exposé. Je vais plutôt tenter d'illustrer quelques principes de base à travers des exemples simples, et aussi essayer de vous faire part de l'excitation actuelle qui existe dans ce domaine, à cause de résultats apparus récemment.
Dans mes exemples, je parlerai beaucoup du photon, vous savez aussi que c'est le « Licht Quanten », le quantum de lumière qui a été introduit par Einstein en 1905 dans un article extrêmement célèbre qui fête cette année son centenaire.
Je vous parlerai donc d'idées et de concepts, mais aussi d'expériences, et en particulier de celles que nous avons faites à l'Institut d'Optique à Orsay. J'ai travaillé au cours des années avec Alain Aspect, Jean-François Roch et puis beaucoup de chercheurs et d'étudiants qui sont dans nos groupes de recherche, et je saisis l'occasion pour tous les remercier ici.
Qu'est ce donc que la physique quantique ? En fait, la physique quantique dérive de la mécanique quantique, une théorie fondatrice qui, après une lente période de maturation, est apparue extrêmement vite entre 1925 et 1927. Les premières idées vraiment quantiques, proposées par Planck en 1900, ont été suivies de 25 années de maturation et d'incertitudes, et puis brutalement la théorie est apparue, sortant en quelque sorte toute bottée de la cuisse de Jupiter. On l'utilise encore aujourd'hui pratiquement comme elle a été faite, et on apprend aux étudiants des méthodes de calculs qui ont été inventées par Dirac à la fin des années 1920.

Donc la mécanique quantique est une construction intellectuelle tout à fait grandiose, je pense que c'est un candidat valable au titre de plus grande aventure intellectuelle du 20ème siècle, c'est-à-dire plus grande que la relativité, le marxisme, ou la psychanalyse. C'est une révolution à la fois scientifique et conceptuelle qui est à la base de toute notre compréhension physique du monde qui nous entoure. Par exemple, ne serait-ce que la stabilité de la matière est incompréhensible en physique classique. Un électron tourne autour d'un noyau, donc il rayonne, donc il émet de l'énergie, donc il doit perdre son énergie et tomber sur le noyau. Par conséquent en physique classique, la matière devrait disparaître. Cela semble stupide, mais c'est comme ça ! On a besoin de la mécanique quantique pour expliquer l'existence de la matière. Le fait que la matière puisse être stable est un fait intrinsèquement quantique, qui est intimement lié à ce qu'on appelle les inégalités de Heisenberg. Et bien sûr, la théorie explique non seulement comment la matière peut être stable, mais aussi comment elle est faite. La mécanique quantique a été inventée pour expliquer les niveaux d'énergie de l'hydrogène, puis de tous les autres atomes, et cela fonctionne très bien. La théorie a aussi expliqué la lumière, les photons, je vais beaucoup revenir là-dessus, ainsi que la quantification de la lumière et l'interaction entre la matière et le rayonnement.

La théorie quantique a ainsi obtenu depuis la fin des années 1920 un nombre gigantesque de succès. Le formalisme est cohérent, les équations sont parfaitement maîtrisées, on sait très bien calculer, et on peut obtenir des résultats avec douze chiffres significatifs en très bon accord avec l'expérience. La physique quantique a d'innombrables applications : le transistor, que vous connaissez tous, qui est à la base de la microélectronique, de l'informatique qui a complètement révolutionné notre vie au cours des dernières années, le laser, qui est à la base des télécommunications optiques et d'Internet, et qui joue des rôles essentiels en médecine et en biologie. Tous ces objets, qui font partie de notre vie de tous les jours, auraient été inconcevables si on n'avait pas eu la mécanique quantique. Ces succès sont donc tout à fait remarquables mais, il y a un mais, la mécanique quantique conserve un caractère mystérieux. Elle est un peu bizarre, et ce n'est rien de le dire. En fait, c'est une théorie intrinsèquement non-déterministe, c'est-à-dire que même si on sait « tout » au départ, il existera certains résultats de mesures qu'on ne pourra pas prédire avec certitude. Il y a donc une incertitude, un indéterminisme intrinsèque qui font partie des fondements mêmes de la théorie, et qui en fait jouent un rôle très important, je reviendrai beaucoup sur cette question dans la suite.

Il y a aussi une espèce de non-localité, c'est-à-dire que lorsqu'on parle d'objets quantiques, même très étendus, les distances ne veulent plus vraiment dire la même chose que dans notre environnement habituel. Par exemple, plusieurs particules spatialement séparées peuvent constituer un seul objet quantique, et réagir globalement. Einstein n'a jamais admis cette idée, et il a souligné qu'elle constitue un problème conceptuel important, qui est sous-jacent et en fait inhérent à la théorie quantique.
Enfin, il n'y a pas de correspondance simple entre les objets quantiques et le monde macroscopique, c'est-à-dire que si l'on s'imagine être « dans » le monde quantique les choses sont réellement bizarres, je reviendrai là-dessus dans la suite. On peut ainsi dire que les portes sont à la fois ouvertes et fermées, que les objets sont à plusieurs endroits à la fois, et que de toute manière leur comportement, qui est parfaitement bien décrit par les équations que l'on connaît, est en contradiction flagrante avec l'intuition macroscopique.
Donc pour utiliser la mécanique quantique - avec beaucoup de succès je le répète - il a fallu au cours des années se construire une espèce d'intuition qui permet d'oublier ou de glisser sous le tapis ces petits mystères, en les gardant tout de même dans un coin de la tête.

Mais depuis vingt ans environ, ces questions qu'on avait un peu oubliées depuis les années 1930 sont remontées à la surface, c'est ce qu'Alain Aspect a appelé dans un livre qui est paru aux éditions Odile Jacob, la « seconde révolution quantique ». Une des origines de cette seconde révolution quantique est qu'on a appris depuis une vingtaine d'années à avoir directement accès au monde des atomes. En fait, les inventeurs de la mécanique quantique raisonnaient sur des ensembles statistiques, des grandes quantités d'atomes. Ils calculaient ainsi des valeurs moyennes, et ils savaient très bien le faire. Mais la manipulation d'un atome unique était quelque chose de pratiquement inconcevable pour eux, alors que maintenant, comme je vais vous le montrer, on sait le faire tous les jours dans les laboratoires. Et on a aussi réalisé que les propriétés paradoxales dont j'ai parlé, les superpositions linéaires, les portes ouvertes et fermées, la délocalisation quantique, qui apparaissent comme des paradoxes d'un point de vue classique, mais ne sont en fait pas vraiment des paradoxes, car ils sont logiquement cohérents et même indispensables dans le cadre du formalisme quantique.
Le but de cet exposé est donc d'illustrer quelques aspects de cette seconde révolution quantique, à partir d'un certain nombre d'exemples que je traiterai plus ou moins en détail selon les circonstances. Et bien sûr, comme je l'ai déjà dit, ces exemples feront beaucoup intervenir les fameux « Licht Quanten » introduits par Einstein en 1905.
Tout d'abord, un petit peu d'histoire pour vous dire comment on est arrivé à cette idée de photons, car on y est arrivé en fait de manière assez chaotique, et l'idée a été extrêmement difficile à « digérer » pour les physiciens. J'illustrerai ensuite ce qu'on peut faire en combinant la manipulation d'objets quantiques individuels et la physique quantique, et je parlerai de choses qu'on appelle la cryptographie quantique et la téléportation quantique, on verra tout cela tout à l'heure.

Commençons donc par un peu d'histoire sur la lumière, qui constitue un mystère fascinant depuis l'origine des temps. Le monde a commencé par « Que la lumière soit », vous le savez, et depuis très longtemps, l'homme se demande « de quoi est faite » la lumière. Il y a une très belle image, sur une stèle égyptienne qui est au musée du Louvres, où l'on voit le Dieu Soleil qui inonde une princesse de ses rayons qui sont représentés par des fleurs de lys, c'est joli et poétique. Cette image exprime une vision de la lumière comme une pluie de fleurs, peut être pas de vraies fleurs de lys mais une idée de corpuscules. Une connaissance intuitive des lois de l'optique est aussi apparue assez tôt, c'est ce qu'on voit sur l'image à droite, où il faut remarquer que le personnage sur cette gravure du moyen âge porte des besicles, ce qui prouve qu'on commençait à comprendre un peu les lois de l'optique. Mais l'optique en tant que science a réellement commencé au 16ème et au 17ème siècle. Descartes est un grand nom de cette période, et il a inventé les lois de la réflexion et de la réfraction de la lumière, que les anglais, vous le savez, n'appellent pas les lois de Descartes mais les lois de Snell. Pour Descartes, comme pour tous les gens de l'antiquité, la lumière était composée de particules.

La lumière « ondulatoire » a quant à elle été introduite par Huygens en 1690. Un peu par analogie avec ce qui se passe à la surface de l'eau, Huygens a eu l'idée que la lumière pourrait se propager comme des vagues dans un milieu dont il ignorait la nature. Il l'a donc appelé « éther », et cette analogie s'est révélée très utile. On pouvait ainsi représenter la propagation de la lumière comme une succession de propagations d'ébranlements lumineux. Mais juste après Huygens est arrivé le grand Newton, le Newton de la gravitation universelle, qui a dit que tout cela était faux car il croyait à nouveau que la lumière était formée des particules. Newton a donc renvoyé Huygens à ses travaux, et a tout expliqué avec des corpuscules. Cela a duré encore un siècle et puis nouvelle oscillation : au début du 19ème siècle, sont apparues des méthodes de calculs et des expériences qui ont établi de manière extrêmement probante que la lumière était bien une onde. Un savant français très célèbre a été associé à ces recherches, c'est Augustin Fresnel. Il a fait toute une série d'expériences et de calculs qui ont convaincu l'Académie des Sciences, en prouvant, aussi bien qu'on pouvait prouver à la fois théoriquement et expérimentalement à l'époque, que la lumière était bien une onde. Il a expliqué une multitude de phénomènes et au cours du 19ème siècle, le monde scientifique s'est peu à peu convaincu que la lumière était bien un phénomène ondulatoire.

Ces découvertes ont culminé, dans une série d'équations qui a été établie par Maxwell à la fin du 19ème siècle. Ces « équations de Maxwell » ont l'immense mérite d'unifier l'électricité, le magnétisme, les phénomènes lumineux, les ondes radios qu'on appelait ondes hertziennes. Hertz a en effet montré que les ondes radios étaient de même nature que la lumière, qu'elles se propagent toutes avec une vitesse, ou célérité, de 300 000 Km par seconde, qui d'ailleurs a été mesurée expérimentalement par Foucault et Fizeau, à peu près à la même époque. Cette théorie ondulatoire de la lumière est donc un véritable triomphe, exprimé dans les équations de Maxwell qui sont et demeurent un monument de la physique. Un savant bien connu appelé Lord Kelvin, le Kelvin de la température, disait ainsi à la fin du 19ème siècle que la physique était finie, que l'on avait tout compris, que cela marchait tellement bien que cela ne pouvait pas être faux, mais qu'il restait peut-être deux petits nuages dans le ciel bleu.

Un premier nuage, dont j'ai déjà un petit peu parlé, était que les équations de Maxwell décrivent une lumière ondulatoire, sans vraiment dire dans quoi se propage cette onde. On disait donc qu'elle se propage dans un milieu qu'on appelle « éther », comme Huygens l'avait appelé. Cet éther avait beaucoup de propriétés bizarres, et - grosse surprise ! - des expériences réalisées par Michelson et Morley montraient que la terre était immobile dans l'éther. La situation n'était donc pas très claire, et Kelvin considérait cela comme un petit nuage. L'autre petit nuage venait de ce qu'on appelle le problème de l'équipartition de l'énergie. Les lois de la thermodynamique, bien maîtrisées à la fin du 19ème siècle, disaient que l'on doit attribuer une énergie égale à kT/2 par degré de liberté à un système à l'équilibre à la température T (k est la constante de Boltzmann, et T la température en Kelvin). Si on applique ce principe à un morceau de métal chauffé, on trouve la quantité d'énergie lumineuse qu'il émet est infinie. Donc visiblement il y avait aussi quelque chose qui n'allait pas du tout, les bases de la thermodynamique n'étaient pas satisfaisantes, d'où ce deuxième petit nuage.

Et en fait, ces petits nuages n'étaient pas si petits que cela. Le premier petit nuage était donc le problème de l'éther, vous savez qu'il a été résolu par Einstein en 1905, et qu'il a donné naissance à toute la relativité, et donc à l'énergie nucléaire et à toutes les conséquences qui ont suivi. Ce qui était caché derrière le second petit nuage, l'équipartition de l'énergie, n'était rien moins que la mécanique quantique, et ces deux problèmes contenaient donc en fait toute la physique du 20ème siècle. Les deux personnes qui se sont attaquées aux petits nuages sont d'abord Max Planck en 1900, qui essayait de comprendre le problème, « je chauffe un truc, je calcule l'énergie émise, cette énergie est infinie, il y a quelque chose qui ne va pas ». Donc il fallait trouver autre chose, et Planck a fait une espèce de petit calcul un peu compliqué et pas très clair, qui disait que tout se passait bien mais à condition de mettre quelque part des grains d'énergie. En d'autres termes, il fallait « granulariser » l'énergie, et si on suppose que l'énergie des atomes ou des molécules qui oscillent ne varie pas continûment mais varie par sauts, alors tout se passe bien dans le sens où l'énergie du corps chauffé n'est plus infinie, on sait la calculer et le résultat du calcul est en parfait accord avec l'expérience. C'était donc une espèce de miracle que Planck ne comprenait pas vraiment, il n'était d'ailleurs pas très content de ses calculs, mais clairement ils fonctionnaient.

Lorsque Einstein a repris ce raisonnement en 1905, il l'a poussé encore plus loin en disant que les petits grains d'énergie étaient en fait des petits grains de lumière. Dans son célèbre article sur l'interprétation heuristique des phénomènes électromagnétiques, Einstein a dit qu'il nous fallait des petits grains de lumière pour que l'hypothèse de Planck soit admissible, mais que par ailleurs il y avait une très grosse incompatibilité entre cette hypothèse de Planck et les équations de Maxwell, qui étaient ce qu'on connaissait de mieux à l'époque. Dans son article Einstein n'appelait pas ce petit grain un photon, mais un « Licht Quanten - Quantum de Lumière ». Le nom de photon est apparu un peu plus tard mais de toute façon, l'idée n'est pas passée du tout. Les scientifiques n'ont pas voulu, ils ont trouvé que ce n'était pas bien, parce que les équations de Maxwell, c'était trop bien ! Les équations de Maxwell étaient ondulatoires, il fallait donc absolument des ondes, on ne pouvait pas déraper comme cela, cacher des corpuscules dans des ondes alors qu'en fait les deux concepts sont antinomiques, logiquement incompatibles. Donc il y a eu une série d'expériences, en particulier par Millikan qui ne croyait pas du tout aux corpuscules, et qui voulait montrer qu'Einstein s'était trompé. Millikan a passé dix ans à faire ces expériences, et il a conclu qu'Einstein avait raison. Millikan et Einstein ont tous deux eu le prix Nobel pour cela, mais la petite histoire dit que Millikan ne s'est jamais vraiment remis de cette aventure.
Donc finalement l'évidence expérimentale a imposé les photons, mais les physiciens n'étaient pas toujours convaincus, il y avait visiblement quelque chose de bancal dans cette affaire. Mais alors qu'on approchait de la fin des années 20, avec des ondes qui se mettaient à ressembler à des corpuscules, une nouvelle idée fondamentale est apparue. En 1925 Louis de Broglie a en quelque sorte retourné la chaussette, en disant prenons des corpuscules, est-ce qu'on ne pourrait pas les faire ressembler à des ondes, et il a donc proposé qu'on associe une onde à un corpuscule. Quand Einstein a vu cela, il a bondi d'enthousiasme en s'exclamant c'est génial, ou du moins peut-on imaginer ainsi sa réaction. Et très rapidement il y a eu des expériences, effectuées par Davisson et Germer, qui ont montré qu'on pouvait obtenir des effets de diffraction avec des électrons. On est ainsi parvenu à une situation bizarre où la lumière aussi bien que la matière avait une nature un peu duale, et était tantôt onde tantôt corpuscule, ou ni l'un ni l'autre ou les deux à la fois, on ne savait vraiment pas, ce qui était à la fois rassurant et inquiétant. En tout cas, ce qui était clair c'est qu'au milieu des années 1920 personne n'y comprenait plus rien, et beaucoup d'idées débouchaient sur des impasses.

Mais alors à la fin des années 1920, de 1925 à 1927, la théorie quantique est apparue, les équations sont apparues, il n'y avait plus qu'à s'en servir et tout devenait simplement limpide. On ne comprenait pas bien mieux qu'avant ce qu'était un photon, mais en tout cas on savait calculer toutes ses propriétés, et on les trouvait en accord avec les expériences. Ceci a bien sûr été une énorme surprise pour les physiciens, qui se sont alors partagés en deux catégories : ceux qui appliquaient - avec un grand succès - les nouvelles équations à d'innombrables phénomènes physiques, et ceux qui tentaient désespérément de trouver une façon moins déroutante de faire co-exister les ondes et les corpuscules. Un exemple simple illustrant le problème est de supposer qu'on prend un seul atome et qu'on lui fait émettre un seul photon, alors ce photon unique est-il onde ou corpuscule ? Et cette question a-t-elle même un sens ?
En fait, les pères fondateurs de la mécanique quantique pensaient qu'une telle expérience était impossible, par exemple Schrödinger a écrit en 1952 : « Nous ne faisons jamais d'expériences avec un seul électron, un seul atome, une seule molécule. Dans des expériences de pensée, on peut parfois supposer qu'on le fait, mais cela entraîne inévitablement des conséquences ridicules ». Schrödinger voulait dire ainsi que pour lui, quand on fait des vraies expériences, on utilise toujours des myriades d'atomes, ou de photons, et dès qu'on essaye de raisonner sur un seul de ces objets, il se passe des choses très difficiles à concevoir, qu'il qualifie même de ridicules, comme des sauts quantiques, des discontinuités, des corrélations à distance... Donc il ne pensait tout simplement pas que les objets ou évènements quantiques individuels étaient observables, et c'était il n'y a pas si longtemps, en 1952, ce qui prouve encore à quel point les idées quantiques étaient réellement révolutionnaires, même pour Schrödinger lui-même....

En fait, comme je vous l'ai dit au début de cet exposé, ces expériences qui semblaient si invraisemblables à Schrödinger se font partout depuis une vingtaine d'années. Dans tous les laboratoires de physique, dans le monde entier, il est devenu très facile de « prendre » des atomes et des photons un par un. On peut alors schématiser ainsi une expérience qui aurait définitivement traumatisé Schrödinger « j'ai un pistolet et à chaque fois que j'appuie sur le déclencheur, j'émets un photon et un seul ». C'est un « pistolet à photons ». Mais cet engin est-il seulement concevable ? Et bien oui, il est même très simple à faire, et je vais vous montrer comment, mais pour cela il va nous falloir « descendre » à l'échelle des atomes.
Alors comment faire pour avoir un seul photon ? Une source lumineuse habituelle, comme ces trois projecteurs qui m'aveuglent, émet à peu près 1020-1021 photons par seconde. Cela fait beaucoup... On peut donc essayer de se mettre dans le noir, il n'y a plus que quelques photons, mais il y a un photon de temps en temps, ce qui n'est pas la même chose qu'un photon quand on appuie sur la gâchette. Alors comment faire pour réaliser ce « pistolet à photon » ? En raisonnant naïvement, on peut dire que si je veux un seul photon à la fois, je dois prendre un seul atome à la fois. Donc imaginons une expérience où j'aurais un seul atome, là sous mon microscope, sur lequel j'enverrai une impulsion laser intense, une espèce de coup de flash. On sait, si on a appris un peu de mécanique quantique, que quand on éclaire un atome, il « monte » dans un niveau d'énergie excité, Schrödinger et Bohr nous l'ont appris en calculant les niveaux de l'hydrogène. Mais par simple conservation de l'énergie, un seul atome porté dans un état excité va émettre un seul grain de lumière, dont l'énergie est égale à la différence des énergies des deux niveaux de l'atome, h nu = E2 - E1. Evidemment vous allez dire que là je triche un peu : au lieu d'avoir 1020 photons, je mets sous le microscope un échantillon qui va contenir au moins 1020 atomes, ce qui déplace simplement le problème. La vraie difficulté est maintenant de trouver comment s'y prendre pour isoler un atome et un seul sous le microscope.

En fait, il y a de nombreuses façons d'y parvenir, et parmi elles il y en a une que j'aime bien. Elle consiste à remarquer que la nature a été gentille en nous donnant le diamant, qui n'est pas seulement le meilleur ami de nos épouses, mais aussi un système physique très intéressant. Vous savez sans doute qu'un cristal de diamant est constitué presque exclusivement d'atomes de carbone, rangés régulièrement. Mais dans ce cristal, il existe des petits défauts, des imperfections, et un défaut particulièrement intéressant s'appelle le centre « NV », N pour Nitrogen (azote) et V pour Vacancy (lacune). Ce centre NV est donc formé de l'assemblage d'un atome d'azote et d'une lacune, isolés dans le diamant, et le point remarquable est que ces centres sont très rares, et sont donc bien séparés spatialement. Si on regarde un petit bout de diamant, par exemple celui-ci qui mesure 0,1 mm d'épaisseur, 1 mm de long - c'est un tout petit bout de diamant, nos femmes n'en voudraient pas - et qu'on l'éclaire, et bien il est possible d'avoir dans ce diamant des centres NV qui sont suffisamment séparés pour qu'on puisse les éclairer un par un. On peut aussi se débrouiller pour créer ces centres NV dans des petits grains de diamants, qu'on appelle des nanocristaux et qui sont plus simples à manipuler. Avec un peu de cuisine que savent faire les physico-chimistes, on peut faire en sorte que dans ce tout petit grain, qui contient quand même des myriades d'atomes de carbone, il n'y ait qu'un seul centre NV et donc qu'un seul atome émetteur.

A partir de là c'est presque gagné : on prend le petit bout de diamant que je mets ici sous le microscope, et un laser envoie des impulsions très brèves, qui vont chacune exciter l'atome unique. Une fois cet atome excité, la théorie quantique affirme qu'il va émettre un seul photon à la fois. Pour préciser les choses, les centres NV absorbent essentiellement de la lumière bleue-verte, et ils réémettent de la lumière rouge. Donc un laser bleu-vert va être bien absorbé, puis tous les photons bleu-vert du laser vont être bloqués par un filtre spectral, et la lumière rouge qui va sortir va être composée d'impulsions qui contiennent un seul photon. Sur la figure on voit ici les impulsions de laser vertes, ici ce qu'on appelle un miroir dichroïque, c'est-à-dire une miroir qui laisse passer le rouge et qui arrête complètement le vert. En sortie de ce dispositif, on doit obtenir pour chaque impulsion un photon rouge et un seul. En fait on n'aura peut-être pas un photon pour chaque impulsion, car le photon émis peut partir dans d'autres directions, mais on est certain d'avoir au plus un photon dans chaque impulsion : l'unicité du photon est garantie par l'unicité de l'atome émetteur. En pratique, un laser focalisé crée un petit point lumineux qu'on peut déplacer à la surface du morceau de diamant, et on essaie de trouver des endroits où il y a un atome émetteur. Sur cette zone qui fait 5 microns par 5 microns, on voit un point brillant qui semble énorme, mais c'est simplement un seul atome qui émet des photons un par un. Si on coupe suivant ce trait, on voit qu'il y a beaucoup de lumière émise à l'endroit où il y a l'atome d'azote, et très peu de lumière émise à côté. Ce fond bleu est dû à la lumière émise par les myriades d'atomes de carbone autour du centre NV, et le miracle est que ces atomes n'émettent pratiquement rien, presque toute la lumière qu'on voit est émise par le centre NV. C'est un peu comme un petit bateau sur la mer, quand on voit de très loin un point brillant sans savoir ce que c'est, si on regarde la mer on pense que c'est un bateau, et si on regarde notre échantillon sous son microscope, on pense que c'est un seul atome qui émet des photons un par un. Une question un peu plus technique est de savoir comment on le prouve, c'est-à-dire, comment être sûr que les photons sortent vraiment un par un ?
Je vais donc essayer de l'expliquer, c'est un peu plus délicat mais allons-y. Imaginons donc qu'on a un train d'impulsions lumineuses qui arrivent une par une, et que l'on veuille savoir si dans chacune de ces impulsions il y a un ou plusieurs photons. Ces petites impulsions sont dessinées ici, et pour savoir si elles contiennent un ou plusieurs photons, on va les couper en deux sur un miroir semi-réfléchissant, c'est-à-dire qu'une partie de la lumière va être transmise et une autre partie de la lumière va être réfléchie. Derrière la lame on place ce qu'on appelle des compteurs de photons, ce sont des photodiodes à avalanche qui produisent des impulsions électriques - des « clics » - quand un photon arrive. Donc on peut avoir un clic d'un côté, ou un clic de l'autre côté. Mais s'il n'y a qu'un seul photon dans l'impulsion, clairement on ne peut pas avoir deux clics dans la même impulsion, c'est-à-dire que le photon ne se va pas se couper en deux, il va aller d'un côté ou de l'autre faire un clic ici ou là. Par contre, si l'impulsion contient plusieurs photons, alors je peux avoir deux clics produits par la même impulsion. On voit peut-être un peu mieux ce qui se passe sur ces figures : pour des impulsions lumineuses ordinaires, qui sont en fait des impulsions lasers qui contiennent 0 ou 1 ou 2 ou davantage de photons, on voit apparaître des pics qui correspondent à un photon détecté d'un côté de la lame et un autre photon de l'autre côté, séparés par le temps t indiqué sur l'axe horizontal. Donc un pic en t = 0 veut dire un clic d'un côté et un autre clic de l'autre côté de la lame, se produisant ensemble avec un délai nul : ce sont donc deux photons dans la même impulsion. Pour un pic décalé sur le côté, un photon est arrivé à un certain instant, et un autre photon est arrivé de l'autre côté de la lame 100 ns plus tard. Puisqu'on voit des pics régulièrement espacés, on peut avoir 2 photons dans la même impulsions ou deux photons dans deux impulsions séparées, ces évènements ont exactement la même probabilité. On conclut alors que ces impulsions sont des impulsions « ordinaires », qui peuvent très bien contenir deux photons. Par contre, si je remplace ces impulsions lasers par des impulsions émises par le centre NV unique, une différence frappante apparaît : à délai nul, t = 0, il n'y a plus de pic, ce qui confirme qu'il est impossible de compter deux photons dans une impulsion qui n'en contient qu'un seul. On observe donc un effet spectaculaire, qui est la disparition du pic central, ce qui fournit une preuve expérimentale directe que les photons arrivent bien un par un. On peut aussi montrer mathématiquement que si on utilise seulement les équations de Maxwell ondulatoires, sans mécanique quantique, cet effet semble impossible, car l'onde devrait se partager et donc forcément créer des doubles clics. L'absence de double clic veut dire que l'énergie est allée complètement d'un côté ou complètement de l'autre, ce qui est incompatible avec la notion d'une onde qui se partage, mais est parfaitement compatible avec un comportement corpusculaire. Dans cette expérience simple, qui tient sur une table, on voit donc que le photon se comporte comme un corpuscule, il choisit son chemin et ne se partage pas en deux sur la lame séparatrice.

Mais à ce stade, nous devons nous souvenir que le photon est un objet quantique, et donc que son comportement n'est pas du tout celui d'une boule de billard. Pour s'en convaincre, considérons ce dispositif qui s'appelle un « biprisme de Fresnel » : ces deux prismes partagent le faisceau en deux parties, qui sont déviées l'une vers le haut, et l'autre vers le bas. Ces deux fractions du faisceau atteignent ensuite deux photodiodes à avalanche, et on envoie dans le dispositif des impulsions à un seul photon. Comme tout à l'heure chaque photon ne peut être détecté qu'une seule fois, et donc on ne détecte rien dans le pic central, on le voit ici en temps réel, avec de vrais photons qui arrivent un par un. On peut en conclure que le biprisme se comporte comme une espèce d'aiguillage, chaque photon qui arrive va soit à droite, soit à gauche, mais il ne produit jamais de double clic. Mais où sont alors passées les propriétés « ondulatoire » du photon ? Pour les observer il suffit en fait d'aller regarder dans la zone où les faisceaux se recouvrent, et où classiquement on aurait des interférences. On peut donc imaginer l'expérience suivante : j'approche un détecteur, qui cette fois ci est une caméra, et je regarde dans la zone de recouvrement, avec toujours les photons qui arrivent un par un. Comme j'ai dit que les photons vont d'un côté ou de l'autre, on pourrait s'attendre à voir des clics uniformément répartis, correspondant à des photons venant tantôt du haut, tantôt du bas. Donc on lance une accumulation, on voit bien des petits points qui arrivent un par un, et on attend. Et là - surprise ? - on voit qu'en attendant suffisamment longtemps les petits points s'arrangent régulièrement sur des franges d'interférence, qui sont des franges d'interférence à un seul photon. Ce que je vous ai dit n'était donc pas tout à fait correct : le photon, qui précédemment choisissait d'aller d'un côté ou de l'autre, a changé de comportement, parce que dans un phénomène d'interférence il y a forcément deux amplitudes qui interférent, et qui proviennent des deux côtés à la fois. Donc, comme les fondateurs de la physique quantique dans les années 1920, on ne sait plus vraiment ce qu'est notre photon : dans la deuxième expérience, il se comporte comme se comporterait une onde, alors que dans la première il se comporte d'une façon « corpusculaire », incompatible avec un comportement ondulatoire. Alors qu'est ce que le photon ? En fait, le photon n'est ni une onde, ni un corpuscule, c'est un objet quantique, dont le comportement est parfaitement bien décrit par la théorie quantique. Et ces expériences montrent que le photon a des propriétés subtiles, et qu'il faut se garder de raisonnements trop naïfs. Dire que le photon est une onde ou un corpuscule conduit forcément à une contradiction, avec l'une ou l'autre des deux expériences que nous venons de voir. La seule façon de s'en sortir, et c'est comme cela que les physiciens s'en sont sortis, c'est finalement d'utiliser la théorie quantique, sans poser trop de questions sur la « nature ultime » des objets qu'elle manipule.
Ces discussions sont bien connues de tous ceux qui ont étudié la mécanique quantique, et en fait on a changé de siècle depuis toutes ces histoires. Et un nouveau point de vue, apparu à la fin du 20ème siècle, est de se demander si on ne pourrait pas utiliser le photon en particulier, et toutes ces propriétés quantiques bizarres en général, pour faire des choses intéressantes, amusantes et peut-être même utiles. Il serait particulièrement intéressant de trouver de nouvelles méthodes pour transmettre et traiter l'information, car la lumière est un vecteur d'informations, on sait que les télécommunications optiques utilisent l'information codée sur des impulsions lumineuses. Et si ces impulsions lumineuses sont de nature quantique, ne pourrait-on pas faire avec elles des choses impossibles à réaliser en physique classique ? Cette direction de recherche s'appelle l'information quantique, et elle a stimulé un grand nombre de travaux théoriques et expérimentaux. Et comme je vais vous le montrer, ces idées fournissent une illustration directe des propriétés « paradoxales » du photon.
En fait, deux grandes applications sont très étudiées en ce moment. La première s'appelle la cryptographie quantique, et son but est d'utiliser les propriétés du photon pour échanger des messages secrets. Actuellement, les messages secrets sont devenus l'affaire de tous, pensez seulement à la protection des données que vous échangez couramment sur internet. Alors, est-ce qu'il n'y aurait pas moyens d'utiliser les lois de la physique pour garantir la confidentialité d'un secret ? Une deuxième idée serait d'utiliser les photons et les atomes directement en tant que nano-objets quantiques, et d'essayer de leur faire traiter l'information, c'est-à-dire de faire un « ordinateur quantique » qui fonctionnerait avec des atomes individuels. En 1994, un informaticien nommé Peter Shor a montré que cet ordinateur quantique, si on savait le fabriquer, pourrait résoudre certains problèmes exponentiellement plus vite qu'un ordinateur classique. En pratique, cela veut dire que certains calculs qui prendraient des millions d'années sur un ordinateur classique pourraient être fait en quelques jours ou semaines. Mais bien sûr, cela suppose qu'on est capable de construire cet ordinateur quantique, je vous en dirai un petit mot tout à l'heure, et vous verrez que c'est loin d'être évident. Le point important à retenir est que conceptuellement, il y a des ressources cachées dans le formalisme quantique, et c'est ce que je voudrais essayer de vous expliquer plus en détail maintenant.

Nous allons donc commencer par la cryptographie, avec le petit folklore habituel de ce sujet : on considère deux personnes, Alice et Bob, qui veulent échanger un message secret, sans que l'espion Eve puisse l'intercepter. Il y a bien sûr énormément à dire sur ce sujet, mais je vais beaucoup raccourcir en me concentrant sur la question suivante : existe-t-il un code secret rigoureusement inviolable, pour lequel on puisse démontrer mathématiquement que toute tentative de l'espion est vouée à l'échec ? En fait ce code existe, et il est même tout à fait classique, mais évidemment il repose sur certaines hypothèses. Il a été proposé par Gilbert Vernam au début du 20ème siècle, et il utilise un canal secret, c'est-à-dire qu'on suppose qu'Alice et Bob, avant de transmettre le message lui-même, ont déjà échangé ce qu'on appelle une clef secrète. Une clef secrète n'est pas un message, mais une suite de bits aléatoires qui ne veulent absolument rien dire, mais qui ont le mérite essentiel d'être connus uniquement d'Alice et de Bob. S'ils disposent de cette clé, Alice et Bob peuvent échanger des messages de façon parfaitement confidentielle. Il faut pour cela faire une addition modulo deux, qui est aussi un « ou exclusif », entre chaque bit de clé et chaque bit du message. On obtient ainsi le message crypté, qui peut être envoyé publiquement par téléphone, Internet, ou tout autre canal de communication disponible. Bob reçoit ce message crypté, et pour le déchiffrer il fait à nouveau une addition bit à bit modulo deux, et reconstitue ainsi le message envoyé par Alice. Claude Shannon, le fondateur de la théorie de l'information, a montré à la fin des années 1940 que cette méthode de cryptage est rigoureusement inviolable, moyennant les hypothèses suivantes. Tout d'abord, la clé doit être complètement aléatoire, c'est-à-dire que chacun de ses bits doit être lui-même aléatoire, et indépendant des autres bits. De plus, la clé doit être aussi longue que le message, pour pouvoir faire une addition bit à bit. Autre contrainte, elle doit être utilisée une seule fois. Si vous l'utilisez plusieurs fois, on peut constater facilement que deux messages codés avec la même clé sont très faciles à décrypter, simplement en les ajoutant bit à bit. Donc ce code est très intéressant, et la seule voie d'attaque disponible pour l'espion est en fait de s'attaquer au canal secret, c'est-à-dire de tenter de s'emparer de la clé. En pratique, la clé est transportée par un messager, par exemple sur un CD enfermé dans une valise piégée. Mais cette méthode demeure risquée et potentiellement vulnérable, on peut acheter l'espion, le séduire, le pervertir, le corrompre, alors qu'Alice et Bob voudraient que leur canal secret soit vraiment secret. L'enjeu devient donc : serait-il possible de remplacer le canal secret du code de Vernam par un canal quantique, dont la sécurité soit garantie par la mécanique quantique ? On pourrait alors utiliser la sécurité mathématique du code de Vernam, combinée avec un canal quantique qui fournit une clé aussi longue que le message, dont la sécurité est garantie par les lois de la physique. C'est cela qu'on appelle la cryptographie quantique, qui était initialement un enjeu intellectuel, mais on verra qu'elle devient actuellement aussi un enjeu pratique.

Alors comment faire ? On va utiliser des photons, je vous en ai déjà parlé, mais comment coder de l'information sur des photons ? Le photon est caractérisé par sa direction de propagation, sa fréquence ou longueur d'onde du rayonnement associé, et une autre propriété très utile, sa polarisation. Fresnel avait déjà montré que la lumière est une vibration transverse, c'est-à-dire qu'elle vibre perpendiculairement à sa direction de propagation, en fait dans un plan perpendiculaire à cette direction de propagation. Voici un petit dessin, qui représente un photon se propageant dans cette direction. Je peux décider que le bit vaut « 1 » si la polarisation du photon est verticale, et que le bit vaut « 0 » si la polarisation est horizontale. On dispose dans les laboratoires d'instruments qu'on appelle polariseurs, qui ont la vertu de séparer les photons en fonction de leur polarisation. Le photon polarisé vertical sera toujours réfléchi et le photon polarisé horizontal sera toujours transmis. Donc si Alice code un « 0 », Bob obtient un clic de ce côté-ci, et il en déduit bien que c'est un 0 qui a été envoyé. S'il obtient un clic là, il en déduit que c'est un 1 qui a été envoyé. On a ainsi une méthode un peu compliquée mais déterministe pour envoyer des 1 et des 0, c'est-à-dire pour échanger des bits entre Alice et Bob. Mais où est la magie quantique là-dedans ? Pour l'instant, on a choisi deux directions perpendiculaires qui sont exclusives l'une de l'autre, c'est soit comme ceci, soit comme cela, la porte est soit ouverte soit fermée. Mais plutôt que de prendre ces deux directions, je pourrais prendre ces deux-là, penchées de 45° à droite ou de 45° à gauche, qui sont aussi mutuellement exclusives. Je pourrais aussi décider qu'une de ces directions correspond au bit « 1 », et la direction perpendiculaire au bit « 0 ». Et si on envoie ce codage qui semble légitime sur le polariseur, que dit la mécanique quantique ? En fait elle dit qu'on ne peut plus rien dire, car le photon qui arrive polarisé à 45° peut être transmis ou réfléchi avec des probabilités identiques, et il est impossible de prédire le résultat. Et c'est vraiment impossible dans le sens où, suivant des phrases célèbres d'Einstein et de Bohr, Dieu lui-même ne peut pas le savoir, car si on pouvait le savoir tout le formalisme quantique s'écroulerait. Cette impossibilité est reliée aux principes de Heisenberg, qui dit que si une certaine grandeur a une valeur bien définie, alors la valeur d'une autre grandeur ne peut pas être définie. Et dans cette expérience-là, la physique interdit qu'on puisse prédire le résultat, ou si on préfère impose au résultat d'être complètement aléatoire. Cet aléatoire ne se réduit pas à une ignorance, c'est-à-dire qu'il ne peut pas y avoir non plus des « variables cachées » qui donneraient le résultat sans qu'on le sache. En effet il a été prouvé que de telles variables cachées sont impossibles, car incompatibles avec la mécanique quantique.
Alors, l'information codée sur ces polarisations à 45° est-elle définitivement perdue ? Eh bien non, on peut quand même la récupérer, il suffit pour cela de tourner le polariseur. En effet, si on aligne le polariseur avec les directions choisies pour la polarisation du photon, on récupère le 0 et le 1, à nouveau de façon déterministe. Le point fondamental est donc que si on code l'information d'une certaine façon, il faut absolument la lire de la même façon. Si on la lit comme on l'a codé, « tout baigne », si on la lit dans d'autres directions, on a tout simplement n'importe quoi. Et ce n'importe quoi n'a pas d'issue, dans le sens où, si on connaît la polarisation du photon dans une base, il est intrinsèquement impossible de la connaître dans l'autre. C'est à partir de cette idée que l'on peut faire fait de la cryptographie quantique, comme je vais l'expliquer maintenant. Alice va envoyer à Bob des photons polarisés, en choisissant ce que j'appelle une base, c'est-à-dire soit les deux directions horizontales-verticales (h-v), soient les deux directions 45°-135°. Elle peut décider que la direction verticale correspond au bit 1, elle envoie le photon à Bob, Bob l'analyse comme il faut et il récupère le 1, c'est parfait. Là, elle a aussi envoyé un 1, mais Bob a utilisé la mauvaise base. En effet, Bob ne connaît pas à l'avance la base utilisée par Alice, donc il choisit une base au hasard, et là il s'est trompé, pas de chance, et son résultat est alors complètement aléatoire. Là, cela marche à nouveau, Alice avait utilisé cette base, Bob aussi, il a bien récupéré un 0. On constate donc que c'est une façon un peu pénible de transmettre des bits portés par des photons polarisés. On voit aussi que dans la moitié des cas, Bob obtient un résultat qui n'a aucun sens. Que peut-il faire pour se débarrasser des situations où il a mal choisi ? L'astuce est la suivante : lorsqu'il a reçu les photons, c'est-à-dire lorsqu'ils sont arrivés, qu'ils sont enregistrés dans sa machine, il téléphone à Alice et lui dit ici j'ai utilisé la base h-v, ici la base 45°-135°. Et Alice lui indique si son choix a été le bon ou pas. Ici par exemple elle dit que ce n'était pas la bonne base, donc Bob élimine ce photon. Ici, Alice répond oui, c'était la bonne base, Bob garde le photon et bien sûr dans ce cas-là obtient le bit qu'avait envoyé Alice. On élimine donc le caractère aléatoire de la mesure en effectuant un tri a posteriori. Ceci permet de construire un ensemble de bits échangés, qui sont identiques si tout s'est bien passé pour Alice et Bob.
C'est une façon bien laborieuse d'échanger des bits, mais l'intérêt de la méthode va apparaître en examinant ce qui se passe si on a un espion sur la ligne. Cet espion va essayer de détecter la polarisation envoyée par Alice sans arrêter le photon, pour passer inaperçu. Par exemple ici, il peut mettre un polariseur comme cela, récupérer un 1, et renvoyer ce photon polarisé à 45° pour tromper Bob. Mais comme Bob n'utilise pas la même base qu'Alice, ils vont éliminer ce photon, et l'effort d'Eve n'aura servi à rien. Dans le cas suivant, l'espion détecte un photon polarisé horizontalement, il le renvoie à Bob, qui cette fois utilise la même base qu'Alice, et obtient un photon polarisé verticalement. Alors là il s'est passé quelque chose : Alice avait envoyé un 0, Bob a utilisé la bonne base, et néanmoins le photon détecté n'est pas le bon. L'intervention de l'espion a donc créé une erreur de transmission. En examinant un à un les différents cas, je ne vais pas en faire la liste complète, on peut se convaincre facilement que les interventions de l'espion vont forcément créer des erreurs. Ces erreurs vont alors permettre à Alice et Bob de détecter la présence de l'espion.

A ce stade du raisonnement, l'auditoire est généralement perdu, donc permettez- moi d'anticiper quelques questions que vous vous posez probablement. Première question : si Bob révèle sa base de mesure, pourquoi l'espion ne peut-il pas simplement écouter cette révélation, et en savoir autant que Bob à la fin ? Cette question est fondamentale, et il faut bien comprendre la réponse : si elle veut savoir quelque chose, Eve doit faire quelque chose au moment où le photon passe, et à ce moment le photon n'est pas encore arrivé chez Bob, donc il n'a pas encore annoncé sa base. En fait, l'information de base arrive trop tard pour être utile à l'espion, elle arrive quand le photon n'est plus là, et l'espion ne peut rien faire d'efficace. En d'autres termes, si je vous envoie un photon polarisé, il vous est impossible de deviner la polarisation parmi les quatre (h-v-45°-135°) que je peux vous envoyer. Et la mécanique quantique permet de démontrer que plus Eve va augmenter son information, plus elle va créer d'erreurs dans les photons transmis. Elle peut tout savoir, mais alors elle va créer énormément d'erreurs, ou elle peut ne créer aucune erreur, mais alors elle ne saura rien du tout. Donc la réponse à la première question est que Bob a un avantage sur Eve, parce qu'il révèle sa base après avoir lui-même reçu le photon, et qu'au moment où le photon passe, Eve ne connaît pas la base et ne peut rien faire d'efficace. Deuxième question : si tout repose sur une évaluation des erreurs, comment Alice et Bob évaluent-ils les erreurs de transmission ? La réponse est qu'ils échangent d'abord un grand nombre de photons, puis effectuent un sondage sur les données qu'ils ont reçues. En pratique, ils vont choisir au hasard une petite fraction des photons reçus et comparer les résultats, à nouveau Eve peut écouter leur conversation une fois que les photons ont tous été reçus par Bob. Ce que font Alice et Bob ressemble donc à un sondage « sorti des urnes » que l'on fait pour les élections, cela donne une estimation très fiable du taux d'erreurs, qui va les renseigner sur la quantité d'information connue par Eve. Troisième et dernière question : si on effectue une transmission réelle, il y aura certainement toujours quelques erreurs, même s'il n'y a pas d'espion sur la ligne. Comment procède-t-on alors ? Et si Eve est bien là, comment Alice et Bob vont-ils utiliser leur clé secrète, si elle contient des erreurs et qu'elle est partiellement connue d'Eve ? La réponse est qu'avant d'utiliser leur clé, Alice et Bob vont traiter leurs données, c'est-à-dire qu'ils vont appliquer des algorithmes classiques, que je ne vais pas détailler, qui font en sorte que la clé finale, celle qu'ils vont utiliser, est toujours sans erreur et parfaitement sûre. Mais alors, quel est l'effet des erreurs provoquées par Eve ? En fait, les erreurs, qu'elles soient ou non dues à Eve, ont pour effet de diminuer la taille de la clé secrète. S'il n'y a aucune erreur tous les bits sont bons, et la taille de la clé est simplement égale au nombre de bits reçus par Bob. Plus il y a d'erreurs, plus la clé est petite, et finalement quand il y a beaucoup d'erreurs, en pratique plus de 11 % d'erreurs, il n'y a plus de clé du tout. Donc après avoir appliqué ce traitement des données que je ne détaille pas davantage, Alice et Bob obtiennent dans tous les cas une clé parfaitement sûre et sans erreur. Le point central est de pouvoir évaluer ce que connaît Eve en évaluant les erreurs, et la clé est d'autant plus petite qu'il y a davantage d'erreurs, mais si la clé existe elle est parfaitement secrète et ne contient aucune erreur.

En conclusion, la cryptographie quantique permet en principe d'échanger des clés secrètes, avec une sécurité aussi grande que la confiance qu'on accorde à la mécanique quantique. C'est donc une idée très séduisante, mais comment la faire fonctionner en pratique ? De nombreux travaux ont été réalisés depuis quelques années pour répondre à cette question, et des dispositifs ont été construits et sont même maintenant commercialisés, par exemple par une société genevoise qui s'appelle idQuantique. Dans ce cas les photons sont envoyés dans des fibres optiques, mais il y a eu aussi des échanges en espace libre, par exemple entre deux sommets séparés de 23 Km et situés en Allemagne, sur le Zugspitze. On voit ici le principe du dispositif, les photons polarisés sont envoyés dans un petit télescope comme ceux que vous utilisez quand vous faites de l'astronomie amateur. On voit ici le récepteur de Bob, avec des polariseurs et des compteurs de photons qui analysent une polarisation parmi quatre, suivant le protocole que j'ai présenté. L'objectif à terme de ces expériences en espace libre est de distribuer des clés secrètes à partir d'un satellite en orbite basse. Voici maintenant une autre expérience qu'on a fait à Orsay, en utilisant la source que j'ai déjà présentée, qui émet vraiment des photons un par un. Ces photons sont ensuite codés en polarisation, et si vous regardez bien ici, vous voyez qu'on envoie les photons par la fenêtre, pour échanger la clé secrète entre deux bâtiments. Voici un exemple de résultat : on obtient tout d'abord des chaînes de bits avec des erreurs, puis on mesure le taux d'erreurs, je vous l'ai expliqué, ensuite on corrige ces erreurs avec les algorithmes dont j'ai parlé aussi, et finalement on réduit la taille de la clé pour qu'elle soit complètement inconnue d'Eve. Ce système peut produire 16000 bits secrets par seconde, ce n'est pas beaucoup mais c'est vraiment secret, garanti quantique.

Quelles sont les perspectives commerciales de ces dispositifs ? Actuellement, la compagnie Id quantique à Genève, et la compagnie MagiQ Technologies aux Etats-Unis, vendent des systèmes complets de distribution de clé via des fibres optiques. La portée est de quelques dizaines de kilomètres, et le débit de quelques milliers de bits secrets par seconde. Il y a aussi beaucoup d'activités de recherche dans ce domaine, en Europe et aux Etats-Unis. Actuellement ces systèmes fonctionnent assez bien, mais ils imposent des contraintes d'utilisation assez déroutantes par rapport aux méthodes de cryptage actuelles, qui sont essentiellement basées sur des logiciels. Il n'est donc pas encore vraiment clair que la cryptographie quantique ait vraiment un avantage compétitif, mais il est clair qu'elle a déjà éliminé beaucoup de difficultés qu'on croyait insurmontables au départ. D'ici quelques années, je pense qu'on pourra dire si la cryptographie quantique peut jouer un rôle dans le cadre des télécommunications grand public, ou si elle ne peut intéresser que quelques utilisateurs très riches, et très avides de sécurité.
Pour terminer, je voudrais dire quelques mots de ce qu'on appelle le calcul quantique, c'est-à-dire de l'idée que les objets quantiques pourraient non seulement être utilisés pour transmettre des messages secrets, mais aussi pour effectuer des calculs. Dans ce contexte, un concept très utile est le bit quantique, ou qubit. Qu'est-ce donc qu'un qubit ? Et tout d'abord, qu'est ce qu'un bit classique ? C'est un système à deux états, qu'on appelle usuellement « 0 » et « 1 ». Un bit quantique, c'est a priori la même chose, 0 et 1 aussi, mais en mécanique quantique on a vu qu'on peut faire des combinaisons linéaires d'états, qui sont aussi des interférences. Voyons un exemple, qui montrera que vous avez déjà vu des qubits sans le savoir, en considérant à nouveau un photon polarisé. On peut associer le bit « 0 » à la polarisation horizontale, et le bit « 1 » à la polarisation verticale. Qu'est-ce alors qu'une combinaison linéaire de 0 et de 1 ? C'est en fait exactement ce dont je parlais tout à l'heure, puisque la polarisation à 45° correspond à la combinaison linéaire 0+1, et la polarisation à 135° à la combinaison linéaire 0-1. Donc un photon est un qubit, c'est même un excellent qubit, et c'est ce qui fait le succès de la cryptographie quantique. Les propriétés du qubit correspondent physiquement au fait que le photon peut être dans deux états mutuellement exclusifs, mais que ces deux états peuvent interférer. Cela semble presque trop simple, mais c'est exactement la base de la physique du qubit, telle que nous l'avons utilisée pour faire de la cryptographie quantique.

Mais pour faire des calculs, il manque encore un point très important, qui est qu'il faut utiliser un grand nombre de qubits. Ceci a des conséquences cruciales que je voudrais souligner maintenant. Considérons donc un registre, un ensemble de qubits, en supposant par exemple que chaque qubit est un photon dont la polarisation peut tourner. Si on raisonne naïvement, on peut alors définir l'état de chaque photon par l'angle dont la polarisation a tourné, je vais appeler cela un « bit continu » plutôt qu'un qubit. On a donc N variables continues, qui définissent une espèce d'ordinateur bizarre où chacun des bits peut prendre une valeur continue, disons comprise entre 0 et 1. Est-ce donc cela un ordinateur quantique ? Eh bien non.

 
 
 
 

LA PHYSIQUE QUANTIQUE (2)

 

physique  quantique (2)


A ce stade du raisonnement, l'auditoire est généralement perdu, donc permettez- moi d'anticiper quelques questions que vous vous posez probablement. Première question : si Bob révèle sa base de mesure, pourquoi l'espion ne peut-il pas simplement écouter cette révélation, et en savoir autant que Bob à la fin ? Cette question est fondamentale, et il faut bien comprendre la réponse : si elle veut savoir quelque chose, Eve doit faire quelque chose au moment où le photon passe, et à ce moment le photon n'est pas encore arrivé chez Bob, donc il n'a pas encore annoncé sa base. En fait, l'information de base arrive trop tard pour être utile à l'espion, elle arrive quand le photon n'est plus là, et l'espion ne peut rien faire d'efficace. En d'autres termes, si je vous envoie un photon polarisé, il vous est impossible de deviner la polarisation parmi les quatre (h-v-45°-135°) que je peux vous envoyer. Et la mécanique quantique permet de démontrer que plus Eve va augmenter son information, plus elle va créer d'erreurs dans les photons transmis. Elle peut tout savoir, mais alors elle va créer énormément d'erreurs, ou elle peut ne créer aucune erreur, mais alors elle ne saura rien du tout. Donc la réponse à la première question est que Bob a un avantage sur Eve, parce qu'il révèle sa base après avoir lui-même reçu le photon, et qu'au moment où le photon passe, Eve ne connaît pas la base et ne peut rien faire d'efficace. Deuxième question : si tout repose sur une évaluation des erreurs, comment Alice et Bob évaluent-ils les erreurs de transmission ? La réponse est qu'ils échangent d'abord un grand nombre de photons, puis effectuent un sondage sur les données qu'ils ont reçues. En pratique, ils vont choisir au hasard une petite fraction des photons reçus et comparer les résultats, à nouveau Eve peut écouter leur conversation une fois que les photons ont tous été reçus par Bob. Ce que font Alice et Bob ressemble donc à un sondage « sorti des urnes » que l'on fait pour les élections, cela donne une estimation très fiable du taux d'erreurs, qui va les renseigner sur la quantité d'information connue par Eve. Troisième et dernière question : si on effectue une transmission réelle, il y aura certainement toujours quelques erreurs, même s'il n'y a pas d'espion sur la ligne. Comment procède-t-on alors ? Et si Eve est bien là, comment Alice et Bob vont-ils utiliser leur clé secrète, si elle contient des erreurs et qu'elle est partiellement connue d'Eve ? La réponse est qu'avant d'utiliser leur clé, Alice et Bob vont traiter leurs données, c'est-à-dire qu'ils vont appliquer des algorithmes classiques, que je ne vais pas détailler, qui font en sorte que la clé finale, celle qu'ils vont utiliser, est toujours sans erreur et parfaitement sûre. Mais alors, quel est l'effet des erreurs provoquées par Eve ? En fait, les erreurs, qu'elles soient ou non dues à Eve, ont pour effet de diminuer la taille de la clé secrète. S'il n'y a aucune erreur tous les bits sont bons, et la taille de la clé est simplement égale au nombre de bits reçus par Bob. Plus il y a d'erreurs, plus la clé est petite, et finalement quand il y a beaucoup d'erreurs, en pratique plus de 11 % d'erreurs, il n'y a plus de clé du tout. Donc après avoir appliqué ce traitement des données que je ne détaille pas davantage, Alice et Bob obtiennent dans tous les cas une clé parfaitement sûre et sans erreur. Le point central est de pouvoir évaluer ce que connaît Eve en évaluant les erreurs, et la clé est d'autant plus petite qu'il y a davantage d'erreurs, mais si la clé existe elle est parfaitement secrète et ne contient aucune erreur.

En conclusion, la cryptographie quantique permet en principe d'échanger des clés secrètes, avec une sécurité aussi grande que la confiance qu'on accorde à la mécanique quantique. C'est donc une idée très séduisante, mais comment la faire fonctionner en pratique ? De nombreux travaux ont été réalisés depuis quelques années pour répondre à cette question, et des dispositifs ont été construits et sont même maintenant commercialisés, par exemple par une société genevoise qui s'appelle idQuantique. Dans ce cas les photons sont envoyés dans des fibres optiques, mais il y a eu aussi des échanges en espace libre, par exemple entre deux sommets séparés de 23 Km et situés en Allemagne, sur le Zugspitze. On voit ici le principe du dispositif, les photons polarisés sont envoyés dans un petit télescope comme ceux que vous utilisez quand vous faites de l'astronomie amateur. On voit ici le récepteur de Bob, avec des polariseurs et des compteurs de photons qui analysent une polarisation parmi quatre, suivant le protocole que j'ai présenté. L'objectif à terme de ces expériences en espace libre est de distribuer des clés secrètes à partir d'un satellite en orbite basse. Voici maintenant une autre expérience qu'on a fait à Orsay, en utilisant la source que j'ai déjà présentée, qui émet vraiment des photons un par un. Ces photons sont ensuite codés en polarisation, et si vous regardez bien ici, vous voyez qu'on envoie les photons par la fenêtre, pour échanger la clé secrète entre deux bâtiments. Voici un exemple de résultat : on obtient tout d'abord des chaînes de bits avec des erreurs, puis on mesure le taux d'erreurs, je vous l'ai expliqué, ensuite on corrige ces erreurs avec les algorithmes dont j'ai parlé aussi, et finalement on réduit la taille de la clé pour qu'elle soit complètement inconnue d'Eve. Ce système peut produire 16000 bits secrets par seconde, ce n'est pas beaucoup mais c'est vraiment secret, garanti quantique.

Quelles sont les perspectives commerciales de ces dispositifs ? Actuellement, la compagnie Id quantique à Genève, et la compagnie MagiQ Technologies aux Etats-Unis, vendent des systèmes complets de distribution de clé via des fibres optiques. La portée est de quelques dizaines de kilomètres, et le débit de quelques milliers de bits secrets par seconde. Il y a aussi beaucoup d'activités de recherche dans ce domaine, en Europe et aux Etats-Unis. Actuellement ces systèmes fonctionnent assez bien, mais ils imposent des contraintes d'utilisation assez déroutantes par rapport aux méthodes de cryptage actuelles, qui sont essentiellement basées sur des logiciels. Il n'est donc pas encore vraiment clair que la cryptographie quantique ait vraiment un avantage compétitif, mais il est clair qu'elle a déjà éliminé beaucoup de difficultés qu'on croyait insurmontables au départ. D'ici quelques années, je pense qu'on pourra dire si la cryptographie quantique peut jouer un rôle dans le cadre des télécommunications grand public, ou si elle ne peut intéresser que quelques utilisateurs très riches, et très avides de sécurité.
Pour terminer, je voudrais dire quelques mots de ce qu'on appelle le calcul quantique, c'est-à-dire de l'idée que les objets quantiques pourraient non seulement être utilisés pour transmettre des messages secrets, mais aussi pour effectuer des calculs. Dans ce contexte, un concept très utile est le bit quantique, ou qubit. Qu'est-ce donc qu'un qubit ? Et tout d'abord, qu'est ce qu'un bit classique ? C'est un système à deux états, qu'on appelle usuellement « 0 » et « 1 ». Un bit quantique, c'est a priori la même chose, 0 et 1 aussi, mais en mécanique quantique on a vu qu'on peut faire des combinaisons linéaires d'états, qui sont aussi des interférences. Voyons un exemple, qui montrera que vous avez déjà vu des qubits sans le savoir, en considérant à nouveau un photon polarisé. On peut associer le bit « 0 » à la polarisation horizontale, et le bit « 1 » à la polarisation verticale. Qu'est-ce alors qu'une combinaison linéaire de 0 et de 1 ? C'est en fait exactement ce dont je parlais tout à l'heure, puisque la polarisation à 45° correspond à la combinaison linéaire 0+1, et la polarisation à 135° à la combinaison linéaire 0-1. Donc un photon est un qubit, c'est même un excellent qubit, et c'est ce qui fait le succès de la cryptographie quantique. Les propriétés du qubit correspondent physiquement au fait que le photon peut être dans deux états mutuellement exclusifs, mais que ces deux états peuvent interférer. Cela semble presque trop simple, mais c'est exactement la base de la physique du qubit, telle que nous l'avons utilisée pour faire de la cryptographie quantique.

Mais pour faire des calculs, il manque encore un point très important, qui est qu'il faut utiliser un grand nombre de qubits. Ceci a des conséquences cruciales que je voudrais souligner maintenant. Considérons donc un registre, un ensemble de qubits, en supposant par exemple que chaque qubit est un photon dont la polarisation peut tourner. Si on raisonne naïvement, on peut alors définir l'état de chaque photon par l'angle dont la polarisation a tourné, je vais appeler cela un « bit continu » plutôt qu'un qubit. On a donc N variables continues, qui définissent une espèce d'ordinateur bizarre où chacun des bits peut prendre une valeur continue, disons comprise entre 0 et 1. Est-ce donc cela un ordinateur quantique ? Eh bien non, pas du tout. Si on fait vraiment de la mécanique quantique, et que l'on considère ce registre de N photons, l'état de ces N photons est défini par un vecteur d'état qui s'écrit | e1, e2, e3,... eN >, en utilisant les notations habituelles de la mécanique quantique. Chacun des e1 vaut 0 ou 1, correspondant aux deux directions possibles choisies pour chaque photon, il y a donc en tout 2N états différents du registre. Quel est alors, d'après la mécanique quantique, l'état le plus général de ce registre ? C'est en fait une superposition linéaire de tous les états précédents, et l'on voit immédiatement que pour écrire cette superposition linéaire il faut 2N coefficients, qui sont tous des nombres complexes continus. Ce nombre de coefficients est évidemment beaucoup plus grand - exponentiellement plus grand - que les N nombres continus dont je parlais tout à l'heure à propos des « bits continus ». Pour décrire l'état du registre quantique, il faut donc une quantité énorme d'information. Mais le sens physique de cet état est complètement paradoxal, et exprime en quelque sorte le fait que le registre contient « simultanément » toutes les valeurs qu'il peut contenir. Cela rappelle beaucoup l'histoire du chat de Schrödinger, qui est simultanément dans les états « mort » et « vivant », qui semblent pourtant très différents... Un autre élément troublant est que si on considère un seul qubit dans le registre, il est en général impossible de lui attribuer un état, parce que seul est défini l'état global, l'état de l'ensemble de tous ces qubits. L'état d'un seul qubit n'a plus aucune signification, et en fait l'information est codée dans les corrélations non locales entre tous les qubits, et non dans l'état de chacun. Ces états où l'information se délocalise et où les qubits perdent leur individualité sont appelés états intriqués, et ils sont tellement étranges qu'il est légitime de se demander s'ils sont réalisables physiquement.

La réponse est oui, et des expériences faites à Orsay en 1982 ont montré très clairement qu'on peut créer des états intriqués avec deux qubits, qui étaient dans ce cas des photons polarisés. Dans ces expériences, un atome émet deux photons, dans un état où chacun des photons n'a pas de polarisation définie, mais est néanmoins parfaitement corrélé avec l'autre photon. Donc si on mesure la polarisation d'un photon, on trouve toujours la même chose que pour l'autre photon, bien que la polarisation de chacun des photons ne soit absolument pas définie. On peut dire que l'information se délocalise, et est entièrement contenue dans les corrélations qui existent entre les différents qubits, et non dans leurs propriétés individuelles. Cette expérience a été refaite de nombreuses fois depuis 1982, dans des contextes très différents, et il est maintenant établi que ces états intriqués existent bien. Ils fournissent en quelque sorte le fondement conceptuel qui sous-tend le calcul quantique, et qui permet d'affirmer que les effets dont on parle, existent vraiment, aussi bizarres semblent-ils.
On peut donc conclure que si on savait manipuler non seulement deux, mais un très grand nombre de qubits, on pourrait effectuer certains calculs, comme la factorisation, extrêmement rapidement. Par contre on comprend aussi que c'est très difficile à faire, car ces superpositions linéaires très compliquées sont très sensibles aux perturbations. Je vous ai dit plusieurs fois que le comportement des objets quantiques est très différent de celui des objets classiques, macroscopiques. Ici on tente de réaliser un très gros objet, comportant un grand nombre de qubits, dont le comportement resterait quantique. Il n'est en principe pas impossible de rendre quantiques de très gros objets, mais on comprend que c'est extrêmement difficile à faire : la tendance « naturelle » d'un gros objet est de se comporter classiquement, pas « quantiquement ». Parmi les résultats encourageants, les théoriciens ont montré que tout calcul quantique pouvait se construire à partir de quelques opérations logiques élémentaires, comme un calcul classique. Ils ont aussi montré qu'on peut corriger les erreurs du calcul pendant qu'il se déroule, sans détruire les délicates propriétés de la superposition quantique.
Toutes ces découvertes et ces travaux, aussi bien théorique qu'expérimentaux, ont fait beaucoup progresser la compréhension de la physique des objets quantiques individuels. Pour donner un dernier exemple, je voudrais terminer en parlant de téléportation quantique. Tout d'abord, qu'appelle-t-on téléportation en physique quantique ? Prenons un qubit, un photon polarisé, je vous ai déjà dit que si je vous le donne, vous ne pouvez pas déterminer son état, et vous ne pouvez pas non plus ni le copier ni le dupliquer. Mais est-ce qu'on ne pourrait pas le téléporter, c'est-à-dire le détruire ici et le recréer ailleurs ? Cela fait un peu penser à Star Trek, mais il ne s'agit pas de téléporter un être humain, seulement un qubit. Et dans ce cas c'est possible, on peut effectivement détruire un qubit ici et le recréer ailleurs. Remarquons d'ailleurs que l'étape de destruction est indispensable, sinon on aurait dupliqué le qubit initial, ce qui est aussi interdit par les règles du jeu quantiques. Alors comment fait-on ? On prend d'une part le qubit que l'on voudrait téléporter, et d'autre part une paire de photons intriqués, tout à fait semblable à celle préparée dans l'expérience de 1982 dont j'ai déjà parlé. On fait ensuite une mesure qui combine le qubit initial et l'un des qubits de la paire intriquée, et qui par la même occasion détruit le qubit initial. Cette mesure donne un résultat parmi quatre possibles, et ce résultat est transmis classiquement au point d'arrivée du « téléporteur ». En fonction du résultat, on fait tourner la polarisation du deuxième qubit de la paire intriquée, dans une direction parmi quatre. Le troisième qubit est alors « re-créé » dans l'état du qubit initial, qui a été détruit dans l'opération. On peut insister sur le fait que ce premier qubit est dans un état arbitraire qu'on ne connaît pas et qu'on ne peut d'ailleurs pas connaître, et cet état est détruit puis re-créé ailleurs. C'est assez étonnant, et ressemble bien effectivement à de la téléportation, je vous laisse réfléchir au rapport que cela peut avoir - ou ne pas avoir - avec Star Trek. Pour des photons-qubits, l'expérience a été faite : on voit ici la source qui émet des photons intriqués, et ici le photon que l'on veut téléporter. On fait la mesure qui détruit le photon à téléporter, on récupère deux bits d'information, on agit sur le troisième photon. Finalement, on montre en répétant l'opération un grand nombre de fois que, quel que soit l'état de ce premier photon, on le retrouve bien ici à la fin. Donc la téléportation quantique fonctionne, et plusieurs utilisations possibles ont déjà été proposées : elle peut servir de « câblage » pour transmettre des qubits dans un ordinateur quantique, ou servir de « répéteur » pour la cryptographie quantique, en conservant la sécurité quantique si on transmet des qubits entre les deux extrémités du dispositif.

Pour terminer, je voudrais insister encore sur les progrès considérables qui ont été faits depuis une dizaine d'années dans la manipulation des systèmes quantiques individuels. On sait maintenant faire de la cryptographie quantique, et on étudie le principe du calcul quantique, qui est certainement très difficile à mettre en oeuvre, mais qui a stimulé beaucoup d'idées nouvelles. La combinaison de ces éléments, qui constitue d'après Alain Aspect la seconde révolution quantique, est largement associée au fait que les lois de la physique quantiques, aussi « bizarres » soient-elles, se manifestent directement lorsqu'on manipule des objets quantiques individuels. Tout ceci a entraîné une bien meilleure compréhension de ces principes, et a permis de faire des premiers pas vers des utilisations pratiques.
* Transcription réalisée par Nathalie Baudry

 

  VIDEO       CANAL  U         LIEN 

 
 
 
 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

 

 

 

 

 

 

 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

Au voisinage du zéro absolu de température, la matière se transforme, adoptant des comportements que notre intuition a de la peine à appréhender. Certains gaz liquéfiés deviennent superfluides, s'échappant du réservoir qui les contient comme s'ils défiaient la pesanteur. La supraconductivité apparaît dans les métaux et donne lieu à des courants électriques permanents, utilisés aujourd'hui pour la production de champs magnétiques intenses. L'explication de ces phénomènes étranges apporte un nouvel éclairage dans des domaines que l'on aurait crus très éloignés, comme la dynamique des étoiles à neutrons ou l'évolution de l'Univers après le Big Bang, contribuant ainsi à établir des concepts physiques fondamentaux. Pour atteindre des basses températures qui n'existent pas dans la Nature, les chercheurs ont mis au point des méthodes de réfrigération sophistiquées. Celles-ci ont ouvert un nouveau domaine de recherche, la Physique des très basses températures, particulièrement riche en phénomènes physiques nouveaux qui constituent la source d'applications technologiques de pointe. Au cours d'une promenade à la limite du zéro absolu de température nous explorerons ensemble le royaume du froid.

Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu
par Henri Godfrin
Température et intuition...
Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.

Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...

Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !

La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.

Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.

La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.

La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.

Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.

Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !

L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !

Les fluides cryogéniques
Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.

Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.

Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.

L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !

La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !

H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.

On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.

Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].

Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.

Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.

Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.

Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.

D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.

Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».

Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannou
dji .

 

VIDEO       CANAL  U         LIEN

 
 
 
 

L'ORDINATEUR QUANTIQUE

 

 

 

 

 

 

 

L'ordinateur quantique

Publié le 15 mai 2019

 Si on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".
La quête de l’ultime Bit quantique, qubit

A la base du concept de l’ordinateur quantique figure l’idée selon laquelle les phénomènes quantiques pourraient être utilisés pour décupler la puissance de calcul des machines classiques. Ce rêve, poursuivi par des scientifiques, de par le monde, depuis plus de trente ans, se heurte cependant à d’importants obstacles technologiques.
VidéoComment fonctionne un ordinateur quantique ?

Voir dans la médiathèque 

L'histoire de l'ordinateur quantique

Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


* Télécharger l'infographie sur un processeur quantique élémentaire

Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.
VidéoL'histoire de l'ordinateur et de la physique quantique

Voir dans la médiathèque  HD (requiert flash)

Qu'est-ce qu'un bit quantique ?

Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.




Etats quantiques d'un bit quantique. © CEA/F. Mathé




L'ordinateur quantique : un potentiel de rupture majeur mais un problème conceptuel et technologique extrêmement difficile
Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.

Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique permettrait des approches révolutionnaires pour certaines classes de problèmes.

Une communauté scientifique et technique encore réduite
La communauté scientifique bien informée sur les possibilités des technologies quantiques est encore réduite. Issue pour l’essentiel du monde académique (physique et mathématiques), elle a peu développé les voies applicatives pour le moment. Il est donc possible que de nombreuses applications insoupçonnées jusqu’à présent apparaissent dans un futur proche.

L'ordinateur quantique : Des domaines d’application déjà identifiés
Aujourd’hui, des programmes de recherche importants sont menés selon trois grandes voies de l’ingénierie quantique qui étudie ce qu’il est possible de réaliser en termes d’application en exploitant les propriétés d’intrication, de non localité et de superposition, propre à un système quantique :


Les capteurs : une information portée par un qubit est très sensible aux perturbations apportées par son environnement ; c’est une difficulté pour réaliser un ordinateur mais cela peut permettre de construire une sonde très sensible.
Les ordinateurs de très grande performance : le calcul quantique est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique pour certaines applications.
Les télécommunications protégées : les corrélations quantiques entre des particules intriquées permettent de coder un message garantissant l’absence d’interception lors de sa transmission. Le codage à base de clefs publiques trop difficiles à factoriser par les ordinateurs actuels pourrait être cassé par un ordinateur quantique ayant un nombre suffisant de qubits (de l’ordre du nombre de bits de la clef).


Le calcul massivement parallèle, intrinsèque à l’ordinateur quantique, permet de sonder l’espace des états d’un système comportant de très nombreux paramètres. 

Cette caractéristique permet déjà d’identifier quatre grands domaines d’application :

La chimie
Simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, même les plus puissants, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.

Le Data Mining
Accélérer la recherche d’une information spécifique dans une vaste base de données.


L’optimisation de procédés de l’industrie 4.0 

Trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.


L’intelligence artificielle  

Au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourront être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
Les enjeux de la recherche sur l'ordinateur quantique

Atout du quantique : des calculs intrinsèquement parallèles
Alors que dans un calculateur classique, les bits (unités de base utilisées) ne peuvent prendre qu’une valeur parmi deux (soit 0 soit 1), les qubits peuvent être placés dans un ensemble continu de superpositions de leurs deux états de base |0> ou |1>.

Un ordinateur exploitant cette possibilité, offerte par les lois de la physique quantique, pourrait calculer de façon massivement parallèle, c'est-à-dire simultanément, l'ensemble des valeurs des qubits, et ainsi surpasser considérablement la puissance de l'ordinateur classique.

Ainsi, dans un ordinateur classique, une série de N bits égaux à 0 ou 1 permet d’encoder un unique nombre parmi les 2N possibles (un parmi 4 096 pour N = 12).
En revanche, un registre quantique dont les 12 qubits seraient en parallèle plongés dans les deux états de base |0> ou |1>, se trouverait dans une superposition des 4 096 états de base du registre. Toute opération quantique qui lui serait appliquée s’effectuerait en parallèle sur ces 4 096 états de base. Ceci ne réaliserait pas pour autant du calcul parallèle car la lecture ne donnera qu’un seul résultat. L’art de l’algorithmique quantique consiste alors à exploiter le parallélisme tout en concentrant, par chaque étape de mesure, l’état du registre quantique sur la ou les solutions du problème étudié.


Difficultés du quantique : un état intrinsèquement peu stable
Si les spécialistes de physique quantique savent observer atomes, photons ou molécules dans des états dits de "superposition quantique", ces états sont extrêmement fragiles : à la moindre perturbation extérieure, ils s’évanouissent ; d’où la nécessité d’isoler aussi complètement que possible de leur environnement les systèmes que l’on souhaite mettre durablement dans de tels états.
Les qubits sont les unités de construction des calculateurs quantiques. Ils peuvent être mis en œuvre dans une large variété de systèmes physiques à l’échelle du laboratoire. La recherche sur les qubits s’est d’abord naturellement portée sur des systèmes au comportement quantique avéré, comme les atomes et les ions, bien que ces systèmes microscopiques soient difficiles à contrôler individuellement et à coupler. Elle s’est également portée ensuite sur des systèmes plus faciles à contrôler, comme des circuits électriques, qui eux ne fonctionnent, en général, pas en régime quantique.
Cependant, lorsqu’on veut produire de grands systèmes ou des qubits en série, il faut utiliser des supports de l’information quantique compatibles avec les standards industriels. Les qubits de spin dans le silicium sont de petite taille (typiquement 30 nanomètres) et sont compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication de composants électroniques), largement utilisées dans l’industrie microélectronique. Ils présentent donc des avantages évidents pour la production en série par rapport aux autres types de qubits.
Depuis 2012, où ont été mis au point les premiers qubits basés sur des spins d’électrons confinés, le silicium 28 purifié isotopiquement a permis d’améliorer significativement le temps de cohérence du spin quantique : en effet, l’isotope 28 du silicium ne porte pas de spin nucléaire, source importante de décohérence pour le qubit. Plus le temps de cohérence du spin augmente, plus la fidélité des opérations de calcul quantique et la capacité à effectuer une séquence complète d’opérations s’améliorent.
La recherche dans le domaine
La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche. L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.

Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l’étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd’hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d’euros. Au niveau européen, un flagship sur l’ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l’ambition d’amener les technologies quantiques sur le marché. Le financement annoncé est d’au moins un milliard d’euros, apporté par la Commission européenne et les Etats membres sur dix ans.

Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente.
En particulier, le problème de la correction d’erreurs est plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…)




Voir aussi

* L'essentiel sur... la mécanique quantique
* Clefs CEA n°66 - Révolutions quantiques - juin 2018
* Vidéo Masterclass Introduction à la physique quantique, par Roland Lehoucq, astrophysicien au CEA 

* Les Défis du CEA n° 214 - L'ordinateur quantique, graal du numérique - février 2017

 

 DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon