L'Heuristique: Journal des étudiants de l'ÉTS

Les ordinateurs quantiques

Novembre 2011 » Technologie » Par Félix Cloutier, étudiant de génie logiciel, directeur du JETS

En 1975, Gordon Earle Moore, l’un des trois cofondateurs d’Intel, publie ce qu’on appelle aujourd’hui la « loi de Moore, » qui s’exprime par une simple prédiction : à tous les deux ans, la densité des transistors dans les microprocesseurs doublera. Même si cette affirmation ne vient de rien d’autre qu’une observation empirique, elle s’est révélée plutôt exacte, et ce sur une durée de pratiquement 30 ans.

Le problème est que cette conjecture ne pourra pas continuer à être vraie pour toujours. Par exemple, elle prédit qu’en 2030, les transistors seront aussi gros qu’un atome. On ne peut pas nier le bond technologique immense qui nous séparera d’aujourd’hui, mais malgré tout, tout semble dire que ça ne sera pas le cas.

Bref, Intel et consorts vont vraiment se heurter à un mur d’ici quelques années. Si l’informatique doit continuer son accélération, il va falloir trouver de nouvelles façons de traiter les données.

L’une des façons envisagées pour traiter plus de données plus vite est de mettre la physique quantique à l’usage de l’informatique : le résultat, dont vous avez probablement déjà vaguement entendu parler un jour, s’appellerait un « ordinateur quantique. »

Depuis quelques années, ce sujet a gagné l’attention du public, mais les couvertures sur le sujet ne sont pas toujours fiables, précises ou réalistes. Si vous êtes comme moi, vous avez lu quelque part au début des années 2000 « qu’avec 8 qubits, on peut simuler l’Univers, » ou une autre ânerie semblable tout droit sortie de l’incompréhension d’un auteur. Mais quand même, ça n’est pas parce que 8 qubits ne suffisent pas à simuler l’Univers qu’il faut se désintéresser de la technologie.

Tout récemment, j’ai un ami qui est entré à l’Université de Sherbrooke en physique pure. Naïf comme j’étais, lorsqu’il m’a dit qu’il devait trouver un « bus quantique » pour son initiation, je me pensais bien malin en lui demandant ce qu’il ferait avec ça.

Eh bien, il s’avère finalement que l’Université de Sherbrooke est très active dans le domaine, avec une équipe de recherche adéquatement appelée l’ÉPIQ qui mène des travaux sur deux solutions potentielles à la création d’ordinateurs quantiques. Sentant l’occasion, j’ai réussi à obtenir une entrevue avec Michel Pioro-Ladrière, l’un des quatre professeurs à la tête de l’équipe, afin de lui poser quelques questions pour dissiper l’incompréhension et expliquer de façon claire ce qu’est un ordinateur quantique, ce que ça n’est pas, et le rôle de l’informatique quantique dans le futur de l’informatique.

Monsieur Pioro-Ladrière a toute une formation de physicien: il a fait son bac à l’Université de Sherbrooke, a continué au Conseil national de la recherche à Ottawa, et a fait un stage post-doctoral au Japon. De retour ici, il devient professeur à l’Université de Sherbrooke et mène des recherches sur les technologies nécessaires pour faire fonctionner un ordinateur quantique. Très récemment, son équipe a réussi un premier calcul quantique avec les techniques qu’ils développent. Tout ça fait de lui une personne à qui poser des questions devient vite intéressant. Cet article est une synthèse des quarante-trois minutes d’entretien que j’ai eu la chance d’obtenir.

Pour partir d’un bon pied, probablement que quelques explications de base s’imposent. Nous allons parler de qubits et d’ordinateurs à n qubits, donc autant expliquer ce qu’ils sont.

Un qu-quoi?

Vous savez probablement ce qu’est un bit en informatique classique: c’est une unité qui correspond au chiffre zéro ou un. En combinant plusieurs bits, on peut donner à leur ensemble une signification. Par exemple, il y a 256 agencements possibles de zéros et de uns dans un ensemble de 8 bits, et chacune de ces combinaisons correspond à un nombre inclusivement compris entre 0 et 255. En général, un bit est représenté par un influx électrique : s’il y a du courant c’est 1, sinon c’est 0.

Voyons maintenant le qubit (prononcé « kioubitte »), le jumeau quantique du bit. Un qubit aussi peut prendre la valeur zéro ou un, mais leur grande particularité est que tant qu’on ne cherche pas délibérément à connaître leur valeur, ils sont à la fois zéro et un. (Si cette idée vous intrigue, vous devriez lire la métaphore du chat de Schrödinger.) Cela signifie que si vous avez un agencement de 8 qubits, votre « quoctet » représente simultanément les 256 valeurs possibles d’un octet, et que lorsque vous faites des opérations avec, vous faites finalement des opérations sur les 256 valeurs en même temps. C’est ce qu’on appelle le parallélisme quantique. (Si 256 vous semble petit, réalisez bien que pour chaque bit que vous ajoutez, vous doublez le nombre d’agencements possible. Par exemple, il y a quatre milliards et des poussières agencements possibles de 32 bits. Donc, si vous avez 32 qubits...)

Cependant, la représentation physique d’un qubit est moins bien établie que celle du bit : on n’utilise plus d’influx électriques, on cherche plutôt des particules ayant des propriétés quantiques exploitables. C’est une zone active de recherche dans le domaine de l’informatique quantique. Il semble que tout le monde s’entend pour utiliser le spin de ces objets; de son côté, l’ÉPIQ fait ses recherches avec le spin des électrons.

En ce qui concerne le processeur quantique lui-même, la principale différence est l’utilisation de qubits au lieu de bits. Pour le reste, si on parle de « processeur à 64 qubits, » c’est un peu comme parler de « processeur à 64 bits. » Les opérations possibles sur des qubits sont essentiellement les mêmes que celles qui sont possibles sur les bits : on utilise des circuits logiques pour transformer l’information transmise à l’aide d’opérations que les étudiants en génie électrique, génie logiciel et génie des technologies de l’information connaissent bien, comme des AND, OR ou NOT.

Il est à noter, cependant, qu’on risque de ne jamais voir d’ordinateur exclusivement quantique. Un processeur quantique doit être contrôlé électroniquement, et la façon la plus simple d’y arriver est probablement d’utiliser un processeur classique. Par conséquent, ce que vous apprenez aujourd’hui en programmation ne sera probablement pas désuet lorsque les ordinateurs quantiques seront bien au point. Si un jour on retrouve des processeurs quantiques dans les machines destinées aux particuliers, ils seront probablement unis au processeur classique dans une relation semblable à celle qui l’unit à votre carte graphique actuelle.

À ce point, vous comprenez probablement tout l’intérêt des processeurs quantiques. Cependant, une question très intéressante demeure. Si un ordinateur quantique travaille sur toutes les données possibles d’un coup, comment récupère-t-on les résultats ? Et c’est là que le bât blesse. Lorsque vous observez un qubit, il prend une valeur fixe parmi toutes celles qui lui sont possibles, et tous les autres états superposés sont détruits. Pire, l’état qui sera rendu à l’observation relève complètement du hasard ! Par conséquent, la seule façon d’écrire un algorithme quantique efficace est de faire en sorte que le résultat qu’on recherche soit celui qui sera le plus probablement rendu; et pour ce faire, il faut qu’un maximum d’états superposés portent ce résultat. Un ordinateur quantique donne donc moins d’informations qu’un ordinateur classique en autant d’opérations, mais peut traiter exponentiellement plus de données à chaque opération.

Cette contrainte peut sembler contrariante, et elle l’est. La conception d’un algorithme quantique est une tâche complexe, mais monsieur Pioro-Ladrière m’indique ici que ce seront probablement des gens comme les ingénieurs logiciel et des TI qui arriveront le mieux à en créer.

L'état des choses

Tout semble indiquer que nous touchons au but. Revenons justement à l’ÉPIQ, qui mène des recherches sur deux procédés permettant d’exploiter les propriétés quantiques d’électrons. « Il y a plusieurs types d’implémentation, » me dit Michel. « Alexandre Blais fait la théorie pour les expérimentateurs qui s’attardent aux circuits supraconducteurs. Moi, je fais des circuits semi-conducteurs. » Ces deux implémentations ont un avantage extraordinaire vis-à-vis bien d’autres : les procédés de fabrication des circuits quantiques seraient les mêmes que ceux des circuits classiques, permettant à la technologie de bénéficier des milliards et milliards de dollars déjà investis dans l’infrastructure de fabrication des processeurs classiques pour la fabrication des processeurs quantiques.

Parmi les autres implémentations figure celle qu’IBM, en 2001 seulement, a mis au point pour vérifier l’algorithme de Shor. En utilisant 7 qubits basés sur le spin de noyaux d’atomes séparés de leur environnement grâce à la résonance magnétique nucléaire, ils sont arrivés à factoriser le nombre 15. (Des problèmes physiques ont arrêté le progrès de cette implémentation : apparemment, il devenait difficile de dépasser la douzaine de qubits.)

L’approche de l’ÉPIQ, elle est moins restrictive : sur papier, il n’y a aucune limite au nombre de qubits possibles en utilisant les supraconducteurs ou les semiconducteurs. Pas que l’approche soit sans défi, cependant : présentement, le principal problème est le court délai accordé avant la décohérence. « Il y a deux buts qui entrent en compétition. Premièrement, on demande au système de garder son état quantique, et pour ça il faut qu’il soit bien isolé de son environnement. Comme les atomes : ils sont des fantastiques objets quantiques à la température de la pièce. Sauf qu’en même temps, il faut aussi manipuler le système, et lorsqu’on le manipule, on devient un peu comme l’environnement. »

La décohérence est le nom du phénomène qui se produit lorsque l’état quantique d’une particule est dissipé par son environnement. Tout l’enjeu est de faire en sorte que cette triste fin se produise le plus tard possible–ou au moins, après un certain seuil critique. Dans un système à état solide, tel que ceux que l’ÉPIQ développe, le temps de décohérence est petit : on parle de quelque part entre une dizaine de nanosecondes et quelques centaines de microsecondes, dépendant du matériau semiconducteur utilisé. L’idée, c’est qu’en ajoutant de la redondance au système (donc en utilisant plus de qubits pour représenter la même information), il y existe des méthodes de correction d’erreur qui permettront de pallier au court délai. S’il est possible de réaliser un petit nombre d’opérations logiques suffisamment vite, et c’est de ce seuil critique dont on parle, il sera possible de corriger les erreurs causées par les qubits « décohérés. »

La décohérence est une bête visiblement difficile à apprivoiser. Dans plusieurs implémentations expérimentales, les chercheurs ne sont pas trop sûrs de ce qui arrive pour que les qubits perdent leur cohérence, ou on sait qu’elle se produira très vite. Du côté de l’ÉPIQ, au moins, on en connaît très bien la cause : « c’est le spin nucléaire qui entoure le qubit. Notre qubit est un électron ayant un spin individuel, qui est isolé dans un semiconducteur, et ce spin est affecté par les spins des noyaux du matériel semiconducteur. C’est ce qui crée la décohérence. » En plus, il y a bon espoir de ce côté : des équipes ont démontré que les spins d’électrons, dans des environnements sans spin nucléaires, restent cohérents pendant plusieurs secondes. « Quand quelqu’un aura résolu ce problème, nous aurons gagné. »

Donc, risquez-vous d’avoir un coprocesseur quantique dans votre ordinateur bientôt ? Ça dépend un peu, nous indique Michel. Du côté des semiconducteurs, les premières recherches utilisaient l’arséniure de gallium (autrement appelé GaAs, pour « Gallium Arsenide »), puisque c’est un matériau pour lequel une bonne expertise existe. Cependant, ses temps de décohérence sont très mauvais. Tout semble cependant indiquer que le silicium serait un bon candidat; le problème est que l’expertise avec le silicium est une dizaine d’années derrière celle du GaAs. Si le silicium tient ses promesses, peut-être verrez-vous des ordinateurs quantiques utilisant cette implémentation aux alentours de 2020 (bref, le temps de rattraper le retard d’expertise).

En ce qui concerne les systèmes supraconducteurs, le jeu est un peu différent, mais tout aussi intéressant. En 2008, l’équipe du professeur Blais arrivait à contrôler un qubit; maintenant, ils arrivent à en contrôler quatre.

D’autres équipes s’attaquent aussi à des qubits qui pourraient fonctionner à plus haute température. Le professeur Pioro-Ladrière cite notamment les spins d’atomes dans le diamant, qui sont exploitables à température de la pièce. (Évidemment, eux aussi ont leur lot de problèmes. Visiblement, il n’y a pas de solution facile dans ce domaine.)

Quant à si vous en aurez un de si tôt dans votre ordinateur... ça serait surprenant. Pour réussir à bien distinguer les valeurs quantiques, les deux implémentations sur lesquelles l’ÉPIQ travaillent requièrent de refroidir les échantillons à des températures avoisinant les 8 milli-Kelvin. Pas un problème pour les entreprises ou laboratoires qui auraient particulièrement besoin de la puissance de calcul d’un ordinateur quantique, mais difficile à imaginer pour quelqu’un n’ayant pas de hangar vide dans son salon.

Finalement, il ne fait aucun doute que l’informatique quantique finira par percer. Cette technologie a un potentiel énorme et beaucoup d’applications dans le domaine de la recherche, surtout pour les simulations physiques et les autres calculs devant tester beaucoup de données afin de trouver quelques réponses seulement. Si l’informatique quantique vous intéresse, vous pouvez être assurés que nous en entendrons de plus en plus parler.

Plus de lecture: