• Feite Kraay, Author |
8 minutes de lecture

​Les coureurs expérimentés savent que la meilleure stratégie pour gagner est de ne pas de commencer avec un rythme trop rapide. De nombreux novices, s’étant bien reposés et alimentés dans les jours précédant la course, vont s’élancer de la ligne de départ remplis d’énergie et d’ambition. Puis, s’affaiblissant dans la dernière ligne droite, ils termineront la course avec un résultat décevant, s’ils réussissent même à atteindre la ligne d’arrivée. Il est généralement préférable de réaliser ce que l’on appelle un « split négatif », soit un temps de course plus rapide dans la deuxième moitié que dans la première. Cette technique permet à l’athlète de conserver son énergie pour le moment où il en a le plus besoin et ainsi, de dépasser ses concurrents au cours de la seconde moitié et de se propulser jusqu’au fil d’arrivée. Effectuer un split négatif requiert une quantité extraordinaire d’autodiscipline; j’y arrive rarement. Cependant, lors de ma meilleure performance à un demi-marathon il y a quelques années, j’ai terminé la deuxième partie de la course en six secondes de moins que la première. Il s’agit donc d’une stratégie réalisable.

Dans mon dernier billet, j’ai décrit le fonctionnement des ordinateurs quantiques et leur potentiel pour résoudre des problèmes complexes de calculs beaucoup plus rapidement que les ordinateurs classiques. Ce potentiel est souvent appelé « suprématie quantique » ou « avantage quantique ». Les définitions précises de ces expressions sont depuis longtemps source de débat. Personnellement, je considère l’avantage quantique comme une opération qu’une machine quantique peut exécuter beaucoup plus rapidement que son cousin classique, et la suprématie quantique comme une opération que seul un ordinateur quantique peut exécuter. Bien que diverses affirmations aient été formulées pour ces deux expressions, on peut dire sans se tromper que ni l’avantage ni la suprématie n’ont encore été réalisés de manière commercialement significative.

Si la course à l’informatique quantique a pour ligne d’arrivée l’avantage ou la suprématie quantiques, nous venons tout juste de quitter la ligne de départ. Nous devrions penser au split négatif : comment pourrions-nous finir la course en force, sans épuiser nos ressources? Nous pourrions même diviser cette course en deux épreuves. La première, réservée aux fournisseurs, consisterait en la distribution d’ordinateurs quantiques qui offriront réellement un avantage ou la suprématie. Engageant plutôt les prestataires de services et les clients, la deuxième tournerait autour de l’adoption de la technologie quantique et de la réalisation d’avantages tout au long de son évolution.

Faire du bruit
La course à la distribution d’ordinateurs quantiques commercialement viables ressemble plus à une course d’obstacles disputée par un très grand nombre de concurrents. Au moins dix architectures différentes de machines quantiques sont en cours d’élaboration, chacune présentant des avantages et des inconvénients. En plus de grands fournisseurs de matériel informatique et de prestataires de services infonuagiques superscalaires, une foule d’entreprises en démarrage ont travaillé sur des variantes de ces architectures au cours des dix dernières années, sinon plus. Entre-temps, dans les deux dernières années, l’engouement initial a commencé à s’estomper et des signes d’une saine consolidation dans le secteur se sont manifestés. Pour l’instant, on estime que les ordinateurs quantiques rentables et à grande échelle ne feront pas leur apparition sur le marché avant cinq à dix ans.

À l’heure actuelle, le secteur se trouve dans l’ère du NISQ, ou Noisy Intermediate-Scale Quantum (quantique d’échelle intermédiaire bruité), une expression qui résume bien les principaux obstacles qui nous empêchent encore de réaliser un véritable avantage ou la suprématie quantiques. L’échelle intermédiaire fait référence au fait que le secteur est passé de premiers ordinateurs expérimentaux utilisant une poignée de qubits seulement à des systèmes disponibles sur le marché qui en emploient des centaines. Et pourtant, nous sommes loin des centaines de milliers (ou, selon certains, des millions) de qubits nécessaires pour atteindre le niveau auquel l’avantage ou la suprématie seront réalisés.

Évidemment, plus il y a de qubits, plus la puissance de calcul sera élevée. Mais pour cela, ils doivent être en mesure de fonctionner de manière cohérente. Revenons au sigle NISQ, ou à la quantique d’échelle intermédiaire bruité. Par « bruit », on entend toutes les occurrences qui peuvent interférer avec le fonctionnement cohérent d’un qubit, comme des températures chaudes, le rayonnement cosmique ou l’activité des autres qubits du système.

Le bruit est probablement le plus grand obstacle dans la course à la production d’ordinateurs quantiques commerciaux à grande échelle. Tel que je l’ai mentionné dans mon dernier billet, les qubits reposent sur des particules subatomiques comme les électrons et les protons. On attend beaucoup de ces minuscules particules éphémères, les obligeant à conserver de grandes quantités de données assez longtemps pour être en mesure d’effectuer des calculs complexes. Toutefois, il s’avère que les qubits sont extrêmement sensibles au moindre bruit dans un système quantique.

Afin de réduire le bruit, les fabricants d’ordinateurs quantiques ont déployé de grands efforts, comme refroidir des systèmes à des températures proches du zéro absolu (plus froid que dans l’espace) et les placer dans des pièces protégées contre le rayonnement cosmique. Certains expérimentent la construction de multiples circuits quantiques qui peuvent fonctionner en parallèle, limitant ainsi la proximité des qubits entre eux. Malgré ces efforts héroïques pour protéger nos qubits délicats, leur longévité ou leur « temps de cohérence » est souvent mesuré en microsecondes ou moins. Cela laisse peu de temps aux calculs.

Atténuer le bruit
Puisque le moindre bruit peut causer la décohérence ou la perte des données d’un qubit, nous pouvons avancer qu’un autre effet secondaire de cette interférence dans les systèmes quantiques est l’inexactitude. Si certains qubits cessent de se comporter de manière cohérente au milieu d’un calcul, eh bien, peut-être faudrait-il ne pas trop faire confiance au résultat!

Je me suis déjà exprimé sur l’algorithme de Shor, qui prouve qu’un ordinateur quantique peut établir la factorisation de nombres entiers des millions de fois plus rapidement qu’un ordinateur classique. Au début des années 2000, des chercheurs de l’Université de Californie à Santa Barbara ont mis en œuvre l’algorithme de Shor sur un ordinateur quantique et l’ont utilisé pour trouver les facteurs premiers de 15. L’opération a été effectuée à 150 000 reprises et environ 1 fois sur 2, la machine est arrivée à la bonne réponse, soit 3 et 5. Un exemple si trivial vous fait peut-être sourire, mais il a prouvé deux choses : premièrement, l’algorithme de Shor fonctionne; deuxièmement, il reste encore beaucoup de travail à faire.

Comparons cette expérience au premier vol des frères Wright : ils ne se sont pas rendus loin, mais ils ont prouvé qu’un vol motorisé était possible, et regardez où en sont maintenant les secteurs de l’aviation et de l’aérospatiale. Des progrès considérables ont été réalisés au moyen des techniques de réduction du bruit que je viens de décrire. Parallèlement, les fournisseurs de matériel quantique en ont amélioré la précision en intégrant davantage de redondances dans leurs systèmes. En créant des qubits logiques à partir de plusieurs qubits physiques, les scientifiques sont mieux en mesure de repérer où une erreur peut s’être produite et de faire les modifications nécessaires. Toutefois, selon de nombreux experts, il faudra apporter des corrections à des systèmes de centaines de milliers, voire de millions de qubits avant de posséder le bagage nécessaire pour effectuer des calculs précis à grande échelle. Étant donné que les ordinateurs quantiques actuels sont mesurés en centaines de qubits (quoiqu’un système de plus de 1 000 qubits est attendu plus tard cette année), leur valeur réelle ne sera probablement pas atteinte avant la fin des années 2020 ou le début des années 2030.

Comme je l’ai mentionné plus haut, il existe moins dix approches différentes en matière d’informatique quantique aujourd’hui. On peut les classer dans trois catégories : la porte quantique, le recuit quantique et l’optimisation d’inspiration quantique. Les problèmes liés au NISQ entrent dans la première catégorie. Bien que l’approche de porte quantique (la seule qui utilise des qubits réels) soit celle au plus grand potentiel d’améliorations exponentielles, les utilisateurs qui l’adoptent de manière excessivement enthousiaste s’exposent au même risque que les coureurs qui s’élancent trop rapidement : un épuisement précipité.

Les deux autres catégories d’informatique quantique adoptent une approche différente. Le recuit quantique se sert de matériel spécialisé pour simuler des qubits et est réglé pour résoudre des problèmes d’optimisation spécifiques. L’optimisation d’inspiration quantique, elle, utilise des algorithmes de logiciels et des machines classiques pour simuler des qubits, et s’applique aussi à certains types de problèmes d’optimisation. Les deux approches sont employées sur le marché et ont démontré une capacité d’effectuer des optimisations complexes entraînant des résultats de 10 à 15 % supérieurs à ceux découlant de méthodes classiques. Pour des projets d’optimisation du portefeuille financier ou de couverture géographique de services, cette modeste amélioration représente déjà une proposition de valeur convaincante. Les algorithmes codés pour le recuit quantique ou l’optimisation d’inspiration quantique pourraient être exécutés de nouveau dans un environnement de porte quantique pour obtenir des résultats encore meilleurs.

Maintenir la cadence
En fin de compte, une course réussie ressemble à ceci : tous les concurrents ont l’œil sur la ligne d’arrivée et visent l’avantage ou la suprématie grâce aux portes quantiques d’envergure sur lesquelles reposent les ordinateurs. Les investissements se poursuivent dans la recherche et le développement pour résoudre les problèmes liés au bruit et tirer d’importants avantages de l’informatique quantique. De plus, nous accumulons lentement mais sûrement de plus en plus de réussites en utilisant nos algorithmes dans des environnements de recuit quantique ou d’inspiration quantique.

Qu’on ne s’y méprenne pas : nous pouvons retirer des avantages substantiels d’une telle course tout en évitant les obstacles sur notre chemin. Il suffit de tirer parti de l’expérience acquise et de déployer les efforts nécessaires pour atteindre la ligne d’arrivée.

Publication multilingue

Cette publication est aussi offerte dans les langues suivantes :

Tenez-vous au courant de sujets qui vous intéressent.

Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.