• Feite Kraay, Author |
8 minutes de lecture

Quand j’étais au secondaire (au début des années 1980), le cours d’informatique a été l’une des expériences les plus formatrices pour moi. Mon école rurale partageait un ordinateur avec une école dans une autre ville, et par « ordinateur », je veux dire un mini-ordinateur donné par un fournisseur de matériel informatique bien connu. Aussi, le mot « mini-ordinateur » est un euphémisme : cette machine avait à peu près la taille d’un réfrigérateur et devait être transportée par camion d’une école à l’autre! Il y avait quatre terminaux télétypes qui permettaient à quatre élèves de coder de façon interactive alors qu’à cette époque, en général, il fallait coder à l’aide de marques de crayon sur des cartes à entrer en séquence dans un lecteur. Apprendre à coder en BASIC et, dans la classe avancée, en FORTRAN, était une expérience exaltante à l’époque.

Le travail de fin d’année dans ce cours consistait à créer un jeu. Étant ambitieux, j’ai choisi de reproduire le célèbre jeu pour enfants Battleship. J’ai écrit le code BASIC à la main sur du papier, modélisé la grille 10×10 et créé des sous-routines pour placer les navires au hasard en m’assurant qu’ils ne puissent pas être adjacents. Après avoir conçu le modèle de données et établi les contraintes, j’ai rédigé un code pour que le jeu reçoive de façon interactive les tirs du joueur et enregistre les touchés et les tirs ratés. J’imaginais un jeu simplifié, où le joueur humain essayait de couler les vaisseaux de l’ordinateur. J’ai entré minutieusement mon code, mais le jeu ne fonctionnait pas. Imaginez ma déception! Pas de fautes ou d’erreurs; juste un écran qui figeait constamment. Mon professeur et moi avons tout examiné à plusieurs reprises, et nous avons conclu que le code et les données de mon modèle de jeu simplifié dépassaient probablement les 48 kilo-octets de mémoire partagée de la machine et la capacité de calcul du processeur de 385 kHz. J’ai quand même obtenu une bonne note pour mon travail, mais il m’a fallu attendre à l’université pour apprendre à écrire un code efficace.

Quatre décennies plus tard, mon téléphone presque obsolète dispose de 128 gigaoctets de mémoire et d’un processeur 6 cœurs de 2,39 GHz. Cette augmentation de la puissance représente environ un doublement tous les deux ans et constitue un bon exemple de la loi de Moore. Gordon Moore, chef de la direction d’Intel dans les années 1960, avait prédit que le nombre de composants d’un circuit intégré doublerait chaque année. Bien qu’elle ait été rajustée pour prédire un doublement tous les deux ans par la suite, la loi de Moore a été généralisée pour mesurer (et prédire) la croissance d’une capacité de calcul à l’aide de ressources semblables. Elle a remarquablement bien résisté à l’épreuve du temps, se butant seulement tout récemment aux limites physiques de la miniaturisation dans la fabrication de puces électroniques. On s’attendait à ce que la loi de Moore soit dépassée vers 2025, qui arrive à grands pas. Cependant, je crois que ce n’est pas son destin.

Pour déformer les propos de T. S. Eliot, le monde de l’informatique régi par la loi de Moore ne se terminera pas sur un murmure, mais sur un boum. Ce boum sera provoqué par l’informatique quantique, un domaine émergent dont il n’est pas exagéré de qualifier comme la plus grande révolution dans le domaine de l’informatique depuis… les débuts de l’informatique! Les ordinateurs quantiques auront la capacité de résoudre des problèmes complexes exigeant une grande puissance de calcul à une vitesse des milliers de fois supérieure à celle des ordinateurs que nous utilisons aujourd’hui.

J’ai parlé, dans un autre billet de blogue, de certaines possibilités qu’offre l’informatique quantique, plus précisément dans le contexte de la cybersécurité. Dans ce billet, je veux examiner un peu plus en profondeur les bases de l’informatique quantique et présenter quelques cas d’utilisation pratiques qui, mis à part les risques, pourraient entraîner d’importantes améliorations dans notre quotidien.

La révolution en marche
La manière dont les ordinateurs quantiques vont révolutionner l’informatique – donc littéralement rendre obsolète la loi de Moore – est issue de la physique quantique et du mystérieux comportement des particules subatomiques telles que les électrons et les protons. La physique quantique, née il y a environ 100 ans, cherche à expliquer des phénomènes tels que les différents états d’énergie des atomes et la manière dont les ondes lumineuses se diffractent. Elle repose sur l’hypothèse que les électrons et les protons peuvent exister sous plusieurs états à la fois et qu’on peut les décrire par des matrices ou des fonctions d’onde plutôt que par une expression numérique précise de leur emplacement ou de leur vitesse, ce qu’on appelle le principe de « superposition quantique ». Je ne veux pas tenter de condenser une bibliothèque d’ouvrages de recherche scientifique en un seul paragraphe, donc je me contenterai d’écrire que la physique quantique s’est avérée la théorie la plus efficace et la plus fiable pour tenter de décrire le fonctionnement de l’univers, tant à l’échelle macroscopique que microscopique.

Au début des années 1980, une équipe de physiciens et de mathématiciens a eu l’idée d’utiliser la superposition pour chiffrer l’information d’une manière radicalement nouvelle.

Un ordinateur classique comprend des transistors qui sont allumés ou éteints (valeur numérique de 1 ou de 0) pour laisser passer ou bloquer un courant électrique, ce qui est la définition de base d’une valeur binaire – un bit. Le codage binaire est la base de toute la programmation informatique jusqu’à présent, et l’ajout de bits augmente la puissance de traitement de façon linéaire.

En revanche, un ordinateur quantique exploite les propriétés des particules subatomiques (les protons et les électrons), qui peuvent avoir une valeur de 1, de 0, de toute autre valeur comprise entre 0 et 1, et toutes ces valeurs en même temps. Une telle particule subatomique codée est connue sous le nom de bit quantique ou « qubit » et peut contenir beaucoup plus d’information qu’un bit classique. Ajouter des qubits à un système augmente sa puissance de traitement de façon exponentielle.

Si cela semble étrange ou difficile à comprendre, voici une simple analogie : traverser un labyrinthe. Un ordinateur classique parcourrait un labyrinthe de la même manière que vous le feriez. Vous prendriez un chemin à la fois, vous reculeriez devant une impasse, vous sélectionneriez un autre chemin et vous recommenceriez le processus jusqu’à ce que vous trouviez enfin la sortie. Les labyrinthes comportant un plus grand nombre de chemins deviennent exponentiellement plus compliqués à traverser. Mais un ordinateur quantique pourrait utiliser le superpositionnement pour calculer tous les parcours possibles pour sortir du labyrinthe en même temps. Le nombre de chemins dans le labyrinthe ne compte donc plus; le temps nécessaire à un ordinateur quantique pour traverser le labyrinthe est lié au chemin le plus court (ou chemin unique) vers la sortie.

C’est ce qui va repousser les limites de la loi de Moore et permettre aux ordinateurs quantiques de faire des calculs à une vitesse incomparable à celle des ordinateurs classiques.

La nouvelle donne
Les avantages potentiels de l’informatique quantique sont considérables. Plusieurs des problèmes auxquels nous sommes confrontés aujourd’hui sont encore trop complexes pour l’informatique classique, mais l’informatique quantique promet de les résoudre. Les applications sont nombreuses :

Optimisation : Les problèmes mathématiques courants, comme le calcul du parcours le plus efficace dans un réseau ou de la solution la moins chère en tenant compte de centaines voire de milliers de facteurs de contrainte, ne sont actuellement résolus que par approximation. L’informatique quantique fera beaucoup mieux à cet égard, et pourra être appliquée dans divers scénarios :

  • l’optimisation des trajets des flottes de véhicules ou d’autres réseaux de livraison afin de minimiser les « trajets à vide » et de maximiser l’efficacité énergétique;
  • l’analyse de portefeuilles de placements pour maximiser les rendements tout en minimisant les risques ou en optimisant la tarification des produits dérivés;
  • la maximisation de la couverture géographique avec une infrastructure minimale (p. ex., l’emplacement des tours cellulaires ou des bornes de recharge pour véhicules électriques, etc.).

Simulation : Réaliser des tests à grande échelle dans la fabrication ou l’ingénierie est très long et coûteux. L’informatique quantique pourrait permettre d’exécuter rapidement plusieurs séries de scénarios de tests virtuels avant de procéder à des tests physiques finaux, ce qui réduirait les coûts et ferait gagner du temps, entre autres dans :

  • la simulation aérodynamique pour la carrosserie des automobiles, le fuselage des aéronefs, etc.;
  • la dynamique des fluides;
  • la fabrication de semi-conducteurs;
  • les produits pharmaceutiques (tests des interactions médicamenteuses avant les essais cliniques);
  • les simulations selon la méthode de Monte-Carlo : dans des cas financiers et scientifiques, faire la moyenne des résultats de plusieurs essais utilisant des variables aléatoires.

Modélisation : La technologie quantique pourrait être appliquée à la conception de nouveaux produits, notamment :

  • de nouvelles piles à combustible et batteries pour véhicules électriques, ce qui réduirait l’utilisation d’éléments rares;
  • la détection des anomalies dans les processus de fabrication;
  • la découverte de nouvelles structures protéiques en bio-ingénierie.

Analyses de données et intelligence artificielle : L’informatique cognitive, combinée aux systèmes quantiques, représente un domaine très prometteur qui offre une grande variété d’applications, particulièrement :

  • le traitement et l’interprétation d’images à grande échelle (comme les images spectaculaires de l’espace profond transmises par le télescope spatial James Webb;
  • la météorologie;
  • le traitement de grandes quantités de données provenant de capteurs de l’Internet des objets;
  • les recommandations de produits du commerce de détail et les offres ciblées;
  • la notation du risque de crédit et la détection de la fraude financière.

En bref, l’informatique quantique transformera complètement le secteur de la technologie tel que nous le connaissons aujourd’hui. La recherche scientifique, la finance, la médecine et même la lutte contre les changements climatiques tireront d’énormes avantages d’une technologie quantique pleinement déployée. Mais combien de temps cela prendra-t-il? Quand pouvons-nous espérer fouler cette terre promise?

Personne ne connaît les réponses à ces questions pour l’instant, même si la plupart des experts parlent d’un horizon de cinq à dix ans. Dans mon prochain billet, je me pencherai sur l’état actuel de la technologie quantique, au travail qu’il reste à faire avant que ses avantages puissent être pleinement exploités et à ce que nous pouvons faire en l’attendant.

Publication multilingue

Cette publication est aussi offerte dans les langues suivantes :

Tenez-vous au courant de sujets qui vous intéressent.

Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.