Ordinateur quantique : de la théorie à la réalité, où en sommes-nous vraiment ?
Publié le 13/1/2025
Auteur : Arnaud DUFOURNET, Chief Marketing Officer
Le 12 septembre 1962, John F. Kennedy déclarait aux Américains : «We choose to go to the moon in this decade and do the other things not because they are easy, but because they are hard ». La mise au point d’un ordinateur quantique capable de surpasser le plus puissant des supercalculateurs actuels n’est pas sans rappeler la conquête spatiale qui occupa les Américains et les Soviétiques dans les années 60. Les enjeux sont tout aussi colossaux en termes de géopolitique, de défense et de suprématie économique. Il y a toutefois une différence notoire : dans cette nouvelle course, cette fois-ci il pourrait bien y avoir plusieurs vainqueurs.
Tout le monde veut son ordinateur quantique
L’emballement médiatique autour de l’ordinateur quantique est indéniable depuis quelque mois. Il y a de bonnes raisons pour cela. Dans un rapport publié en novembre dernier, L’INPI relève que « l’informatique quantique a connu une expansion spectaculaire au cours de la dernière décennie, avec une multiplication par 20 des familles de brevets entre 2013 et 2022 ». Selon la société de conseil en technologies quantiques QURECA, ce sont plus de quarante milliards de dollars qui ont été investis dans l’informatique quantique.
Comme pour l’espace, les grandes nations veulent toutes être les premières à détenir un ordinateur quantique capable d’exécuter des calculs complexes qu’aucun supercalculateur actuel ne peut réaliser. Dans un contexte géopolitique très instable et incertain, la mise au point d’un tel ordinateur est évidemment de nature à changer les rapports de force.
En tête de la course, on retrouve sans surprise les États-Unis avec ses géants technologiques IBM, Google et Microsoft. Un peu moins avancée, la Chine suit néanmoins et surtout investit massivement dans la recherche et le développement.
D’autres nations tirent leur épingle du jeu comme le Canada avec la société D-Wave pionnière dans l’informatique quantique ou bien la France avec cinq start-up exploitant des technologies différentes pour générer des qubits. D’ailleurs, la DGA compte bien sur elles dans le cadre du programme Proqcima pour lui livrer d’ici 2032 au moins deux prototypes d’ordinateurs quantiques universels. La Russie cherche également à rattraper son retard et vient tout juste de dévoiler un prototype d’ordinateur quantique disposant de 50 qubits utilisant des atomes neutres de rubidium
La course aux qubits bat son plein
Depuis quelques années, les annonces spectaculaires dans le domaine de l’informatique quantique se sont succédé. En 2019, Google ouvre le bal en annonçant avoir atteint la suprématie quantique : son ordinateur quantique doté du processeur Sycamore qui compte seulement 53 qubit physiques, a pu accomplir une tâche spécifique que même les supercalculateurs classiques ne peuvent pas réaliser en un temps raisonnable. Quoi que très controversée, cette annonce marque l’accélération de la course au qubit.
Toutefois, la route est encore longue et sinueuse avant de pouvoir bénéficier des puissances de calcul promises par l’ordinateur quantique. L’ère NISQ pour Noisy Intermediate Scale Quantum est l’état actuel de la technologie quantique et dans laquelle se trouvent les constructeurs les plus en pointe comme IBM. Ces premiers ordinateurs quantiques sont de taille intermédiaire, c’est-à-dire qu’ils comptent entre une cinquantaine et un millier de qubits physiques. Les calculs qu’ils sont capables de réaliser génèrent du bruit quantique, autrement dit des erreurs. Ils sont néanmoins utiles pour comprendre les applications futures et réaliser des simulations de systèmes quantiques simples ou encore de l’optimisation à petite échelle.
L’étape suivante pour l’informatique quantique consiste à introduire de la détection et la correction d’erreur. Appelée FTQC pour Fault-Tolerant Quantum Computers, cette phase implique l’utilisation de codes correcteurs d’erreurs quantiques et de réduire la décohérence quantique et autres sources de bruit. Pour fonctionner, les FTQC requièrent plusieurs qubits physiques pour créer un qubit logique fiable. Le ratio classique est d’environ un pour mille ou plus selon les technologies employées.
À ce jour, aucun FTQC pleinement opérationnel n’existe encore. C’est actuellement l’un des objectifs majeurs poursuivi par les constructeurs et les chercheurs comme le montre la dernière annonce de Google avec sa nouvelle puce quantique Willow. De son côté, la startup française Alice & Bob vise de réaliser son premier ordinateur quantique universel et tolérant aux erreurs (FTQC) pour 2030.
Passée la maîtrise des erreurs, le passage à l’échelle restera encore l’immense défi à relever. Pour entrer dans l’ère des LSQC (Large Scale Quantum Computing), l’ordinateur quantique de grande échelle devra être capable de réaliser des calculs utiles avec un nombre significatif de qubits logiques (> 1000) et un taux d’erreur suffisamment bas pour des calculs complexes. Ce qui supposera également des temps de cohérence nettement prolongés par rapport à ce qui se fait actuellement.
Enfin, le Graal ultime : l’UQC pour Universal Quantum Computer, sera l’ordinateur quantique capable d’exécuter n’importe quel algorithme quantique comme l’algorithme de Shor pour la factorisation ou l’algorithme de Grover pour la recherche non structurée. Deux algorithmes redoutés par les professionnels de la sécurité informatique.
À quand le Q-Day ?
L’informatique quantique fait régulièrement de gros progrès. En 2024, 13 acteurs ont fait des annonces majeures concernant leur roadmap. Du jamais vu jusqu’alors. Pourtant il est encore difficile de se prononcer sur la date du fameux Q-Day, date à laquelle un ordinateur capable de casser les systèmes cryptographiques actuels est enfin opérationnel. Le président de NVIDIA, Jensen Huang, vient de jeter un coup de froid en déclarant au CES de Las Vegas qu’il faudrait encore patienter deux décennies. Les experts parlent en général de 15 à 20 ans. Le BSI dans sa dernière mise à jour de son étude sur le développement de l’ordinateur quantique s’est risqué à une estimation qu’il juge conservatrice : 16 ans serait le temps qui nous sépare de l’arrivée d’un tel ordinateur. Ce temps pouvant être réduit si de nouvelles innovations surviennent en matière de correction et de réduction des erreurs.
Malgré l’incertitude, la menace est désormais prise très au sérieux par les agences de sécurité qui sont unanimes sur le sujet. La probabilité que la menace quantique soit effective dans la décennie à venir est devenue suffisamment forte pour qu’elles appellent les organisations publiques et privées à opérer dès maintenant leur transition vers la cryptographie résistante au quantique. Leur message commence à porter puisque l’ENISA observe dans son premier rapport sur l’état de la Cybersécurité dans l’Union Européenne (rapport publié en décembre dans le cadre de la coopération mise en place par la Directive NIS2) que la PQC avec l’IA sont les deux technologies émergentes qui ont gagné en importance sur l’année écoulée.
Autre réalité : la fin de l’utilisation du RSA et des courbes elliptiques est désormais connue. En novembre, le NIST a annoncé la dépréciation des algorithmes de signature numérique RSA et ECC de 112 bits (clés de 2048 bits) pour 2030, et l’interdiction complète pour 2035 (voir le rapport ici). Dans la foulée, l’Agence australienne (ASD, Australian Signals Directorate) est allée plus loin en interdisant l’usage de ces mêmes algorithmes dès 2030 (voir les recommandations ici). L’année 2025 s’annonce donc comme l’année de l’accélération de la transition vers la PQC.
Ressources utiles :