IBM a dévoilé la première architecture de référence pour la superinformatique quantique publiée par l'industrie le 12 mars 2026, fournissant un nouveau plan directeur pour intégrer l'informatique quantique dans les environnements de superinformatique modernes. L'architecture montre comment les processeurs quantiques (QPU) peuvent fonctionner aux côtés des GPU et CPU—à travers les systèmes sur site, les centres de recherche et le cloud—afin de s'attaquer aux défis scientifiques qu'aucune approche informatique unique ne peut résoudre seule.
Elle combine le matériel quantique avec une infrastructure classique puissante, incluant des clusters CPU et GPU, des réseaux haute vitesse et un stockage partagé, pour soutenir des charges de travail intensives en calcul et la recherche algorithmique. Conçue pour les charges de travail d'aujourd'hui et construite pour évoluer dans le temps, l'architecture rassemble les systèmes quantiques et classiques dans un environnement informatique unifié.
Le nouveau cadre répond aux défis critiques d'intégration. Les ordinateurs quantiques et les ressources HPC existent aujourd'hui principalement de manière isolée, ce qui oblige les utilisateurs à orchestrer manuellement les charges de travail, coordonner la planification des tâches et transférer les données entre systèmes. Cette situation est ce qui a poussé les chercheurs d'IBM à développer un nouveau cadre qui intègre les deux types d'informatique et fournit des ressources partagées pouvant éliminer la compartimentalisation.
Les percées scientifiques démontrent déjà le potentiel de l'architecture. Les scientifiques de RIKEN et d'IBM ont réalisé l'une des plus grandes simulations quantiques de clusters fer-soufre, une molécule fondamentale en biologie et chimie, grâce à un échange de données en boucle fermée entre un processeur IBM Quantum Heron co-localisé et les 152 064 nœuds de calcul classique du superordinateur Fugaku de RIKEN. Des collaborateurs d'Algorithmiq, Trinity College Dublin et IBM ont publié des méthodes dans Nature Physics pour simuler avec précision les systèmes de chaos quantique à plusieurs corps, tels que des collections d'atomes et d'électrons, utilisant des ressources de calcul classique pour l'atténuation du bruit.
"Il y a plus de quatre décennies, Richard Feynman envisageait des ordinateurs qui pourraient simuler la physique quantique", a déclaré Jay Gambetta, directeur d'IBM Research et IBM Fellow. "Chez IBM, nous avons passé des années à transformer cette vision en réalité. Les processeurs quantiques d'aujourd'hui commencent à s'attaquer aux parties les plus difficiles des problèmes scientifiques—celles gouvernées par la mécanique quantique en chimie". À mesure que de nouveaux algorithmes quantiques-centriques émergent, l'écosystème mondial de clients et partenaires d'IBM fera continuellement évoluer cette architecture pour soutenir des ressources sophistiquées, des réseaux et des capacités logicielles.