
Les progrès des puces quantiques devraient bénéficier à la simulation de la matière. Reste à apprendre à programmer quantique.
L'informatique quantique est en ébullition. Après qu’IBM a annoncé, en novembre 2017, avoir réalisé un processeur quantique de 50 qubits – les bits quantiques –, Intel a fait sensation en janvier, lors du CES de Las Vegas, en dévoilant une puce de 49 qubits. Google, à en croire sa feuille de route, ne devrait pas tarder à les égaler, voire les surpasser. Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, le répète à l’envi : "Notre ambition est de sortir très vite des processeurs avec des centaines de qubits." Cette accélération étonnante des progrès dans le hardware quantique a remis en selle le mythique ordinateur quantique universel capable d’effectuer les calculs les plus complexes en un éclair et de casser en un clin d’œil le chiffrement RSA, qui sécurise le web. Mais sans même attendre ce Graal, la simulation devrait s’emparer rapidement de la performance quantique.
La simulation est à l’origine même de l’informatique quantique. C’est au prix Nobel de physique Richard Feynman que l’on doit l’idée, émise en 1982, d’utiliser des systèmes quantiques pour simuler… des systèmes quantiques. Bien loin de tourner en rond, il s’agit de dépasser la complexité posée par la mécanique quantique, qui régit la matière à l’échelle microscopique. Simuler un système de taille importante – composé d’un grand nombre d’atomes, par exemple –, c’est-à-dire résoudre approximativement par le calcul les équations le décrivant faute de disposer d’une solution exacte – analytique –, devient impossible avec la physique quantique, tant la quantité d’informations à stocker et le nombre d’opérations à effectuer sont rapidement hors de portée d’un ordinateur classique. Utiliser un ordinateur obéissant à la physique quantique a donc semblé, aux yeux du génial physicien, être la solution.