L’IA teste ses premiers algorithmes quantiques
⏱ 4 minVision artificielle, traitement du langage naturel, classification, aide à la décision…Toutes ces applications reposant sur des algorithmes d’apprentissage artificiel pourraient voir leur efficacité très sérieusement augmentée grâce au calcul quantique.
Comment orienter les recherches sur l’IA quantique ? En la matière, les choix stratégiques des industriels se fondent sur un principe qui a fait ses preuves : le pragmatisme ! Plutôt que de rêver à d’hypothétiques applications fondées sur l’avènement incertain d’un ordinateur quantique universel (doté de millions de qubits), ils préfèrent s’intéresser aux calculateurs quantiques déjà existants, dotés de plusieurs centaines de qubits (bientôt quelques milliers) afin de tester ce que ces prototypes peuvent concrètement apporter à l’intelligence artificielle et notamment aux algorithmes d’apprentissage artificiel.
En 2019, des chercheurs d’IBM et du MIT ont ainsi publié¹ une étude dans la revue Nature, dans laquelle ils décrivent comment ils ont créé le tout premier algorithme de classification reposant sur des machines à vecteurs de support (Support Vector Machine ou SVM) quantiques. « Ces algorithmes sont classiquement utilisés pour classer des données selon différents critères explique Xavier Vasques, directeur technique d’IBM France et distinguished data scientist. Imaginons par exemple que l’on souhaite classer des patients en deux catégories – malades / non malades – à partir de deux signes cliniques. Dans ce cas simple, les patients sont représentés par des points sur un graphique et l’algorithme SVM va chercher la meilleure droite pour séparer au mieux ces points avec, d’un côté les malades, et de l’autre les non malades ».
Une accélération exponentielle des SVM
Malheureusement, la mise en œuvre de ce type d’algorithme se corse si le nombre de variables augmente. Si l’on veut classer des données en s’appuyant sur cent variables, par exemple, il faudra que l’algorithme trouve un plan – ou plutôt un hyperplan – dans un espace de dimension cent, une tâche extrêmement complexe pour un ordinateur classique. Mais le recours au calcul quantique pourrait changer la donne. Dans une publication² parue en 2021 dans la revue Nature Physics, des équipes d’IBM ont ainsi pu montrer que l’utilisation d’un processeur quantique pour cette application de classification permettrait d’augmenter la vitesse de calcul des SVM de façon exponentielle par rapport à une approche classique. Cette preuve de concept laisse donc entrevoir la possibilité de résoudre des problèmes de classification avec des données comportant un grand nombre de variables…
Les chercheurs ont par ailleurs testé cet algorithme sur des données réelles de collisions de particules issues de l’accélérateur LHC (Large Hadron Collider) du CERN, à Genève. Dans cet instrument, chaque collision donne naissance à de multiples particules qui entrent en collision à leur tour… provoquant dans ses détecteurs de particules des nuages de points qu’il faut interpréter. « En utilisant un processeur de 27 qubits pour exécuter notre algorithme SVM, nous avons pu identifier les nuages de points qui ont la plus grande probabilité d’avoir donné naissance à un boson de Higgs, décrit Xavier Vasques. Et cela avec la même précision que les méthodes statistiques classiques les plus avancées pour cette application. Il est certain qu’avec la maturité croissante du hardware et l’optimisation des algorithmes quantiques, on va pouvoir aller plus loin à l’avenir ».
Des textes résumés sur une poignée de qubits
Dans un autre registre, celui du traitement automatique du langage, des chercheurs de la JP Morgan Chase Bank et de l’Université du Maryland, aux Etats-Unis, ont publié en 2022 une étude dans la revue Scientific Reports, décrivant comment ils sont parvenus à générer des résumés d’articles de presse à l’aide de trois algorithmes d’optimisation quantiques, une tâche réputée complexe pour un ordinateur classique. En utilisant deux processeurs quantiques (14 et 20 qubits) de la firme Quantinuum, un de leurs algorithmes est parvenu à réduire un texte de vingt phrases à huit phrases. Une preuve de concept importante à nuancer. « La phase de vectorisation, consistant à représenter les phrases de la base de données d’entraînement, en l’occurrence des articles de presse issus de CNN et du Daily Mail, par des vecteurs, a été prise en charge par des algorithmes de deep learning classiques, souligne Olivier Ezratty, consultant et auteur, spécialiste des technologies quantiques. Seule l’étape qui consiste à résumer ces phrases a été assurée par des algorithmes quantiques. En machine learning quantique, cette approche hybride est la norme : la préparation des données est classique, et seule une partie du calcul est quantique. »
Dans une autre étude publiée en 2021 dans Nature computationnal science, des chercheurs d’IBM ont montré que le deep learning pourrait lui aussi bénéficier du calcul quantique, avec à la clé des applications comme l’interprétation des images, de la parole et le traitement du langage naturel. C’est en particulier la phase d’entraînement des réseaux de neurones qui pourrait être accélérée. Rappelons que l’ajustement progressif des poids des neurones est assuré par un algorithme d’optimisation dit de “rétropropagation du gradient”. Mathématiquement, cela revient à calculer une fonction de coût. Or, plus les données d’apprentissage sont de grande dimension (c’est-à-dire qu’elles possèdent un grand nombre de composantes), plus le temps de ce calcul augmente. Il explose même de façon exponentielle ! « Or nous sommes parvenus à montrer³ qu’avec le calcul quantique, ces fonctions de coût convergent vers une solution beaucoup plus rapidement que dans le cas classique, ce qui permettrait de réduire le nombre d’étapes nécessaires à l’apprentissage. Et donc d’utiliser le deep learning sur des données de plus grande dimension », souligne Xavier Vasques.
Mais le ML quantique est encore balbutiant
Ce principe d’accélération pourrait ainsi bénéficier à de nombreuses applications, comme la détection de fraude, la segmentation des clients pour l’attribution de crédits ou encore l’évaluation des stocks. C’est la raison pour laquelle de nombreux acteurs comme QC Ware ou Zapata Computing pour ne citer qu’eux, se sont spécialisés dans la création d’algorithmes d’apprentissage automatique quantique. Ces progrès ne doivent néanmoins pas occulter une réalité : le quantum machine learning n’en est qu’à ses balbutiements, au stade de la recherche fondamentale, avec des résultats encourageants mais qui restent de l’ordre de la preuve de concept. « Le calcul quantique ne donne pas encore d’avantage concret par rapport à des machines classiques, avec les prototypes actuels », insiste Olivier Ezratty. Mais avec l’effervescence qui entoure cette nouvelle approche et l’énergie déployée, nul doute que l’essai devrait bientôt être transformé.
Gautier Cariou
Légende photo : Vue partielle sur le prototype de calculateur quantique de Quantinuum. © Quantinuum.
1. Vojtěch Havlíček, Antonio Córcoles, Kristan Temme et al. Supervised learning with quantum-enhanced feature spaces. Nature, 2019. doi.org
2. Yunchao Liu, Srinivasan Arunachalam & Kristan Temme. A rigorous and robust quantum speed-up in supervised machine learning. Nat. Phys. 2021. doi.org
3. Amira Abbas, David Sutter, Christa Zoufal et al. The power of quantum neural networks. Nat Comput Sci, 2021. doi.org