Les débuts de l’aventure française de l’intelligence artificielle
⏱ 5 minÀ l’heure où l’intelligence artificielle (IA) est à l’agenda politique français et fait la une de nombreux médias, nous vous proposons de remonter le fil de l’histoire avec un des pionniers de la discipline en France, Robert Azencott. Il nous raconte comment, dès 1986, il a créé un laboratoire de recherche précurseur, le DIAM, où ont été formés bon nombre de chercheurs français renommés. Il est également à l’origine du master MVA de l’ENS Paris Saclay, dont la réputation n’est plus à faire. Entretien.
Vous avez été parmi les premiers à miser sur l’intelligence artificielle en France, dans les années 1980. Dans quel contexte ?
Robert Azencott : C’était aux Houches, en 1983. J’assistais à un séminaire IBM sur la physique statistique. J’étais alors professeur à l’ENS Ulm. Le séminaire était organisé par Marc Mézard et d’autres physiciens remarquables comme David Sherrington et Scott Kirkpatrick, les maîtres à l’époque du « recuit simulé », une méthode stochastique d’optimisation liée aux réseaux de particules en interaction. J’ai été interpelé par plusieurs présentations sur les mémoires distribuées sur des réseaux de neurones artificiels, un concept que venait d’explorer John Hopfield (prix Nobel de physique). Ma « conversion » aux réseaux de neurones artificiels et à l’analyse automatique d’images s’est confirmée un an plus tard, quand j’ai lu un articleCet Article de D. & S. Geman portait sur les champs aléatoires de Markov et l’analyse d’images numériques. particulièrement percutant de Donald et Stuart Geman sur la vision artificielle. J’avais enseigné plusieurs années aux Etats-Unis et j’étais très impressionné par le rythme de l’innovation outre-Atlantique. Après la flambée (et la retombée) des « systèmes experts » dans les années 1965-75, les réseaux de neurones artificiels avaient le vent en poupe là-bas. L’agence du département de la défense (la DARPA) investissait massivement dans ces recherches destinées à imiter l’intelligence humaine. En France, on en parlait bien sûr, mais très peu chez les mathématiciens. J’ai été rapidement convaincu que l’IA ouvrait des domaines de recherche passionnants pour les mathématiques appliquées.
Dans l’Hexagone, ces sujets intéressaient avant tout les physiciens ?
R.A. : À cette époque, ce sont effectivement des physiciens comme Marc Mézard et ses collègues de l’ENS Ulm, Christian Jutten et Jeanny Hérault à Grenoble, ou des neurobiologistes comme Jean-Pierre Changeux au Collège de France, qui exploraient le potentiel des réseaux neuronaux, réels ou artificiels. En 1984, les mathématiciens français ne s’intéressaient à l’IA que de très loin, en partie car prouver de beaux théorèmes dans ces domaines applicatifs semblait une gageure. Quant aux équipes d’informatique appliqué comme celles de l’INRIA autour d’Olivier Faugeras ou de Telecom Paris autour d’Henri Maitre ; elles étaient certes remarquablement actives en vision artificielle et en analyse automatique d’images, mais avec des techniques algorithmiques très cartésiennes, fort loin du pragmatisme empirique de l’apprentissage automatique. Les informaticiens français en vision artificielle, contraints à la fiabilité et à la robustesse par leurs collaborations industrielles, étaient initialement peu enclins à l’exploration de techniques bien moins prévisibles, comme les réseaux de neurones. Leur intérêt pour ces approches est venu plus tard, dans les années 1990-95.
Alors que vous, vous n’hésitez pas à sauter le pas et vous convertir à l’intelligence artificielle pour mener vos recherches en analyse d’images…
R.A. : Je me suis lancé en 1984-85 dans ce domaine fascinant, d’abord en lisant voracement quelques 6000 pages de publications scientifiques américaines sur la vision artificielle. J’étais passionné par la possibilité de comprendre comment fonctionne l’intelligence humaine, l’apprentissage de la parole et de la vision, la représentation mentale de millions d’images, la capacité d’apprendre à lire, écrire, se déplacer… Convaincu et décidé à démarrer une activité de recherche intensive, j’ai créé en 1986 un nouveau laboratoire : le DIAM pour Distributed Intelligence And Mathematics, un acronyme anglais vite rebaptisé Département d’Intelligence Artificielle et Mathématiques. Ce n’était pas, à proprement parler, un département ; j’y étais le seul enseignant, entouré d’une douzaine de doctorants. Avec une cible majeure (et inatteignable !) : comprendre comment l’intelligence émerge quand elle est « distribuée » sur des millions d’unités décisionnelles qui communiquent entre elles. Concrètement, mon but était d’explorer deux domaines de recherche mathématique, intimement liés : l’analyse d’images numériques par champs aléatoires de Markov et l’apprentissage automatique par réseaux de neurones artificiels stochastiques (Botzmann Machines).
C’est dans le creuset fertile de ce laboratoire que de nombreux chercheurs français ont démarré leurs recherches ?
R.A. : J’ai pu recruter une brillante équipe de doctorants en mathématiques appliquées. La plupart sont aujourd’hui aux responsabilités dans des laboratoires universitaires ou industriels, en France et à l’étranger. Parmi eux, Laurent Younes, Olivier Catoni, Alain Trouvé, Jérôme Lacaille, Isabelle Gaudron, Mathilde Mougeot, Oussama Cheriff, François Coldefy, Jia Ping Wang, Jen Feng Yao, Michel Lévy, Bernard Chalmond, Christine Graffigne, Charles-Albert Lehalle, Bruno Durand, Pierre Herbin, Eric Lhomer et bien d’autres. Le DIAM a été une aventure de recherche de 10 ans, jusqu’au décès brutal de ma femme en 1996. Nous avons développé et appliqué des techniques innovantes d’IA dans de nombreux contextes industriels avec EDF, le CNES, la SNECMA, ARIANE Espace, etc. Les avancées des chercheurs duDIAM ont concerné le recuit simulé, l’analyse d’images par chaines de Markov, les machines de Boltzmann synchrones, la reconnaissance de formes et de sons, etc. En 1993, alors que je quittais Paris XI pour rejoindre l’ENS Cachan, le DIAM a intégré le CMLA (Centre de mathématiques et leurs applications), sous l’impulsion de Jean-Michel Ghidaglia.
Dans ce nouveau cadre, vous lancez, en 1995, le master MVA (Mathématiques Vision Apprentissage), qui reste aujourd’hui encore une référence en matière d’intelligence artificielle. Une autre première ?
R.A. : En tout cas une première en région parisienne (il y avait sans doute des formations universitaires de ce type à Grenoble). J’ai pu réunir d’excellents experts grâce aux collaborations de l’ENS (Ulm et Cachan), de l’Ecole Polytechnique, de Telecom Paris, de l’université Paris XI, de l’INRIA… Sans surprise, les meilleurs étudiants ont rapidement afflué. Et grâce aux remarquables mathématiciens qui ont rejoint le CMLA comme Yves Meyer, Jean-Michel Morel, Lionel Moisan, Alain Trouvé, Nicolas Vayatis, le CMLA est devenu un puissant centre de recherches et d’innovations en vision artificielle et apprentissage automatique (machine learning).
Quels étaient vos moyens de calcul à l’époque ?
R.A. : C’est un des points clés que j’ai très vite identifié. Dès 1988, en collaboration avec d’autres labos, nous avons pu faire financer par le ministère de la défense l’achat d’un calculateur massivement parallèle, la Connection Machine (64000 processeurs), la première et la seule en France à l’époque. D’autres ont suivi comme la MASPAR (4096 processeurs). C’est grâce à ces puissants moyens de calcul que nous avons pu implémenter des rétines artificielles à base de machines de Botzmann synchrones avec Jérôme Lacaille, Laurent Younes, Oussama Cherif. Cela a aussi permis des collaborations passionnantes avec des spécialistes des équipements dédiés au calcul parallèle, comme Patrick Garda ou Eric Bellhaire. Aujourd’hui, la situation est radicalement différente. Via le Cloud Computing ou les calculateurs multicoeurs, les chercheurs ont accès à des moyens de calcul suffisants pour faire du machine learning sur de gros réseaux de neurones.
Pourquoi la France n’a-t-elle pas traduit ces avancées en réussites industrielles ?
R.A. : Le transfert de l’innovation scientifique vers l’industrie a toujours été plus rapide aux Etats-Unis qu’en France. Avec quelques anciens collaborateurs du DIAM, j’ai créé en 1999-2000 deux startups : Miriad Technologies pour la surveillance en ligne de la qualité de productions industrielles et Sudimage pour l’analyse d’images. Nous avons eu de nombreux clients prestigieux très vite (Airbus, Renault, le Cnes, la Snecma, le CEA, Saint Gobain, Avantis, SAT, Air Liquide, etc.). J’ai déposé cinq brevets en IA, ce qui a facilité un premier tour de capitalisation ; mais faute de moyens suffisants, ces startups n’ont pas fait le poids face à des compagnies américaines à croissance hyper rapide. Google par exemple avait plusieurs centaines de chercheurs à plein régime après deux ans d’existence … alors que j’hypothéquais ma maison pour lancer Miriad Technologies et Sudimage. Mais c’est une autre histoire…
Que faites-vous aujourd’hui ?
R.A. : Je suis professeur à Houston, où j’ai rejoint ma femme, une pianiste américaine. Je focalise mes recherches en mathématiques appliquées aux images biomédicales 3D, à l’émergence d’évènements rares en évolution génétique, aux interactions géniques en cancérologie, aux techniques de deep learning, etc. Les bases de données biomédicales disponibles aux USA croissent à grande vitesse. La France est en retard dans la génération et l’accessibilité de ce type de données. La clé reste une question de financements, de mise en place rapide de structures informatiques évolutives et à forte capacité, maintenues par des informaticiens jeunes et spécialisés en technologies de l’information.
Propos recueillis par Isabelle Bellin