Pour « l’explicabilité », on parie sur l’IA symbolique
⏱ 5 minL’explicabilité est devenu un objectif central des recherches en intelligence artificielle. Pour justifier les conclusions des réseaux de neurones opaques de l’IA connexionniste, on parie surtout sur l’autre IA, l’intelligence artificielle symbolique. Peut-on compter sur elle ?
L’intelligence artificielle connexionniste a le vent en poupe depuis une quinzaine d’années. Ses réseaux de neurones ont permis de réaliser d’impressionnantes applications reposant sur l’apprentissage profond. Grâce à elle, on sait aujourd’hui reconnaître des petits chats, des visages, des tumeurs et bien d’autres choses, avec une efficacité inégalée. Mais les réseaux de neurones ont un gros défaut : « Certes, l’apprentissage profond est très efficace, du moins dans certains domaines, mais ses réseaux de neurones sont des boîtes noires, explique Jean-Gabriel Ganascia, responsable de l’équipe Acasa (Agents cognitifs et apprentissage symbolique automatique) du LIP6 (Sorbonne Université) et par ailleurs président du Comité d’éthique du CNRS. Ils fournissent des conclusions sans aucune explication. Or, dans de nombreuses applications, on a besoin de justifications, d’argumentation. Pour des raisons pratiques, mais c’est aussi souvent une nécessité, voire une obligation morale. »
Voilà pourquoi l’explicabilité est désormais le grand enjeu de l’intelligence artificielle. Pour atteindre cet objectif, on appelle à la rescousse « l’autre IA », l’intelligence artificielle symbolique. « L’IA symbolique vise à représenter des connaissances complexes et à raisonner, indique Jean-Gabriel Ganascia. Elle est capable de catégoriser par le raisonnement. Et donc d’expliquer ses conclusions. »
Un sommeil apparent
On parle d’un « retour » de l’IA symbolique. Elle serait en hibernation ?« L’IA symbolique ne s’est pas endormie, elle est surtout devenue moins à la mode, estime Marie-Christine Rousset, chercheuse au Laboratoire d’informatique de Grenoble dans l’équipe Slide (ScaLable Information Discovery and Exploitation). Après la grande vague des systèmes experts, dans les années 1980, de nombreuses équipes ont continué à travailler sur des systèmes exploitant des connaissances. Cela a notamment débouché sur ces graphes de connaissances, où les données sont reliées par des propriétés et des concepts issus de ce que l’on appelle une ontologie, qui est un vocabulaire structuré partagé par les experts d’un domaine donné. Les ontologies sont construites à l’aide de langages standards fondés sur la logique, comme RDFS ou OWL. Le concept de « web sémantique » en découle, et avec lui la promesse d’un « web des connaissances ». Un exemple d’application est DBpedia, qui est un effort de transcription de Wikipedia dans ce type de formalisme permettant une exploitation automatisée de son contenu. Les moteurs de recherche, comme celui de Google, font également appel à des outils de cette nature. »
« Parmi les avancées en IA symbolique, ajoute Pierre Marquis, directeur du Cril (Centre de recherche en informatique de Lens), à l’université d’Artois, on peut aussi citer un large ensemble de travaux concernant la modélisation du raisonnement de bon sens via le développement et l’étude de logiques non monotones, la prise en charge de l’imprécis, de l’incertain, mais aussi son automatisation grâce à des solveurs de contraintes, ou encore par le truchement de langages de programmation à forte composante déclarative, comme l’ASP (Answer Set Programming), version moderne de la programmation logique développée en IA dès les années soixante-dix, l’époque du langage Prolog. »
« L’IA symbolique, poursuit le chercheur, c’est aussi bien sûr l’apprentissage symbolique. Avec notamment le développement des arbres de décision dans les années 1980, et presque vingt ans plus tard le concept de « forêt aléatoire » : des ensembles d’arbres de décision, qui votent pour prendre une décision, ce qui conduit à des prédictions moins explicables mais plus robustes au bruit. »
Une cohabitation déjà en marche
Il y aurait donc deux IA cloisonnées, ou bien est-ce plus compliqué ? « Il faut préciser ce que l’on entend par IA symbolique, estime Fabien Gandon, directeur de recherche Inria Sophia-Antipolis Méditerranée et responsable de l’équipe Wimmics (Web-Instrumented Man-Machine Interactions, Communities and Semantics). En général, on parle d’IA symbolique quand les données d’entrée sont de nature symbolique, et que le traitement est lui aussi symbolique. Cela se discute. »
« Les systèmes experts, effectivement, traitent symboliquement des données symboliques, rappelle le chercheur. Mais il existe des approches qui sont partiellement symboliques. Ainsi on peut travailler sur un graphe de connaissances, symbolique, décrivant les relations entre, par exemple, des protéines, des gènes, etc. et chercher à découvrir de nouveaux liens entre ces entités à l’aide d’un réseau de neurones. Les réseaux de neurones travaillent sur des vecteurs. Si on veut les utiliser pour traiter des données symboliques, il existe des méthodes pour transformer ces données symboliques en vecteurs. On sait par exemple transformer un graphe en vecteur, c’est ce que l’on appelle un « plongement » (embedding). Un thème de recherche très actif, notamment pour les graphes de connaissances, les données liées sur le web et le web sémantique. »
L’IA hybride est déjà parmi nous
Il n’y a donc pas deux IA hermétiques l’une à l’autre. En fait, elles se fréquentent depuis quelque temps. L’IA hybride est déjà un peu là. « Le domaine du traitement du langage naturel est sans doute le pionnier le plus évident de ce type d’hybridation, indique Fabien Gandon. Ici, les données à traiter sont des mots. Des symboles, donc. Mais on dispose de méthodes pour représenter un mot par un vecteur. Par exemple en étudiant les fréquences de co-occurrence dans un corpus. On obtient ainsi un vecteur dans un espace comportant autant de dimensions que de mots dans le lexique. Et il existe des techniques pour réduire la dimensionnalité de ces vecteurs. Au-delà de cet exemple simple, on peut maintenant faire de l’apprentissage profond efficacement sur le langage en utilisant des plongements lexicaux, comme le fait, par exemple, l’équipe Inria ALMAnaCH avec son modèle du français CamemBERT. »
On peut hybrider IA symbolique et connexionniste de multiples façons. « Par exemple en transformant en règles ce que l’on apprend grâce à un réseau de neurones, indique Fabien Gandon. Ou inversement en intégrant dès le départ dans un réseau de neurones des règles, donc de la connaissance. Ou même en entraînant un réseau de neurones à imiter un système symbolique reposant sur des règles. Reste à voir dans quel scénarios l’opération serait payante… »
Des pistes multiples pour expliquer
On sait donc faire collaborer IA connexionniste et symbolique. Reste à jouer de cette hybridation pour profiter à la fois de la grande efficacité des réseaux de neurones et de la lisibilité des constructions de l’IA symbolique. « De nombreuses approches sont explorées pour rendre explicables les réseaux de neurones, et plus largement pour développer des systèmes d’IA plus performants, en hybridant IA symbolique et apprentissage, affirme Pierre Marquis. Parmi les courants de recherche dans cette direction on trouve celui de l’IA dite « neurosymbolique« , ou encore celui de l’apprentissage relationnel statistique. »
Mais l’explicabilité du symbolique a ses limites. « S’il est effectivement plus facile, dans un système reposant sur l’IA symbolique, de retrouver le cheminement qui a mené des données à la sortie, signale Fabien Gandon, cela ne signifie pas qu’il fournit toujours une « explication » facilement exploitable : dans certains cas elle peut occuper des centaines de pages… »
Cette hybridation, qui est dans l’air du temps, ne serait donc pas une réconciliation, mais plutôt le constat d’une cohabitation déjà à l’œuvre, mais devenue plus nécessaire. « Pour moi, il n’y a jamais eu d’opposition entre intelligence artificielle symbolique et connexionniste, assure Pierre Marquis. Ces deux approches ne résolvent pas bien les mêmes types de problèmes. D’une manière générale, l’IA cherche à résoudre un grand nombre de problèmes différents et utilise pour cela toutes sortes de méthodes, sans a priori. »
D’ailleurs, malgré ses prouesses, l’approche connexionniste n’est pas une baguette magique. « Il y a des domaines où l’apprentissage connexionniste ne marche pas trop, rappelle Jean-Gabriel Ganascia. Par exemple pour prendre en compte des dossiers médicaux où l’on ne trouve pas seulement des images mais aussi toutes sortes d’informations qualitatives, de nature symbolique. »
Hybrider, juste pour expliquer ? « Il est très logique que l’on songe à faire appel à des solutions symboliques pour résoudre le problème de l’explicabilité des réseaux de neurones, confirme Fabien Gandon, mais il serait bien dommage de perdre de vue que l’intérêt de l’hybridation va bien au-delà. J’ai toujours refusé les guerres de chapelles et défendu l’hybridation, simplement parce qu’elle est très féconde. »