
Certifications, labels, normes… à l’assaut de « l’IA de confiance »
⏱ 5 minCertifications, labels, normes sur les intelligences artificielles ou sur les entreprises qui les développent : en attendant un marquage CE « IA digne de confiance », beaucoup de référentiels d’évaluation ont vu le jour ces dernières années pour aider les uns à valider leurs compétences, les autres à choisir un partenaire en connaissance de cause. Faisons le point.
L’intelligence artificielle (IA), et plus généralement la science des données, porte autant d’espoirs qu’elle suscite de craintes. À juste titre. Le futur règlement européen sur l’IA fixera des garde-fous, notamment pour toutes les IA dites « à haut risque » comme celles des véhicules autonomes, des dispositifs médicaux ou d’identification biométrique à distance. Chaque État membre choisira des organismes notifiés pour certifier ces produits avant leur mise sur le marché.
Un corpus de normes d’ici 2025
Pour ce type de produits, d’ici fin octobre 2024, plusieurs normes sur l’IA devraient voir le jour, le but étant qu’elles soient opérationnelles en 2025 quand ce règlement européen entrera en vigueur. La Commission européenne vient de lancer une requête de normalisation dans ce sens, comme c’est déjà le cas pour les domaines stratégiques. Elle ne sera officiellement publiée que cet automne mais on sait déjà qu’elle comportera dix points clés qui concernent tant l’évaluation des produits que des entreprises qui les développent. L’Afnor est l’organisme qui défendra la position des acteurs français. Elle mettra sur pied en septembre prochain une concertation via des ateliers thématiques pour identifier rapidement les éléments stratégiques à proposer et alimenter les travaux de normalisation en ligne avec la vision des entreprises hexagonales sur les différents sujets, dont l’IA de confiance.
« C’est une étape clé pour laquelle nous tenons à mobiliser toutes les entreprises de l’écosystème français en IA, pour qu’elles contribuent à ce que ces normes correspondent à leurs intérêts et qu’elles puissent préparer leurs produits et services en conséquence, annonce Caroline de Condé, responsable du pôle normalisation numérique de l’Afnor. C’est leur futur accès au marché qui est en jeu, en Europe et potentiellement dans le monde. » D’autant plus que cette norme pourrait devenir un marquage CE « IA digne de confiance » comme l’a récemment évoqué Thierry Breton, commissaire européen chargé notamment du numérique.
Autoévaluation vs évaluation par un tiers
En attendant, il est d’ores et déjà possible en France de faire évaluer et certifier les performances d’une IA par le Laboratoire national de métrologie et d’essais (LNE), organisme référence en la matière avec plus de mille certifications IA à son actif (voir notre article). C’est un bon moyen pour les entreprises qui développent des solutions d’orienter leurs recherches pour améliorer ces produits et de se positionner par rapport à la concurrence. Et cela restera le cas, en particulier pour toutes les IA qui ne sont pas à haut risque et ne nécessitent pas forcément un marquage CE, comme les chatbots (agents conversationnels en ligne).
En outre, afin de se différencier, beaucoup d’entreprises aimeraient apporter des garanties quant à leurs bonnes pratiques et leurs produits. Un certain nombre de référentiels ont déjà vu le jour pour labelliser tel ou tel aspect. « Les entreprises qui auront fait cet effort de labellisation seront assurément mieux préparées pour décrocher la norme, précise Caroline de Condé. Il est néanmoins probable que certains de ces labels perdront de leur intérêt à terme sauf s’ils concernent des angles non-couverts par la réglementation. » D’où l’importance de bien les cerner.
« Or, choisir un label ou une certification est engageant », reconnaît Marie Couvé d’Axionable, un cabinet de conseil en IA qui, fort de son expérience, accompagne les entreprises pour développer des services et des solutions durables et responsables. D’abord impliquée dans la certification IA du LNE (certification de processus de conception d’IA, d’évaluation ainsi que de maintien en conditions opérationnelles, et non des produits en eux-mêmes), Marie Couvé a ensuite piloté l’obtention du label « IA responsable et de confiance » de Labelia.
« Pour nos propres besoins, nous avons analysé les différentes solutions en lice et nous adaptons notre accompagnement selon le contexte et les besoins de l’entreprise », explique-t-elle. Elle distingue les démarches d’autoévaluation telles que les chartes (comme celle d’Arborus et Orange sur l’IA inclusive), les guides de bonnes pratiques (comme celui de l’Afnor sur l’impact environnemental des services numériques, ou celui de la Cnil sur la conformité à la RGPD) ou encore les plateformes (comme ADEL de GoodAlgo) permettant de mener son propre audit éthique… des labels où l’audit est assuré par un tiers comme Labelia ou la certification IA du LNE. Ces derniers sont évidemment bien plus impactants. Open source, coconstruits avec de grands acteurs, ils sont aussi mis à jour régulièrement.
De l’autre côté de la scène, des entreprises sont à la recherche d’un partenaire de confiance pour valoriser leurs données, voire créer une IA. C’est bien sûr le cas pour tous les partenariats mais cela s’avère d’autant plus difficile dans le domaine de l’IA, secteur très novateur. Les partenaires en question sont d’ailleurs souvent des startups que cette situation pénalise tout autant. « Elles sont à la peine pour vendre leurs solutions, rapporte Françoise Soulié Fogelman, conseillère scientifique du Hub France IA dont le but est de fédérer les acteurs français du secteur et d’accélérer l’adoption des IA par les entreprises et les institutions. Ces startups nous sollicitent depuis un certain temps pour bénéficier d’une évaluation de leurs compétences. Elles en ont également besoin pour convaincre des investisseurs de participer à leurs levées de fonds. »
Une initiative française qui vise l’international
Avec Numeum (syndicat des entreprises du numérique), le Hub France IA a commencé à étudier la question en septembre 2021 et a lancé un appel à projets pour créer un label d’évaluation des entreprises avec l’ambition de mettre en confiance clients et fournisseurs d’IA. Le LNE l’a remporté et a d’abord fait un état des lieux qui a révélé 24 initiatives de labels, certifications et standards existants ou en cours de préparation dans le monde. Outre ceux déjà cités, comme le résume Françoise Soulié Fogelman, ils ont par exemple identifié des référentiels sur la maturité digitale des entreprises : « Ce sont des questionnaires sur les données et l’évaluation des capacités de l’entreprise à s’engager dans l’IA comme ceux de The Data Warehousing Institute (un institut d’enseignement et de recherche sur les données, ndlr) ou l’AI Readiness index du programme national IA de Singapour utilisé par le Global Partnership on Artificial Intelligence (GPAI) (créé en juin 2020, voir plus loin, ndlr). »
« Pour notre part, avec Numeum et le LNE, nous avons mis sur pied un questionnaire, qui sera disponible en ligne, pour permettre aux startups de s’auto-évaluer dans un premier temps puis de se faire auditer pour obtenir le label, explique-t-elle. Outre l’éthique, ce questionnaire évalue la capacité opérationnelle d’une entreprise à déployer un système IA “dans les règles de l’art”. » Il analyse six axes de maturité : la maturité organisationnelle et de gouvernance de l’entreprise, la maturité éthique, la maturité commerciale (pour accompagner le client), la maturité « de bout en bout » (de l’ingénierie des données jusqu’au transfert opérationnel chez le client), la maturité des données et celle des infrastructures. Quant au label, il serait délivré par un organisme qui reste à choisir, l’échéance visée étant janvier 2023.
Parallèlement, l’initiative internationale GPAI avance. Ce Partenariat mondial sur l’intelligence artificielle (PMIA), en version française, se définit comme « une initiative multipartite visant à combler le fossé entre la théorie et la pratique sur l’IA en soutenant la recherche de pointe et les activités appliquées sur les priorités liées à l’IA. » Lancé en 2020 avec quinze membres, le GPAI est l’aboutissement d’une idée développée au sein du G7. Il implique aujourd’hui l’Union européenne et 24 nations, notamment les États-Unis et le Japon. Le GPAI est en train de créer une plateforme pour aider les PME à identifier des projets potentiels à travers des cas d’usages ainsi qu’à trouver des partenaires IA. « Nous avons proposé que les startups soient autorisées à présenter leurs solutions sur la base du questionnaire élaboré avec Numeum et LNE, précise Françoise Soulié Fogelman. Cela permettra aux 25 pays du GPAI de partager leurs expériences et donnera une audience internationale au label. » Dans un premier temps, l’utilisation du questionnaire sera testée dans cinq pays : Allemagne, Singapour, Japon, Pologne, France. La plateforme du GPAI pourrait être opérationnelle début 2023.