logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
12 juillet 2022
A la Une, DAP, Innovation en action, News
#Axionable, #certification B Corp, #décarbonation, #géocodage des données, #Greentech Innovation, #Gwendal Bihan, #IA de confiance, #impact social, #Labelia, #LNE, #Maxime Havez, #performance énergétique, #résilience climatique

Axionable, conseil en data et IA responsable

⏱ 4 min

Première à décrocher le label « IA responsable et de confiance » de Labelia en janvier 2022, Axionable avait déjà été la première entreprise certifiée IA par le Laboratoire National de Métrologie et d’Essais (LNE). Depuis plus de deux ans, ce jeune cabinet de conseil en IA assiste les entreprises pour développer des services et des solutions d’intelligence artificielle s’inscrivant dans une démarche durable et responsable.

« En 2019 nous avons fait le pari de soutenir le développement d’une intelligence artificielle à finalité durable, autrement dit fiable, robuste, explicable, inclusive, éthique, moins consommatrice et respectueuse de l’environnement, raconte Gwendal Bihan, président d’Axionable. On était déjà une trentaine de salariés après trois ans d’activité de conseil en data et IA, selon un positionnement tout à fait conventionnel. On avait du cash… On a misé sur ce nouveau positionnement plus en accord avec nos valeurs et à la croisée des besoins des entreprises autour de l’utilisation de la data mais aussi de leurs impératifs tant de responsabilité sociale et de résilience climatique que de décarbonation de leurs activités. »

Encore fallait-il garantir un tel positionnement. Le cabinet de conseil a défini une politique d’exclusion sectorielle qui vise les industries du tabac, de l’alcool et de certaines énergies fossiles. Il a réorienté sa propre R&D en IA, notamment vers des problématiques climatiques, en créant par exemple un outil pour permettre aux acteurs concernés par les évolutions hydrologiques et hydrauliques liées au changement climatique, de prédire et scénariser les impacts des risques. Cette solution a été labellisée Greentech Innovation par le ministère de la Transition écologique. Axionable a aussi fait valider son évolution d’activité avec la certification B Corp, une reconnaissance pour les entreprises à but lucratif soucieuses de leur impact. 150 entreprises françaises étaient ainsi certifiées en avril 2021, et plus de 4000 dans le monde.

Soutenir l’IA de confiance

Un choix ambitieux qui s’est révélé porteur, comme en témoigne la croissance de l’entreprise qui compte désormais une cinquantaine de collaborateurs répartis entre Paris et Montréal, ainsi que la notoriété et la variété de ses clients parmi lesquels on trouve Orano, Arkéa, Allianz, Bouygues, Colas, Saur ou la Croix Rouge française. Parmi ses orientations récentes : le développement d’IA de confiance, une nouvelle offre de service que l’entreprise propose en s’appuyant sur sa propre expérience et les outils et méthodes qu’elle a développés et consolidés. Axionable est pionnière pour la certification IA du LNE et la labélisation « IA responsable et de confiance », niveau avancé, de Labelia.

« Nous faisons d’abord un audit de maturité pour identifier les forces et les points faibles des entreprises candidates, selon leurs objectifs, détaille Gwendal Bihan. En fonction de leur domaine d’activité et de leurs besoins, nous évaluons la conformité de leurs processus ou de leurs IA par rapport aux différents référentiels : ceux de la certification du LNE, de Labelia, ou encore de secteurs particuliers comme l’Autorité de contrôle prudentiel et de résolution (ACPR) quand il s’agit de banques et d’assurances, ou de l’Autorité de sureté nucléaire (ASN) pour les entreprises du nucléaire. Cela met en lumière des lacunes mais aussi des opportunités que nous aidons à combler ou à saisir. »

La traçabilité souvent à revoir

En général, cet audit révèle surtout l’ampleur des efforts nécessaires, preuve à la fois de l’exigence de ces référentiels mais aussi de l’étendue des progrès que les entreprises doivent encore faire. « Par exemple, par rapport au référentiel du LNE (qui certifie les processus de conception, développement, évaluation et supervision des IA en prévision du futur règlement européen, ndlr. Lire notre article : Le LNE, pionner de la certification IA), il reste en général entre un tiers et la moitié du chemin à faire, fait remarquer Gwendal Bihan. On trouve notamment systématiquement des lacunes en matière de traçabilité des IA, de la capacité à reproduire exactement le cheminement et le traitement des données en cas d’incident. C’est un sujet très complexe qui nécessite une parfaite connaissance du parcours des données, des paramètres du modèle à tout moment, des serveurs utilisés, des versions des logiciels, etc. Or ces phases de documentation sont presque en opposition avec l’innovation… C’est peu dire que les développeurs n’en raffolent pas ! Pourtant, on a tous à y gagner pour saisir les opportunités que peut apporter l’IA en gérant les risques au mieux. » Axionable propose également des formations sur l’IA de confiance. Des formations générales pour tout le personnel ou très ciblées pour les data scientists.

« Outre ce positionnement, notre spécificité, argumente Gwendal Bihan, est non seulement d’accompagner les entreprises pour utiliser leurs données ou concevoir des IA mais aussi de les aider à accélérer ce développement en leur faisant bénéficier de nos acquis, des modèles que nous avons développés. » Exemple avec le géocodage des données. Cette étape préliminaire à bon nombre de projets suppose de réunir des données de différentes sources : des données environnementales comme les projections climatiques du Giec ou du service Drias de Météo-France, des données d’opérateurs publics comme le Bureau de recherches géologiques et minières (BRGM) sur le débit des fleuves, des données de biodiversité, etc. Or elles sont disponibles dans différents formats, avec différents maillages et sont donc inexploitables en l’état. « Nous avons développé notre propre géocodeur pour récupérer ces données et les harmoniser, explique-t-il. Nous adaptons ces solutions selon le contexte de nos clients en y ajoutant leurs propres données. Cela permet de gagner du temps. »

De l’empreinte carbone à l’impact social

Axionable déploie sa méthode dans quatre directions : la décarbonation, la résilience climatique, la performance énergétique et l’impact social. Parmi les projets en cours : des calculs d’empreinte carbone de chantiers avec Colas, ceux d’une campagne publicitaire avec L’Union de la Publicité Extérieure (UPE), l’échelonnement des travaux de modernisation des équipements industriels pour assurer la résilience des centrales nucléaires face au réchauffement climatique avec Orano, l’amélioration de la performance énergétique d’usines de traitement de l’eau avec Saur, ou encore l’analyse des flux et des besoins des réfugiés ukrainiens avec la Croix Rouge. De fait, les sujets ne manquent pas.

Isabelle Bellin

 

Témoignage

Maxime Havez, responsable du Data office du Crédit Mutuel Arkéa :

« Nous voulons garantir un usage responsable et transparent des données de nos clients »

« Nous avons fait le choix de nous orienter autant que possible vers l’IA de confiance. Cela suppose une sensibilité particulière tant en termes d’éthique, d’explicabilité, de transparence ou de biais de nos algorithmes que de réduction de leurs impacts sur l’environnement, et ce sur l’ensemble de la chaîne de valeur, du data scientist à l’utilisateur final en passant par les développeurs. Nous avons sollicité Axionable dans le cadre de trois de nos IA. Avec eux, nous avons mené une revue complète de ces algorithmes, des phases de conception aux phases de déploiement et de suivi. Nous avons pu profiter de leur expertise, notamment liée à leur certification LNE. »

Termes liés :
  • Intelligence artificielle
  • Données
  • Biais
Tags: #Axionable, #certification B Corp, #décarbonation, #géocodage des données, #Greentech Innovation, #Gwendal Bihan, #IA de confiance, #impact social, #Labelia, #LNE, #Maxime Havez, #performance énergétique, #résilience climatique
Share:
Posts you'd might like
Certifications, labels, normes… à l’assaut de « l’IA de confiance »
Robothumanoïde
Le Laboratoire national de métrologie et d’essais, pionnier de la certification IA
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • L’apprentissage profond permet de lire dans notre cerveau… ce qu’il voit
  • Cette IA hybride apprend à jouer au sudoku…
    et à concevoir des protéines
  • Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
  • Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes
  • Faut-il créer un GIEC de l’intelligence artificielle ?
    Entretien avec Raja Chatila

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU