logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
10 février 2022
A la Une, DAP, News, Point de vue
#algorithme, #biais

Jean-Michel Loubes : « Les algorithmes pourraient rendre la société plus équitable »

⏱ 4 min

Jean-Michel Loubes, professeur et vice-président de l’Université Toulouse III-Paul Sabatier, directeur scientifique de l’ANITI (Artificial and Natural Intelligence Toulouse Institute), un des quatre instituts interdisciplinaires français d’intelligence artificielle (3IA), et responsable de la chaire « Fiabilité et robustesse des méthodes d’apprentissage automatique », cherche à comprendre le rôle des biais dans les algorithmes pour proposer des méthodes plus robustes, certifiables et explicables.

 

Data Analytics Post : Qu’est-ce qu’un biais ?

Jean-Michel Loubes : Un biais désigne une information qui ne devrait pas jouer un rôle dans une prédiction. La notion de biais dépend donc du cadre dans lequel on l’évoque et ses définitions ne sont pas compatibles entre elles. Le biais du législateur est une discrimination contre laquelle il faut lutter comme les biais de genre, de race, de revenus, d’âge, etc. bien connus dans les algorithmes d’apprentissage automatique (ou machine learning) de recrutement ou d’accord de prêts bancaires. Ces algorithmes, fondés sur les données que nous leur fournissons, ne révèlent rien d’autre que nos biais de société. Mais le biais est aussi ce qui permet à ces mêmes algorithmes de prédire car leurs décisions sont basées sur le déséquilibre, la disparité entre les données. Ils apprennent des biais. Si les données n’étaient pas biaisées, parfaitement équilibrées, comme la probabilité de piles et faces d’une pièce de monnaie, l’algorithme ne pourrait tirer aucune conclusion. Le machine learning est basé sur le biais : un algorithme d’apprentissage ne fait rien d’autre que de chercher des différences entre les données pour en tirer des corrélations, soit en reproduisant celles qu’on lui impose (apprentissage supervisé) soit en les trouvant lui-même dans la base de données (apprentissage non supervisé). Il transforme ces corrélations en causalité. Et cela donne d’excellents résultats, par exemple pour détecter des tumeurs cancéreuses grâce aux différences, perceptibles par l’homme ou non, entre cellules saines et malades.

 

Data Analytics Post : Les biais sont donc capables du meilleur comme du pire ?

Jean-Michel Loubes : Oui ! Comprendre les biais, les définir, les quantifier permet d’améliorer l’équité des algorithmes en les rendant moins discriminants au sens légal, mais aussi d’accroître leur robustesse pour qu’ils restent performants même dans des conditions moins usuelles, comme reconnaître un chat atypique. Et si l’on parvient à comprendre les décisions prises sur la base de biais inconnus, cela pourrait également permettre d’augmenter l’explicabilité des algorithmes. Mais la machinerie même de l’apprentissage, que l’on qualifie souvent de boîte noire quand il s’agit de réseaux de neurones profonds dont les décisions reposent sur l’ajustement de dizaines de milliers de paramètres, n’est par essence pas contrôlable. Ces problèmes sont donc par nature très complexes.

 

Data Analytics Post : Vos recherches portent sur la détection des biais et leur correction. Où en êtes-vous ?

Jean-Michel Loubes : Les outils que nous avons développés dans le cadre de l’ANITI, avec des chercheurs en droit, en sémantique et en informatique, sont désormais performants pour détecter et contrôler les biais légaux, ceux qui sont clairement identifiés et proscrits dans l’Union européenne, dans la RGPD et plus récemment dans le projet Artificial Intelligence Act, pour tous les algorithmes de finance, d’accès à l’éducation, etc. Dans tous ces domaines, la liste de variables à repérer et quantifier est connue. Nous détectons également les corrélations entre variables qui produisent elles aussi ces mêmes biais. Pour corriger ces biais, nous changeons les règles de comparaison, ce qui permet de faire remonter les minorités dans la décision. Cette forme de discrimination positive a néanmoins un coût en termes de performances des algorithmes.

 

Data Analytics Post : Qu’en est-il des biais inconnus ?

Jean-Michel Loubes : Nous y travaillons d’une part à l’ANITI, d’autre part en collaboration avec les autres instituts 3IA et dans le cadre du programme national Confiance.ai. Un biais est inconnu soit parce que nous n’avons pas accès aux données comme c’est le cas en France pour les données ethniques, soit parce que la variable est inconnue. Or, découvrir une variable inconnue est particulièrement difficile. Il s’agit d’abord de détecter des anomalies dans le comportement de l’algorithme, à l’instar du fond neigeux qui fait classer des photos de chiens Husky en loups à un algorithme de tri de photos de chiens et loups. Ensuite, il faut être capable d’en tirer une interprétation.

 

Data Analytics Post : Les algorithmes seront-ils toujours biaisés ?

Jean-Michel Loubes : Très probablement… Les biais sont dans la nature humaine, dans toutes nos décisions. Nous sommes même heureux dans nos biais quand nous refusons les choix proposés par notre moteur de recommandation musicale lorsqu’ils sont hors de notre cible habituelle. En revanche, la machine peut nous protéger des biais légaux même si elle ne sera, à proprement parler, jamais équitable. D’ailleurs l’équité n’est pas une notion juridique mais philosophique, la société n’est pas juste, on est toujours en minorité de quelqu’un ! Et je ne pense pas non plus qu’une machine puisse être morale et juste. On s’est mis à interroger la morale, l’éthique des décisions de la machine et ses biais il y a une dizaine d’années quand on a voulu confier certaines décisions à des algorithmes, en pensant que la vérité était forcément dans la masse de données du big data qu’on était désormais capables d’analyser. La confiance aveugle dans les algorithmes a alors cédé la place à une peur, tout aussi injustifiée, du grand remplacement de l’homme par des machines. Il faut remettre l’algorithme à sa place, celle d’un oracle qu’il faut interpréter et non d’un Dieu numérique qui dit la vérité.

 

Data Analytics Post : A travers les biais, ce dialogue entre l’homme et la machine suscite donc de nouvelles réflexions…

Jean-Michel Loubes : Oui. On est plus exigeant vis-à-vis des décisions d’une machine que de celles d’un humain. Or, la machine, notamment en exacerbant les biais, révèle des problématiques, nous renvoie sa vision de la société avec ses travers. Ainsi, en cherchant à rendre les machines plus équitables, on devrait pouvoir avoir une nouvelle vision des biais de la société, et en corrigeant l’algorithme, travailler à rendre notre monde plus équitable.

Propos recueillis par Isabelle Bellin

Pour en savoir plus :

Philippe Besse et al. A Survey of Bias in Machine Learning Through the Prism of Statistical Parity, The American statistician, août 2021. org

Céline Castets-Renard et al. Encadrement des risques techniques et juridiques des activités de police prédictive. Ministère de l’Intérieur, 2019. com

Philippe Besse et al. Can Everyday AI be Ethical? Machine Learning Algorithm Fairness, Statistiques et société, 2019. com

Termes liés :
  • Intelligence artificielle (IA)
  • Machine learning
  • Biais
  • Algorithme
  • Données
  • Apprentissage supervisé
  • Apprentissage non supervisé
  • Réseau de neurones profonds
  • Big Data
Tags: #algorithme, #biais
Share:
Posts you'd might like
Francis Bach :
« Pour tenir les promesses de l’IA, il faut des modèles plus robustes… et comprendre ce qui s’y passe »
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • En attendant l’ordinateur quantique universel…
  • L’IA teste ses premiers algorithmes quantiques
  • Les promesses de l’IA quantique
  • La recherche à l’assaut des deepfakes vocaux
  • Recyclage : nos déchets sous l’œil de l’IA

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU