logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
7 décembre 2017
A la Une, DAP, Débats autour des data, Dossiers thématiques, News

Les algorithmes vont-ils finir par nous gouverner ?

⏱ 3 min

Entretien avec Antoinette Rouvroy, chercheuse du Fond national de la recherche scientifique Belge, au Centre de recherche en information, droit et société (CRIDS) de l’Université de Namur.

 

DAP : Les algorithmes commenceraient doucement mais sûrement à gouverner nos conduites, ce que vous nommez la « gouvernementalité algorithmique ». Quels exemples concrets vous font craindre cette évolution ?

Antoinette Rouvroy : L’exemple typique, ce sont ces recommandations d’achat que nous font en permanence les sites de vente en ligne tel Amazon.  En anticipant systématiquement nos comportements futurs, ces algorithmes de machine learning par pattern recognition court-circuitent tout simplement nos désirs. On entre ainsi dans une sorte d’économie de la « prépulsion » qui shunte tous les processus de transformation de la pulsion en un désir véritable et réfléchi. Objectif : nous  pousser à l’achat compulsif. Amazon a même  breveté un logiciel qui lui permettrait d’envoyer les colis vers ses clients… avant même qu’ils aient cliqué sur le bouton « acheter » ! Et de l’aveu même du dirigeant de Google, Eric Schmidt, il va devenir très difficile pour les gens de voir ou de consommer quelque chose qui n’a pas été ajusté pour eux…  Bref, nous sommes de plus en plus enfermés dans une sorte de bulle personnalisée empêchant toute confrontation à l’imprévu et aux autres. Au final, l’enjeu aujourd’hui semble moins la protection de nos données personnelles que notre disparition en tant que personne !

 

DAP : Mais en se basant sur des masses de données toujours plus grandes, ces recommandations algorithmiques ne collent-elles pas de plus en plus à nos vrais désirs et besoins ?

A.R. : A première vue, oui. Ces traitements algorithmiques peuvent sembler plus objectifs, rationnels et proches de la réalité. Mais même avec un nombre de données gigantesques, on n’aura jamais qu’une représentation de la réalité, pas la réalité elle-même car tout n’est pas numérisable. Par ailleurs, plus les masses de données disponibles augmentent, plus le risque de corrélations absurdes croit. Pour certains, cette nouvelle gouvernementalité aurait aussi comme un parfum de liberté car elle ne met en jeu aucune représentation humaine partiale et subjective, susceptible de nous enfermer dans des catégories potentiellement biaisées. Mais attention, n’oublions pas que les données elles-mêmes ne sont pas neutres : elles émanent de notre monde social qui est bien loin d’être exempt de préjugés !

 

DAP : Ceci dit, rien ne nous force à  suivre ce que recommandent des algorithmes…

A.R. : En effet. Mais au quotidien, c’est très difficile : notre capacité de résistance s’émousse au fur et à mesure qu’on s’en sert. Et cela devient encore plus ardu lorsque les enjeux associés sont importants. Prenons l’exemple d’algorithmes tentant de prédire le risque de récidive de détenus. Il y a fort à parier que bien peu de juges oseront libérer un détenu alors que l’algorithme recommande de le garder en détention. Car aujourd’hui, les décideurs préfèrent faire assumer une erreur à des algorithmes… Et cela vaut aussi pour les politiques qui se réfugient de plus en plus derrière des data pour prendre des décisions, plutôt que sur la base de leurs propres valeurs. Le programme électoral d’Emmanuel Macron s’est par exemple basé sur l’analyse de milliers de questionnaires par les algorithmes de Proxem, une société spécialisée dans le big data et le traitement automatisé du langage…

 

DAP : Finalement, que préconisez-vous ?

A.R. : Prenons déjà  conscience de ces dangers, et ne nous laissons pas enfermer dans des comportements numériques routiniers. Et plutôt que de suivre toujours plus aveuglément ces recommandations algorithmiques, restons curieux par nous mêmes tout en reprenant  le temps de la réflexion avant d’agir. Quant à vouloir rendre transparent le fonctionnement des algorithmes, c’est à mon avis illusoire… Comment l’esprit humain, très linéaire, pourrait comprendre la rationalité d’algorithmes brassant toutes les microsecondes des quantités inimaginables de données en calculs parallèles ? A force d’apprendre seuls, certains algorithmes deviennent même de véritables boîtes noires pour leurs propres concepteurs. Et, même si elle était possible, cette transparence serait dans certains cas contre productive. Rendre public le fonctionnement d’algorithmes profilant les terroristes serait par exemple le meilleur moyen de les rendre totalement inefficaces !

Propos recueillis par Jean-Philippe BRALY
Termes liés :
  • Algorithme
  • Données
Retrouver les autres articles du dossier “Débats autour des datas” :
  • Les POC sont-elles toujours dans le coup ?
  • La plateforme de prépublications arXiv est-elle dévoyée ?
Share:
Posts you'd might like
En attendant l’ordinateur quantique universel…
L’IA teste ses premiers algorithmes quantiques
Les promesses de l’IA quantique
La recherche à l’assaut des deepfakes vocaux
Recyclage : nos déchets sous l’œil de l’IA
Stéphane Canu :
au service de l’IA et de la mobilité de demain
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • En attendant l’ordinateur quantique universel…
  • L’IA teste ses premiers algorithmes quantiques
  • Les promesses de l’IA quantique
  • La recherche à l’assaut des deepfakes vocaux
  • Recyclage : nos déchets sous l’œil de l’IA

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU