
Les algorithmes vont-ils finir par nous gouverner ?
⏱ 3 minEntretien avec Antoinette Rouvroy, chercheuse du Fond national de la recherche scientifique Belge, au Centre de recherche en information, droit et société (CRIDS) de l’Université de Namur.
DAP : Les algorithmes commenceraient doucement mais sûrement à gouverner nos conduites, ce que vous nommez la « gouvernementalité algorithmique ». Quels exemples concrets vous font craindre cette évolution ?
Antoinette Rouvroy : L’exemple typique, ce sont ces recommandations d’achat que nous font en permanence les sites de vente en ligne tel Amazon. En anticipant systématiquement nos comportements futurs, ces algorithmes de machine learning par pattern recognition court-circuitent tout simplement nos désirs. On entre ainsi dans une sorte d’économie de la « prépulsion » qui shunte tous les processus de transformation de la pulsion en un désir véritable et réfléchi. Objectif : nous pousser à l’achat compulsif. Amazon a même breveté un logiciel qui lui permettrait d’envoyer les colis vers ses clients… avant même qu’ils aient cliqué sur le bouton « acheter » ! Et de l’aveu même du dirigeant de Google, Eric Schmidt, il va devenir très difficile pour les gens de voir ou de consommer quelque chose qui n’a pas été ajusté pour eux… Bref, nous sommes de plus en plus enfermés dans une sorte de bulle personnalisée empêchant toute confrontation à l’imprévu et aux autres. Au final, l’enjeu aujourd’hui semble moins la protection de nos données personnelles que notre disparition en tant que personne !
DAP : Mais en se basant sur des masses de données toujours plus grandes, ces recommandations algorithmiques ne collent-elles pas de plus en plus à nos vrais désirs et besoins ?
A.R. : A première vue, oui. Ces traitements algorithmiques peuvent sembler plus objectifs, rationnels et proches de la réalité. Mais même avec un nombre de données gigantesques, on n’aura jamais qu’une représentation de la réalité, pas la réalité elle-même car tout n’est pas numérisable. Par ailleurs, plus les masses de données disponibles augmentent, plus le risque de corrélations absurdes croit. Pour certains, cette nouvelle gouvernementalité aurait aussi comme un parfum de liberté car elle ne met en jeu aucune représentation humaine partiale et subjective, susceptible de nous enfermer dans des catégories potentiellement biaisées. Mais attention, n’oublions pas que les données elles-mêmes ne sont pas neutres : elles émanent de notre monde social qui est bien loin d’être exempt de préjugés !
DAP : Ceci dit, rien ne nous force à suivre ce que recommandent des algorithmes…
A.R. : En effet. Mais au quotidien, c’est très difficile : notre capacité de résistance s’émousse au fur et à mesure qu’on s’en sert. Et cela devient encore plus ardu lorsque les enjeux associés sont importants. Prenons l’exemple d’algorithmes tentant de prédire le risque de récidive de détenus. Il y a fort à parier que bien peu de juges oseront libérer un détenu alors que l’algorithme recommande de le garder en détention. Car aujourd’hui, les décideurs préfèrent faire assumer une erreur à des algorithmes… Et cela vaut aussi pour les politiques qui se réfugient de plus en plus derrière des data pour prendre des décisions, plutôt que sur la base de leurs propres valeurs. Le programme électoral d’Emmanuel Macron s’est par exemple basé sur l’analyse de milliers de questionnaires par les algorithmes de Proxem, une société spécialisée dans le big data et le traitement automatisé du langage…
DAP : Finalement, que préconisez-vous ?
A.R. : Prenons déjà conscience de ces dangers, et ne nous laissons pas enfermer dans des comportements numériques routiniers. Et plutôt que de suivre toujours plus aveuglément ces recommandations algorithmiques, restons curieux par nous mêmes tout en reprenant le temps de la réflexion avant d’agir. Quant à vouloir rendre transparent le fonctionnement des algorithmes, c’est à mon avis illusoire… Comment l’esprit humain, très linéaire, pourrait comprendre la rationalité d’algorithmes brassant toutes les microsecondes des quantités inimaginables de données en calculs parallèles ? A force d’apprendre seuls, certains algorithmes deviennent même de véritables boîtes noires pour leurs propres concepteurs. Et, même si elle était possible, cette transparence serait dans certains cas contre productive. Rendre public le fonctionnement d’algorithmes profilant les terroristes serait par exemple le meilleur moyen de les rendre totalement inefficaces !