« Nous sommes face à des enjeux publics majeurs »
⏱ 5 minSi les trucages d’images ne datent pas d’hier, l’effet des vidéos falsifiées est d’un autre ordre, notamment sur la transmission d’information par les médias. Pour Jean-Gabriel Ganascia, professeur à la faculté des sciences de Sorbonne Université, chercheur en intelligence artificielle au LIP6 et président du comité d’éthique du CNRS, le modèle économique des industriels qui les diffusent est une des principales causes du problème.
Quelles sont les spécificités des deepfakes ?
Jean-Gabriel Ganascia : Ce sont bien sûr des infox, ou ce que l’on appelle plus communément des fake news. Mais les deepfakes constituent un cas à part, puisque par essence, avec ces vidéos truquées, on n’est plus dans de l’information textuelle. Cette fois, on montre et on entend ; les images et les voix parlent. Or, ce qui s’impose à l’ouïe et à la vue convainc plus que tout ! Cela marque profondément. En soi, les trucages d’images ne datent pas d’hier. Staline gommait dans les photos officielles ceux qui n’avaient plus ses faveurs [voir cette image de 1930 tirée d’Izitru qui les répertorie, NDLR], tout comme le faisaient Hitler ou Mao. Mais ces exemples restaient marginaux. Avec les deepfakes, on passe à une autre dimension, car on fait tenir des propos erronés à des personnes. Et cela se propage à une vitesse incroyable via les réseaux sociaux.
Quels sont les principaux effets potentiels des deepfakes ?
J.-G. G. : Pour l’instant, ils sont encore faibles, car on ne voit pas beaucoup de deepfakes. Mais leur pouvoir est particulièrement inquiétant. D’abord à l’échelle individuelle. Car décrédibiliser quelqu’un par l’image est potentiellement très puissant. Le détournement est une pratique courante ; c’est celle qui est à l’œuvre dans la caricature qui force le trait. Là, c’est autre chose… Jusqu’où autoriser les manipulations d’images ? Il faudra sûrement en passer par des législations, notamment à l’échelle européenne. Je vois un deuxième impact qui concerne les médias, et la confiance qu’on leur accorde. Les journalistes vont être dans des postures de plus en plus délicates : comment vont-ils pouvoir gérer ce flux d’informations ? D’un côté, ils risquent d’être accusés de faire de la rétention d’information s’ils n’en relaient pas certaines ; de l’autre, les vérifier, les recouper est impossible, beaucoup trop chronophage. Une autre conséquence majeure de ce flot continu d’informations est que nous perdons ce qu’il y avait de commun dans l’espace public. Il se passe exactement l’inverse du tam-tam du village global qu’avait imaginé dans les années 1960 Marshall McLuhan, spécialiste des médias qui prédisait une société de plus en plus unifiée et une culture commune partagée. Il y a quarante ou cinquante ans, le journal de 20 h était l’information commune, celle sur laquelle tout le monde échangeait ensuite. Aujourd’hui, les agrégateurs d’actualitésde nos smartphones nous proposent déjà l’information qu’on a envie de lire, selon nos sujets d’intérêt. Demain, des techniques d’intelligence artificielle pourraient cibler les personnes les plus vulnérables pour leur transmettre des fake news.
Quels sont ces personnes les plus vulnérables selon vous ?
J.-G. G. : Ce ne sont pas forcément les enfants ou les personnes âgées, comme on pourrait le supposer. Ce sont plutôt les personnes intellectuellement et socialement « fragiles », déjà plus ou moins coupées de la réalité et prêtes à accepter des informations, aussi peu avérées soient-elles, qui renforcent leurs a priori, comme on le voit dans la diffusion des thèses complotistes. Ce qui est particulièrement préoccupant, c’est qu’on ne sait pas quels éléments apporter pour les faire changer d’avis. Tout démenti, même étayé de preuves, paraît suspect à leurs yeux. Dès lors, on imagine bien que des campagnes de désinformation par les images pourraient avoir un effet dramatique, par exemple au moment d’élections, faisant basculer des scrutins. C’est ce qui préoccupe le plus aujourd’hui, avec des puissances aux manettes, comme la Russie qui inquiète beaucoup l’Europe.
Pensez-vous que le fact checking (la vérification des faits) et les méthodes de détection automatisées soient la solution ?
J.-G. G. : Il faut certes progresser dans l’identification des deepfakes. Notamment via du fact checking. Mais ce n’est pas la solution universelle : vu la quantité de vidéos mises en ligne, il serait matériellement très compliqué de tout contrôler tout comme de relayer toute ces informations. Sans compter que le fact checking a généralement un effet paradoxal inverse sur les personnes convaincues (« ils disent tous que c’est faux… ça veut dire que c’est vrai ! »). À cet égard, et outre les difficultés techniques qu’ils rencontrent, les logiciels de détection automatique d’infox ne résoudront pas les problèmes, contrairement à ce qu’a laissé entendre la Commission européenne dans un rapport sur les fake news et la désinformation en ligne. La source du problème est avant tout d’ordre économique, comme l’a souligné le Bureau européen des unions de consommateurs [Beuc, une fédération de 43 associations de consommateurs européennes, NDLR] qui a participé au groupe de travail, mais a refusé de signer le rapport. Il faudrait s’attaquer au problème de fond, celui du clikbaiting (putaclic ou piège à clics en français), cette pratique, qui incite à cliquer en éveillant la curiosité, et qui est la base du modèle économique des grands opérateurs d’internet, Google, Facebook, Twitter, etc.
Effectivement, on a tous tendance à partager plus ce qui nous étonne. Nous, journalistes, les premiers…
J.-G. G. : Ce qui est normal ! Plus une nouvelle est surprenante, plus elle apporte d’information, c’est un des fondements de la théorie de l’information de Shannon. Le problème est que la rémunération de ces industriels soit basée sur ce côté sensationnel et émotionnel. Comment limiter la propagation des deepfakes dans ce contexte ? Comment croire Facebook qui nous promet de régler le problème alors qu’ils sont eux-mêmes responsables de la diffusion des fake news et que, d’une certaine manière, leur rémunération en dépend ? Je ne suis pas très optimiste… Et le fait que les 38 autres participants de ce groupe de travail aient signé ce rapport montre à quel point ces nouveaux acteurs pénètrent nos institutions européennes. Alors même qu’ils prennent une part de plus en plus importante dans cet immense flux d’informations, ce qui permet à de nouveaux pouvoirs de se créer, issus de certains régimes, de mafias, etc., là où l’information était jusque-là régulée et censurée par des pouvoirs étatiques élus démocratiquement. Nous sommes face à des enjeux publics majeurs. Avec potentiellement des conséquences politiques importantes.
Que faire ?
J.-G. G. : La bonne réponse est l’éducation ! Il faut réapprendre à tout un chacun à douter, à replacer l’information dans son contexte pour être capable de l’interpréter. Ce qui est particulièrement compliqué sachant que ceux qui propagent les fake news instrumentalisent justement cette notion de doute, de remise en question. Nous avons exactement le même problème en tant que scientifiques pour limiter les dérives de la post-vérité, ces idées qui profitent des controverses scientifiques et de l’incertitude, moteurs de la science, pour la remettre en question. Il faudrait enseigner cela très tôt à l’école pour parvenir à rester ouvert, mais critique. Ce sera compliqué…
Pour en savoir plus :
Rapport conjoint Caps/Irsem – Les Manipulations de l’information : Un défi pour nos démocraties (09.18)
Avis 2018-37 du Comets (comité d’éthique du CNRS) – Quelles nouvelles responsabilités pour les chercheurs à l’heure des débats sur la post-vérité ?, (avril 2018)
Propos recueillis par Isabelle Bellin
Illustration à la une, Jean-Gabriel Ganascia @Dominique Lévy-Breillet