Il est temps de repenser l’open data
⏱ 5 minLa Fondation internet nouvelle génération (FING), think tank de référence sur les transformations numériques, relance le débat sur les usages et les impacts des données ouvertes. Huit ans après les débuts de l’open data, elle propose de produire collectivement l’agenda des cinq à dix prochaines années. Entretien avec Charles Népote, qui anime le programme Open Data Impact à la FING.
Selon vous, il est temps de prendre du recul sur l’open data en France, de réinterroger l’offre, les usages et l’impact de l’ouverture des données. Où en est-on ?
Charles Népote : Depuis cinq ans, la France est devenue probablement le pays le plus en pointe de l’open data dans le monde. Nous sommes dans les 3 à 5 premiers des classements internationaux grâce à l’énergie que nous y avons consacrée, à la quantité de données ouvertes et d’applications développées. Cela tient principalement à deux raisons : d’une part, à une longue tradition française de collecte publique de données de qualité (cadastre, SIGUn système d’information géographique (SIG) permet de recueillir, stocker, traiter, analyser, gérer et présenter tous les types de données spatiales et géographiques., recensement, etc.) extrêmement bien organisée au niveau national comme au niveau local ; d’autre part, juridiquement, notre Constitution impose une transparence de la vie publique avec un droit opposable à la consultation de nos données de documents administratifs et depuis 2005 à la réutilisation de ces données. L’open data public est donc, en quelque sorte, inscrit dans nos valeurs. Il est bien ancré au niveau de l’État, et plusieurs dizaines de collectivités ont ouvert leurs données comme Paris, Bordeaux ou Montpellier, à la suite de Rennes Métropole, précurseur en 2010 (voir notre dossier Data Cities). Pour autant, nous sommes nombreux à « rester sur notre faim ».
On entend pourtant parler de dizaines de collectivités qui font de l’open data, de milliers de jeux de données ouverts, de nombreuses communautés qui les alimentent, de centaines d’usages recensés… D’où vient ce bilan en demi-teinte ?
C.N. : C’est surtout la vision idyllique de l’open data qui a terni son image : la Commission européenne y avait vu des économies potentielles de millions, voire milliards, d’euros, et un puissant moteur de développement pour des start-up. Or personne n’a fait fortune grâce à des données publiques ouvertes. Certes, de nombreuses applications ont été créées dès l’ouverture des données : une quarantaine lors du premier concours open data organisé à Rennes en 2011, mais la plupart sans suite car les geeks touche-à-tout qui les avaient imaginées sont vite passés à autre chose, que ce soit à l’intelligence artificielle ou aux blockchains. Pourtant, même s’il n’existe pas de modèle économique uniquement fondé sur l’open data, il y a de belles réussites entrepreneuriales comme Handimap.org, qui permet de calculer des itinéraires accessibles aux personnes à mobilité réduite à Rennes, Montpellier, Lorient, un service très utile porté par deux personnes. Autres exemples : Geovelo qui permet de préparer son itinéraire à vélo en s’appuyant notamment sur les données d’OpenStreetMap ; Quiditmiam, qui renseigne entre autres sur les menus des cantines scolaires et de restaurants ; Alim’confiance, qui permet de consulter les résultats des contrôles en matière de sécurité sanitaire des aliments, etc.
Finalement, quel bilan dressez-vous de l’open data ?
C.N. : Il est particulièrement difficile à établir, notamment parce qu’on connaît mal les réutilisations de données, elles sont difficiles à identifier… C’est un de nos objectifs, car beaucoup d’usages passent sous le radar, même si on pressent que cela fait gagner beaucoup de temps à beaucoup de gens. Pour l’instant, ce que l’on a découvert, et qui n’était pas du tout anticipé, c’est que l’usage premier et principal de l’open data publique est son usage interne, par les acteurs publics eux-mêmes ! À ce titre, l’open data améliore non seulement la collaboration interne mais aussi la coopération inter-collectivités : cet accès facilité aux données leur fait gagner un temps considérable, et apporte parfois des solutions inédites. Inversement, ces données locales sont souvent très difficiles à réutiliser, car l’offre s’est construite en ordre dispersé, les jeux de données ont des formats différents, donc impossibles à comparer, parfois mal documentés, les formats, parfois les url, changent… Ce manque de standardisation freine les applications. L’offre de publication de données publiques doit se professionnaliser pour permettre aux réutilisateurs de passer à l’échelle supérieure, de développer des marchés. C’est ce que tentent de mettre en place l’État avec le service public de la donnée et ses 9 jeux de données de référence, Rennes Métropole (et son service public métropolitain de la donnée (SPMD)), ou encore Grand Lyon au niveau local. Il faut poursuivre dans ce sens.
Quid de l’open data privé ?
C.N. : Il faut reconnaître que très peu d’entreprises ont ouvert leurs données en France. Moins d’une dizaine. Celles qui l’ont fait sont souvent dans l’obligation de le faire, comme les gestionnaires de flux de transport, d’énergie ou d’eau. Mais elles vont souvent plus loin, par exemple en listant leurs agences (La Poste), leurs produits ou en donnant des informations internes, comme l’absentéisme à la SNCF. Et beaucoup d’entreprises en délégation de service public ont adapté leurs systèmes d’informations et leurs formats de données pour les ouvrir aux acteurs publics. Mais outre ces derniers, ce sont surtout des communautés de citoyens ou de passionnés qui alimentent aujourd’hui l’open data, souvent à l’échelle mondiale.Et si la qualité des données laissait à désirer il y a quelques années, ce n’est plus le cas : ainsi, OpenStreetMap (qui propose une base de données cartographique mondiale en open data) fournit actuellement une complétude et une qualité de données bien supérieure à Google Map en zone dense. Beaucoup de projets de ce type ont vu le jour comme Open Food Facts, une base de données sur les produits alimentaires du monde entier, née en France, OpenBeautyFacts sur les produits cosmétiques, ou encore LigthningMaps, qui recense les impacts de foudre en temps réel. Ces plateformes fonctionnent par adhésion, appel au don, sur des serveurs amateurs, sans modèle économique.
Quel usage fait le monde de la recherche de l’open data?
C.N. : La recherche est la grande inconnue de l’open data ! Les chercheurs ne répondent pas aux concours, ne publient pas d’applications… alors que le monde universitaire, les départements de recherche et développement, les étudiants sont probablement les premiers utilisateurs de données ouvertes. Mais leurs usages sont parmi les plus difficiles à évaluer.
En tout cas l’open data est désormais dans les mœurs. On ne voit pas de retour en arrière à l’horizon ?
C.N. : Détrompez-vous ! L’exemple des États-Unis montre qu’un violent retour en arrière n’est pas à exclure… L’Administration Trump a coupé des crédits dédiés à l’open data, supprimé l’autorité de service qui publiait ces données… Heureusement, au niveau local, des villes comme New York continuent sur leur lancée. La France, quant à elle, soutient l’open data dans un mouvement de fond, avec une série de lois et des applications de plus en plus affirmées dans les transports, l’énergie, pourquoi pas dans la transition écologique demain. Mais nous sommes un pays démocratique… on n’est jamais à l’abri d’un changement de cap politique.
Dans ce contexte hexagonal porteur, comment comptez-vous stimuler l’écosystème de l’open data ?
C.N. : Nous venons de lancer un appel à projets pour aider les acteurs à réinterroger leurs pratiques, identifier ce que pourrait permettre l’open data au cours des dix prochaines années. Avec eux, collectivement, nous avons identifié trois axes de réflexion et de progrès. Premièrement, rendre plus visibles les bénéfices de l’open data en trouvant des métriques pertinentes et en expliquant mieux ce que permet l’ouverture des données. Deuxièmement, développer un open data adapté à la demande, avec des formats standardisés et des jeux de données stables et bien documentés,comme évoqué plus haut. Troisièmement, se réinterroger sur les frontières de l’open data : n’y aurait-il pas intérêt parfois à publier de l’information plutôt que des données brutes, qui ne sont pas forcément gages de précision, contrairement à ce que l’on pense, et qui peuvent être difficiles à comprendre par le citoyen lambda ; enfin, même si cela n’est pas forcément dans les mœurs de l’open data, n’aurait-on pas intérêt à identifier les utilisateurs, sans entraver leurs usages bien sûr, pour mieux comprendre les besoins ? Nous sommes précurseurs sur ces questions. C’est le moment de se les poser !
Propos recueillis par Isabelle Bellin