logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
25 octobre 2018
A la Une, DAP, Dossiers thématiques, Innovation et data, News

Les hackathons font désormais partie de la stratégie d’innovation

⏱ 4 min

Ces compétitions de codage en équipe, organisées en général sur quelques jours, sont devenues un outil d’innovation et d’aide à la transformation digitale de la plupart des grandes entreprises. Chacune cherche son modèle et son format idéal selon ses objectifs. Dans tous les cas, avec pour ambition de booster l’innovation et de faire entrer la data dans les mœurs.

Le concept du hackathon est né aux États-Unis à la fin des années 1990, au sein de la communauté des développeurs adeptes des logiciels libres. L’objectif de ces marathons du code était de donner un coup d’accélérateur à un projet en mobilisant des geeks sur un temps court. Le concept, fédérateur et efficace, s’est vite propagé dans les entreprises du numérique, Facebook en tête. Les chercheurs ont également appris à tirer parti de ces modes collaboratifs compétitifs, à l’instar de RAMP (Rapid Analytics and Model Prototyping), une plateforme d’innovation ouverte exemplaire créée par des chercheurs du CNRS pour croiser les approches et booster l’innovation. Et, depuis quelques années, nombre de grandes entreprises, de tous secteurs, se sont frottées à l’exercice, comme Axa, Orange, Pernod Ricard, la SNCF, la MAIF, Air France ou la RATP.

Accéder aux meilleures techniques

Les hackathons sont aujourd’hui bien identifiés comme outil d’innovation. « C’est un excellent moyen de découvrir les meilleures techniques algorithmiques, souligne Olivier Baes, responsable du Dalalab de la MAIF. Il y a deux ans, nous avons ainsi proposé une de nos problématiques – le reverse engineering de nos modèles tarifaires – sur la plateforme de datachallenge Datascience.net*Cette plateforme francophone, créé fin 2013, réunit entreprises, data scientists et acteurs institutionnels autour de datachallenges. Notre objectif était de gagner en compétence et en temps grâce aux pratiques innovantes d’autres data scientists. Une bonne façon d’acquérir de nouvelles connaissances, en mixant nos pratiques avec celles de l’externe. » Dans le même esprit, l’assureur a participé, l’an dernier, au hackathon du meilleur data scientist de France.

Cela permet de trouver des solutions inattendues, tel ce chatbot imaginé lors d’un hackathon organisé par Air France fin 2016 sur une problématique client, une compétition ouverte tant à l’externe qu’à l’interne. « Cela a créé un engouement sur le sujet », affirme Wail Benfatma, le data scientist d’Air France qui a remporté le challenge interne et développé la solution, désormais opérationnelle.

Bien préparer les données

Cela peut aussi être un moyen pour résoudre un problème complexe quand on « tourne en rond ».« Fin 2017, nous sommes parvenus à trouver une solution en organisant un hackathon avec l’école Simplon, explique Jean-Jacques Thomas, directeur digital et innovation de SNCF Réseau. L’objectif était de rendre compatible à 100 % les bases de données qui décrivent le réseau SNCF et celles qui concernent la circulation des trains (elles l’étaient mais à 90 ou 95 %, le reste étant réalisé à la main). En créant des équipes croisées associant nos data scientists et leur savoir-faire métier avec des as du codage, des designers d’interface, etc., nous avons ouvert de nouvelles portes. Nous sommes sortis des « impossibles du passé ». Neuf mois plus tard, l’industrialisation est engagée et le déploiement en cours. » Le prochain hackathon de SNCF Réseau est prévu en novembre, d’autres devraient suivre.

Fer de lance de ces initiatives, Jean-Jacques Thomas insiste d’une part, sur l’importance du choix des sujets – s’ils sont mal choisis, le hackathon reste du domaine de l’événementiel, aspect qui fait partie de la compétition – et de la préparation des données, condition pour qu’elle soit fructueuse. « Il ne faut pas que les data scientists perdent du temps sur la qualité ou le sens de telle ou telle donnée, explique-t-il. Auquel cas, on ne peut pas espérer aboutir à des pistes valables en deux jours ! »

Des pistes qui doivent forcément être approfondies et mûries pour aboutir à des produits finis. L’intérêt d’un hackathon est de réunir des compétences variées dans un même lieu, au même moment et avec un objectif commun.S’il s’agit de créer les conditions pour accélérer l’innovation, ce n’est jamais opérationnel. Selon Wail Benfatma (Air France), seulement 20 à 30 % des solutions se concrétiseraient. « C’est néanmoins un véritable accélérateur en matière d’entreprenariat »,reconnaît-il volontiers. Il a lui-même tenté de créer une start-up après avoir remporté un hackathon organisé par PSA.

Promouvoir la culture data

Les hackathons sont aussi partie prenante de la transformation digitale interne de bon nombre d’entreprises, par exemple pour toucher le plus de collaborateurs possibles. « Nous avons lancé l’été dernier notre plateforme Datalab pour donner un accès direct aux données de SNCF Réseau à tous nos collaborateurs, précise Jean-Jacques Thomas. Nous cherchons ainsi à transformer tout le système industriel par rapport à la data, dans tous les métiers, à favoriser l’acculturation digitale industrielle. Nous animerons notamment cette plateforme par le biais de mini challenges ou de challenges sur plusieurs mois autour de nos données. »

Pour animer sa communauté de data scientist, la MAIF, quant à elle, lancera bientôt sa propre plateforme et ses challenges réservés à ses data scientists autour des données internes : « Nous voulons favoriser la transversalité de nos problématiques, explique Olivier Baes, voir comment un data scientist du marketing pourrait cracker un problème de réseau ou de tarification, et inversement. » Une façon de bouleverser les codes, de trouver de nouvelles solutions, de révéler des profils et des appétences à même d’engendrer une mobilité interne fructueuse et une montée en compétence. Le premier challenge interne devrait être proposé d’ici fin 2018, sur quelques mois a priori, un délai plus adapté qu’une mobilisation sur deux jours. L’objectif est surtout que ce mode de travail collaboratif intègre progressivement les pratiques.

Toutefois, trouver des sujets transversaux est difficile, et le sponsoring par l’entreprise de ces événements internes n’est pas encore entré dans les mœurs. « Il faut aussi faire comprendre que des solutions ne seront pas forcément trouvées, poursuit-il. C’est l’acculturation qui nous importe le plus dans cette forme de challenge, une évolution difficilement perceptible. » C’est aussi dans ce but que l’assureur a instauré un Dataday, pour sensibiliser à la data. Un rendez-vous annuel autour de la donnée qui pourrait, un jour ou l’autre, être consacré à un hackathon.

  • Hackathons
  • hackathon
Montrer l’attractivité de son secteur

Autre intérêt des hackathons identifié par les entreprises : les connecter à leur écosystème, par exemple en sponsorisant ou en participant à l’organisation de hackathons, et montrer l’intérêt de leurs propres données. C’est un des objectifs du Hacktrain, ce hackathon de quatre jours organisé depuis cinq ans par la start-up éponyme avec comme ligne fédératrice l’innovation ferroviaire en Europe. Le hackathon se déroule dans un train, dans des gares ou les locaux des opérateurs nationaux. « Des geeks de la SNCF y participent, raconte Jean-Jacques Thomas. C’est une belle initiative fédératrice, qui nous permet de montrer aux hackers qu’il y a de la data passionnante dans le ferroviaire ! »

Isabelle Bellin

 

 

*Cette plateforme francophone créé fin 2013 réunit entreprises, data scientists et acteurs institutionnels autour de datachallenges 

 

 

Vous avez aimé cet article, abonnez-vous à notre newsletter gratuite pour être informé des dernières publications. 

 

Termes liés :
  • Hackathon
  • Données
  • Biais
Retrouver les autres articles du dossier “Innovation et Data” :
  • Réussir une POC en data science
  • Faut-il un datalab pour innover dans la data ?
  • Comment valoriser les innovations en data science ?
Share:
Posts you'd might like
ChatGPT a-t-il accouché d’une souris ?
Entretien avec Jean-Gabriel Ganascia
Laurent Gardès : sur les rails de l’IA
Grande distribution : l’IA en tête de gondole
Parkinson : l’IA améliore le diagnostic
L’IA au chevet des séismes et tsunamis
François Yvon :
la traduction automatique pour passion
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • ChatGPT a-t-il accouché d’une souris ?
    Entretien avec Jean-Gabriel Ganascia
  • Laurent Gardès : sur les rails de l’IA
  • Grande distribution : l’IA en tête de gondole
  • Parkinson : l’IA améliore le diagnostic
  • L’IA au chevet des séismes et tsunamis

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU