logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
5 octobre 2017
A la Une, DAP, News, Parole aux experts

L’IA de Therapixel au service de l’imagerie médicale

⏱ 4 min

L’équipe de Therapixel

Yaroslav Nikulin : data scientist chez Therapixel et fan de Deep Learning
Pierre Fillard : CTO de Therapixel, responsable de l’équipe Deep Learning
Olivier Clatz : PDG de Therapixel, et contributeur occasionnel de l’équipe Deep Learning
Antoine Iannessi : Radiologue au Centre Antoine Lacassagne de Nice consultant médical de l’équipe

Cocorico ! Grâce à de nouveaux algorithmes à base de réseaux de neurones convolutifs, Therapixel, spécialisée dans l’imagerie médicale, a remporté en juin dernier une compétition mondiale dont le but était d’améliorer la performance du dépistage du cancer du sein. En poursuivant dans cette voie prometteuse, cette startup issue d’Inria, pense pouvoir bientôt proposer des outils d’assistance à la radiologie supérieurs à la capacité humaine des meilleurs experts.

La récente mise à disposition de larges bases de données telles que ImageNet a largement contribué à l’explosion récente de la performance des algorithmes en intelligence artificielle. C’est dans cet esprit qu’IBM, Amazon, Sage Bionetworks, la FDA (Food and Drug Administration 1) et plusieurs autres organisations américaines ont lancé le Digital Mammography DREAM Challenge. L’objectif : améliorer la performance du dépistage du cancer du sein grâce à un concours mondial d’envergure. Les moyens déployés étaient à la hauteur des ambitions : la plus grande base de données d’images médicales jamais crée, couplée aux ressources de calcul du cloud d’Amazon et un prix de 1,2 million de dollars. Le concours a réuni plus de 1200 participants (4 manches de 5 semaines entre novembre 2016 et mai 2017) et nous avons décroché la première place. Notre algorithme améliore de 5 % le taux de faux positifs (une tumeur déclarée cancéreuse alors qu’elle est bénigne) par rapport à l’état de l’art.

La formulation du concours s’apparente aux challenges de vision par ordinateur à partir d’images naturelles, comme ImageNet ou Netflix : il s’agit cette fois d’estimer la probabilité d’appartenance à la classe « sujet sain » versus « sujet pathologique » à partir d’une image mammographique.

Figure 1 : ImageNet versus DREAM Challenge

l’analyse de mammographies ressemble à la recherche d’une aiguille dans une botte de foin

Mais la comparaison s’arrête là. La Figure 1 illustre les principales différences qui rendent le Digital Mammography DREAM Challenge aussi difficile : une très haute résolution, une zone d’intérêt qui représente au maximum 1 % de la surface de l’image, et un label des images binaire, ‘cancer/pas cancer’.

Par ailleurs, plusieurs anomalies radiologiques se cachent derrière l’étiquette ‘cancer’ : des micro-(ou macro) calcifications, des masses de tailles très différentes ou encore des distorsions architecturales du tissu mammaire. Ces anomalies ne portent cependant pas l’information de manière déterministe : elles peuvent être bénignes et le radiologue expert fait appel à son expérience et à son intuition pour exprimer son avis. La difficulté est encore augmentée du fait de la nature du signal à optimiser : une classification en 2 classes seulement au lieu de 1000 classes pour ImageNet. Enfin, chaque équipe ne disposait par manche que d’un volume de calcul de 14 jours sur une carte de calcul Nvidia K80, une très ancienne génération de cartes, aux performances limitées. Les données étaient confinées dans le cloud d’Amazon.

La solution victorieuse

Beaucoup de l’énergie que nous avons déployée a consisté à construire une architecture stable, s’entrainant rapidement,  et permettant de contourner toutes ces contraintes. Le schéma final de notre approche est présenté sur la Figure 2 (VGG, FCN et ResNet sont des architectures de réseaux de neurones connues ; une description plus détaillée se trouve sur le site du challenge).

Figure 2 : Schéma général de l’approche de Therapixel

Nous avons choisi de construire un premier réseau de neurones que nous avons entrainé sur une base de données publique annotée puis sur les données du challenge. Voici les 3 grandes étapes que nous avons mises en œuvre :

1/ Nous pré-entrainons un premier modèle (baptisé Detector Net, cf Figure 2) prenant en entrée un patch (la petite zone dans le carré rouge à gauche de la Figure 2) et fournissant en sortie 5 labels intermédiaires selon la nature des calcifications et des masses. Le but de cette étape est d’apprendre à distinguer localement les patches de tissus sains des patches contenant des lésions, qu’elles soient bénignes ou malignes, que ce soit des calcifications ou des masses. Nous avons eu, pour cela, recours à une base publique de mammographies annotées (DDSM) collectée il y a 20 ans. Mais la nature de ces images est très différente de celles du Challenge puisque ce sont des acquisitions sur films, scannées dans un second temps.

2/ Toujours sur les images de DDSM, nous adaptons ce modèle « patch » à un modèle convolutionnel : notre modèle final intègre ainsi trois couches de neurones supplémentaires en sortie. Cela nous permet de réaliser un apprentissage sur la probabilité finale « cancer/pas cancer » en utilisant l’information sur les lésions détectées (cf l’image avec un point rouge vif sur la Figure 2). Le modèle est ainsi optimisé de bout en bout (end-to-end comme on dit) pour prédire la probabilité d’un cancer.

3/ Nous entrainons ensuite ce réseau de neurones sur les données du Challenge. Ainsi transféré sur les images nativement digitales du DREAM Challenge, il sous performait d’environ 30 % les résultats obtenus sur DDSM (sur la base de l’Area Under Curve 2 ). Mais le pari s’est avéré payant : les données scannées et les acquisitions numériques étaient suffisamment proches pour que l’initialisation du réseau réalisée avec DDSM converge finalement vers un optimum victorieux sur les données du challenge !

En résumé, le pré-entrainement nous a permis de construire un premier réseau, travaillant à une faible résolution des images d’entrée mais fournissant une information riche à la sortie.  Ce réseau a permis de transférer partiellement la connaissance sur les anomalies présentes dans les images du DREAM Challenge, et d’initialiser un réseau end-to-end qui a convergé malgré un gradient naturellement faible compte tenu de la formulation du problème.

… Et ensuite ?

Les résultats obtenus dans le challenge étaient déjà très encourageants… Depuis, nous les avons encore fortement améliorés. Et nous savons que notre potentiel de progression est important : nous n’avons intégré que 70% des éléments de décision utilisés par les radiologues dans leur prise de décision. Ainsi, nous pensons arriver prochainement, et pour la première fois, à une performance algorithmique supérieure à la capacité humaine des meilleurs experts sur une tâche d’analyse d’images médicales.

Ces nouveaux algorithmes ouvrent de fait la voie à de nouveaux outils d’assistance à la radiologie, capables de traiter massivement des populations en dépistage et garantissant à tous les patients de bénéficier de la meilleure analyse. De quoi transformer la radiologie diagnostique.

 

 

1 La FDA est l’administration américaine des denrées alimentaires et des médicaments.

2 L’Area Under Curve (ou « aire sous la courbe ») est une mesure de qualité d’un système de classification binaire illustré par une courbe ROC (Receiver Operating Characteristic).

Termes liés :
  • Deep Learning
  • Données
  • Intelligence artificielle
  • Algorithme
  • Ordinateur
  • Classification
  • Réseau de neurones
  • Transformer
Share:
Posts you'd might like
L’apprentissage profond permet de lire dans notre cerveau… ce qu’il voit
Cette IA hybride apprend à jouer au sudoku…
et à concevoir des protéines
Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes
Faut-il créer un GIEC de l’intelligence artificielle ?
Entretien avec Raja Chatila
ChatGPT a-t-il accouché d’une souris ?
Entretien avec Jean-Gabriel Ganascia
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • L’apprentissage profond permet de lire dans notre cerveau… ce qu’il voit
  • Cette IA hybride apprend à jouer au sudoku…
    et à concevoir des protéines
  • Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
  • Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes
  • Faut-il créer un GIEC de l’intelligence artificielle ?
    Entretien avec Raja Chatila

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU