L’IA de Therapixel au service de l’imagerie médicale
⏱ 4 min[vc_row][vc_column][vc_single_image image= »11925″ img_size= »full » alignment= »center »][vc_column_text]
L’équipe de Therapixel
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]
Yaroslav Nikulin : data scientist chez Therapixel et fan de Deep Learning
Pierre Fillard : CTO de Therapixel, responsable de l’équipe Deep Learning
Olivier Clatz : PDG de Therapixel, et contributeur occasionnel de l’équipe Deep Learning
Antoine Iannessi : Radiologue au Centre Antoine Lacassagne de Nice consultant médical de l’équipe
[/vc_column_text][vc_column_text]Cocorico ! Grâce à de nouveaux algorithmes à base de réseaux de neurones convolutifs, Therapixel, spécialisée dans l’imagerie médicale, a remporté en juin dernier une compétition mondiale dont le but était d’améliorer la performance du dépistage du cancer du sein. En poursuivant dans cette voie prometteuse, cette startup issue d’Inria, pense pouvoir bientôt proposer des outils d’assistance à la radiologie supérieurs à la capacité humaine des meilleurs experts.
La récente mise à disposition de larges bases de données telles que ImageNet a largement contribué à l’explosion récente de la performance des algorithmes en intelligence artificielle. C’est dans cet esprit qu’IBM, Amazon, Sage Bionetworks, la FDA (Food and Drug Administration 1) et plusieurs autres organisations américaines ont lancé le Digital Mammography DREAM Challenge. L’objectif : améliorer la performance du dépistage du cancer du sein grâce à un concours mondial d’envergure. Les moyens déployés étaient à la hauteur des ambitions : la plus grande base de données d’images médicales jamais crée, couplée aux ressources de calcul du cloud d’Amazon et un prix de 1,2 million de dollars. Le concours a réuni plus de 1200 participants (4 manches de 5 semaines entre novembre 2016 et mai 2017) et nous avons décroché la première place. Notre algorithme améliore de 5 % le taux de faux positifs (une tumeur déclarée cancéreuse alors qu’elle est bénigne) par rapport à l’état de l’art.
La formulation du concours s’apparente aux challenges de vision par ordinateur à partir d’images naturelles, comme ImageNet ou Netflix : il s’agit cette fois d’estimer la probabilité d’appartenance à la classe « sujet sain » versus « sujet pathologique » à partir d’une image mammographique.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_empty_space][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image= »11938″ img_size= »large » alignment= »center »][vc_column_text]
Figure 1 : ImageNet versus DREAM Challenge
l’analyse de mammographies ressemble à la recherche d’une aiguille dans une botte de foin
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Mais la comparaison s’arrête là. La Figure 1 illustre les principales différences qui rendent le Digital Mammography DREAM Challenge aussi difficile : une très haute résolution, une zone d’intérêt qui représente au maximum 1 % de la surface de l’image, et un label des images binaire, ‘cancer/pas cancer’.
Par ailleurs, plusieurs anomalies radiologiques se cachent derrière l’étiquette ‘cancer’ : des micro-(ou macro) calcifications, des masses de tailles très différentes ou encore des distorsions architecturales du tissu mammaire. Ces anomalies ne portent cependant pas l’information de manière déterministe : elles peuvent être bénignes et le radiologue expert fait appel à son expérience et à son intuition pour exprimer son avis. La difficulté est encore augmentée du fait de la nature du signal à optimiser : une classification en 2 classes seulement au lieu de 1000 classes pour ImageNet. Enfin, chaque équipe ne disposait par manche que d’un volume de calcul de 14 jours sur une carte de calcul Nvidia K80, une très ancienne génération de cartes, aux performances limitées. Les données étaient confinées dans le cloud d’Amazon.
La solution victorieuse
Beaucoup de l’énergie que nous avons déployée a consisté à construire une architecture stable, s’entrainant rapidement, et permettant de contourner toutes ces contraintes. Le schéma final de notre approche est présenté sur la Figure 2 (VGG, FCN et ResNet sont des architectures de réseaux de neurones connues ; une description plus détaillée se trouve sur le site du challenge).[/vc_column_text][vc_empty_space][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image= »11928″ img_size= »full » alignment= »center »][vc_column_text]
Figure 2 : Schéma général de l’approche de Therapixel
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Nous avons choisi de construire un premier réseau de neurones que nous avons entrainé sur une base de données publique annotée puis sur les données du challenge. Voici les 3 grandes étapes que nous avons mises en œuvre :
1/ Nous pré-entrainons un premier modèle (baptisé Detector Net, cf Figure 2) prenant en entrée un patch (la petite zone dans le carré rouge à gauche de la Figure 2) et fournissant en sortie 5 labels intermédiaires selon la nature des calcifications et des masses. Le but de cette étape est d’apprendre à distinguer localement les patches de tissus sains des patches contenant des lésions, qu’elles soient bénignes ou malignes, que ce soit des calcifications ou des masses. Nous avons eu, pour cela, recours à une base publique de mammographies annotées (DDSM) collectée il y a 20 ans. Mais la nature de ces images est très différente de celles du Challenge puisque ce sont des acquisitions sur films, scannées dans un second temps.
2/ Toujours sur les images de DDSM, nous adaptons ce modèle « patch » à un modèle convolutionnel : notre modèle final intègre ainsi trois couches de neurones supplémentaires en sortie. Cela nous permet de réaliser un apprentissage sur la probabilité finale « cancer/pas cancer » en utilisant l’information sur les lésions détectées (cf l’image avec un point rouge vif sur la Figure 2). Le modèle est ainsi optimisé de bout en bout (end-to-end comme on dit) pour prédire la probabilité d’un cancer.
3/ Nous entrainons ensuite ce réseau de neurones sur les données du Challenge. Ainsi transféré sur les images nativement digitales du DREAM Challenge, il sous performait d’environ 30 % les résultats obtenus sur DDSM (sur la base de l’Area Under Curve 2 ). Mais le pari s’est avéré payant : les données scannées et les acquisitions numériques étaient suffisamment proches pour que l’initialisation du réseau réalisée avec DDSM converge finalement vers un optimum victorieux sur les données du challenge !
En résumé, le pré-entrainement nous a permis de construire un premier réseau, travaillant à une faible résolution des images d’entrée mais fournissant une information riche à la sortie. Ce réseau a permis de transférer partiellement la connaissance sur les anomalies présentes dans les images du DREAM Challenge, et d’initialiser un réseau end-to-end qui a convergé malgré un gradient naturellement faible compte tenu de la formulation du problème.
… Et ensuite ?
Les résultats obtenus dans le challenge étaient déjà très encourageants… Depuis, nous les avons encore fortement améliorés. Et nous savons que notre potentiel de progression est important : nous n’avons intégré que 70% des éléments de décision utilisés par les radiologues dans leur prise de décision. Ainsi, nous pensons arriver prochainement, et pour la première fois, à une performance algorithmique supérieure à la capacité humaine des meilleurs experts sur une tâche d’analyse d’images médicales.
Ces nouveaux algorithmes ouvrent de fait la voie à de nouveaux outils d’assistance à la radiologie, capables de traiter massivement des populations en dépistage et garantissant à tous les patients de bénéficier de la meilleure analyse. De quoi transformer la radiologie diagnostique.
1 La FDA est l’administration américaine des denrées alimentaires et des médicaments.
2 L’Area Under Curve (ou « aire sous la courbe ») est une mesure de qualité d’un système de classification binaire illustré par une courbe ROC (Receiver Operating Characteristic).[/vc_column_text][/vc_column][/vc_row]