logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Jean-Emmanuel-Bibault
2 juin 2022
A la Une, DAP, News, Point de vue
#Decide AI, #dépistage cancer du poumon, #Jean-Emmanuel Bibault, #modèles prédictifs, #onco-radiothérapie, #radiomique

Jean-Emmanuel Bibault :
« Il faut accélérer le passage de l’IA
de la recherche à la clinique »

⏱ 5 min

Jean-Emmanuel Bibault est oncologue radiothérapeute, PU-PH (professeur des universités – praticien hospitalier) à l’université Paris Cité et dans le service d’onco-radiothérapie de l’hôpital européen Georges-Pompidou de l’APHP. Il est également membre de l’équipe HeKA (Health data- and model- driven Knowledge Acquisition) du Centre de recherche des Cordeliers. Parallèlement à ses études de médecine, Jean-Emmanuel Bibault a poursuivi un cursus en IA. Après une thèse en informatique médicale, il a effectué en 2019 un post-doc au laboratoire d’Intelligence Artificielle appliquée à la médecine de l’université Stanford (Palo Alto, Californie).

Dans votre domaine, l’onco-radiothérapie, que peut apporter l’intelligence artificielle ?

On peut faire deux sortes de choses avec l’IA en onco-radiothérapie. Tout d’abord, des choses que l’humain sait faire, pour aller plus vite et le faire de manière plus homogène. Notamment la segmentation, le contourage des tumeurs : il s’agit, avant de réaliser la radiothérapie, de délimiter avec précision, à partir d’un scan, le périmètre de la zone à irradier. Ensuite, à partir de ce contourage, il faut calculer la dosimétrie, qui consiste à déterminer le positionnement optimal des faisceaux de rayons gamma de façon à délivrer la dose adéquate sur la tumeur sans dépasser le contour, en minimisant les doses infligées aux organes sains à risque. J’ai pour ma part développé et publié1 pendant mon post-doc à l’université Stanford (au sein du Xing Lab, le Laboratory of Artificial Intelligence in Medicine and Biomedical Physics, dirigé par Lei Xing, ndlr), un modèle IA pour la segmentation automatique des tumeurs prostatiques.

Mais on fait aussi appel à l’IA pour des tâches que l’homme maîtrise mal. Notamment ce qui relève de la prédiction. Par exemple, prédire l’évolution de la maladie, les chances de guérison, les chances de survie à telle ou telle échéance. On peut ainsi personnaliser les soins et éviter des traitements agressifs qui pourraient s’avérer inutiles. Prenons l’exemple du cancer de la prostate, dont l’évolution est en général très lente. Dans le cas d’un patient avec des comorbidités, notamment, il est assez probable que le cancer ne va pas impacter l’espérance de vie du patient avant longtemps, alors que le terrain implique un pronostic plus défavorable. Un traitement lourd n’aurait pas de bénéfice réel, alors qu’il produirait des séquelles. La prédiction permet d’éviter des décisions que l’on pourrait regretter.

Vous avez travaillé sur des modèles prédictifs…

Dans ce domaine, j’ai publié pendant mon post-doc à Stanford des travaux concernant les cancers de la prostate et colorectal. Pour la prostate, j’ai pu travailler à partir des données de l’étude prospective américaine PLCO (Prostate, Lung, Colorectal, and Ovarian Cancer Screening Trial) qui a suivi 150 000 patients, dont 8800 diagnostiqués pour un cancer de la prostate. Nous avons développé et publié2 un modèle capable de prédire le risque de mortalité à dix ans après diagnostic. Nous avons fait appel à un ensemble d’arbres de décision, par la méthode du « gradient boosting ». Ce type de modèle présente l’avantage d’être interprétable. Il peut prédire que tel patient a telle chance de survie à dix ans, à cause de telles et telles caractéristiques de son cancer. Nous avons également publié3 des travaux comparables concernant le cancer colorectal.

Dans ce domaine, il faut également parler d’un nouveau champ de recherche : la « radiomique » (radiomics), à propos duquel j’ai publié4 récemment. Elle consiste à aller au-delà de l’interprétation visuelle des scans, de les considérer comme une source de données au-delà des images. Elles contiennent en effet des informations subtiles, inaccessibles à l’œil nu. Des algorithmes peuvent détecter dans les niveaux de gris, les contrastes, les dégradés, les textures… des indices sur l’évolution du cancer.

Prédire peut aussi améliorer le dépistage…

Effectivement. Je m’intéresse notamment au dépistage du cancer du poumon. C’est un sujet qui fait polémique. En matière de dépistage, la question de la balance « bénéfice-risque » devient : combien de dépistages, combien de personnes encouragées à subir un examen, pour détecter un cas, pour une vie sauvée ? On a longtemps pensé que le bilan n’était pas bon dans le cas du cancer du poumon. Qu’il faudrait amener un trop grand nombre de personnes à risque, ici des fumeurs, à subir périodiquement un scan, sans parler du financement, pour chaque cancer détecté précocement, et du coup traité à temps. Mais une étude conduite il y a une dizaine d’années aux États-Unis sur plus de cinquante mille gros fumeurs et ex-fumeurs est arrivée à une conclusion inverse. Ce National Lung Screening Trial (NLST) montre qu’un scan du type low-dose CT (tomodensitométrie en spirale ou tomodensitométrie hélicoïdale à faible dose) permet de détecter une proportion de cancers à un stade précoce supérieure à ce qu’autorise la banale « radio des poumons ».

La question du dépistage du cancer du poumon est donc depuis à l’ordre du jour. En France, la HAS (Haute Autorité de Santé) vient de lancer une étude pour déterminer quels patients il faut dépister. C’est une question essentielle. Nous avons développé un modèle en apprentissage automatique à partir des données de l’étude prospective américaine PLCO qui s’avère très performant puisqu’il prédit le risque de cancer du poumon à partir des réponses à sept questions. Il permettrait donc à tout un chacun de décider s’il a intérêt à effectuer un scan. Les questions portent sur l’âge du patient, son âge lorsqu’il a commencé à fumer, le nombre d’années de tabagisme, le nombre de paquets de cigarettes fumés, l’âge (éventuel) de l’arrêt du tabac, etc. Une fois encore nous avons utilisé des arbres de décision, en gradient boosting.

Ces approches IA passent dans la pratique clinique ?

À l’heure actuelle, très peu d’algorithmes relevant de l’IA sont passés dans la pratique clinique. Les seuls, pratiquement, sont les algorithmes de contourage automatique. Par exemple, à l’hôpital européen Georges-Pompidou, nous utilisons un algorithme IA de contourage automatique pour les cancers de la prostate. Il nous donne un résultat en une minute alors que ce travail occupe habituellement un médecin pendant une demi-journée. Bien sûr, le résultat fourni par le logiciel est vérifié par un clinicien. Ce qui prend du temps… Finalement, le gain de temps obtenu est variable, selon la localisation. Dans le cas de la prostate, on constate un gain appréciable. En revanche, ce n’est pas le cas pour les cancers de la sphère ORL. Mais cela marche bien pour le cancer du sein.

L’IA pourrait passer plus vite de la recherche à la clinique ?

Je pense que nous pourrions accélérer le passage de la recherche à la clinique. Nous pourrions plus systématiquement lancer des essais cliniques pour comparer de nouvelles approches dans le traitement du cancer faisant appel à des outils IA aux approches conventionnelles, sans IA. Je fais partie du groupe de travail « Decide AI » (Developmental and Exploratory Clinical Investigations of DEcision support systems driven by Artificial Intelligence), dont l’objectif est de proposer un cadre définissant de meilleures méthodes de travail pour l’évaluation des études cliniques précoces portant sur des systèmes d’aide à la décision basés sur l’IA en médecine. Decide AI vient de publier ses propositions à la fois dans le BMJ (British Medical Journal) et Nature Medicine.

Propos recueillis par Pierre Vandeginste

 

1. Xiaokun Liang et al. Automated contour propagation of the prostate from pCT to CBCT images via deep unsupervised learning. Medical Physics, 2021. doi.org

2. Jean-Emmanuel Bibault et al. Development and Validation of an Interpretable Artificial Intelligence Model to Predict 10-Year Prostate Cancer Mortality. Cancers, 2021. doi.org

3. Jean-Emmanuel Bibault J, Daniel T. Chang, Lei Xing. Development and validation of a model to predict survival in colorectal cancer using a gradient-boosted machine. Gut, 2021. doi.org

4. Radouane El Ayachy et al. The Role of Radiomics in Lung Cancer: From Screening to Treatment and Follow-Up. Frontiers in Oncology, 2021. doi.org

Termes liés :
  • Intelligence artificielle
  • Données
  • Apprentissage automatique
  • Algorithme
Tags: #Decide AI, #dépistage cancer du poumon, #Jean-Emmanuel Bibault, #modèles prédictifs, #onco-radiothérapie, #radiomique
Share:
Posts you'd might like
L’apprentissage profond permet de lire dans notre cerveau… ce qu’il voit
Cette IA hybride apprend à jouer au sudoku…
et à concevoir des protéines
Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes
Faut-il créer un GIEC de l’intelligence artificielle ?
Entretien avec Raja Chatila
ChatGPT a-t-il accouché d’une souris ?
Entretien avec Jean-Gabriel Ganascia
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • L’apprentissage profond permet de lire dans notre cerveau… ce qu’il voit
  • Cette IA hybride apprend à jouer au sudoku…
    et à concevoir des protéines
  • Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
  • Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes
  • Faut-il créer un GIEC de l’intelligence artificielle ?
    Entretien avec Raja Chatila

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU