logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
6 juillet 2023
A la Une, DAP, Innovation en action, News
#ia, #reseaux de neurones

Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes

⏱ 3 min

Introduire des connaissances a priori dans les modèles d’apprentissage profond est une idée qui fait son chemin. Les “réseaux de neurones informés par la physique” (PINNs) utilisent des connaissances physiques matérialisées par des équations pour résoudre des problèmes complexes. Ils trouvent des applications dans divers domaines scientifiques et d’ingénierie.

Les réseaux de neurones informés par la physique, ou PINNs (Physics-Informed Neural Networks), sont des modèles d’apprentissage profond intégrant des connaissances physiques pour résoudre des problèmes complexes de modélisation et de simulation. Ils apprennent à prédire la solution d’équations aux dérivées partielles décrivant les mécanismes physiques à l’œuvre dans ces systèmes complexes. Les PINNs ont été introduits par une publication de 2019 présentant des travaux menés sous la direction de George Karniadakis, de la Brown University (Rhode Island, États-Unis), qui a publié en 2021 dans Nature un article de synthèse (review) sur le sujet.

Des solveurs d’équations basés sur l’apprentissage

« Pour simuler des systèmes physiques complexes décrits par des équations différentielles, explique Patrick Gallinari, responsable de l’équipe MLIA (Machine Learning & deep learning for Information Access) de l’ISIR (Institut des Systèmes Intelligents et de Robotique), à Sorbonne Université, on utilise d’habitude des algorithmes spécifiques : des solveurs. Chaque domaine de la physique a ses solveurs préférés. Cela s’applique à de nombreux domaines, comme la dynamique des fluides, le design d’objets comme des voitures ou des avions, ou encore en climatologie, en biologie… Malgré les progrès de l’informatique, cette approche peut coûter cher en puissance de calcul. Une simulation climatique à l’échelle de la planète avec un maillage très fin, par exemple, ne peut être réalisée que sur un puissant supercalculateur. Les PINNs ont vocation à concurrencer ces solveurs. Ce sont des solveurs basés sur l’apprentissage. En général, ils sont plus économiques en termes de puissance de calcul. » Le chercheur s’intéresse notamment aux applications de cette approche en climatologie et autres géosciences. Il est responsable du projet ANR DL4CLIM (Deep Learning pour les processus physiques, applications aux sciences du système terrestre).

Les connaissances physiques sur le système étudié sont introduites dans ces modèles d’apprentissage profond sous la forme d’équations. « Dans un réseau de neurones classique, en apprentissage supervisé, on cherche à minimiser l’erreur entre les prédictions fournies par le réseau en sortie et les valeurs de sortie attendues, fournies par l’étiquetage du jeu de données d’apprentissage, rappelle Matthieu Barreau, qui vient d’être nommé professeur assistant à l’École royale polytechnique (KTH) de Stockholm (Suède), où il a effectué son post-doc. Dans un réseau de neurones inspiré par la physique, on cherche à minimiser cette erreur mais aussi l’erreur physique. » C’est-à-dire le “résidu”, l’écart entre la prédiction du réseau et la valeur résultant de l’application des équations représentant la physique du système appliquée au réseau. La fonction de coût sur la base de laquelle sont mis à jour les poids des neurones du réseau, par rétropropagation, est une somme pondérée de ces deux erreurs. « C’est l’une des grandes questions : comment combiner l’erreur classique avec l’erreur physique ? Si on attribue un poids de 1 pour l’erreur classique, on tentera parfois d’attribuer un poids de 10 à l’erreur physique, si on a confiance. Et un poids de 0,1 sinon. »

Physique, mais aussi chimie, biologie, ingénierie…

Les PINNs trouvent des applications prometteuses dans divers domaines scientifiques et d’ingénierie. Par exemple, dans la mécanique des fluides, ils peuvent être utilisés pour prédire les écoulements complexes, en s’appuyant sur les équations de Navier-Stokes. « Le premier secteur d’application est sans aucun doute la mécanique des fluides, confirme Matthieu Barreau. Mais pas seulement dans des contextes d’ingénierie classique, comme la modélisation d’une aile d’avion. Des travaux tout à fait prometteurs concernent des problématiques médicales. Par exemple pour modéliser le flux sanguin dans le cerveau, ou dans le cœur.  Il y a par ailleurs beaucoup de travaux sur les réactions chimiques. On cherche à les accélérer, à mieux les comprendre. » Pour sa part, le chercheur travaille notamment sur la modélisation du trafic urbain. « J’essaie de prédire la situation à quelques minutes ou quelques heures, afin de proposer de nouveaux trajets aux conducteurs. On a beaucoup de données, GPS et autres, mais on n’arrive pas, avec l’apprentissage profond classique, à prédire l’état des réseaux routiers. C’est pourquoi nous cherchons à introduire des connaissances physiques dans nos modèles. »

Les PINNs ouvrent de nouvelles perspectives pour résoudre des problèmes complexes dans divers domaines scientifiques et d’ingénierie. Mais ils sont encore jeunes. Les recherches se poursuivent pour améliorer leur robustesse, leur interprétabilité et leur efficacité, afin qu’ils puissent être largement appliqués à toutes sortes de problèmes du monde réel.

Pierre Vandeginste

1. M. Raissi et al. Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. Journal of Computational Physics, 2019. doi.org

2. G.E. Karniadakis et al. Physics-informed machine learning. Nature Reviews Physics, 2021. doi.org

Termes liés :
  • Deep learning
  • Réseau de neurones
  • Machine learning
  • Algorithme
  • Apprentissage supervisé
  • Données
  • Rétropropagation
Tags: #ia, #reseaux de neurones
Share:
Posts you'd might like
Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
Faut-il créer un GIEC de l’intelligence artificielle ?
Entretien avec Raja Chatila
Laurent Gardès : sur les rails de l’IA
Grande distribution : l’IA en tête de gondole
Parkinson : l’IA améliore le diagnostic
François Yvon :
la traduction automatique pour passion
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • Canicules, orages violents : l’IA apprend à prévoir les épisodes météo extrêmes
  • Des réseaux de neurones “informés par la physique”, pour modéliser et simuler des systèmes complexes
  • Faut-il créer un GIEC de l’intelligence artificielle ?
    Entretien avec Raja Chatila
  • ChatGPT a-t-il accouché d’une souris ?
    Entretien avec Jean-Gabriel Ganascia
  • Laurent Gardès : sur les rails de l’IA

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU