logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
modeles-de-langage
27 janvier 2022
A la Une, DAP, News, Parole aux experts
#chercheur, #ia, #neuroscience

Jean-Rémi King : « Les modèles de langage imitent (un peu) le fonctionnement du cerveau »

⏱ 4 min

Chercheur à l’ENS détaché à Meta AI, Jean-Rémi King cherche à déterminer dans quelle mesure les modèles de langage fonctionnent d’une manière se rapprochant du traitement effectué par notre système nerveux.

Jean-Rémi King est un neuroscientifique, un « cognitiviste ». Il cherche à comprendre comment le cerveau humain produit et manipule les représentations mentales qui lui permettent de modéliser le monde réel. Après avoir soutenu en janvier 2014 une thèse de doctorat en neurosciences cognitives, sous la direction du neurobiologiste Stanislas Dehaene (professeur au Collège de France), il effectue un post-doc au département de psychologie de la New York University. De retour en France, il devient chercheur au Laboratoire des Systèmes Perceptifs, au sein du département d’études cognitives de l’ENS-PSL (École normale supérieure – université Paris sciences et lettres). Après des épisodes de collaboration avec le Facebook AI Research (FAIR), il est depuis janvier 2021 détaché auprès de ce laboratoire, devenu Meta AI.

Ces dernières années, il s’est particulièrement intéressé à l’intelligence artificielle et plus précisément aux réseaux de neurones utilisés pour l’apprentissage profond. Il cherche notamment à déterminer dans quelle mesure ces modèles fonctionnent d’une manière qui se rapproche du traitement effectué par notre système nerveux. Ses travaux récents visent à comparer la manière dont le langage est traité par des modèles comme GPT-2 et le cerveau de volontaires.

CAPTER L’ACTIVITÉ DU CERVEAU QUI LIT OU ÉCOUTE

« L’idée est de comparer l’activité dans le cerveau humain lorsqu’il écoute ou lit des phrases ou des récits avec ce qui se passe dans des réseaux de neurones artificiels analysant les mêmes textes, explique Jean-Rémi King. Nous faisons appel à diverses techniques de neuroimagerie, notamment l’imagerie par résonance magnétique fonctionnelle (IRMf) et la magnétoencéphalographie (MEG). Nous obtenons ainsi des séries temporelles indicatives de l’activité cérébrale dans un certain nombre de régions du cerveau. »

Dans une publication1 de juin 2020, le chercheur présente ainsi des travaux consistant à comparer des enregistrements de l’activité cérébrale obtenus par IRMf et MEG auprès d’une centaine de volontaires pendant qu’ils lisaient des textes courts, aux activations générées par des milliers de modèles. « On trouve effectivement une certaine corrélation entre l’activité cérébrale chez l’humain et celle des modèles de deep learning, affirme le chercheur. Et nous avons observé que cette corrélation est d’autant plus forte que le modèle considéré est performant. » Dit autrement, plus un modèle de langage est capable de prédire correctement le prochain mot, plus son activité est corrélée avec celle d’un cerveau humain lisant les mêmes textes.

UNE HIÉRARCHIE DE PRÉDICTIONS

Dans une publication2 plus récente, parue en septembre 2021, l’équipe de Jean-Rémi King va plus loin. Cette fois, elle travaille sur les enregistrements obtenus par neuroimagerie auprès de 101 sujets qui, plutôt que lire, écoutent des histoires courtes, pendant 70 minutes environ. Et elle les compare à l’activité de GPT-2, un modèle de langage parmi les plus performants, lorsque ces mêmes textes lui sont soumis. « Nous avons constaté que les représentations de GPT-2 correspondaient non seulement aux réponses cérébrales, indique le chercheur, mais prédisaient également dans quelle mesure les sujets avaient compris les récits. » Pour évaluer le degré de compréhension des histoires par les participants, ceux-ci devaient répondre à un questionnaire relatif à ces textes, après les avoir écoutés.

Dans une publication3 plus récente encore (novembre 2021), Jean-Rémi King et son équipe cherchent à préciser ce qui distingue l’activité cérébrale de celle des modèles d’apprentissage profond. « Dans les publications précédentes, précise le chercheur, on restait sur un constat de similarité entre l’activité cérébrale et celle des modèles de deep learning. Cette fois, on essaie d’identifier ce qui ressemble ou pas. Notre cerveau ne cherche pas à prédire le mot suivant, comme le font les modèles de langage du type GPT-2. Il prédit bien au-delà. Non seulement plus loin, mais de manière hiérarchique. Par exemple, une zone de notre cortex cherche à prédire le prochain phonème, une autre le prochain mot, et ainsi de suite… jusqu’à la prochaine idée. »

LA THÉORIE DU CODAGE PRÉDICTIF CONFORTÉE

Ces travaux font appel à des enregistrements de signaux cérébraux IRMf de sujets (ils sont cette fois 304) écoutant chacun 70 minutes d’histoires courtes. Les calculs montrent à nouveau que les activités du modèle de langage GPT-2 analysant les mêmes histoires sont passablement corrélées à celles du cerveau. Mais ce n’est pas tout. « De plus, nous montrons qu’en améliorant le modèle à l’aide de représentations de prévision à long terme, on améliore leur corrélation avec l’activité cérébrale, ajoute Jean-Rémi King. »

« Les résultats, poursuit le chercheur, confirment une hiérarchie des prédictions dans le cerveau. Les régions frontales et pariétales du cortex prévoient des représentations plus abstraites et plus distantes que les régions temporales. Ces constatations sont conformes à la théorie du codage prédictif. » Cette théorie, qui ne cesse de se préciser et d’être confortée, stipule que le cerveau n’analyse pas de manière passive l’information provenant de ses sens, mais de manière active, en générant des prédictions, et cela à plusieurs niveaux sur la chaîne menant des récepteurs sensoriels jusqu’aux fonctions mentales supérieures. Chaque région du cortex impliquée dans cette chaîne d’interprétation des signaux sensoriels, après analyse des signaux provenant de la région amont, lui fournirait en retour des prédictions. Cette hypothèse est soutenue par un grand nombre d’observations expérimentales. Et par les travaux de Jean-Rémi King…

Pierre Vandeginste

1. Charlotte Caucheteux, Jean-Rémi King. “Language processing in brains and deep neural networks: computational convergence and its limits”. bioRxiv, 2020. doi

2. Charlotte Caucheteux, Alexandre Gramfort, Jean-Rémi King. “GPT-2’s activations predict the degree of semantic comprehension in the human brain”. bioRxiv, 2021. doi

3. Charlotte Caucheteux, Alexandre Gramfort, Jean-Rémi King. “Long-range and hierarchical language predictions in brains and algorithms”. arXiv, 2021. arxiv

Termes liés :
  • Intelligence artificielle (IA)
  • Réseau de neurones
  • Deep learning
Tags: #chercheur, #ia, #neuroscience
Share:
Posts you'd might like
En attendant l’ordinateur quantique universel…
L’IA teste ses premiers algorithmes quantiques
Les promesses de l’IA quantique
La recherche à l’assaut des deepfakes vocaux
Recyclage : nos déchets sous l’œil de l’IA
Stéphane Canu :
au service de l’IA et de la mobilité de demain
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • En attendant l’ordinateur quantique universel…
  • L’IA teste ses premiers algorithmes quantiques
  • Les promesses de l’IA quantique
  • La recherche à l’assaut des deepfakes vocaux
  • Recyclage : nos déchets sous l’œil de l’IA

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU