Le deep learning : une vieille histoire qui nous réserve des surprises
⏱ < 1 min[vc_row][vc_column][vc_column_text]Depuis 2012, les algorithmes à base de deep learning (apprentissage profond) semblent prêts à résoudre bien des problèmes : reconnaitre des visages comme le propose DeepFace, vaincre des joueurs de go ou de poker ou bientôt permettre la conduite de voitures autonomes ou encore la recherche de cellules cancéreuses.
Pourtant, les fondements de ces méthodes ne sont pas si récents : le deep learning a été formalisé en 2007 à partir des nouvelles architectures de réseaux de neurones dont les précurseurs sont McCulloch et Pitts en 1943. Suivront de nombreux développements comme le perceptron, les réseaux de neurones convolutifs de Yann Le Cun et Yoshua Bengio en 1998 et les réseaux de neurones profonds qui en découlent en 2012 et ouvrent la voie à de nombreux champs d’application comme la vision, le traitement du langage ou la reconnaissance de la parole.
Pourquoi maintenant ? parce que ces nouvelles techniques de machine learning profitent de données massives (big data) que l’on est désormais capables d’analyser ainsi que de capacités de calcul phénoménales notamment grâce aux processeurs graphiques. Preuve que chaque domaine irrigue les autres, c’est pour pouvoir utiliser les immenses promesses du deep learning que Google a mis au point les accélérateurs TPU.
Isabelle Bellin avec Arnaud Salomon
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column]
RVLF Deep Learning
La machine Libratus repousse encore un peu les limites de l’intelligence artificielle dans le jeu. Le poker résistait encore à l’intelligence des algorithmes. Mais l’intelligence artificielle développée par des chercheurs de Carnegie Mellon, au sein d’une équipe constituée autour de […]
AlphaGo est le premier programme à battre sans handicap un des meilleurs joueurs mondiaux, Lee Sedol. Le système, développé par DeepMind (rachetée par Google en 2014), a initialement été entraîné pour « imiter » les joueurs humains, en retrouvant les […]
Pour tirer profit du deep learning, Google a conçu et utilise des unités de traitement TPU (Tensor Processing Unit). Google reconnait avoir développé ces unités de traitement de données pour faire face à l’explosion des coûts de calcul due au […]
Ce programme de Facebook est quasi-infaillible. D’après les chercheurs de Facebook, ce système basé sur un processus d’apprentissage peut déterminer si deux visages photographiés appartiennent à la même personne avec une performance de 97,25 %.
Elle est franchie par le supercalculateur Roadrunner d’IBM. Un pétaflops : 1015 opérations par seconde et une vraie rupture technologique : Roadrunner qui est le premier supercalculateur hybride, utilisant à la fois des processeurs généralistes et des « accélérateurs ». IBM a utilisé […]
Ils renouvellent considérablement l’intérêt pour l’intelligence artificielle et le deep learning. Les travaux sur des réseaux convolutifs et algorithmes de rétropopagation, notamment de Yann LeCun (1998), donnent naissance à de nombreuses applications en reconnaissance d’images et vidéo, pour les systèmes […]
Ce concours de reconnaissance visuelle d’objet par intelligence artificielle devient une référence. Le challenge de reconnaissance visuelle à grande échelle d’ImageNet (ILSVCR) est un concours annuel de reconnaissance d’objet. Organisé par l’Université Stanford, l’Université Carnegie-Mellon, l’Université du Michigan et l’Université […]
Ce problème est l’un des plus étudiés en mathématiques, statistiques et machine learning grâce au challenge Netflix. Pour améliorer son moteur de recommandation, la société Netflix met à contribution la communauté scientifique en organisant une compétition mettant en jeu un […]
Des réseaux neuronaux multicouches incluant une étape automatique d’apprentissage de la représentation des données. Geoffrey Hinton, Simon Osindero et Yee-Whye Teh optimisent le fonctionnement des réseaux neuronaux multicouches (A Fast Learning Algorithm For Deep Belief Nets). Le concept du deep […]
Quelques chercheurs dont LeCun et Bengio poursuivent leurs recherches dans cette voie malgré les critiques. Yann LeCun, Yoshua Bengio et d’autres publient des articles sur l’application des réseaux neuronaux à la reconnaissance de l’écriture manuscrite et sur l’optimisation de la […]
Tibshirani propose une méthode de régression pour permettre aux approches statistiques linéaires de faire face au « fléau de la dimension ». Lorsque le nombre de variables grandit si vite que les données deviennent éparses et éloignées, de nombreux algorithmes […]
Ce réseau neuronal artificiel permet de faire les premières expérimentations de reconnaissance de formes. Fondé sur un réseau de neurones à deux couches, le perceptron est un modèle inspiré de neurones humains pour représenter l’apprentissage et le traitement de l’information. […]
[/vc_column][/vc_row]