Les perceptrons sont des réseaux de neurones.
Le premier, créé dans les années 1950 par Frank Rosenblatt, était un algorithme d’apprentissage fonctionnant uniquement avec une couche de liaisons synaptiques prise en sandwich entre deux couches de neurones formels qu’elles connectaient. L’assimilant à un modèle de rétine artificielle, Rosenblatt l’appelle, de façon évocatrice, le perceptron. Il eut beaucoup de succès car il était capable de calculer automatiquement et efficacement les poids synaptiques requis pour distinguer différentes formes élémentaires. Ce logiciel était un outil de classification linéaire utilisant un seul extracteur de caractéristiques : il n’avait qu’une seule sortie à laquelle toutes les entrées étaient connectées.
Par la suite, ont été utilisés des perceptrons multicouches (multilayer perceptron MLP) qui sont devenus populaires grâce à l’algorithme de rétropropagation du gradient. Le cadre d’application type de cet algorithme est celui des réseaux feedforward dans lesquels l’information circule uniquement de la couche de neurones d’entrée vers la couche de sortie.
+ Retour à l'index