La rétropropagation du gradient de l’erreur (ou backpropagation) est un algorithme d’optimisation permettant d’ajuster les paramètres d’un réseau de neurones multicouches pour mettre en correspondance des entrées et des sorties référencées dans une base d’apprentissage.
Pour pouvoir entraîner ces systèmes, il faut savoir comment ajuster les paramètres de chaque couche de neurones. La rétropropagation permet de calculer le gradient de l’erreur pour chaque neurone, de la dernière couche vers la première. Le calcul de ce gradient se fait par la méthode de rétropropagation, pratiquée depuis le milieu des années 80. Cela permet de corriger les erreurs selon l’importance des éléments qui ont justement participé à la réalisation de ces erreurs. Ainsi, les poids synaptiques qui contribuent à engendrer une erreur importante se verront modifiés de manière plus significative que les poids qui ont engendré une erreur marginale. Moyennant quelques précautions lors de l’apprentissage, les procédures d’optimisation finissent par aboutir à une configuration stable, généralement un extremum local, au sein du réseau de neurones.
+ Retour à l'index