Inégalité de concentration : Les inégalités de concentration fournissent des bornes sur la probabilité qu’une statistique basée sur des tirages successifs d’une variable aléatoire dévie d’une certaine valeur. Parmi les plus connus, citons Azuma- Hoeffding (pour les variables aléatoires bornées) et McDiarmid (pour les martingales à accroissements finis).
Contrairement à la loi des grands nombres, les inégalités de concentration sont utiles à la fois en théorie et en pratique. Elles permettent de contrôler l’incertitude liée aux quantités statistiques comme la moyenne empirique. Il existe de nombreuses méthodes de calculs d’inégalités.
Exemple : en utilisant l’inégalité d’Azuma-Hoeffding, on sait que si on lance 10 000 fois une pièce équilibrée, la proportion de tirages côté pile sera comprise entre 0,483 et 0,517 avec une probabilité supérieure à 99 %. Ces résultats permettent de calculer des intervalles de confiance autour des prédictions des modèles de machine learning. Ils sont aussi fondamentaux dans plusieurs domaines de recherches comme l’apprentissage par renforcement et les problèmes d’algorithmes de bandits.
+ Retour à l'index