Loi des grands nombres : La loi des grand nombres est un théorème mathématique fondamental des probabilités et statistiques.
Cette loi exprime le fait que les caractéristiques d’un échantillon aléatoire se rapprochent des caractéristiques statistiques de la population (ensemble d’individus ou d’éléments) lorsque la taille de l’échantillon augmente à l’infini. En d’autres termes, cela garantit que, lorsque le nombre de tirages effectués selon une loi de probabilité (comme les tirages successifs d’une pièce sur le côté pile ou face) tend vers l’infini, la moyenne empirique (moyenne calculée à partir des observations) converge vers la moyenne réelle d’une variable aléatoire suivant cette loi. Cela sous des hypothèses très faibles.
C’est un des premiers résultats qui lie les observations d’un événement – par exemple les tirages d’une pièce – avec sa variable aléatoire – ici une distribution de type Bernoulli (distribution discrète de probabilité qui prend la valeur 1 avec la probabilité p et la valeur 0 avec la probabilité q = 1 – p). C’est sur cette loi que reposent la plupart des sondages (ils interrogent un nombre suffisamment important de personnes pour connaître l’opinion ou les comportements de la population entière) ou l’assurance (en déterminant les probabilités que les sinistres garantis se réalisent ou non).
Il est à noter que la loi des grands nombres n’offre pas d’utilisation propice en pratique, car le nombre de tirages nécessaires pour approcher suffisamment la moyenne réelle est inconnu. Cette loi n’a en fait qu’une valeur asymptotique. Lorsqu’on exécute un nombre fini d’expériences, il y a des écarts par rapport au comportement moyen attendu. Ainsi, après 10 000 tirages d’une pièce équilibrée, on n’a pas la garantie d’observer 5 000 fois « pile » ni même plus de 4 000. Dans la pratique, on utilise d’autres résultats tels que les Inégalités de concentration ou le Théorème central limite.
+ Retour à l'index