Du fait de son interprétation comme loi du nombre de succès lors d'une série de n épreuves de Bernoulli indépendantes et identiques, la loi binomiale est en particulier la loi de la somme de n variables aléatoires indépendantes suivant toutes la (même) loi de Bernoulli de paramètre p, prenant la valeur 1 en cas de succès (probabilité p) et 0 en cas d'échec (probabilité (1-p)). Des exemples importants où la loi binomiale apparaît comme loi de la somme de variables de Bernoulli sont les suivants :
Par ailleurs, cette interprétation en terme de sommes de variables de Bernoulli permet un calcul rapide de l'espérance et de la variance.
La loi binomiale, son espérance et sa variance, ainsi que l'inégalité de Bienaymé-Tchebychev permettent de démontrer une version simple de la loi des grands nombres.
Pour de grandes valeurs de n, le calcul de
Décomposons
On se place dans la situation où np reste constant et où n tend vers l'infini (par conséquent p tend vers 0).
On trouve donc
Supposons que p(k) admette un extremum pour
Il vient :
La dérivée par rapport à k donne :
Pour annuler cette dérivée, il faut que l'argument du logarithme soit égal à un. On obtient alors la valeur de k qui rend le logarithme extremum :
La valeur la plus probable est donc la valeur moyenne. La dérivée seconde vaut par ailleurs :
Calculée en
On peut donc écrire le développement limité au second ordre suivant :
qui s'écrit compte-tenu de ce qui précède :
soit en prenant l'exponentielle :
On détermine la constante
d'où la distribution gaussienne :