3.3 Loi binomiale négative
Il est possible d’exprimer la binomiale négative sous au moins deux formes:
- binomiale négative I (ou NB1), noté NB1(λ,α):
Pr
- binomiale négative II (ou NB2), noté NB2(\lambda, \alpha):
\begin{eqnarray*} \Pr(S=k) = \frac{\Gamma(\alpha + k)}{\Gamma(\alpha)\Gamma(k+1)} \left(\frac{\alpha}{\alpha+\lambda} \right)^{\alpha} \left(\frac{\lambda}{\alpha+\lambda} \right)^{k} \end{eqnarray*}
Pour la NB1 et la NB2, on peut montrer que E[X] = \lambda, mais que
- Var[S] = \lambda + \tfrac{\lambda}{\alpha} = \lambda(1 + \tfrac{1}{\alpha}) pour la NB1, et
- Var[S] = \lambda + \tfrac{\lambda^2}{\alpha} pour la NB2.
Exercice 3.3 Supposons : S |\theta \sim Poisson(\lambda \theta), avec \theta \sim Gamma(\alpha, \alpha):
\begin{eqnarray*} \Pr[S=s_t|\theta] &=& \frac{(\lambda \theta)^{s} e^{-\lambda \theta}}{s!} \\ f(\theta) &=& \frac{\alpha^{\alpha}}{\Gamma(\alpha)} \theta^{\alpha - 1} e^{-\alpha \theta} \end{eqnarray*}
Obtenez la fonction de probabilité S.
Exemple à faire en classe (solution: ??)
Exercice 3.4 En utilisant le théorème de l’espérance totale et le théorème de la variance totale, montrez que l’espérance de la NB2 est égale à \lambda et que la variance est égale à \lambda + \tfrac{\lambda^2}{\alpha}.
Exemple à faire en classe (solution: ??)
Exercice 3.5 Supposons : S |\theta \sim Poisson(\lambda \theta), avec \theta \sim Gamma(\alpha \lambda, \alpha \lambda). Obtenez la fonction de probabilité S.
Exemple à faire à la maison.
Exercice 3.6 Montrez que l’espérance de la NB1 est égale à \lambda et que la variance est égale à \lambda + \tfrac{\lambda}{\alpha}.
Exemple à faire à la maison.
Proposition 3.7 Soit X \sim NB1(\lambda_1; \alpha) et Y \sim NB1(\lambda_2; \alpha), deux variables aléatoires indépendantes. Alors Z = X + Y est NB1(\lambda_1 + \lambda_2; \alpha).
On peut montrer que
\begin{align*} \mathbb{P}(s)^X &= [1+\alpha(1-s)]^{-\lambda_1/\alpha}\\ \mathbb{P}(s)^Y &= [1+\alpha(1-s)]^{-\lambda_2/\alpha} \end{align*}
Ainsi,
\mathbb{P}(s)^Z = \mathbb{P}(s)^X \mathbb{P}(s)^Y = [1+\alpha(1-s)]^{-(\lambda_1+\lambda_2)/\alpha}
Il est important de remarque que la proposition précédente est valide pour la NB1, et non pour la NB2. La NB2(\lambda, \alpha) a une fonction génératrice des probabilités égale à:
\mathbb{P}(s)^X= [1+\lambda/\alpha(1-s)]^{-\alpha},
et il n’est pas possible de directement trouver la distribution de la somme.
3.3.1 Somme composée
On suppose un modèle à somme composée, avec le nombre d’éléments N étant une variable aléatoire:
Théorème 3.1 Soit:
X_k une séquence de v.a. indépendantes, de même distribution P(X_k = i) = f_i, avec une fgp \mathbb{P}^{(X)}(s).
Z = \sum_{i=1}^N X_i, avec N, X_i, i = 1, ..., N indépendants, avec l’hypothèse que Z=0 si N=0.
La fonction génératrice de probabilités de N est \mathbb{P}^{(N)}(s).
Alors:
\mathbb{P}^{(Z_n)}(s)= \mathbb{P}^{(N)}[\mathbb{P}^{(X)}(s)]
Développement à faire en classe (solution: ??)
Les cas intéressants sont avec N \sim Poisson(\lambda), où \mathbb{P}^{(Z_n)}(s) = e^{-\lambda + \lambda \mathbb{P}^{(X)}(s)}, ainsi nous avons les deux corollaires suivants.
Corollary 3.1 Soient X_i, des v.a. i.i.d Bernoulli(p) et N \sim Poisson(\lambda). Trouvez la distribution de Z_n.
On sait que:
\mathbb{P}^{(X)}(s) = q + ps
et ainsi:
\begin{eqnarray*} \mathbb{P}^{(Z_n)}(s) &=& e^{-\lambda + \lambda \mathbb{P}^{(X)}(s)}\\ &=& e^{-\lambda + \lambda (q+ps)}\\ &=& e^{-\lambda p + \lambda ps} \end{eqnarray*}
et donc Z_n \sim Poisson (\lambda p).
Corollary 3.2 Soient X_i, des v.a. i.i.d Logarithmique de paramètre \theta et N \sim Poisson(\lambda). Trouvez la distribution de Z_n.
Développement à faire en classe (solution: ??)
3.3.2 Autres caractérisations
En actuariat, la binomiale négative comme une mélange Poisson-Gamma est de loin l’interprétation la plus courante de la distribution.
Nous venons de voir le binomiale négative comme le cas d’une somme composée de loi logarithmiques. Par contre, Boswell et Patil(1970) ont montré 13 manières distinctes de construire une binomiale négative:
- Utilisation de temps d’attente;
- Processus de morts et naissances;
- Equilibre d’une chaîne de Markov;
- etc.
La connaissance de ces situations pourraient être utiles à expliquer des phénomènes ou des situations en actuariat.