3.3 Loi binomiale négative

Il est possible d’exprimer la binomiale négative sous au moins deux formes:

  1. binomiale négative I (ou NB1), noté NB1(\(\lambda, \alpha\)):

\[\begin{eqnarray*} \Pr(S=k) = \frac{\Gamma(\alpha \lambda + k)}{\Gamma(\alpha \lambda )\Gamma(k+1)} \left(\frac{\alpha}{\alpha + 1} \right)^{\alpha \lambda} \left(\frac{1}{\alpha + 1} \right)^{k} \end{eqnarray*}\]

  1. binomiale négative II (ou NB2), noté NB2(\(\lambda, \alpha\)):

\[\begin{eqnarray*} \Pr(S=k) = \frac{\Gamma(\alpha + k)}{\Gamma(\alpha)\Gamma(k+1)} \left(\frac{\alpha}{\alpha+\lambda} \right)^{\alpha} \left(\frac{\lambda}{\alpha+\lambda} \right)^{k} \end{eqnarray*}\]


Pour la NB1 et la NB2, on peut montrer que \(E[X] = \lambda\), mais que

  • \(Var[S] = \lambda + \tfrac{\lambda}{\alpha} = \lambda(1 + \tfrac{1}{\alpha})\) pour la NB1, et
  • \(Var[S] = \lambda + \tfrac{\lambda^2}{\alpha}\) pour la NB2.

Exercice 3.3 Supposons : \(S |\theta \sim Poisson(\lambda \theta)\), avec \(\theta \sim Gamma(\alpha, \alpha)\):

\[\begin{eqnarray*} \Pr[S=s_t|\theta] &=& \frac{(\lambda \theta)^{s} e^{-\lambda \theta}}{s!} \\ f(\theta) &=& \frac{\alpha^{\alpha}}{\Gamma(\alpha)} \theta^{\alpha - 1} e^{-\alpha \theta} \end{eqnarray*}\]

Obtenez la fonction de probabilité \(S\).

Exemple à faire en classe (solution: ??)


Exercice 3.4 En utilisant le théorème de l’espérance totale et le théorème de la variance totale, montrez que l’espérance de la NB2 est égale à \(\lambda\) et que la variance est égale à \(\lambda + \tfrac{\lambda^2}{\alpha}\).

Exemple à faire en classe (solution: ??)


Exercice 3.5 Supposons : \(S |\theta \sim Poisson(\lambda \theta)\), avec \(\theta \sim Gamma(\alpha \lambda, \alpha \lambda)\). Obtenez la fonction de probabilité \(S\).

Exemple à faire à la maison.


Exercice 3.6 Montrez que l’espérance de la NB1 est égale à \(\lambda\) et que la variance est égale à \(\lambda + \tfrac{\lambda}{\alpha}\).

Exemple à faire à la maison.


Proposition 3.7 Soit \(X \sim NB1(\lambda_1; \alpha)\) et \(Y \sim NB1(\lambda_2; \alpha)\), deux variables aléatoires indépendantes. Alors \(Z = X + Y\) est \(NB1(\lambda_1 + \lambda_2; \alpha)\).

On peut montrer que

\[\begin{align*} \mathbb{P}(s)^X &= [1+\alpha(1-s)]^{-\lambda_1/\alpha}\\ \mathbb{P}(s)^Y &= [1+\alpha(1-s)]^{-\lambda_2/\alpha} \end{align*}\]

Ainsi,

\[ \mathbb{P}(s)^Z = \mathbb{P}(s)^X \mathbb{P}(s)^Y = [1+\alpha(1-s)]^{-(\lambda_1+\lambda_2)/\alpha}\]


Il est important de remarque que la proposition précédente est valide pour la NB1, et non pour la NB2. La NB2(\(\lambda, \alpha\)) a une fonction génératrice des probabilités égale à:

\[\mathbb{P}(s)^X= [1+\lambda/\alpha(1-s)]^{-\alpha},\]

et il n’est pas possible de directement trouver la distribution de la somme.


3.3.1 Somme composée

On suppose un modèle à somme composée, avec le nombre d’éléments \(N\) étant une variable aléatoire:

Théorème 3.1 Soit:

  • \(X_k\) une séquence de v.a. indépendantes, de même distribution \(P(X_k = i) = f_i\), avec une fgp \(\mathbb{P}^{(X)}(s)\).

  • \(Z = \sum_{i=1}^N X_i\), avec \(N\), \(X_i, i = 1, ..., N\) indépendants, avec l’hypothèse que \(Z=0\) si \(N=0\).

  • La fonction génératrice de probabilités de \(N\) est \(\mathbb{P}^{(N)}(s)\).

Alors:

\[\mathbb{P}^{(Z_n)}(s)= \mathbb{P}^{(N)}[\mathbb{P}^{(X)}(s)]\]

Développement à faire en classe (solution: ??)


Les cas intéressants sont avec \(N \sim Poisson(\lambda)\), où \(\mathbb{P}^{(Z_n)}(s) = e^{-\lambda + \lambda \mathbb{P}^{(X)}(s)}\), ainsi nous avons les deux corollaires suivants.


Corollary 3.1 Soient \(X_i\), des v.a. i.i.d Bernoulli(\(p\)) et \(N \sim Poisson(\lambda)\). Trouvez la distribution de \(Z_n\).

On sait que:

\[\mathbb{P}^{(X)}(s) = q + ps\]

et ainsi:

\[\begin{eqnarray*} \mathbb{P}^{(Z_n)}(s) &=& e^{-\lambda + \lambda \mathbb{P}^{(X)}(s)}\\ &=& e^{-\lambda + \lambda (q+ps)}\\ &=& e^{-\lambda p + \lambda ps} \end{eqnarray*}\]

et donc \(Z_n \sim Poisson (\lambda p)\).


Corollary 3.2 Soient \(X_i\), des v.a. i.i.d Logarithmique de paramètre \(\theta\) et \(N \sim Poisson(\lambda)\). Trouvez la distribution de \(Z_n\).

Développement à faire en classe (solution: ??)


3.3.2 Autres caractérisations

En actuariat, la binomiale négative comme une mélange Poisson-Gamma est de loin l’interprétation la plus courante de la distribution.

Nous venons de voir le binomiale négative comme le cas d’une somme composée de loi logarithmiques. Par contre, Boswell et Patil(1970) ont montré 13 manières distinctes de construire une binomiale négative:

  • Utilisation de temps d’attente;
  • Processus de morts et naissances;
  • Equilibre d’une chaîne de Markov;
  • etc.

La connaissance de ces situations pourraient être utiles à expliquer des phénomènes ou des situations en actuariat.