7.3 Forme des distributions conditionnelles et a priori

Théorème 7.4 (Théorème de Jewell) La prime bayésienne est égale à la prime de crédibilité linéaire de Bühlmann lorsque les conditions suivantes sont vérifiées:
i) La variable aléatoire conditionnelle \(S_t|\Theta=\theta\) est membre de la famille exponentielle linéaire.
ii) La variable aléatoire \(\Theta\) modélisant l’hétérogénéité est conjuguée à la variable aléatoire \(S_t|\Theta\).
iii) La variance de la variable aléatoire \(S_t|\Theta=\theta\) est constante pour tous \(t=1,...,T\).


Nous venons de voir ce qu’une une variable aléatoire de la famille exponentielle linéaire. Nous analysons maintenant la seconde partie du théorême.


Au lieu de travailler avec une variable aléatoire \(Y\), reprenons une variable aléatoire représentant la sinistralité de l’assuré \(i\) au temps \(t\). En laissant de côté l’indice \(i\) par simplicité, on suppose donc que nous travaillons avec la distribution conditionnelle \(S_t|\Theta\) et une hétérogénéité \(\Theta\).


Proposition 7.12 Si la fonction de densité de la variable aléatoire \(S_t|\Theta\) fait partie de la famille exponentielle linéaire et peut s’exprimer comme:

\[f(s_t|\Theta=\theta) = c(s_t, \phi) \exp\left[ \frac{s_t \theta - a(\theta)}{\phi}\right]\]

et que la densité de \(\Theta\) de paramètres \(\kappa_1\) et \(\kappa_2\), peut s’exprimer comme:

\[g(\theta) = \frac{\exp(\kappa_1 \theta - \kappa_2 a(\theta))}{d(\kappa_1, \kappa_2)}\]\(a(\theta)\) est le même que celui observé dans la densité conditionnelle \(f(s_t|\Theta=\theta)\), alors la distribution de la variable aléatoire \(\Theta\) est conjuguée à la distribution de \(S_t|\Theta\).

(Développement à faire en classe)

Exercice 7.1 Si \(\Theta\) est une variable aléatoire continue, montrez que:

\[d(\kappa_1, \kappa_2) = \int_{D} \exp(\kappa_1 \theta - \kappa_2 a(\theta)) d\theta\]

Exercice à faire à la maison

7.3.1 Fonctions de lien canoniques

Nous avons vu que la Poisson est membre de la famille exponentielle linéaire. Ainsi, lorsque \(Y \sim Poisson(\lambda)\), nous avions:

\[\begin{eqnarray*} c(y, \phi) &=& \frac{1}{y!}\\ \omega &=& \ln(\lambda) \\ a(\omega) &=& \lambda \\ \phi &=& 1 \end{eqnarray*}\]

et donc:

\[Pr[Y=y] = \frac{\lambda^y e^{-\lambda}}{y!} = \frac{1}{y!} \exp(y \ln(\lambda) - \lambda)\]


Si on travaille maintenant avec une distribution conditionnelle \(S_t|\Theta=\theta \sim Poisson(\theta)\), nous avons:

\[Pr[S_t=s_t|\Theta=\theta] = \frac{\theta^{s_t} e^{-\theta}}{s_t!} = \frac{1}{s_t!} \exp(s_t \ln(\theta) - \theta) \ne \frac{1}{s_t!} \exp(s_t \theta - \theta) \]

En comparaison avec la proposition 7.12, nous n’avons pas \(s_t \theta\) dans la fonction de probabilité, mais plutôt \(s_t \ln(\theta)\).


Comme nous l’avons vu dans notre survol des distributions de la famille exponentielle linéaire, il faut utiliser la fonction de lien canonique des distributions pour avoir l’expression \(s_t \theta\) dans la fonction de densité (seule la loi normale avec sa fonction de lien canonique identitté peut directement s’exprimer dans la forme voulue).