4.7 Poisson-lognormal

Exemple 4.10 Quel serait le problème majeur du modèle \(S_t|\Theta = \theta \sim Poisson(\theta)\), avec \(\Theta \sim Normal(\mu, \sigma^2)\)?

Réponse

Le support de la loi normale est \(\mathbf{R}\), ainsi des valeurs négatives sont possibles. Par contre, le paramètre de moyenne d’une Poisson doit toujours être positif.


Pour éviter la possibilité d’avoir des valeurs négatives pour le paramètre de moyenne de la Poisson, on peut transformer la loi normale en loi lognormale.


Supposons ainsi que nous avons \(S_t|\Theta = \theta \sim Poisson(\theta)\), avec \(\Theta = \exp(\Omega)\) et \(\Omega \sim Normal(\mu, \sigma^2)\). Nous aurions ainsi la fonction de probabilité et la fonction de densité suivante:

\[\underbrace{\Pr[S_t=s_t|\Omega=\omega] = \frac{\exp(\omega)^{s_t} e^{-\exp(\omega)}}{s_t!}}_{\text{Distribution conditionnelle}} \text{, pour } s_t \in \mathbb{N}\]

\[\underbrace{f_{\Omega}(\omega) = \frac{1}{\sqrt{2 \pi} \sigma} \exp(-\frac{1}{2}\left(\frac{\omega- \mu}{\sigma}\right)^2)}_{\text{Distribution a priori}}, \text{ pour } \omega \in \mathbf{R}, \mu \in \mathbf{R} \text{ et } \sigma^2 >0.\]


Exercice 4.9 Trouvez les éléments suivants:

  1. La distribution marginale de \(S_{t}\);
  2. La distribution a posteriori de \(\Theta\), sachant \(S_{1}=s_{1}, \ldots,S_{T}=s_{T}\);
  3. La distribution prédictive de \(S_{T+1}\), sachant \(S_{1}=s_{1}, \ldots ,S_{T}=s_{T}\).
  4. La prime de risque;
  5. La prime collective;
  6. La prime prédictive au temps \(t=T\);
  7. La prime chargée à un nouvel assuré;
  8. Le coefficient de crédibilité \(\mathsf{Z}\) pour la prime de crédibilité.
(Exercice à faire en classe)

4.7.1 Distributions non-conjuguées

Nous avons vu que lorsque la distribution a priori a la même forme que la distribution a posteriori (seuls les paramètres changent), nous disons que la distribution conditionnelle et la distribution a priori sont conjuguées.

À l’inverse, on dira que ces distributions seront non-conjuguées lorsque la densité a priori n’a pas la même forme que la distribution a posteriori.


Quelles sont les raisons rationnelles expliquant le choix des distributions que nous utilisons dans la modélisation? Par exemple, par la loi des petits nombres, on peut comprendre d’utiliser la distribution Poisson pour le nombre de réclamations. Mais qu’est-ce qui justifierait l’utilisation d’une distribution gamma pour modéliser l’hétérogénéité? Simplement parce que la gamma est conjuguée à la Poisson?

C’est pourquoi, dans l’univers bayésien, la très grande majorité des situations ressemblent à ce que nous venons de voir avec la Poisson-lognormale:

  • Il n’est pas possible d’exprimer analytiquement la distribution marginale;

  • La forme analytique de la distribution a posteriori est inconnue;

  • Nous ne pouvons pas dériver facilement la distribution prédictive, ni la prime prédictive;

  • Plusieurs approches ont été développées depuis plusieurs décennies pour trouver une solution à ces situations:

    1. Approximation numérique des intégrales;

    2. Approches par simulations, entre autres, les simulations Monte Carlo par chaînes de Markov, ou MCMC;

    3. Approximation par filtres, le plus connu étant le filtre de Kalman.

  • En actuariat, une approximation linéaire de la prime prédictive a été développée par un actuaire de l’ETH de Zurich, Hans Bühlmann, en 1967. C’est ce que nous verrons dans un prochain chapitre.