4.3 Définitions, notations et hypothèses

Les exemples introductifs avaient pour objectif de donner un sens à l’utilisation de la théorie bayésienne pour l’actuariat. Nous sommes passés un peu rapidement sur certains éléments théoriques et avons fait certains raccourcis utiles pour obtenir nos résultats.

Un certain formalisme mathématique et l’établissement de définitions sont nécessaires pour poursuivre notre apprentissage de la crédibilité bayésienne.


4.3.1 Modèle mathématique et hypothèses

L’objectif principal de la crédibilité bayésienne est de proposer une structure de tarification prédictive à tous les \(m\) assurés d’un portefeuille d’assurance.

Pour la structure des modèles de crédibilité bayésienne à construire, pour tous les assurés \(i=1, \ldots, m\), on posera habituellement la distribution pour le couple de variables aléatoire suivant: \(S_{i,t}| \Theta=\theta\), et \(\Theta\).

Pour \(S_{i,t}\) que \(\Theta\) discrètes ou continues, les hypothèses usuelles sont de supposer que:

  1. Pour deux assurés \(i\) et \(j\), pour toutes les années \(t_1\) et \(t_2\), \(S_{i,t_1}\) et \(S_{i,t_2}\) sont indépendants;

  2. Pour \(t=1, \ldots, T\), pour un même assuré \(i\), les \(S_{i,t}\) sont dépendants, mais les \(S_{i,t}| \Theta=\theta\) sont (conditionnellement) indépendants.


Interprétations des résultats

  • Chaque assuré \(i\) possède son propre paramètre \(\theta\), affectant toutes les variables aléatoires annuelles \(S_{i,t}\) modélisant sa sinistralité;

  • La sinistralité de chaque assuré est indépendante des autres assurés;

  • Même si chaque assuré a son propre \(\theta\), inconnu de l’assureur, les \(\theta\) proviennent d’une même distribution;

  • Le profil de risque de chaque assuré est indépendant des profils de risque des autres assurés.


Le modèle de crédibilité défini plus haut implique que les réalisations de \(S_{i,t}\) sont conditionnellement indépendantes pour le même assuré \(i\). Mathématiquement, cela signifie que (on enlève l’indice \(i\) pour simplifier la notation):

\[f(s_{1}, s_{2}, ..., s_{T}|\Theta = \theta) = \prod_{t=1}^T f(s_{t}|\Theta = \theta).\]

Note: pour éviter des toujours doubler les résultats en discret et en continu, nous supposerons que la fonction de probabilité \(\Pr(S_{t}= s)\) se note aussi \(f_{S_{t}}(s) = \Pr(S_t = s)\).

Il est très important de comprendre que l’indépendance conditionelle n’est pas équivalente à l’indépendance. Ainsi (on enlève l’indice \(i\) pour simplifier la notation): \[ f(s_{1}, s_{2}, ..., s_{T}) \ne \prod_{t=1}^T f(s_{t}).\]


4.3.2 Distributions utilisées

La théorie bayésienne fait un usage de certaines distributions qui ont été définies. Afin de s’assurer de l’utilisation correcte des différentes distributions, effectuons un résumé de celles-ci.


1 - La distribution conditionnelle de \(S_{i,t}|\Theta = \theta\)

Ceci correspond à distribution de la sinistralité \(S_{i,t}\), sachant le paramètre de risque \(\Theta = \theta\). Cette distribution est souvent connue, ou posée lors de la construction de la modélisation.


2- La distribution a priori de \(\Theta\)

Ceci correspond à distribution du paramètre de risque \(\Theta\). Cette distribution est souvent supposée lors de la construction de la modélisation.


3- La distribution marginale de \(S_{i,t}\)

Ceci correspond à distribution de la sinistralité \(S_{i,t}\), de l’assuré \(i\) à son contrat \(t\), lorsque le paramètre de risque \(\Theta\) a été introduit et utilisé dans le modèle. Cette distribution doit être calculée en utilisant la distribution conditionnelle de \(S_{i,t}|\Theta= \theta\) et la distribution a priori de \(\Theta\) (théorème des probabilités totales):

\[\begin{eqnarray*} f_{S_{i,t}}(s) = \int_{\Theta} f_{S_{i,t}}(s|\Theta = \theta) f_{\Theta}(\theta) d\theta \\ \end{eqnarray*}\]


4- La distribution a posteriori de \(\Theta\)

Proposition 4.1 La distribution a posteriori de \(\Theta\), sachant les réalisations passées \(S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}\) s’exprime comme:

\[\begin{align*} f_{\Theta}(\theta|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}) &= \frac{\left(\prod_{t=1}^T f_{S_{i,t}}(s_{i,t}|\Theta= \theta)\right) g_{\Theta}(\theta)} {\int_{\Theta} \left(\prod_{t=1}^T f_{S_{i,t}}(s_{i,t}|\Theta= \theta)\right) g_{\Theta}(\theta) d\theta } \end{align*}\]

(Développement à faire en classe)

5- La distribution prédictive de \(S_{i,T+1}\), sachant les réalisations passées \(S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}\)

Proposition 4.2 La distribution prédictive de \(S_{i,T+1}\), sachant les réalisations passées \(S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}\) s’exprime comme:

\[\begin{align*} f_{S_{i,T+1}}(&s_{i,T+1}|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}) \\ &= \int_{\Theta} f_{S_{i,T+1}}(s_{i,T+1}|\Theta= \theta) f_{\Theta}(\theta|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}) d\theta\\ \end{align*}\]

(Développement à faire en classe)

4.3.3 Primes utilisées

En crédibilité bayésienne, on réfère souvent à au moins quatre différents types de primes.


1- La prime de risque: \(\mu(\Theta) = E[S_{i,t}|\Theta]\)

Elle correspondrait à la prime qu’on chargerait si on connaissait le profil de risque de l’assuré. La prime de risque est toutefois inconnue, car on ne connaît pas la valeur de \(\Theta\) pour chacun des assurés. Ainsi, \(\mu(\Theta)\) doit être vue comme une variable aléatoire.

La prime de risque \(\mu(\Theta)\) doit être vue comme une fonction \(\mu()\) qui dépend uniquement de son argument \(\Theta\). En ce sens, pour les \(t, t=1, \ldots, T\) contrats d’un assuré \(i, i=1, \ldots, m\), la prime de risque ne dépend ni de \(t\), ni de \(i\), et est donc constante pour tous les contrats et tous les assurés.


2- La prime a priori ou la prime collective: \(E[S_{i,t}] = E_{\Theta}\left[\mu(\Theta)\right]\)

\[\begin{eqnarray*} E[S_{i,t}] &=& E_{\Theta}\left[\mu(\Theta)\right] = E_{\Theta}\left[E[S_{i,t}|\Theta]\right] = \int_{\Theta} \mu(\theta) g_{\Theta}(\theta) d\theta \end{eqnarray*}\]

Il y a deux manières de voir cette prime:

  1. La prime attribuée à un nouvel assuré dont on ne connaît ni le niveau de risque ni son historique de sinistre. Dans ce cas, on aurait donc \(E[S_{i,1}]\), la prime à l’année 1 (prime a priori);

  2. La moyenne (la valeur espérée) des primes de risque (la prime collective).


3- La prime prédictive ou prime bayésienne: \(E[S_{i,T+1}|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}]\)

C’est une prime qui correspond à la mise-à-jour de la prime collective en fonction de l’expérience de sinistres passésde l’assuré.

Encore ici, il y a deux manières de calculer la prime prédictive:

  1. En utilisant la prime de risque et la distribution a posteriori de \(\Theta|s_{i,1},\ldots,s_{i,T}\):

\[\begin{eqnarray*} E_{\Theta}[\mu(\Theta)|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}] &=& \int_{\Theta} \mu(\theta) g_{\Theta}(\theta|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}) d\theta \end{eqnarray*}\]

  1. En utilisant la distribution prédictive de \(S_{i,T+1}|s_{i,1},\ldots,s_{i,T}\):

\[ E[S_{i,T+1}|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}] = \int_{S_{i,T+1}} s_{i,T+1} f_{S_{i,T+1}}(s|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}) ds_{i,T+1} \]


4- La prime de crédibilité linéaire

L’idée de cette prime est de forcer une prime basée sur l’expérience de sinistre à avoir la forme suivante:

\[p_{i,T+1}^{Cred} = \mathsf{Z} \overline{S}_i + (1-\mathsf{Z}) E[\mu(\Theta)],\]

\(\overline{S}_i\) correspond à la moyenne de sinistralité observée de l’assuré, et \(\mathsf{Z}\) correspond au facteur de crédibilité.

Dans certains cas, nous sommes capables de montrer que la prime \(p^{Cred}\) peut s’exprimer comme la prime prédictive, ce qui implique:

\[E[S_{i,T+1}|S_{i,1}=s_{i,1},\ldots,S_{i,T}=s_{i,T}] = \mathsf{Z} \overline{S}_i + (1-\mathsf{Z}) E[\mu(\Theta)],\]

Dans une telle situation, il serait possible de calculer le facteur de \(\mathsf{Z}\) qu’on accorde à l’expérience individuelle pour le calcul de la prime prédictive.


4.3.4 Exemple

Si nous reprenons notre premier exemple de bons et mauvais conducteurs, tout en retirant l’indice \(i\) pour simplifier la notation et les calculs, nous avions supposé que le portefeuille d’assurance se divisait en \(2\) types de conducteurs, avec:

  • \(\Theta = \{\theta_1 = 0.10, \theta_2 =0.50 \}\);
  • \(S_t|\Theta=\theta_j \sim Poisson(\theta_j)\), pour \(j \in \{1,2\}\);
  • \(\Pr(\Theta = \theta_1) = 0.6\) et \(\Pr(\Theta = \theta_2) = 0.4\).

Pour cette nouvelle notation, on peut ainsi calculer les différentes distributions et les différentes primes que nous venons de couvrir.


  1. La distribution conditionnelle de \(S_{t}\):

\[S_t|\Theta=\theta \sim Poisson(\theta_j)\]


  1. La distribution a priori de \(\Theta\):

\[\Pr(\Theta = \theta_1) = 0.6, \text{ et } \Pr(\Theta = \theta_2) = 0.4, \text{ pour } \theta_1 = 0.10 \text{ et } \theta_2 =0.50\]


  1. La distribution marginale de \(S_{t}\);

\[\Pr[S_t = k] = \exp(-\lambda_b) \frac{\lambda_b^k}{k!} p_b + \exp(-\lambda_m) \frac{\lambda_m^k}{k!} p_m\]


  1. La distribution a posteriori de \(\Theta\), sachant \(S_{1}=s_{1}, \ldots,S_{T}=s_{T}\);

\[\begin{align*} \Pr[C=b|s_{(1:T)}] &= \frac{\Pr[s_1, \ldots, s_{T}|C = b] \Pr[C=b]} {\Pr[s_1, \ldots, s_{T}|C = b] \Pr[C=b] + \Pr[s_1, \ldots, s_{T}|C = m]\Pr[C=m]}\\ \Pr[C=m|s_{(1:T)}] &= \frac{\Pr[s_1, \ldots, s_{T}|C = m] \Pr[C=m]} {\Pr[s_1, \ldots, s_{T}|C = b] \Pr[C=b] + \Pr[s_1, \ldots, s_{T}|C = m]\Pr[C=m]}\\ &= 1 -\Pr[C=b|s_{(1:T)}] \end{align*}\]


  1. La distribution prédictive de \(S_{T+1}\), sachant \(S_{1}=s_{1}, \ldots ,S_{T}=s_{T}\).

\[\Pr[S_t = k|s_{(1:T)}] = \exp(-\lambda_b) \frac{\lambda_b^k}{k!} \Pr[C=b|s_{(1:T)}] + \exp(-\lambda_m) \frac{\lambda_m^k}{k!} \Pr[C=m|s_{(1:T)}]\]


  1. La prime de risque;

\[\mu(\Theta) = E[S_{i,t}|\Theta] = \Theta\]


  1. La prime collective;

\[E[\mu(\Theta)] = E[\Theta] = 0.10 \times 60\% + 0.5 \times 40\% = 0.26 \]


  1. La prime prédictive au temps \(t=T\);

\[E[N_{T+1}|n_{(1:T)}] = \frac{\sum_{i \in \{b,m\}} \lambda_i \exp(-T \lambda_i) \lambda_i^{\sum_{t=1}^{T} n_t} p_i}{ \sum_{i \in \{b,m\}} \exp(-T \lambda_i) \lambda_i^{\sum_{t=1}^{T} n_t} p_i}\]


  1. La prime chargée à un nouvel assuré;

\[E[\mu(\Theta)] = E[\Theta] = 0.10 \times 60\% + 0.5 \times 40\% = 0.26\]


Exemple 4.6 Calculez la prime prédictive et le coefficient de crédibilité qu’on accorderait à deux assurés distincts, s’ils ont eu l’expérience de réclamations suivante:

  1. \(s_{1}=1,s_{2}=3\)

  2. \(s_{1}=0,s_{2}=0\)

(Exemple à faire en classe)

Avec \(\mathsf{Z} = 11.09\%\) et \(\mathsf{Z} = 26.15\%\) pour les deux primes de crédibilité calculées dans le dernier exemple, nous pouvons voir que le poids qu’on accorde à l’expérience individuelle change en fonction de l’historique de réclamations. En effet, le poids accordé à l’expérience de sinistres n’est pas le même pour un assuré ayant réclamé \(4\) fois en deux ans, comparativement à un assuré n’ayant pas réclamé du tout.


4.3.5 Crédibilité bayésienne conjuguée

Tel qu’indiqué plus tôt, il existe une infinité de profils de risque, et une hétérogénéité \(\Theta\) ne prenant que \(J\) valeurs possibles n’est probablement pas idéal. Ainsi, on supposera souvent une forme continue pour l’hétérogénéité \(\Theta\).

Certaines combinaisons particulières de la distribution conditionnelle \(f_S(s|\Theta=\theta)\) et de la distribution a priori \(f_{\Theta}(\theta)\) conduisent à une prime bayésienne facile à calculer. Dans cette partie du cours, nous allons voir quelques exemples classiques de ce genre de modèles qu’on appelle des distributions conjuguées.

Les combinaisons de distributions suivantes seront analysées en détail dans les prochaines pages:

  1. Poisson-gamma

  2. Bernoulli-beta

  3. Exponentiel-gamma


Avant d’aller plus loin, une petite pratique est nécessaire.

Exemple 4.7 On suppose que \(\Theta \sim gamma(\alpha, \tau)\). Calculez \(E[\Theta^x]\).

(Exemple à faire en classe)

Exercice 4.2 Trouvez des identités mathématiques en vous basant sur les densités des lois normale, beta et binomiale.