Chapitre4-5-Charpentier Dutang Actuariat Avec R
Chapitre4-5-Charpentier Dutang Actuariat Avec R
Chapitre4-5-Charpentier Dutang Actuariat Avec R
où l’assureur s’est engagé à verser un capital Ci à des dates Tk (connues), à condition qu’une
hypothèse soit vérifiée à la date Tk . Compte-tenu de la linéarité de l’espérance, si l’on suppose
le taux d’actualisation non aléatoire, on peut réécrire cette dernière expression sous la forme :
1
X X 1
Ck
T
P(paiement à la date Tk ) = Ck · ⌫ Tk · P(paiement à la date Tk ),
(1 + i) k
k=1 k=1
133
où le facteur d’actualisation ⌫ = (1 + i) 1 permettra d’éviter - autant que possible - la notation
i, réservée aux taux d’actualisation en assurance-vie, mais désignant un indice de ligne dans les
algorithmes.
où C = (C1 , · · · , Ck ) est l’ensemble des montants à verser (correspondant à un vecteur C), i est
le taux d’actualisation, et p = (p1 , · · · , pk ) est le vecteur des probabilités de verser le capital
aux di↵érentes dates {1, 2, ..., k} (correspondant à un vecteur P).
> k <- 20; x <- 40; i <- 0.03
> C <- rep(100,k)
> P <- p[1:k,x]
> sum((1/(1+i)^(1:k))*P*C)
[1] 1417.045
> sum(cumprod(rep(1/(1+i),k))*P*C)
[1] 1417.045
Rappelons que ce calcul peut se faire au sein d’une fonction générique,
> LxTD<-TD$Lx
> VAP <- function(capital=1,m=1,n,Lx=TD$Lx,age,taux=.03)
+ {
+ proba <- Lx[age+1+m:n]/Lx[age+1]
+ vap <- sum((1/(1+taux)^(m:n))*proba*capital)
+ return(vap)
+ }
> VAP(capital=100,n=20,age=40)
[1] 1417.045
On peut ainsi rapidement changer la table,
> VAP(capital=100,n=20,age=40,L=TV$Lx)
[1] 1457.646
> VAP(capital=100,n=20,age=40,L=LH)
[1] 1472.078
> VAP(capital=100,n=20,age=40,L=LF)
[1] 1472.598
ou les taux d’actualisation
> VAP(capital=100,n=20,age=40,taux=.04)
[1] 1297.245
Il est aussi possible de visualiser la sensibilité de ces valeurs actuelles probables en fonction
des taux, d’actualisation, ou de l’âge de l’assuré, comme sur la Figure 4.1
> VAPtaux <- function(T){VAP(capital=100,n=20,age=40,taux=T)}
> vVAPtaux <- Vectorize(VAPtaux)
> TAUX <- seq(.01,.07,by=.002)
> VAPage <- function(A){VAP(capital=100,n=20,age=A,taux=.035)}
> vVAPage <- Vectorize(VAPage)
> AGE <- seq(20,60)
> par(mfrow = c(1, 2))
> plot(100*TAUX,vVAPtaux(TAUX),xlab="Taux d’actualisation (%)",
+ ylab="Valeur Actuelle Probable")
> plot(AGE,vVAPage(AGE),xlab="Age de l’assuré",ylab="Valeur Actuelle Probable")
> par(mfrow = c(1, 1))
● ●
1350
●
● ●
●
● ●
● ●
1500
●
●
●
●
1300
Valeur Actuelle Probable
●
● ●
●
●
●
1250
●
●
1300
● ●
●
●
●
● ●
1200
1200
● ●
●
● ●
●
●
1100
●
●
●
1150
● ●
●
●
● ●
1000
1 2 3 4 5 6 7 20 30 40 50 60
Là encore, k Ex peut être vu comme le terme générique d’une matrice que l’on notera E.
> E <- matrix(0,m,m)
> i <- .035
> for(j in 1:m){
+ E[,j] <- (1/(1+i)^(1:m))*p[,j]
+ }
> E[10,45]
[1] 0.663491
> p[10,45]/(1+i)^10
[1] 0.663491
Plus généralement, on veut considérer non pas des assurance “vie entière”, mais dites “tem-
poraires”, d’une durée de n années (avec n versements), i.e.
n
X1 X n 1
1
n äx = k k px = k Ex
(1 + i)
k=0 k=0
Le code est alors le suivant :
> adot<-matrix(0,m,m)
> for(j in 1:(m-1)){
+ adot[,j]<-cumsum(1/(1+i)^(0:(m-1))*c(1,p[1:(m-1),j]))
+ }
> adot[nrow(adot),1:5]
[1] 26.63507 26.55159 26.45845 26.35828 26.25351
Notons que l’on peut également di↵érer de h années,
h+n
X1 h+n
X1
1
h|n äx = · k p x = k Ex
(1 + i)k
k=h k=h
A h fixé, on peut construire la matrice adot, contenant les [h|n äx ] (indicé ici en n et x),
> h <- 1
> adoth <- matrix(0,m,m-h)
> for(j in 1:(m-1-h)){
+ adoth[,j]<-cumsum(1/(1+i)^(h+0:(m-1))*p[h+0:(m-1),j])
+ }
> adoth[nrow(adoth),1:5]
[1] 25.63507 25.55159 25.45845 25.35828 25.25351
Dans cet exemple numérique, on décale d’un an, autrement dit, au lieu de considérer des
versements payables d’avance, on considère des versements à terme échu. Classiquement, ces
1|1 äx sont notés ax ,
X1 1
X
1
ax = · k p x = k Ex
(1 + i)k
k=1 k=1
> a<-matrix(0,m,m)
> for(j in 1:(m-1)){
+ a[,j]<-cumsum(1/(1+i)^(1:(m))*p[1:m,j])
+ }
> a[nrow(a),1:5]
[1] 25.63507 25.55159 25.45845 25.35828 25.25351
La dernière ligne de la matrice (présentée ci-dessus) donne les valeurs des annuités “vie entière”
en fonction de l’âge de l’assuré. On retrouve ce qu’aurait donné un calcul direct à l’aide des k Ex
> apply(E,2,sum)[1:5]
[1] 25.63507 25.55159 25.45845 25.35828 25.25351
Pour les nouvelles tables, TGH et TGF, il est possible d’utiliser le code suivant, pour calculer
la valeur d’une rente de 1 euro, versée pendant une durée (avec une distinction suivant que le
versement survient en début ou en fin d’année)
> PRIX <- function(annee=2011,age,sex="HOM",taux=0.04,duree,C=1){
+ an <- annee-age; if(an>2005){an=2005}
+ nom <- paste("X",an,sep="")
+ if(sex=="HOM"){L <- TGH[,nom]}
+ if(sex=="FEM"){L <- TGF[,nom]}
+ Q <- L[(age+1):length(L)]/L[(age+1)]
+ actualisation <- (1+taux)^(0:min(duree,120-age))
+ prixsup <- sum(Q[2:(min(duree,120-age)+1)]/
+ actualisation[2:(min(duree,120-age)+1)] )
+ prixinf <- sum(Q[1:(min(duree,120-age))]/
+ actualisation[1:(min(duree,120-age))] )
+ return(C*c(prixinf,prixsup))}
> PRIX(age=45,duree=20)
[1] 13.95699 13.39479
Cette fonction permet d’avoir le prix de la rente versée en début d’année en cas de vie, ou
en fin d’année.
Plus générallement, on peut définir une assurance “temporaire décès”, où le versement du capital
n’a lieu que si le décès survient dans les n années qui suivent la signature du contrat,
n
X 1
n Ax = ·k 1 px · 1 qx+k 1.
(1 + i)k
k=1
E((1 + r)−(Tx+1))
(1 + r)−(E(Tx)+1)
0.8
0.6
Ax
0.4
0.2
0 20 40 60 80 100
Age
⇣ ⌘
Figure 4.2 – Comparison de x 7! Ax = E ⌫ 1+Tx et ⌫ 1+E(Tx ) .
un décalage entre les prime payée par l’assurée et la couverture du risque par l’assureur, décalage
qui doit être présenté dans les comptes annuels, intégrant les prévisions de dépenses constituées
sous forme de “provisions” (dites mathématiques). Pour reprendre la définition de Petauton
(2004) et du Code des Assurances, les provisions mathématiques sont “à l’époque de l’évaluation
la di↵érence entre d’une part la valeur actuelle probable des engagements pris par l’assureur [...]
et d’autre part la valeur actuelle probable des engagements pris par les souscripteurs”.
Notons V AP[tt01 ,t2 ] (assuré) la valeur actuelle probable, en t0 , des engagements de l’assuré
0 (assuré) sera la valeur actuelle probable, en 0, des k
pour la période [t1 , t2 ]. Aussi, V AP[0,k]
premières primes annuelles. Et on notera V AP[k+1,n] 0 (assuré) la valeur actuelle probable, en 0,
des engagements de l’assuré pour la période [k + 1, n], i.e. la valeur actuelle probable des n k
dernières primes annuelles.
De manière analogue, notons V AP[tt01 ,t2 ] (assureur) la valeur actuelle probable, en t0 , des
engagements de l’assureur pour la période [t1 , t2 ]. Compte tenu du principe fondamental de
valorisation 1 , pour un contrat arrivant à échéance au bout de n années, on doit avoir
0 0
V AP[0,n] (assuré) = V AP[0,n] (assureur)
pour un contrat soucrit à la date 0 et tel qu’il n’y a plus d’engagement de part et d’autre part
n années. Aussi, pour k compris entre 0 et n,
0 0 0 0
V AP[0,k] (assuré) + V AP[k+1,n] (assuré) = V AP[0,k] (assureur) + V AP[k+1,n] (assureur)
avec, de manière générale
0 0
V AP[0,k] (assuré) V AP[0,k] (assureur)
1. Tous les calculs sont nets, au sens où aucune marge de sécurité n’est considérée, et qu’aucun frais n’est prélevé
afin de permettre à la compagnie de fonctionner. À la souscription, la valeur actuelle probable des engagements
de l’assuré doit être égale à la valeur actuelle probable des engagements de l’assureur.
et
0 0
V AP[k+1,n] (assuré) V AP[k+1,n] (assureur)
(d’où le principe d’inversion du cycle de production de l’assurance). La provision mathématique
(pure) de l’année k sera notée k Vx (t) si elle est actualisée à la date t. La référence étant k Vx =
k Vx (k) (i.e. on actualise en k). On définie k Vx (0) par
0 0
k Vx (0) = V AP[0,k] (assuré) V AP[0,k] (assureur).
Cette définition sera dite rétrospective (car on se place sur la période antérieure à k). On peut
aussi écrire, de manière équivalente (compte tenu du principe de valorisation)
0 0
k Vx (0) = V AP[k+1,n] (assureur) V AP[k+1,n] (assuré).
Cette définition sera dite prospective (car on se place sur la période postérieure à k). Enfin, il
existe une dernière méthode, correspondant à une simple mise à jour, i.e.
k 1 Vx (k 1) + V AP[kk 1
1,k] (assuré) V AP[kk 1
1,k] (assureur) = k Vx (k 1).
Cette méthode sera dite itérative, voire en l’occurence itérative ascendante, car on initialise
avec 0 Vx (0) = 0. Mais il sera aussi possible de construire une méthode itérative descendante,
commençant à la fin du contrat (ici la récursion est ascendante).
où
n
X1 1
n äx = · k px ,
(1 + i)k
k=0
(on utilise ici ä car le paiement se faisant ici en début de période). De même,
n
X 1
V AP 0 (assureur) = · P(k 1 < Tx k) = n Ax ,
(1 + i)k
k=1
où
n
X 1
n Ax = ·k 1 px · 1 qx+k 1,
(1 + i)k
k=1
(l’indemnité étant versée par l’assureur à terme échu). On en déduit que la prime annuelle est
alors
n Ax
⇡= .
n äx
À partir des grandeurs (ou de ces matrices de grandeurs) calculées auparavant, on peut
calculer la prime annuelle des contrats décès
> x <-50; n <-30
> prime <-A[n,x]/adot[n,x]
> sum(prime/(1+i)^(0:(n-1))*c(1,p[1:(n-1),x]))
[1] 0.3047564
> sum(1/(1+i)^(1:n)*d[1:n,x])
[1] 0.3047564
La méthode prospective
Pour le calcul de la provision mathématique du contrat d’assurance “temporaire décès”, la
méthode prospective permet d’écrire
0 0
k Vx (0) = V AP[k+1,n] (assureur) V AP[k+1,n] (assuré)
Notons que k Vx (0) = k Vx (k) · k Ex où k Ex est la valeur actuelle probable d’un capital di↵éré,
relatif au versement d’un euro dans k années, conditionnée par la survie de l’assuré d’âge x à la
souscription, i.e.
1
k Ex = · P(Tx > k) = ⌫ k · k px
(1 + i)k
Si l’on se place à la date k (car c’est le plus simple, mais l’assuré a alors l’âge x + k), notons
que la di↵érence entre les valeurs actuelles probables des engagements des deux parties donne,
simplement
k Vx (k) = n k Ax+k ⇡ · n k äx+k
car d’un côté, on a une assurance “temporaire décès” sur les n k années restantes pour un
assuré d’âge x + k, et de l’autre, l’assuré a pris l’engagement de verser sa prime (qui reste
inchangée) pendant n k années s’il vit. Aussi,
où l’on considère des assurances décès di↵érées. On peut aussi écrire
La méthode retrospective
Pour la méthode rétrospective, on écrit simplement
0 0
k Vx (0) = V AP[0,k] (assuré) V AP[0,k] (assureur)
k 1 Vx (k 1) + ⇡ 1 Ax+k 1
k Vx (k) =
1 Ex+k 1
avec la convention que la première provision est nulle (de part notre principe fondamental de
valorisation).
> VI<-0
> for(k in 1:n){
+ VI <- c(VI,(VI[k]+prime-A[1,x+k-1])/E[1,x+k-1])
+ }
> points(0:n,VI,pch=5)
Comme le montre la Figure 4.3, ces trois méthodes coı̈ncident (on ne distingue plus les trois
points),
0.20
● ●
● ●
● ●
●
●
●
● ●
●
0.15
● ●
●
Provisions mathématiques
●
●
●
0.10
●
●
●
●
0.05
● ●
●
0.00
● ●
0 5 10 15 20 25 30
soit, avec les notations actuarielles, V AP0 = C · n| ax (i.e. la valeur actuelle probable d’une
annuité viagère di↵érée de n années). Si l’assuré paye une prime annuelle constante pendant ces
n années, en début d’année, alors la prime est
V AP0 n| ax
⇡= =C·
n äx n äx
On peut alors passer au calcul de la provision mathématique, en notant qu’il faudra distinguer
les n premières années (période où l’assuré paye sa prime) et les dernières (période où l’assureur
verse la rente). Pour le calcul des n| ax , on va utiliser la matrice adiff
> adiff=matrix(0,m,m)
> for(i in 1:(m-1)){
+ adiff[(1+0:(m-i-1)),i] <- E[(1+0:(m-i-1)),i]*a[m,1+i+(0:(m-i-1))]
+ }
La prime annuelle peut être calculée de plusieurs manières pour une personne souscrivant
un contrat à x = 35 ans.
> x <- 35
> n <- 30
> a[n,x]
[1] 17.31146
> sum(1/(1+i)^(1:n)*c(p[1:n,x]) )
[1] 17.31146
> (prime <- adiff[n,x] / (adot[n,x]))
[1] 0.1661761
> sum(1/(1+i)^((n+1):m)*p[(n+1):m,x] )/sum(1/(1+i)^(1:n)*c(p[1:n,x]) )
[1] 0.17311
Une fois obtenue la cotisation à payer (annuellement) pendant n année (notée prime), on peut
calculer les provisions mathématiques, en distinguant la période de cotisation (où la provision
devrait augmenter avec le temps) de la période de retraite (où la provision devrait baisser).
Méthode prospective
On se place ici au bout de k années. Si k < n (l’assuré paye encore sa prime), en faisant la
di↵érence entre les engagements restants de l’assureur et ceux de l’assuré, on obtient
k Vx (0) = C · ax+k .
Tout simplement. En e↵et, dans le premier cas, l’assuré a vieilli, et il a moins de versements à
venir (c’est la partie de droite). Pour l’assureur, il s’agit toujours d’une annuité di↵érée. Dans
le second cas, l’assureur doit verser une rente viagère tant que l’assuré est en vie.
> VP <- rep(NA,m-x)
> VP[1:(n-1)] <- diag(adiff[n-(1:(n-1)),x+(1:(n-1))] -
+ adot[n-(1:(n-1)),x+(1:(n-1))]*prime)
> VP[n:(m-x)] <- a[m,x+n:(m-x)]
> plot(x:m,c(0,VP),xlab="Age de l’assuré",
+ ylab="Provisions mathématiques")
Méthode rétrospective
⇡ · k äx
k Vx (0) =
k Ex
puisque sur cette période, seul l’assuré a pris des engagements. Pour rappel, k Ex est la valeur
actuelle probable du capital di↵féré, i.e.
k px
k Ex = .
(1 + i)k
⇡ · n äx C · n|k ax
k Vx (0) =
k Ex
avec à gauche un terme constant (les engagements de l’assuré étant passés), et à droite les
engagements qu’avait pris l’assureur, i.e. les k n années qui ont suivi l’année n.
Pour les calculs, on utilise le fait que
n+k
X
n|k ax = j Ex = n| ax n+k| ax
j=n+1
On peut alors utiliser (comme l’indice x ne change pas) une matrice fonction des deux
premiers indices,
> adiff[n,x]
[1] 2.996788
> adiff[min(which(is.na(adiffx[,n])))-1,n]
[1] 2.996788
> adiff[10,n]
[1] 2.000453
> adiff[n,x]- adiff[n+10,x]
[1] 2.000453
A l’aide de ces fonctions, on peut calculer les provisions de manière retrospective,
> VR <- rep(NA,m-x)
> VR[1:(n)] <- adot[1:n,x]*prime/E[1:n,x]
> VR[(n+1):(m-x)] <- (adot[n,x]*prime - (adiff[(n),x]-
+ adiff[(n+1):(m-x),x]) )/E[(n+1):(m-x),x]
> points(x:m,c(0,VR),pch=4)
Méthode itérative
k 1 Vx (0) +⇡
k Vx (0) =
1 Ex+k 1
● ●
●
● ●
●
●
●
● ●
8
●
●
●
Provisions mathématiques
● ●
●
●
●
●
6
●
● ●
● ●
●
●
●
●
●
● ●
4
● ●
● ●
●
● ●
● ●
● ●
●
● ●
● ●
2
●
● ●
● ●
● ●
●
● ●
● ●
●
● ●
●
● ●
● ●
●
● ● ● ●
0
40 60 80 100
Age de l'assuré
n Vx = vqx+n px + vpx+nn+1 Vx
> x <- 50
> px <- L[(x+2):length(L)]/L[(x+1):(length(L)-1)]
> px <- px[-length(px)]
> qx <- 1-px
> V=recurrence(a=v*qx+px[1],b=v*px,xfinal=0)
x lx px ex
1 0 100000 0.9935200 80.2153857
2 1 99352 0.9994162 79.2619494
3 2 99294 0.9996677 78.2881343
4 3 99261 0.9997481 77.3077311
5 4 99236 0.9997783 76.3247626
6 5 99214 0.9997984 75.3400508
7 6 99194 0.9998286 74.3528792
8 7 99177 0.9998387 73.3647956
9 8 99161 0.9998386 72.3765545
10 9 99145 0.9998386 71.3881558
Cet objet (de la classe S4) peut alors être appelé en utilisant di↵érentes fonctions, comme la
probabilité de survie 10 p40 ,
> pxt(TD8890,x=40,t=10)
[1] 0.9581196
> p[10,40]
[1] 0.9581196
qui correspondent aux calculs e↵ectués auparavant.
Plusieurs autres fonctions peuvent être utilisées pour calculer d’autres quantités, comme
10 q40 , ou encore e40:10q ,
> qxt(TD8890,40,10)
[1] 0.0418804
> exn(TD8890,40,10)
[1] 9.796076
Il est aussi possible de calculer des h px pour des durées h non entières. Plusieurs interpolations
sont proposées, linéaire, avec une force de mortalité constante, ou encore hyperbolique,
> pxt(TD8890,90,.5,"linear")
[1] 0.8961018
> pxt(TD8890,90,.5,"constant force")
[1] 0.8900582
> pxt(TD8890,90,.5,"hyperbolic")
[1] 0.8840554
On peut visualiser ces trois méthodes d’interpolation sur la Figure 4.5
> pxtL <- function(u){pxt(TD8890,90,u,"linear")}
> pxtC <- function(u){pxt(TD8890,90,u,"constant force")}
> pxtH <- function(u){pxt(TD8890,90,u,"hyperbolic")}
> PXTL <- Vectorize(pxtL)
> PXTC <- Vectorize(pxtC)
> PXTH <- Vectorize(pxtH)
> u=seq(0,1,by=.025)
> plot(u,PXTL(u),type="l",xlab="Année",ylab="Probabilité de survie")
> lines(u,PXTC(u),col="grey")
> lines(u,PXTH(u),pch=3,lty=2)
> legend(.45,.99,c("Linéaire","Force de mortalité constante",
+ "Hyperbolique"),lty=c(1,1,2),
+ col=c("black","grey","black"),bty="n")
Pour le premier, on utilise tout simplement une interpolation linéaire entre [h] px et [h]+1 px
(en notant [h] la partie entière de h 0),
Enfin, la dernière (toujours dans le cas où h 2 [0, 1)), proposée par Baldacci, repose sur l’utili-
sation d’une relation de la forme
1 1 h + [h] h [h]
= +
p
h x p
[h] x [h]+1 px
1.00
●
Linéaire
Force de mortalité constante
Hyperbolique
0.95
Probabilité de survie
0.90
0.85
0.80
Année
> .5*pxt(TD8890,90,1)+.5*1
[1] 0.8961018
> pxt(TD8890,90,1)^.5
[1] 0.8900582
> pxt(TD8890,90,1)/(1-.5*qxt(TD8890,90,1))
[1] 0.8840554
> (.5/1+.5/pxt(TD8890,90,1))^(-1)
[1] 0.8840554
On peut aussi travailler sur plusieurs têtes, par exemple un homme (dont la table est TD88-
90) et une femme (dont la table est TV88-90). On peut alors calculer des probabilités de survie
jointe, h pxy , ou ‘au contraire’ la probabilité qu’au moins une personne soit encore en vie h pxy ,
> pxyt(TD8890,TV8890,x=40,y=42,t=10,status="joint")
[1] 0.9376339
> pxyt(TD8890,TV8890,x=40,y=42,t=10,status="last")
[1] 0.9991045
h pxy = h px · h p y ,
(en supposant les survies indépendantes) mais aussi
h pxy = h px + h py h pxy .
> pxt(TD8890,40,10)*pxt(TV8890,42,10)
[1] 0.9376339
> pxt(TD8890,40,10)+pxt(TV8890,42,10)-
+ pxyt(TD8890,TV8890,x=40,y=42,t=10,status="joint")
[1] 0.9991045
Pour l’analyse de la survie sur deux têtes, on peut ainsi visualiser les fonctions de survie des
durées restantes avant le premier et le dernier décès, sur la Figure 4.6
> JOINT=rep(NA,65)
> LAST=rep(NA,65)
> for(t in 1:65){
+ JOINT[t]=pxyt(TD8890,TV8890,x=40,y=42,t-1,status="joint")
+ LAST[t]=pxyt(TD8890,TV8890,x=40,y=42,t-1,status="last") }
> plot(1:65,JOINT,type="l",col="grey",xlab="",ylab="Probabilité de survie")
> lines(1:65,LAST)
> legend(5,.15,c("Dernier survivant","Vie jointe"),lty=1,
+ col=c("black","grey"),bty="n")
1.0
0.8
Probabilité de survie
0.6
0.4
0.2
Dernier survivant
Vie jointe
0.0
0 10 20 30 40 50 60
> exyt(TD8890,TV8890,x=40,y=42,status="joint")
[1] 30.39645
> exyt(TD8890,TV8890,x=40,y=42,status="last")
[1] 44.21737
Les calculs d’annuités sont eux aussi relativement simples à obtenir, et à recalculer, par
exemple les n äx
ou encore les n Ax ,
> Axn(TV8890,40,10,i=.04)
[1] 0.01446302
Il est aussi possible d’avoir des flux croissants (Increasing) ou décroissants (Decreasing) de
manière arithmétique, i.e.
n
X1 k+1
n IAx = ·k 1 px · 1 qx+k 1,
(1 + i)k
k=0
ou
n
X1 n k
n DAx = ·k 1 px · 1 qx+k 1,
(1 + i)k
k=0
> DAxn(TV8890,40,10,i=.04)
[1] 0.07519631
> IAxn(TV8890,40,10,i=.04)
[1] 0.08389692
Dans le cas où le capital n’est pas versé en début d’années, mais fractionné (par exemple
tous les mois), les calculs sont un peu di↵érents. Par exemple, si on ne verse plus 1 (euro) en
début d’année, mais 1/12 tous les mois, la valeur actuelle probable des flux futurs est
> sum(Ex(seq(0,5-1/12,by=1/12))*1/12)
[1] 4.532825
> axn(TV8890,40,5,i=.04,k=12)
[1] 4.532825
4.5.3 Exemple de calculs de primes et de provisions mathématiques
Considérons un contrat d’assurance décès où un capital K est versé aux ayant-droits si le
décès d’une personne x survient entre l’âge x et x + m. On suppose qu’une prime constante est
versée annuellement entre l’âge x et x + n (avec n m). La prime ⇡ est alors solution de
Ax:mq
K · Ax:mq = ⇡ · äx:nq , i.e. ⇡ = K · .
äx:nq
Ainsi, si un personne de x = 35 ans souhaite un contrat assurant le versement d’un capital
de K = 100000 à son décès s’il survient avant qu’il n’ait 75 ans, et qu’il verse une prime constant
jusqu’à ses 75 ans (au plus, il ne verse plus de prime s’il décède), alors la prime est donnée par
k Vx = K · Ax+k:n k| ⇡ · äx+k:n k|
4.6 Exercices
Exercise 4.6.1. Le modèle de Gompertz suppose que la fonction de survie associée à une vie
humaine pouvait s’écrire
x
Lx = c .
A partir des tables TV88-90 et TD88-90, et de 10 p50 , 10 p60 et 10 p70 , proposer des estimateurs
des paramètres , c et .
2
Exercise 4.6.2. On suppose que µx = a+bcx dx . Construire une fonction permettant de calculer
k px .
Exercise 4.6.3. Montrer qu’il existe une relation de récurence sur les IAx:nq . En utilisant
l’algorithme présenté dans la Section 4.4, les calculer.
Exercise 4.6.4. On supposera que les durées de vie résiduelles ne sont plus indépendentes, mais
que
t pxy = P(Tx > t, Ty > t) = C(t px , t py )
où C est une copule. Pour les tables TV88-90 et TD88-90, et pour des assurés d’âge x = 40 et
y = 45, tracer
● ● ●
●
● ●
● ●
●
●
●
●
●
●
●
6000
●
●
● ●
●
provisions mathématiques
● ●
4000
●
●
●
●
2000
● ●
● ●
0
0 10 20 30 40
1. la prime d’une rente de veuvage (versée entre le premier et le dernier décès, à terme échu)
en fonction de ✓ où C✓ est une copule Gaussienne
2. la prime d’une rente de veuvage en fonction de ✓ où C✓ est une copule de Clayton
3. la prime d’une rente de veuvage en fonction de ✓ où C✓ est une copule de Gumbel
Exercise 4.6.5. Considérons une assurance de prêt : un individu d’âge x a emprunté un capital
d’un montant C et s’est engagé à le rembourser en n annuitiés de montant ⇢, payables à terme
échu. On suppose qu’à la date de prise d’e↵et du contrat de prêt, il souscrit une assurance
garantissant un remboursement des sommes restant dues si l’assuré décède avant d’avoir atteint
l’âge +n. On notera t le taux d’intérêt du prêt (qui est a priori di↵érent du taux d’actualisation
i).
1. Exprimer t en fonction de C, de r et de n. Ecrire la fonction permettant de calculer ce
taux.
2. On note Ck le capital restant dû à la fin de la kème année, montrer que
(1 + t)k 1
Ck = C (r tC)
t
Ecrire la fonction renvoyant le vecteur de ces capitaux (C, C1 , · · · , Cn ).
3. Montrer que la prime pure unique du contrat d’assurance s’écrit
n
X 1
⇡= k 1 px · 1 qx+k 1 Ck 1
(1 + i)k
k=1
Écrire une fonction permettant de calculer cette prime en fonction de l’âge de l’assuré x,
du taux d’actualisation i, de la table de mortalité retenue L, du capital C, de la durée du
prêt n et du taux du prêt t.
4. En supposant que la prime d’assurance soit payée annuellement (et est constante dans le
temps), pendant m années (1 m n), et en notant que la prime annuelle s’écrit ⇡/m äx ,
calculer la provision mathématique par une des trois méthodes (prospective, rétrospective
ou recursive).
5. En supposant que la prime d’assurance n’est pas plus constante dans le temps, mais pro-
portionnelle au capital restant du (payée aux dates 0, 1, ..., n 1) montrer que la prime
est
⇡Ck
⇡k = Pn 1 .
k
j=0 k px Ck (1 + i)
Ecrire une fonction renvoyant le vecteur des primes, et représenter graphique l’évolution
de la provision mathématique.
Exercise 4.6.6. Representer l’évolution des provisions mathématiques pour un contrat avec
capital di↵éré (de n années pour un assuré d’âge x) avec contre-assurance, au sens où l’assureur
rembourse les primes en cas de décès avant l’échéance.
Chapitre 5
k+h px = h px+k · k px ,
nous omettons le fait que les probabilités ne devraient pas être calculées à la même date. Si la
personne est d’âge x à la date t, elle aura un âge x + k à la date t + k. Par exemple, en notant
en puissance l’année où la probabilité est calculée, on aurait
(2010) (2035)
25+25 px = 25 px+25 · 25 p(2010)
x ,
ou
(2010) (2045)
35+15 px = 15 px+35 · 35 p(2010)
x .
Si k est elevé, on imagine que les probabilités de survie doivent tenir compte des améliorations
de santé, notamment les conditions de vie, les avancées en médecine. Pour des compléments
théoriques sur les outils présentés ici, nous renvoyons à Pitacco et al. (2009), Denuit & Robert
(2007) ou encore Cairns et al. (2008)
159
> Expo$Age <- as.numeric(as.character(Expo$Age))
> Expo$Age[is.na(Expo$Age)] <- 110
Pour commencer, on peut visualiser l’évolution de la surface du taux de mortalité, afin de
mieux comprendre la nécessité d’une analyse dynamique de la démographie, où
Dx,t
µx,t = .
Ex,t
L’évolution de cette surface est repésentée sur la Figure 5.1, avec (x, t) 7! log µx,t .
> MU <- Deces[,3:5]/Expo[,3:5]
> Ages <- unique(Deces$Age)
> Annees <- unique(Deces$Year)
> matriceMU <- matrix(MU[,3],length(Ages),length(Annees))
> persp(Ages[1:100],Annees,log(matriceMU[1:100,]), theta=-30,
+ xlab="Age",zlab="Taux de décès (log)")
-2
Taux de d
-4
é
cès (log)
-6
-8
2000
1980
1960
Ann
1940 80
ees
60
1920
40
20 Ag e
1900
0
Figure 5.1 – Surface de mortalité (x, t) 7! log µx,t pour les Hommes, en France, entre 1899 et
2005, et entre 0 et 110 ans.
5.1.1 La lecture longitudinale des tables
Ces données ne sont pas sous le format que nous avions vu dans le chapitre 4. Toutefois, on
va pouvoir construire des fonctions proches de celles construites alors. On peut par exemple en
placer l’année an=1900 ou an=2000 pour décrire la mortalité cette année là.
> mu.an <- function(a, pointille=1, cex=1.5){
+ Da <- Deces[Deces$Year==a,]
+ Ea <- Expo[Expo$Year==a,]
+ MUa <- Da[,3:5]/Ea[,3:5]
+ titre <- paste("Taux de mortalit\’e",a,sep=" ")
+ plot(Ages,log(MUa[,1]), type="l", xlab="Age", ylab="Taux de d\’ecès (log)",
+ main=titre, lwd=1.7, ylim=c(-9.8,.5), lty=pointille, cex=cex, cex.axis=cex,
+ cex.lab=cex, cex.main=cex)
+ lines(Ages,log(MUa[,2]),col="grey",lwd=1.7,lty=pointille)
+ legend(75,-6,c("Femmes","Hommes"),lty=pointille,lwd=1.7,
+ col=c("grey","black"),bty="n")
+ }
Cette petite fonction permet de tracer x 7! log µx,t à t fixé, où µx,t = Dx,t /Ex,t . La Figure 5.2,
permet de comparer ces deux fonctions, en 1900 et en 2000.
Remark 5.1.1. Il ne s’agit pas ici du suivi d’une cohorte, mais de l’étude de la mortalité pour
des personnes d’âge di↵érents (et nées à des périodes di↵érentes) à une date t bien précise.
0
−2
−2
Taux de décès (log)
−4
−6
−6
Femmes Femmes
Hommes Hommes
−8
−8
−10
−10
0 20 40 60 80 100 0 20 40 60 80 100
Age Age
Figure 5.2 – Logarithmes des taux de mortalité x 7! log µx,t pour les Hommes et les Fennes,
en France, entre 0 et 110 ans, en 1900 à gauche, et en 2000 à droite.
Compte tenu du lien entre le taux de hasard et les fonctions de survie, on peut en déduire
les fonctions de survie à la naissance (c’est à dire x=0). On utilise (comme dans le chapitre
précédant)
Z x+h
h px,t = exp( µs,t ds).
x
Là encore, une fonction générique permettra de comparer des courbes à plusieurs dates.
> proba.survie <- function(x, a, cex=1.5){
+ Da <- Deces[Deces$Year==a,]
+ Ea <- Expo[Expo$Year==a,]
+ MUa <- Da[,3:5]/Ea[,3:5]
+ titrey <- paste("Probabilit\’e de survie à l’^ age",x,"en",a,sep=" ")
+ titre <- paste("Probabilit\’e de survie en",a,sep=" ")
+ plot(1:length(Ages),exp(-cumsum(MUa[(x+1):length(Ages),2])), type="l", xlab="Age",
+ ylab=titrey, main=titre, lwd=1.7, ylim=c(0,1), cex=cex, cex.axis=cex, cex.lab=cex,
+ cex.main=cex)
+ lines(1:length(Ages),exp(-cumsum(MUa[(x+1):length(Ages),1])),col="grey",lwd=1.7)
+ legend(0,.2,c("Femmes","Hommes"),lty=1,lwd=1.7,col=c("grey","black"),bty="n")
+ }
La Figure 5.3, permet de comparer ces deux fonctions, en 1900 et en 2000.
> par(mfrow = c(1, 2))
> proba.survie(0,1900)
> proba.survie(0,2000)
> par(mfrow = c(1, 1))
1.0
Probabilité de survie à l'âge 0 en 1900
0.8
0.6
0.6
0.4
0.4
0.2
0.2
Femmes Femmes
Hommes Hommes
0.0
0.0
0 20 40 60 80 100 0 20 40 60 80 100
Age Age
Figure 5.3 – Fonctions de survie à la naissance h 7! h p0,t pour les Hommes - à gauche - et les
Femmes - à droite - en France, entre 0 et 110 ans, entre 1900 (foncé) et 2000 (clair).
1.0
2000 2000
1990 1990
Probabilité de survie à la naissance
0.8
1980 1980
1970 1970
0.6
0.6
1960 1960
1950 1950
0.4
0.4
1940 1940
1930 1930
0.2
0.2
1920 1920
1910 1910
0.0
0.0
1900 1900
Figure 5.4 – Fonctions de survie à la naissance h 7! h p0 pour les Hommes et les Fennes, en
France, entre 0 et 110 ans, en 1900 à gauche, et en 2000 à droite.
Pour alléger le calcul, on a une petite fonction auxiliaire qui extrait et calcul la probabilité
de survie pour un sexe donné.
On peut alors comparer les taux de mortalité pour les personnes née en 1900 et celles née
en 1950 (comme on travaille ici par cohorte, celle n’est en 1950 n’aura été observée que partiel-
lement),
0
−2
−2
Taux de décès (log)
−4
−6
−6
Longitudinale Longitudinale
Femmes Femmes
Hommes Hommes
Transversale Transversale
Femmes Femmes
−8
−8
Hommes Hommes
−10
−10
0 20 40 60 80 100 0 20 40 60 80 100
Age Age
Figure 5.5 – Logarithmes des taux de décès : lecture transversale versus lecture longitudinale,
pour une personne née en 1900 (à gauche) ou en 1950 (à droite).
Si la lecture transversale semble plus pertinante pour suivre une individu ou une cohorte, on
est limité par le fait qu’il faudra prévoir les taux de mortalité pour les personnes les plus jeunes
pour les années à venir. Les sections suivantes vont présenter la mise en oeuvre de plusieurs
modèles permettant de prédire le taux de mortalité.
5.2 Le modèle de Lee & Carter
La modélisation retenue par Lee & Carter (1992) pour le taux instantané de mortalité est la
suivante :
log µxt = ↵x + x kt + "xt ,
avec les variables aléatoires "xt i.i.d. L’idée du modèle est donc d’ajuster à la série (doublement
indicée par x et t) des logarithmes des taux instantanés de décès une structure paramétrique
(déterministe) à laquelle s’ajoute un phénomène aléatoire ; le critère d’optimisation retenu va
consister à maximiser la variance expliquée par le modèle, ce qui revient à minimiser la variance
des erreurs. On retient en général les deux contraintes d’identifiabilité suivantes :
xM
X tM
X
x = 1 et kt = 0.
x=xm t=tm
5.2.1 La library(demography)
Le package demography propose une implémentation de Lee-Carter, avec en plus des fonc-
tions permettant de projeter les taux de mortalité dans le futur. Dans un premier temps on
prépare les données en vue de leur utilisation avec la fonction lca.
> library(forecast)
> library(demography)
> YEAR <- unique(Deces$Year);nC=length(Annees)
> AGE <- unique(Deces$Age);nL=length(Ages)
> MUF <- matrix(Deces$Female/Expo$Female,nL,nC)
> MUH <- matrix(Deces$Male/Expo$Male,nL,nC)
> POPF <- matrix(Expo$Female,nL,nC)
> POPH <- matrix(Expo$Male,nL,nC)
On a alors les données prêtes à être transformées dans des données de demography,
> BASEH <- demogdata(data=MUH, pop=POPH, ages=AGE,
+ years=YEAR, type="mortality",
+ label="France", name="Hommes", lambda=1)
> BASEF <- demogdata(data=MUF, pop=POPF,ages=AGE,
+ years=YEAR, type="mortality",
+ label="France", name="Femmes", lambda=1)
● ●
0.025
●
●●
●●
●●
−1
●
● ●
●
●
●
●
● ●
●
● ●
●
●
−2
0.020
● ●
● ●
● ●
●
● ●
●
● ●
● ●
● ●
● ● ●●
● ●●●
−3
● ● ●●
● ●
● ●
● ● ●●
● ●
●
0.015
● ●●
● ● ●
LCH$ax
LCH$bx
●
● ● ● ●
●● ●
●
●
● ●
−4
● ●
● ●
●
● ●
●
● ●
●● ●
●
●
0.010
● ●
●● ●
●
−5
●● ●
●● ●
●●● ●
● ●●
●● ●
●●● ●
●●●●●●●●● ●●
●
● ●
−6
● ●●
● ●●
0.005
●●
●●●● ●
● ●●●●●●●●●●●●●● ●●●●●
●●●●
● ● ●●
●
●●
● ● ●
● ●●●
● ●● ●
−7
● ●
● ●●
● ●
●●●● ●
0 20 40 60 80 100 0 20 40 60 80 100
LCH$age LCH$age
Projection des t
Une fois l’ajustement réalisé sur les données disponibles, on peut réaliser des projections de la
mortalité future. En particulier, library(forecast) propose de nombreuses fonctions possibles
pour prédire les valeurs t futures.
Par exemple, les méthodes de lissage exponentiel,
> Y <- LCH$kt
> (ETS <- ets(Y))
ETS(A,N,N)
Call:
ets(y = Y)
Smoothing parameters:
alpha = 0.8923
Initial states:
l = 71.5007
sigma: 12.3592
Coefficients:
drift
-1.9346
s.e. 1.1972
● ●
●●● ●●●
100
100
● ●
●● ●●
● ●
● ● ●
●
●
●●
●●●
● ●● ● ●
●
●●
●●●
● ●● ● ●
●●
● ● ● ●●
● ●
● ●●
● ● ● ●●
● ●
●
●●
● ●●
●
●
●●●
●●
●●
●●
●● ● ●
●●●
●●
●●
●●
●● ●
●
●● ●● ●
●● ●●
●●● ●●●
0
●●
●● ● ●●
●● ●
●●●●●
● ● ●●●●●
● ●
●●●●●
● ●●●●●
●
●
●●
●● ●
●●
●●
●●
●● ●●
●●
●●
● ●●
●
●
●● ●
●●
●● ●●
●● ●●
● ●
−100
−100
●
● ●
●
●
●● ●
●●
●●
● ●●
●
●
● ●
●
●
● ●
●
●
● ●
●
−200
−200
−300
−300
−400
−400
−500
−500
1900 1950 2000 2050 2100 1900 1950 2000 2050 2100
Figure 5.7 – Projection des t du modèle de Lee-Carter par un modèle de lissage exponentiel
(à gauche) et une marche aléatoire avec une tendance linéaire (à droite) .
Coefficients:
ar1 drift
-0.5417 -2.4717
s.e. 0.1180 0.3834
●
●●●
100
100
●
●●
● ●
●●
●●
●●●
● ●● ● ●
●●
● ● ● ●●
● ●
●
●●
● ●
●●●
●●
●●
●●
●● ●
● ●●
●●●● ●●●●●
●●
0
0
●●
●●
● ● ●●●
●●●●● ●●
● ● ●
●
● ●●●● ● ●●●●
●
●
●● ● ●●
●●
●●
●● ●●
●
●●
●● ●
●●
●
●●
● ●
●●
●
●● ●●
●
●● ●
●
●● ●
●
● ●
−100
−100
●
● ●●
●
●● ●●
●
●●
● ●
●●
●
● ●●
●
● ●●
●
● ●●
−200
−200
−300
−300
−400
−400
−500
−500
1900 1950 2000 2050 2100 1900 1950 2000 2050 2100
Figure 5.8 – Projection des t du modèle de Lee-Carter par un modèle de marche aléatoire
avec une tendance linéaire avec les données complètes (à gauche) et les données après guerre (à
droite).
●
●
●
0.025
●
●●●
●●
●
●●
● ●
●
●
●
●
●
● ●
●
−2
● ●
●
●
0.020
● ●
● ●
●
● ●
● ●
●
● ●
● ●
● ●
●
● ● ●●
● ●
● ●●●
● ● ● ●●
● ●
● ●
● ●●
● ●
0.015
● ●●
●
●
−4
● ●
LCH$ax
LCH$bx
● ●
●● ● ●
● ●
●● ●
●
●● ●
●● ●
●● ●
●● ●
●●
●●● ●
●
0.010
● ●● ●
●● ●
●●●
●●●●●●●●●
●● ●
● ●
−6
● ●
●
●
● ●
● ● ●●
●
● ● ●●
● ●●
0.005
● ●●
● ●●●● ●
● ●●●●●●●●●●●●●● ●●●●●
●● ●● ●●●●
●● ●●
●
●●
●
●●●
●● ●
●
−8
●●
●
0 20 40 60 80 100 0 20 40 60 80 100
LCH$age LCH$age
Figure 5.9 – Evolution de x 7! ↵x (à gauche) et x 7! x (à droite), avec l’estimation sur les
données après guerre en noir, et sur le XXème siècle en grisé.
40
20
0
0 20 40 60 80 100
Age
où les résidus "x,t sont supposés i.i.d. Notons "bx,t les pseudo-résidus obtenus lors de l’estimation,
i.e. ⇣ ⌘
"bx,t = log µx,t bx + bx ·
↵ bt .
Il est important de vérifier que les résidus peuvent être considérés comme i.i.d. On peut visualiser
les erreurs "bx,t en fonction de x sur la Figure 5.11 et de t sur la Figure 5.12.
> RES<-residuals(LCH)
> couleur<-gray(seq(0,1,by=1/length(RES$x)))
> plot(rep(RES$y,length(RES$x)),RES$z,col=
+ couleur[rep(RES$x-RES$x[1]+1,each=length(RES$y))],
+ xlim=c(0,120),ylim=c(-1.62,1.62),
+ xlab="Age",ylab="")
> for(a in 1901:2000){
+ polygon(c(112,112,123,123),(c(a,a-1,a-1,a)-1900)/
+ 100*3-1.5,border=NA,col=gray((a-1900)/100))}
> for(a in seq(1900,2000,by=10)){
+ text(106,(a-1900)/100*3-1.5,a)}
●
●
1.5
2000
● ●
● ●
●●
● ●
1990
● ●●
● ●●
● ● ● ● ● ● ●
● ●
1.0
● ● ● ● ●
●● ● ● ● ●
●
● ● ● ●● ● ●● ● ● ● ● ●●
● ●● ● ●● ●● ● ●● ● ● ● ● ●● ● ●● ●● ●
1980
● ●●
● ● ● ●● ●
● ● ● ● ●● ● ● ● ●●
● ●● ● ● ●● ● ● ●●● ●● ● ● ●●●
● ●
●
● ● ●● ● ●●
● ● ● ● ●
● ● ●
● ●●●
● ●
●● ● ●
● ●
● ● ●● ● ●● ● ● ●
●
●
●●●● ● ● ●
● ●● ● ● ● ● ● ● ● ● ●
● ●
● ● ● ●● ●●● ● ● ● ● ●● ● ● ● ● ● ●● ● ●● ●
● ● ● ● ●
●●● ●●●●● ● ●●● ● ● ● ●● ●
●● ● ● ●● ● ●●● ● ●●● ●●● ●
● ●●● ●● ●●
●●
● ●●
● ● ●●● ● ● ● ● ● ● ● ●●● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
●
●●●●●●●● ●●● ● ● ● ●● ●●
● ● ● ● ● ●● ●● ●●●●● ●●● ● ● ●●
● ●●● ●●● ●● ● ● ● ● ●●
●●
●
●●● ● ●●● ●
●●●
●●
●
●● ●
●●
● ● ●●●
●
● ●
●●●● ●●
● ● ●● ●● ● ● ● ●
● ●
● ● ●
● ●●● ● 1970
●●●●● ●● ●●●●●● ●●● ● ●● ● ●● ●●●
0.5
● ● ● ● ● ●● ●
●●● ● ● ●●
● ● ●●●● ● ●●●●●●● ●● ●●●●
● ● ● ● ● ●● ● ●●
●
● ●●
● ●
●
●●● ●● ●● ●●
●
●●
●● ●
●●●
● ●● ●●●●●
● ● ● ● ●●● ● ● ● ●●● ●● ●● ●
●
● ●
● ● ●
●
●● ● ● ●
●
●●●●
●● ● ●●● ● ● ● ●●●●●●● ●●● ● ●●● ● ● ●● ●● ●● ● ● ● ● ●● ●
●● ● ● ●●
●●●●● ●●●●●●●
● ●●●
●● ●● ●
●
●●●●●●●●● ● ●●
●●● ● ●● ●● ● ● ●●
● ●●● ●
●● ●●
● ●●●● ● ●● ● ●● ● ● ● ● ●
●●●● ● ●●
● ●●
● ●
● ● ●●● ●●●
●●
●●● ● ●
●●●● ●●●● ●●●●● ●●●●● ●●●
● ●
●●
● ●● ● ● ● ● ● ● ● ●● ●● ●●●
● ●●●●● ● ● ● ● ●●●
● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●
●●● ●
●●●
●●
●●●
● ●●●●●
● ●●
●●●
●
●●● ●
● ●●●
●
●●● ●●●
●
●●● ●● ●●
● ● ●●●●●●●●●●
● ●● ●
● ●● ●● ●
● ● ●●●●
●
●●
●●●
●
● ●●
●
●●
● ● ●●●●
●
●●
●
●●●●● ●
● ● ●
● ●
●●
● ●●
●
●
●●
●
●●
●●●●
●
●●● ●●●●●
●
●●●●
●
●●● ●
●●●●●●●●
●
● ●● ●
● ●●●● ●●
● ●
●●●● ●● ● ●
● ●●● ●●
●
●
●
●●
● ●●●●
●
1960
●● ● ● ●●
● ●
● ●●●● ●
● ● ● ● ●●● ● ● ●
● ● ● ● ●●●●●●● ● ●●● ●●●●● ● ●●● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
●●●●●● ● ●
●●●●● ●●● ●●● ● ●●● ● ●●● ●● ●●●●●● ● ● ●●●● ● ●● ●● ●●●
● ●●●●● ●●●● ●●●●●●●●●●● ●●●●●
● ●●●●●●● ●●●
●●●●●●●
● ●●● ●●● ●● ●● ●
●●●● ●● ● ● ● ●
●●●●● ●●
●● ●●●● ●● ● ● ●●● ●●● ●● ● ●● ● ●●●● ●
●
●●●●● ● ●●
●●●
● ●● ●●
●
●●●●● ● ●●●●●●
●
●
●●
● ●●
●●
●
●●●
●●●
●●●
●●
●
●● ●
● ● ●
●●
●
●
●●●●
● ●● ● ●●
●
● ●●●●●●●●● ●●
● ●●●●● ●
●●
●●●●
● ●●
●
● ●●
●●
●●●●●●
● ●●●●●●
● ●●●●● ●●
● ●●
●●
● ● ●
●
● ●●●●●
●●●●●
● ● ● ●●
● ●●
● ●●
●
●
●●● ●●● ●●
●
●●●
●● ●
●●
●● ●●●
●●● ●●
●
●●
● ●●
●
●●
●
●●
●●
● ●●●●
● ●●●●●●
● ●●●●●●
● ●
●●●●●
●●
●
●
●
●
● ●●●● ● ●● ● ●●●●● ● ● ●●
●● ●●●
● ●●
● ●●
● ●●● ● ●● ● ●● ●●
●● ●●
● ●●
●● ●●●● ●●
●●●●
● ●● ●●
●● ● ●
●●● ● ● ●●●●●● ● ● ●
● ●●●● ● ●●●● ● ●●● ●●●●●●●
● ● ● ● ●
● ●
●●●●● ●
●●
●●●●●●●●●
● ●●
● ●
●●
● ● ●●●
●●● ● ●
●●●
●●● ● ● ● ●●● ●●●●
●●
● ●●
● ●●● ● ● ●●
●●● ●●●●
●●● ● ● ●● ●●
●
●●●●●●
● ● ●●●●●
●●●● ●● ●●
●●●
● ●●●
● ●
●●●● ●
●●●
● ●●●
● ● ●
●●
● ●●●
●● ●
●●●●●
●● ●●
●●●●
● ●●●
● ● ●●● ● ● ●
● ●●●●● ●●
●
●●●●●● ●
●● ● ●
● ●●●
● ● ● ●
●●●
●
●●
●●●
●●
● ● ●
●●
●●●●
●●
● ●●●●●●●●
●●●●
●
●●●
●●●●
●●
● ●●
● ●
●●
● ●●●
●
●●●●●
●●●
●●
● ●●
● ●●
●
●●
●●●
●●●●
● ●●
●
● ●
●●●
●●
● ●●
●
●
●
●●
●●●●●
●●
●●●
● ●●●
●●
●●
●
●●●●
●●
●●●●●●
●
●●●●
● ●● ●●
●●
●
●●●●
● ●●
●●●●
●●●●
●●●●●
● ●
●●●
●
●
●
●●
●
●●
●
● ●
●●●
● ●●●
● ● ●●
● ●●
●
●●
●
●●
● ●● ●
●●●●
●●●●●●
● ●●●●
●●
● ●
●●●
●●● ●●
●
●● ●
● ●●
●
●●●●
● ●●
●●●●●
●● ●●
● ●●
● ●●
●
●●
●
●●●●
●
●
●●● ●●
●●●
●●●
● ●●●
●●
● ●●
● ●
●
●●●
●●
●
●
●●
●●●●
● ●●●●●●
● ●
● ●●
●●●●
●
●●● ●
●●●
●●●
●●
●●●●
● ●
●●
● ●
●●●
●
●●
● ● ●
●●
●●
●●●●
●●● ●●
● ●●
●●
●
● ●●●
●
●●●●● ●●
● ●●
●●
●
●●●●●
●●●●● ●●
●
●●
● ●
●●
●●
●●●
● ●●
●
●●
●
●●● ●
●●
●●
●●●
●●
●●● ●●
●●●
●●
●●●
● ●●●●
● ●●
●●
● ●●●
●
●●
●
●
●●●
●●●
●
●
0.0
●●
● ● ● ● ●●●
●●●
●●
● ● ●●
●●●●●
●
●●●
● ●●
● ●●
● ● ●
●●●●●
●●
● ●
●●●●
● ● ●
●●●●
●●
● ● ● ●● ● ● ●●●
● ●
●●● ●
●●●
●●
● ●
● ●●● ●●
● ●●●
●●● ●●
●●●
●●● ●●●
●
●●●●●●
● ● ●●
●● ●●●●
● ●●
● ●
●●●
●●●
●●
● ●● ●●
● ●●
● ●●●
●●●
●●●●
● ●
●●● ● ● ●
●●●
●●
●●●
●●●
● ● ●
●●● ●●●
●●● ●●
● ●●
● ●●
●●●
●●●●
● ●
● ●
●●●
●● ● ●●
● ● ●
●●● ● ●●
● ●
●●●●
● ● ●●
● ● ●
●●● ●
● ● ● ●●●
●●
● ● ●●●●●
●●
● ● ●●●
●●
● ●
●●●
● ●●●
●●●
●●● ● ●●
●
●● ●
●●●●●
● ●
●●● ●
● ● ●●
● ●●
● ●●
● ●●●●
●●●
● ● ●
●●● ●●
●
●●
●●● ● ● ● ●●
● ●
●●●
●●● ● ●●
● ● ● ● ●
● ●●
● ● ●
● ●●●●
● ●
●●●
●●●●● ●●
● ● ●
●●●
● ●
●●
●●●●●●●
●
●●● ●
●●●
●●
● ●
●●●●
● ●
●●● ●●
●●●
●●●
●●● ● ●●
● ●
●● ●
●●●●
● ●●
●
●●●●
● ● ●●
●●●
● ●●●
●●● ●
●●● ●●
●● ●
●●● ●
●●●●
● ●●
● ●●●
●●●●
● ● ●●
● ●●
● ●●●
●●●●●
●●●
●●
●●●●●●
●●●●●●●
● ●
●●● ●●
● ●
●●
● ●●● 1950
●
●
●●
● ●
●
●●
●●●●
●
●
●● ●
●●●
●
●●● ●●
●
●●
●
●
●●
●●
●
●●●●
●●●●
●●● ●●
●●●●
●●
●
●●
●●●
●
●●●●
●
●●
●
●●
● ●
●●●
●
●●●
●
●●
●
●●
● ●
●●
●●
●●●●●
●●●
● ●●
●
●
●
●●●
●
●●●●
●
●●
●●●
●
●●
●
●●
●●
●●
●
●●
●●
●
●●
●
●●
●
●
●●
●
●●
●
●●●
●●●●
●
●●
●
●
●●
●
●
●●●
●
●●
●●●
●●
●
●
●●
●●
●
●●
●
●●●
●●
●●●●●●●
●●
●
●●
● ●
●●●●●
●
●●
● ● ●
●●
●
●●
●
●●●
●
●●●
●●
●
●
●
●●
●●
●●
● ●●
●
●●
●●●
●●●
●●●●
●●
●
●
●●
●●
●●
●
●●
●●
●●●
●●
●
●
●●
●●
●●●
●●●●
●
●●
●
●
●●
●
●●
●
●●●
●●
●●●
●
●
●
●●
●
●
●●
●●
●
●●●
●●
●●●
● ●
●
●●
●●
●
●●
●
●●
●●
●
●
●
●
●●
●●
●
●
●●
● ●●
●
●●
●
●●●
● ●
●
●●
●
●●●●
●●●
●
●●
●●●
●
●●
● ●
●●
●
●●●
●●●
● ●
●●
●
●●
●●●
● ●●
●●
●
●●
●
●
●●
●●
●
●
●●●●
●
●●
●
●●●
●
●
●●
●●
●●
●●●
●●
●
●
●
●●
●
●●
●
●●●
●
●
●●●●
●●
●●
●
●●
●
●●
●
●●
●
●●
●
●●
●
●
●●
●
●●
●●
●
●●
●●●
●●
●
●●
●●
●
●●
●
●●
●
●●
●●●●
●●
●●
●
●●●
●●● ●●
●
●●
●
●●
●
●●
●
●●
●
●●●
●●●
●●●●
● ●
●●
●●
●
●●
●●● ●●
●●
●
● ●●
●●
●
●●
●
●●
●
●●
●●●
●
●●
● ●
●
●●
●●●
●●
●
●●
●●
●
●●
●●
●
●
●●
● ●
●●
●●●
●●●
●●●●
●●
● ●
●●●
●
●
●●
●
●●●
●●
●
●
●●
●
●●●●●
●●●
●
●●
●
●●
●●
●●
●●●●
●●
●
● ●
●●
●●●
●●
●
●●
●●●
●●
●●
●
●●
●
● ●
●●
●
●●●
●
●●
●
●●
●●
●●
●
●
●●
●●
●
●
● ●●
●
●
●●●
●●
● ●●
●
●●
●●●●
●
●●
●
●
●
●●
●
●●
●
●
●●
●
●●
●●
●●●
●●
● ●●
● ●
●●
●
●●●
●●●●
●●
● ●●
●
●●
●
●●
●
●
●
●●
●●●
●●
●
●
●
●●
●
●●
●
●●
●
●
●●
●
●●
●
●●
● ●
● ●
● ●
●●
●
● ●
● ●
●
●
●
●●●
●
●
● ●
●
●
●
● ●
●●
●
●
● ●●
●
●●●
●●●
● ● ●●
●●●
● ●
●●
● ●
●
●●
●
●
●
●
●
●
●
●
●●●
●●●
●
●●
●●●
●
●
●●●●
●
●●
●●
●●●●
●
●
●
●●
●
●
●
●
● ●
●
●●
●
●●
●
●
●●
●●
● ●
●
●●●
●●
● ●●
●
●
●
●
●
●
●
●
●●●●●
●●
●
● ●
●●
●
●●
●
●
● ●
●
●●
●
●●●●●●
●
●
●●
●
● ●●
●●●
● ●
●
●●
●●●
● ●
●
●●●
●
●
●●●
●
●
●●
● ●
● ●
● ●
●
●●●
●●
●
●●●
●
●●●
●
●
●
●
●
●●●●●
●
●
● ●
●
●●●
●●
●
●●
●
●●
●
●
●●
●
●●
●
●
●●
●
●
●●●
●
●
●●●●
●
●●
●
●
●●
● ●●
● ●●
● ●●
●
●●
●
●
●●
● ●
●
●
●●
●
●
●
●●
●
●
●
●●
●
●●
●
●
●●
●
●
●
●●
● ●
●●
●
●
●
●●●●
● ●
●
●●
●
● ●
●●
●
● ●
●●●●
●
● ●
● ●
●
●
●●
● ●●
●
● ●
●
●●● ●
●●●
●
●●● ●
●●●●
●●●
●
●
● ●
●●●●
● ●
●●
●
● ●
● ●
●●●
●
●
●
●●
●
●
● ●
● ● ●
●
●●●
● ●●
●
●
●
●
●●
●
● ●
●●●
●
●
●
●
●
●
●● ●●● ●●●●●
● ●● ●
● ● ● ● ● ●●
●●● ●●● ●●●●● ● ●●●●
●●●●●●● ●●●
●●● ●●●● ●
●●● ●●●●● ●●
●●● ●●●●● ●●●●● ●●● ●●●● ●●●●●● ●●● ●●
● ●●●●● ●● ●● ●
●●●● ● ●● ●●●●●● ●
●●●●●●●● ●●●●●●● ●● ● ●●●
●
●●
● ●●
●
● ●●
● ●●
●
● ●
●
●●●
● ●
●
●●
●
●
● ●●
● ●
●●
●
●●
●
●●
●●●●
●
●● ●●●●●
● ●
●
●●
●●
●
●●
●
●
●
●●
● ●●●●
● ●●
●
●●
● ●
●
● ●●● ●●●●
●
●●
●●
●
● ●●
●
●●
●
●
● ●●
● ●●
● ●●●
●●
● ●
● ●●
● ●●● ●
● ●
●●
●
● ● ●●●
● ●●● ●●
●●
●
● ●
●
● ●●
● ●
●●
●
●
●●
●●●
● ●●●
● ●●● ●●● ●●● ●●
●
●
●●
●
●
● ●
● ●●
●
●●●
●
●●●●●
● ●
●
● ●
● ● ●
●●●
●
●●●●
●●
● ●
●
●
●
●
●●●●●
● ● ●
●●●●● ● ●
●●●●● ● ●●
● ● ●
●●●
●●● ● ● ● ●●
● ●●
●●●
●●● ●●
● ●
● ●● ● ● ●●●●● ●
●●●●● ● ●●● ● ● ●
●●●
●●●●● ● ●
●● ● ● ● ● ●
● ●●●●● ● ● ●●●●● ●
● ● ●●●●●
● ●● ● ● ●● ●
●●●● ● ● ●●● ● ●
●●●
●●
●●●●●
●●●
●●●●
● ● ●
●●
●
●● ● ● ●●
● ●
●●
●●●●●
● ●●
●● ●●
● ●●●●
● ●●
●
●●●
●● ● ● ●
●●● ● ●
● ●●●●●
● ●● ●●● ●●●● ●● ●
● ●
●●●● ●● ●
● ●●●●●●
● ●●
● ●●
● ●●●● ●
● ● ●● ●● ● ● ●● ● ●● ● ● ●●● ●●● ●●
● ●●●
●●
●
●●●
● ●●
●
●●●
● ●●●●
● ●●●●
● ●
● ●●●
● ●●
●
●
● ●
●
● ●●
●●●●●●●
● ● ● ●
● ● ●
● ● ● ● ● ● ● ●
● ● ● ● ●
● ● ● ●
● ● ● ● ● ● ● ● ●
● ● ●●
● ●
●●
● ●
●
●●●
● ● ● ● ● ● ● ●
● ● ● ● ●
● ● ●
● ● ●
● ●●●
● ● ●
● ● ● ● ● ●
●
●●
● ●●
● ● ● ●
● ●
●●
● ●
● ● ● ● ●
●●
● ●
● ● ● ● ●
●●● ●
● ● ● ●●
● ●●
● ● ● ●
●●●
● ● ● ●●
● ● ● ●
●●● ●●● ●●●●●● ●●●●● ●●● ●●● ● ●●● ● ● ●● ● ● ●●● ●●●●●●
●● ● ●● ●●●●●● ●●● ●●●●●●
●● ●●●● ●●●●●●●● ●● ●
●●●
● ●
●●● ● ●
●●●●
●
●●●●●●
● ●● ● ●●
● ●●● ●
● ●●●●●
●●●
●
●● ● ●
● ●● ● ●●●●●●●●●●●
● ● ●
●●
● ●●●
● ●
●●
●
●●
●●
●●
●●●●●
●● ●●●● ●●
●● ● ● ●
● ●
● ●●
●●● ●●
● ●●●●
●●
●
●●● ●●●
●●
●●
●●●
●● ●● ●●●
●
●
●●
●
●●●●
●●
●●
●
●
●●
●●
●●
●● ●
●●
● ●
●●
●
● ● ●●
●
●
●●
●●
● ●
●●
● ● ● ● ●
●
●●●●
● ●
● 1940
● ● ● ● ●●● ●●●
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●
● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●
●● ●● ●●●●●
●● ● ● ● ● ●
●● ●● ● ● ● ● ● ●●● ● ● ●
●●●●●●●
●
●●●●
● ●
● ● ●●●●
●●● ● ● ● ●●
●
●●●●● ●● ●
●●●●●
●●●●
● ● ● ●
● ● ●●
●● ●
●●●● ●●
●
● ● ●●●●● ●
●●●● ●
●●●
● ●●
●
●
●●●
●
●●●●●● ●
● ● ●●●
●●● ●● ● ● ●●●
●●
● ●● ●
● ●
● ● ●●● ●
● ●
● ● ●●● ●●●● ● ● ● ● ● ●●● ●●●● ●●●●●
●
●
●
●
●
●
● ●●●
● ●●
●
●●
● ●●
● ● ●
●●●●
●
●●●●●
●
● ●●
● ● ● ●
● ●●● ●
●●
●
●●
●● ●●
●
● ●
●●●
● ● ● ● ●●
● ●
●
●●●
●
● ●
●●●●●● ●●●● ● ● ● ● ● ● ●
−0.5
● ●● ●
● ● ● ● ● ●
● ● ● ●
● ● ● ● ● ●
● ●
● ● ● ● 1910
● ●
●
●●
−1.5
1900
0 20 40 60 80 100 120
Age
●
1.5
100
●●
●● ● 90
● ●●
● ●● ●
●● ●
● ●●●●●●●● ● ●
1.0
●● ● ●●●●● ●
● ● ● ●●●●●●●
●● ● ●●●● ●● ● ●●
● ● ●●●●● ● ●●●● ●
● ●●●
●●
● ●
80
● ● ●● ●
● ● ●●● ● ●● ●
●●●●
● ● ●● ●●● ● ●● ●
● ● ● ● ●●● ● ● ● ●●●●●●●
● ● ● ● ● ●
●
● ● ●●●
●●●●
●●●●●
● ●●●● ●●●● ●
● ●● ●
● ●●
● ●● ● ●●●
● ● ● ●● ●●●●● ●●●
●●●●●●● ●●●●●● ●●●●● ●
● ● ● ● ● ● ● ● ●
● ● ● ● ● ●● ●
●
●●● ●●●●●●●●●● ●
●
●●
●● ● ●●●●●● ●●
● ●●● ●●
●
●●
●
●
● ●●
●●● ●
●
●
● 70
● ● ● ● ● ● ●
● ● ● ● ● ● ● ● ● ●● ●
● ●● ● ● ●
● ● ● ● ●●
● ●●
● ● ● ●●●
0.5
●
●● ● ●●●●●●●●●● ●
●● ● ● ● ●●● ● ● ● ● ●
● ●
● ● ● ● ●
●●●● ● ●●
● ●● ● ● ●
●●● ●
●● ●
●
●● ●
● ● ●●● ● ●
● ●● ● ● ● ● ●●
● ●●●●
●● ● ● ●●● ● ● ●●●● ● ●● ●●●●
● ● ● ● ● ● ● ●●● ●●● ●
● ●● ●●●● ●
● ●●●
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●●
●●●
● ●●● ●● ●
● ● ●
●●●●●
● ●● ● ●
●● ●
●●
● ● ● ● ●● ●●● ●● ●
●● ● ● ●● ● ●●
● ● ● ●
●
●
●●●●
● ● ● ●● ●●●
●●●●
●
●●● ● ● ●● ● ● ●
●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
●
●
●●
●
●●
●
●●
●●●●●
●●●
●●●
●
● ●
●●●●
●●●●●
●●●●●●●
● ●●● ●
●
● ● ● ● ●● ●
● ● ● ● ●●
●●
●●● ●
●
●
●
● ● ● ●● ● ● ● ●
●●●● ●● ● ● ● ●
● ● ●
●
● ● ● ●● ● ●
● ●●●
●
●●●
●
●●●
●
●●
● 60
● ● ● ●
●
●● ●●
●● ●
●
● ● ●●●
● ● ●
●●●●● ●
● ●
● ●
● ●
●● ●
●●● ●
●●● ● ● ● ● ●
● ● ● ●● ● ● ● ● ● ● ● ●
● ●●●● ● ● ●
● ● ●●● ●●
●
●●
●
● ●●
● ●●
●●● ● ●●
● ● ●●
● ●
●● ●●●● ● ●
●
●
●●
●
●●● ●●●●●
● ● ●● ●●●
● ● ●● ●●●●●●● ● ●●●●● ●●
● ● ● ● ●●●
● ●
●●●● ●
●
●
● ●● ● ●
● ●
●
● ●● ● ●● ● ●
● ● ●
●●● ● ● ●
● ● ● ● ● ● ● ● ● ●
● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ●● ● ● ●●● ● ● ● ● ● ●
●●●●● ● ● ● ● ● ●
●● ● ●
● ● ●●● ●
● ●
●●
●●●●●● ●●●●●
●●●
●●●●
●
● ●●
●●●●●●●●
● ●●●●●●● ●● ● ● ● ● ●●● ● ●● ●●●●●●●●● ●●●●●●● ●
●● ● ●●●●●●●●●●
● ●●●●●●●●●●
●● ●●●
●●● ●●●●● ●●●●●●● ●●●●●●
● ● ● ●● ●● ● ●●● ●●● ●
●
●
● ●
● ● ● ●●
● ●●
● ●
●
● ●
● ●
● ● ●●
● ● ●
●
●
● ● ●●
●
● ●
● ●
● ●
● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ●
● ●
● ●
●●
● ●
●
●●●
● ● ● ● ●
● ●●
●
●
●●●
●
●
●
●
●
● ●
●
●●
●
●
●●● ●
●
●●
● ●●
● ●
● ●
●
●●
● ● ● ● ● ● ●
● ● ●
● ●
● ●
● ●●
● ● ●
● ● ●
● ●
●
●
● ● ● ● ●●
●
● ●
●
● ●
● ● ●●
● ●●
● ●●
● ● ●
● ●
●
●● ●
● ●
●
● ●
● ●
● ● ●
● ●●
●
●●●
● ●
●●●●
● ●●●●●●● ●●●●●●
● ●●●●●●●●●●● ●●●●●●● ● ●●●● ● ● ●●●●●●● ●●● ●●●●●●
● ●●●● ●● ●
●●● ●●●●●● ●
●●● ●●●●●
●●
● ●●
● ●●●● ●
●●●
● ● ●
●●● ●● ●
●●●●● ● ● ●
●●●
●●●●●●●
● ●
●●● ● ●●●●●●●●●
●●● ●●●●●●● ●
●● ●
● ● ● ●
● ● ●
●●● ●●
0.0
● ●●●●●● ●●● ● ● ●● ●●●● ●●●●● ● ● ●●●● ● ● ●●● ●●●●●●●●●●●● ● ●●● ●● ● ●●●●● ● ●●● ●●●●
● ● ●●●●●●
● ● ●●● ●●●●●●● ●●●●●●
● ●●●
● ●●●●●●●
● ● ●●● ●●●
● ●●●●●●●●●●●●●
●●●●● ●●● ●
●
●
●
●
●
● ●
●●●●● ●●● ●
●●● ●●●
●
●●
● ●
●
● ●●● ●
●
●●● ●
●●
●
●
●●
●
●
●
●●
●
●
●●
●
●
●●
● ● ●
●●●● ●● ●
● ●●●
● ●
● ● ● ● ●● ●
● ●● ●
●●
●
●
●●●
●●●
●●
●
● ● ●
●●●●●
● ●●
● ●
●
●●
●
●
●●
●
●
● ●
●
●●●
●
●
●
●
●●●
●
●●
●●
●●
●
● ●
● ●
●
●● ● ●
●●
●
●
●●
●●
●
●
●●
●
●
●
●
●
●
● ●●
●
●
●
●●
●
●
●●●
●●
●
●
●●●
●●
●
●●
●
●
●●
●
●
●●
●
●
●
●●
● ●
●●
●
●
● ●
●
●
●●●
● ●●
●
●
●●
●
●
●●
● ●
●
●●
●
●
●●
●
●
●●●
●●
●
●
●
●●●
●●
●
●
●
●●●
●
●
●
●●● ●
● ●
●
●
●●● ●
●●●
●●
●
●
●
●●
●●
●
●
●●
●
●●
●
●
●
●
●●
●●
●
●●
●●
●
●
●●●
●
●●
●
●
●
●●●
●●
●
●
●
●●●
●●●
●●
●
●
●●
●
●
●
●●●
●
●●
●
●
●●
●
●
●●●
●●
●
●
●
●●
●
●
●●
●
● 50
●●
● ● ●● ●● ● ●
● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●● ● ●
● ● ●
● ●
● ● ●●
● ●●● ● ● ●
● ●
● ●●
● ●
● ●●
● ●●
● ● ●
● ●
● ● ● ● ●
● ●●
● ●●● ● ● ●
● ●●
● ●
● ● ●
● ●
● ●●
● ● ● ● ●●
● ● ●
● ● ●
● ●
● ●
● ●
● ● ● ●
● ●●●●● ●
● ●
● ● ●
●
●●● ● ●
●●● ●
●● ● ● ● ● ●
● ● ● ● ●●●●●
●●● ● ●
●● ●● ● ●
● ● ●
●●● ● ●
●● ●● ● ●
● ● ● ●● ●● ●● ●
● ● ●●●
●●●
●●● ● ●
●●● ● ●
●● ●● ● ●
●●●●● ● ● ● ●
● ●● ●● ●
●●● ● ●
●●●
● ●
● ●● ●
●●●
●●● ● ●
● ●
●
● ●● ● ● ● ●● ● ●
● ●●● ● ● ●
● ● ●●●
●●●●● ● ● ●
●● ● ● ● ●
● ● ●● ● ●●
● ● ● ●
● ● ●● ● ● ●● ● ● ●
●● ●●●● ●
● ● ●
●● ●
●● ●●
●●●
● ●
●
● ●
● ●●
● ●●
●
●
●●● ●●●
●
●● ●
● ●●
●
●
● ●
● ●● ●
● ● ●
● ●
● ● ●
● ● ● ●●
● ● ● ●
●●●●●
●●● ●●
●●
●
● ●●
● ● ●
● ●●●●●●●●
● ●●●●● ●
●
●●
●
●
●
●●●● ● ● ● ● ● ● ● ●●●● ● ●● ● ●●● ●●●● ●●
● ● ●
●
●
● ● ●● ● ● ●● ● ● ●● ● ●●
● ●
● ● ●
● ●●
●
●
●
● ● ●
●●● ● ● ● ●
●● ● ● ● ●●
●●● ●
● ● ● ● ●
●● ● ● ● ● ●● ● ● ● ●
● ● ● ●●● ● ●
●●● ● ●●●
●●● ●
●
●●● ●
●●●●● ●
●●● ● ● ●
●●● ● ●
●●● ● ● ●
●●● ●
●●●●● ● ●● ● ● ● ●● ● ● ●
● ● ● ● ●● ● ● ● ●● ● ● ● ●●● ● ●
●● ●● ●
●●●
●● ●●● ●● ● ● ●● ●●● ●●● ● ● ●●
●●●● ●●
●●● ●
● ●●
● ●● ● ●●● ● ●● ●●●● ● ●●●●●●
●
● ● ●● ● ●●
●
●
●●●●● ●●
● ● ●
●● ●●● ●
●●
●●●● ●●●●
● ●● ●●
●
● ●● ● ● ● ● ●●● ●
● ● ●●● ●●● ● ● ●● ● ● ● ● ● ●● ● ● ●●●●● ● ●●●●● ● ●● ● ●●●
●
● ● ● ● ●
●●● ● ● ●
● ● ●
● ●●●
●●● ●●● ●
●●●●● ●●●
●●●
●●●
●●●
● ● ●
●●
● ● ●
●
●●● ● ● ●
● ● ● ●
●● ● ●
● ●● ●
●●●●● ● ● ● ● ● ● ● ● ●
●● ● ● ● ● ● ● ●
● ● ● ● ●● ● ● ● ●● ● ● ● ●
● ●
●●● ●
● ●● ● ● ● ● ●● ● ● ● ● ● ● ●●
● ●
●●
●
●
●●●●
●
●
●●
●●
●●●●●
●
●
● ● ●●
● ●●
● ● ● ●●
● ● ● ●●● ●●●
● ●
●●
● ●
● ●●
● ●● ● ●●
●
● ●
●●
●
● ●●
●●●
●●● ●●●●
●
●●
●
●
●●
●
●●
●
●●
● ●● ●●●
● ● ● ● ● ● ● ● ●● ● ●
● ● ●● ●●●●
● ● ● ●● ● ● ● ● ● ●● ●
●●● ●●
● ● ● ● ● ● ●● 40
● ● ●
● ●●● ●
●●● ●●● ● ●
●● ● ● ● ●
● ●●● ● ● ● ●●●●● ● ●
●● ● ●●
●●●
●●●
●●● ●
●● ●● ●
●●● ● ●
●●● ●
●● ● ●
●●● ● ●
● ● ●● ●
● ● ●● ● ● ●●
●●
● ●●● ● ●●● ● ●● ● ● ●
● ●●
● ●● ● ●●●●
● ● ●●●●● ●●● ●
● ●●
● ●●
● ● ●
● ●
● ●
● ● ● ● ● ●● ● ● ● ●●●
● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
●● ●●● ● ● ●
−0.5
●● ●●
● ●● ●
● ●●● ●● ●
● ●
●
●
● ●●
● 10
● ●
●
●
●
−1.5
Année
section précédente, pour lesquels on calcule les logarithmes des taux de décès instantanés (pour
l’année an=1986) :
> source("fitModels.r")
> Deces <- Deces[Deces$Age<90,]
> Expo <- Expo[EXPOSURE$Age<90,]
> XV <- unique(Deces$Age)
> YV <- unique(Deces$Year)
> ETF <- t(matrix(Expo[,3],length(XV),length(YV)))
> DTF <- t(matrix(Deces[,3],length(XV),length(YV)))
> ETH <- t(matrix(Expo[,4],length(XV),length(YV)))
> DTH <- t(matrix(Deces[,4],length(XV),length(YV)))
> WA <- matrix(1,length(YV),length(XV))
> LCF <- fit701(xv=XV,yv=YV,etx=ETF,dtx=DTF,wa=WA)
> LCH <- fit701(xv=XV,yv=YV,etx=ETH,dtx=DTH,wa=WA)
On peut ainsi comparer les coefficients ↵x et x entre les hommes et les femmes, comme sur
la Figure 5.13
> par(mfrow = c(1, 2))
> plot(LCF$x,LCF$beta1,type="l",xlab="Age")
> lines(LCH$x,LCH$beta1,col="grey")
> legend(40,-6,c("Femmes","Hommes"),lty=1,
+ lwd=1,col=c("grey","black"),bty="n")
> plot(LCF$x,LCF$beta2,type="l",xlab="Age")
> lines(LCH$x,LCH$beta2,col="grey")
> legend(40,.022,c("Femmes","Hommes"),lty=1,
+ lwd=1,col=c("grey","black"),bty="n")
> par(mfrow = c(1, 1))
Femmes
−2
Hommes
0.020
−3
0.015
−4
LCF$beta1
LCF$beta2
−5
0.010
−6
Femmes
Hommes
−7
0.005
0 20 40 60 80 0 20 40 60 80
Age Age
Figure 5.13 – Evolution de x 7! ↵x (à gauche) et x 7! x (à droite), pour les Hommes - en
trait sombre - et pour les Femmes - en trait grisé.
Il est aussi possible d’estimer les coefficients t sur la période passée, que l’on peut visualiser
sur la Figure 5.14
> plot(LCF$y,LCF$kappa2,type="l",xlab="Ann\’ee")
> lines(LCH$y,LCH$kappa2,col="grey")
Notons que plusieurs fonctions sont proposées ici, correspondant soit à des
(1) (2) (2)
– log µ(x, t) = x + x t ,
(1) (2) (2) (3) (3)
– log µ(x, t) = x + x t + x t x ,
(1) (2) (3)
– log µ(x, t) = x + t + t x,
µ(x,t) ) (1) (2)
– logitq(x, t) = logit(1 e = t + (x ↵)t ,
– logitq(x, t) = logit(1 e µ(x,t) ) = (1) + (x (2)
↵)t +
(3)
t t x.
5.2.3 La library(gnm)
Les deux exemples ci-dessus s’appuyaient sur des implémentations (directes) du modèle de
Lee-Carter. Avec des algorithmes optimisés pour estimer les coefficients ↵x , x et t . Mais on
peut e↵ectuer l’estimation des paramètres du modèle en s’appuyant sur sa variante log-Poisson,
qui conduit formellement à mettre en oeuvre un modèle linéaire généralisé. Ou plutôt nonlinéaire
car les facteurs interviennent sous la forme ↵x + x · t , que ne peut pas se mettre sous une forme
linéaire. On peut donc utiliser la library(gnm), et lancer une régression à l’aide d’un outil plus
général.
> library(gnm)
> Y <- Deces$Male
> E <- Expo$Male
100
50
LCF$kappa2
0
−50
−100
−150
Année
Figure 5.14 – Evolution de t 7! t pour les Hommes - en trait sombre - et pour les Femmes -
en trait grisé.
● ●
●
●●
●● ● ●
●●
2
●
● ●
● ●
●
● ●●
● ●
● ●●
● ●●●
● ●●●● ● ● ●●
●●●● ● ●●●●●●●●●●●●●● ●
● ●●
●●
−0.2
●
● ●●
● ●
1
● ●
● ●
● ●
● ●
● ●
●
REG$coefficients[(I[1] + 1):(I[2])]
● ●
● ●
●
●
REG$coefficients[2:I[1]]
● ●
0
●
● ●
●
●
● ●
−0.4
●
● ●
●
●
●
● ●● ●
●
−1
● ●
●
●
● ● ●
●
● ●
● ●
●● ● ●
●
● ● ●●
● ●
●● ● ●
●
−2
● ●
●●
−0.6
●● ● ●
●● ●
●●
●● ●
● ●
●
●●
●● ●
● ●●●●●●●● ●
● ●
−3
●● ●
● ● ●
● ● ●
●
● ●
−0.8
● ●
●
−4
● ● ●
● ●
●● ● ● ●●●
● ●
0 20 40 60 80 100 0 20 40 60 80 100
Age Age
Figure 5.15 – Evolution de x 7! ↵x (à gauche) et x 7! x (à droite) pour les Hommes, en
France.
0
−2
−4
Année
+ LCH.fit701$beta2[LCH.fit701$x==x],
+ LCH.fit701$kappa2[LCH.fit701$y==t])
> param[3,] <- c(REG$coefficients[41]+
+ REG$coefficients[1],REG$coefficients[141],
+ REG$coefficients[282])
> param
[,1] [,2] [,3]
[1,] -5.175210 0.01128062 -44.2225390
[2,] -5.168065 0.01114861 -45.5798063
[3,] -5.604863 0.55793271 -0.1244905
avec en ligne respectivement la fonction lca, la fonction fit701 et la fonction gnm, et en colonne
↵x , x et t . Les deux premières fonctions utilisent la même containte sur les x , il est donc
rassurant d’avoir les mêmes ordres de grandeurs :
> sum(LCH.lca$bx)
[1] 1
> sum(LCH.fit701$beta2)
[1] 1
Toutefois, si on compare les prédictions faites sur les taux de mortalité, les ordres de gran-
deurs sont comparables,
> exp(param[,1]+param[,2]*param[,3])
[1] 0.003433870 0.003426497 0.003433001
pour les trois modèles.
5.3 Utilisation du modèle de Lee-Carter projeté
A l’aide des techniques présentées auparavant, c’est à dire l’estimation des ↵x , x , t , et
des t projetśur le futur, il est possible de calculer d’autres quantités, dans un contexte de
valorisation de produits d’assurance-vie.
e
né
An
Age
> x <- 40
> E <- rep(NA,150)
> for(t in 1900:2040){
+ s <- seq(0,90-x-1)
+ MUd <- MU[x+1+s,t+s-1898]
+ Pxt <- cumprod(exp(-diag(MUd)))
+ ext <- sum(Pxt)
+ E[t-1899] <- ext}
La Figure 5.18 (à gauche) permet de visualiser l’espérance de vie résiduelle à 40 ans, et son
évolution au cours du temps (entre 1900 et 2050)
> plot(1900:2049,E,xlab="Ann\’ee",ylab="Esp\’erance de vie r\’esiduelle
+ (à 40 ans)",main="Esp\’erance de vie r\’esiduelle (à 40 ans)",type="l")
3.5
40
Espérance de vie résiduelle à 40 ans
3.0
35
2.5
2.0
30
1.5
1900 1950 2000 2050 1900 1920 1940 1960 1980 2000 2020 2040
Année Année
Figure 5.18 – Evolution de l’espérance de vie résiduelle pour les Hommes de 40 ans, en France,
à gauche, et évolution de la valeur actuelle probable d’une rente vie entière di↵érée achetée
l’année t par un assuré de 40 ans.
1914 1919
1915 1940
1916 1943
1915
1914●
● ●
1917 1944 ●
1918 1945
−2
1916● ●
4
1918● ●
1944● ●
●
●●
●
●
●
●
●
● ● ●
● 1917● ●
● ●
● 1940● ●
−4
●
●
Log Mortality Rate
3
●
●
1943● ●
PC score 2
●
●
●
●●
●
●
●
●●
●
2
●
●●
−6
● ●●
1919● ●
1945●
●
● ●
●
●
●● ●
1
●
●
●
●
●
● ●
● ●
● ● ● ●
●●
●● ● ● ● ●● ● ●
●
−8
● ● ● ● ●●
●
●
●
● ●
●
●
0
● ● ●
●
●
●● ●● ●
●● ●
●
● ● ●
●● ● ●
−5 0 5 10 15
PC score 1
0 20 40 60 80
Age
5.5 Exercices
Exercise 5.5.1. A l’aide des modèles ajustés sur les données françaises, commentez l’affirma-
tion ”tous les ans, on gagne un trimestre d’espérance de vie”.
Exercise 5.5.2. A l’aide des tables de mortalités Canadiennes CAN.Deces et CAN.Expo, calibrer
un modèle de Lee-Carter, et comparer les espérances de vie à la naissance entre les Canadiens
et les Français.
0.0
● ●●●●●●●●●●● ● ●●
● ●●●●●● ●
●●●●● ● ●●●●●●●● ●●●●●●●●
●● ● ●
● ●
●● ●●
● ●
● ●
●
●●● ● ●
−0.2
● ●
● ● ●
●●
● ● ●
2
●●● ●●
● ● ●●
●●●●● ●
● ● ●
●
●●
● ● ●
●
● ●●
●
REG$coefficients[(I[1] + 1):(I[2])]
REG$coefficients[(I[2] + 1):(I[3])]
●
−0.4
●
●●
● ●
●●●
● ● ●●●●●●
●●●●●
● ●●●●
●●
0
●●
● ●●
●
−0.6
●
●
●
●
●
●●●
● ●●● ● ●
●● ●
●●●
●●●●●
−2
−0.8
● ●●
●●●
●●●
● ●●●●●● ●
●●●
●
●
● ● ●
●
●
●
−1.0
●
●
●
−4
●
● ●●
●●● ●
●●● ●
Age Année
Figure 5.20 – Evolution des coefficients x et t pour les Hommes en France dans le modèle
avec un e↵et cohorte.
● ●
● ●●
●●●● ● ●
10
● ●●
0.6
●
●
●●
●● ●
●
●
●
●
● ●
● ●
● ●
●
●
●●
●
● ●●
●
0.5
●
● ●
●
●
REG$coefficients[(I[4] + 1):length(nb)]
●
●
● ●
REG$coefficients[(I[3] + 1):(I[4])]
●
5
●
●
●
●
● ●
●
●
0.4
●
●
● ●
●●
●
● ●
●
● ● ●
●
●
● ●
● ●
●
● ●
● ●
0.3
● ●
● ●
0
● ● ●
● ●
●
●
●
●
● ●
●
●
● ●● ●●●
● ●
●●●
● ● ●● ●
● ●●
●
0.2
● ●● ●
●● ●
● ●● ●●
●
● ●● ●
●●●
●●
● ●● ● ●●
● ● ● ●●
●● ●
● ●●
● ● ● ●●
●● ● ●
●●
−5
●
● ●●●
●●●● ●● ●
●
●
●
● ●●●●●
●
●● ●●● ●
●●●
0.1
● ●●●●● ●
● ●●
●
● ●●
●●
●●
●
●●
●● ●●●●
●●
● ●●
●●●● ●
●● ●●
●●
●●●●
●●●●● ●●●●●
● ●●●●
● ●●
●●
● ● ●●●●
●●●●●●●
●●
●
●
●●
●●
●●
●● ●● ●
● ●●●●●
● ●
●● ●
0.0
Figure 5.21 – Evolution des coefficients x et t x pour les Hommes en France dans le modèle
avec un e↵et cohorte.
Exercise 5.5.3. A l’aide des tables de mortalités Japonaises JAP.Deces et JAP.Expo, calibrer
un modèle de Lee-Carter, et comparer les espérances de vie à la naissance entre les Japonais et
les Français. Comparer les probabilités d’atteindre 100 ans dans les deux pays.
Exercise 5.5.4. A l’aide des tables de mortalités Suisses CH.Deces et CH.Expo, calibrer un
modèle de Lee-Carter, et comparer les espérances de vie à la naissance entre les Suisses et les
Français.
Exercise 5.5.5. A l’aide des tables de mortalités Belges BEL.Deces et BEL.Expo, calibrer un
modèle de Lee-Carter, et comparer les espérances de vie à la naissance entre les Belges et les
Français.
Exercise 5.5.6. A l’aide des tables de mortalités Néo-Zélandaises NZM.Deces, NZM.Expo, NZNM.Deces
et NZNM.Expo, calibrer deux modèles de Lee-Carter, sur la population Maori (NZM) et non-Maori
(NZNM), et comparer les espérances de vie à la naissance.
Annexe A
Annexes
Le système de Pearson
Pearson (1895) a étudié ce sujet et a proposé une approche globale et unifiée à partir d’une
équation di↵érentielle. Une densité f serait solution de l’équation di↵érentielle :
1 df (x) a+x
= . (A.1)
f (x) dx c 0 + c 1 x + c 2 x2
R
Comme f doit représenter une densité, il faut que f soit positive sur D et normalisée D f (x)dx =
1. Ceci impose des contraintes sur les coefficients a, c0 , c1 , c2 .
L’équation A.1 possède les cas particuliers suivants :
- type 0 : les coefficients c1 , c2 sont nuls, alors on la solution de A.1 est
(2a+x)x
f (x) = Ke 2c0 .
185
- type IV : le polynome c0 + c1 x + c2 x2 n’a pas de solutions réelles 1 . On peut néanmoins en
déduire une expression pour f :
✓ ◆
a c1
(2c2 ) 1 p tan 1 px+c1
2 c2 c0 c0 /c2
f (x) = K C0 + c2 (x + C1 ) e .
Barndo↵-Nielsen utilise une approximation de l’expression supra pour obtenir la loi inverse
Gaussienne généralisée.
- type V : si le polynome c0 + c1 x + c2 x2 est un carré parfait, alors l’expression de la densité est
la suivante a C1
f (x) = K(x + C1 ) 1/c2 e c2 (x+C1 ) ,
pour x C1 ou x C1 . Si le terme exponentiel s’annule alors on a le particulier f (x) =
K(x + C1 ) 1/c2 , où c2 > 0 (c2 < 0) corresponds au type VIII (type IX respectivement).
- type VI : si le polynome c0 + c1 x + c2 x2 possède des racines réelles a1 , a2 de même signe alors
on obtient
f (x) = K(x a1 )m1 (x a2 )m2 ,
pour x max(a1 , a2 ). Ceci corresponds à la loi Béta généralisée.
- type VII : enfin le type VII corresponds au cas “dégénéré” lorsque c1 = a = 0. Ainsi la solution
est
1
f (x) = K(c0 + c2 x2 ) (2c2 ) .
Le type VII corresponds à la loi Student et la loi de Cauchy.
Du système de Pearson, on peut construire toutes les autres lois continunes à l’aide de transfor-
mations “simples” : transformation linéaire, transformation puissance, transformation exponen-
tielle ou logarithme (e.g. la loi log-normale).
Le package PearsonDS implémente les lois de probabilité selon le système de Pearson. Le code
ci-dessous est un exemple très succint de graphiques. Sur la figure A.1, on observe des lois à
supports bornés (Pearson I, II et VI), d’autres à supports positifs (Pearson III, V) ou sur R tout
entier (Pearson 0, IV).
> library(PearsonDS)
> x <- seq(-1, 6, 0.001)
> y0 <- dpearson0(x, 2, 1/2)
> y1 <- dpearsonI(x, 1.5, 2, 0, 2)
> y2 <- dpearsonII(x, 2, 0, 1)
> y3 <- dpearsonIII(x, 3, 0, 1/2)
> y4 <- dpearsonIV(x, 2.5, 1/3, 1, 2/3)
> y5 <- dpearsonV(x, 2.5, -1, 1)
> y6 <- dpearsonVI(x, 1/2, 2/3, 2, 1)
> y7 <- dpearsonVII(x, 3, 4, 1/2)
> plot(x, y0, type="l", ylim=range(y0, y1, y2, y3, y4, y5, y7), ylab="f(x)",
> main="Système de Pearson",lty=1)
> lines(x[y1 != 0], y1[y1 != 0], lty=2)
> lines(x[y2 != 0], y2[y2 != 0], lty=3)
> lines(x[y3 != 0], y3[y3 != 0], lty=4)
> lines(x, y4, col="grey",lty=1)
> lines(x, y5, col="grey",lty=2)
> lines(x[y6 != 0], y6[y6 != 0], col="grey",lty=3)
1. il est toujours strictement positif et peut se réécrire C0 + c2 (x + C1 )2 .
> lines(x[y7 != 0], y7[y7 != 0], col="grey",lty=4)
> legend("topright", leg=paste("Pearson", 0:7), lty=c(1:4,1:4),
+ col=c(rep("black",4),rep("grey",4)))
Système de Pearson
Pearson 0
Pearson 1
Pearson 2
1.5
Pearson 3
Pearson 4
Pearson 5
Pearson 6
Pearson 7
1.0
f(x)
0.5
0.0
−1 0 1 2 3 4 5 6
Comme précisé dans L’Ecuyer (1990), un générateur aléatoire se caractérise par un ensemble
d’états S, une loi de probabilité initiale µ sur S, une fonction de transition f : S 7! S, d’un
ensemble de sortie U ⇢ R et d’une fonction de sortie g : S 7! U . D’un état initial s0 donné par
µ, on génére la suite d’états sn = f (sn 1 ) et de nombres réels un = g(sn ).
Jusqu’au début des années 90, f était la fonction congruentielle f (x) = (ax+c) mod m et S = N
et g la fonction proportion g(x) = x/m. Ainsi pour certains a, c, m bien choisis 2 , on pouvait
générer des entiers aléatoires sur entre 0 et 232 et des réels sur 32 bits avec une période dépendant
des paramètres a, c, m. Tout l’enjeu résidait dans le choix de ses paramètres de manière à maxi-
miser la période 3 .
Cette approche comporte des défauts à savoir un temps de calcul élevé 4 et une période courte
(nombres d’états entre deux états identiques). Heureusement pour la science, Matsumoto &
Nishimura (1998) publièrent le très célèbre générateur Mersenne-Twister, révolutionnaire sur
deux points : son temps de calcul et sa période.
Les deux auteurs exploitèrent la structure binaire des ordinateurs à savoir que n’importe quel
entier est representé par ! bits (e.g. ! = 32) et que les opérations élémentaires sont extrêment
peu couteuses.
La récurrence du n + ième terme de MT est la suivante :
où n > m sont des entiers constants, xupp i (respectivement xlowi ) désigne la partie supérieure
5
(inférieure) ! r (r) bits du terme xi et A , une ! ⇥ ! matrice de {0, 1}. | est l’opérateur de
concaténation, donc xupp low
i |xi+1 concatène les ! r bits supérieurs de xi avec les r bits inférieurs
de xi+1 .
Matsumoto & Nishimura (1998) ajoute une étape d’ajustement après chaque récurrence pour
augementer l’équidistribution dans l’hypercube unité (voir l’article). Les auteurs fournissent
un jeu de paramètres sélectionné de manière à maximiser la période et assurer une bonne
équidistribution :
– (!, n, m, r) = (32, 624, 397, 31),
– a = 0x9908B0DF, b = 0x9D2C5680, c = 0xEFC60000,
– u = 11, l = 18, s = 7 et t = 15.
La période est de 2n! r 1 = 219937 1, d’où le nom du générateur MT19937.
L’implémentation de MT19937 en C, disponible sur la page des auteurs 6 , est très rapide du fait
de l’utilisation d’opérations systématique bit à bit. D’autres générateurs ont depuis été inventé
utilisant ce formalisme, notamment les générateurs WELL de L’Ecuyer et SFMT de Matsumoto.
MT19937 et ses extensions rentrent dans la catégorie des générateurs pseudo-aléatoires et sont
utilisés dans les méthodes de Monte-Carlo. Par la loi des grands nombres, la moyenne empirique
de l’échantillon (X1 , . . . , Xn ) converge presque surement vers la moyenne théorique E(X). Le
théorème centrale limite nous donne la vitesse de convergence : p1n .
Générateurs quasi-aléatoires
Les méthodes de Monte-Carlo présentent un défaut : une convergence lente. Pour combler ce
problème, deux approches sont envisagées soit par réduction de la variance soit par des méthodes
quasi-aléatoires. Nous détaillerons dans cette section, les méthodes dites quasi-aléatoires.
Soient I d l’hypercube unité de dimension d et f une fonction multivariée bornée et intégrable
sur I d . Les méthodes de Monte-Carlo consiste à approximer l’intégrale de f par
Z n
1X
f (x)dx ⇡ f (Xi ),
Id n
i=1
où (Xi )1in sont des variables aléatoires independantes sur I d . La loi des grands nombres nous
assurent la convergence presque sûre de l’estimateur de Monte-Carlo. Et le théorème centrale
limite nous précise que la vitesse de convergence est en O( p1n ).
La gross di↵érence entre les méthodes pseudo Monte-Carlo et quasi Monte-Carlo (QMC) est de
ne plus considérer les points (xi )1in comme réalisations de variables aléatoires mais comme
points déterministes. Contrairement au tests statistiques, l’intégration numérique ne dépends
pas sur le caractère aléatoire. Les méthodes QMC datent des années 50 pour des problèmes
d’interpolation et de résolution d’intégrales.
Dans la suite, nous considérons les points
R (ui )1in de I d comme déterministes. La condition
1 Pn
de convergence de n i=1 f (ui ) vers I d f (x)dx repose sur la bonne répartition des points dans
l’hypercube I d .
On dit que les points sont uniformément distribués si
n
d 1X
8J ⇢ I , lim 11J (ui ) = d (J),
n!+1 n
i=1
où d désigne le volume en dimension d. Le problème est que ce critère est trop restrictif puisqu’il
y aura toujours un sous ensemble de l’hypercube avec aucun points à l’intérieur.
Par conséquent, on définit
P une définition plus flexible de l’uniformité à l’aide des cardinaux
CardE (u1 , . . . , un ) = ni=1 11E (ui ). La discrépance d’une suite (ui )1in de I d est
CardJ (u1 , . . . , un )
Dn (u) = sup d (J)
J2J n
Qd
où J corresponds à la famille de tous les sous-intervalles du type i=1 [ai , bi ].
7. i.e. P (|Y | > tn 1,↵ ) = ↵ où Y est une variable aléatoire Student.
La discrépance Dn (u) d’une suite nous permet de borner l’erreur de la manière suivante
n Z
1X
f (ui ) f (x)dx Vd (f )Dn (u),
n Id
i=1
où Vd (f ) est la variation d-dimensionelle au sens de Hardy et Krause (cf. Niederreiter (1992)).
D’où l’intérêt pour les suites à discrépance faible. Les plus connues sont les suites de Van Der
Corput, de Halton et de Sobol.
Dans R, le package randtoolbox implémentent plusieurs suites à discrépance faible, tandis que
le package lhs propose la méthode “Latin Hypercube Sampling”, une méthode hybride quasi et
pseudo aléatoire.
pour u 2 [0, 1]. Il est facile de voir que la variable F 1 (U1 ) a la même fonction de répartition
que X1 . La méthode de la transformée inverse utilise cette propriété pour donner l’algorithme
suivant
iid
– générer U1 , . . . , Un ⇠ U(0, 1),
– calculer Xi = F 1 (Ui ).
Notons que si X est une variable discrète, F est une fonction en escalier et l’inverse se calcule
par une suite de if-else. Au contraire si X est une variable continue, l’inverse de F peut être une
formule exacte comme pour la loi exponentielle F 1 (u) = log(1 u) . Dans ce cas, la génération
est très rapide.
Méthode Alias
La méthode Alias permet de générer des variables aléatoires discrètes décrites par les probabilités
élémentaires P (X = xk ) pour k = 1, . . . , n. Toutes variables discrètes avec au plus n valeurs
peut être représenté par un mélange équiprobable de n 1 variables discrètes bimodales (i.e. à
2 valeurs). On a
n 1
1 X
P (X = x) = qi (x),
n 1
i=1
où qi (x) sont des fonctions de masse de probabilité non nulles pour deux valeurs xi et yi .
L’algorithme devient
– générer U, V de loi uniforme U (0, 1),
– k = d(n 1)U e,
– si V < qk alors retourner xk sinon retourner yk .
Voir Walker (1977).
Inversion numérique
Dans le cas d’une variable continue X, il n’existe pas forcément d’expression explicite pour
F 1 . Une inversion numérique est néanmoins possible. Leydold et Hormann propose une in-
terpolation polynomiale nécessitant à partir du calcul de p points (ui = F (xi ), xi , fi = f (xi )).
Ensuite F 1 (u) est interpolé par un polynome d’Hermite d’ordre 3 ou 5 8 en utilisant les points
(ui , xi , fi )i .
L’erreur de ces méthodes d’inversion numérique est evidemment controlable. En pratique (Ley-
dold et Hormann), le temps de calcul de ces méthodes est tout à fait acceptable car p (envirion 300
pour une précision de 10 6 ) est relativement faible comparitivement au nombre de réalisations
voulues n. Il existe même des versions pour n’utilisant que la densité f (xi ) et pas la fonction de
répartition. Ceci est particulièrement apprécié pour la loi normale et ses extensions par exemple
Ces méthodes sont disponibles dans le package Runuran écrit par Leydold & Hörmann (2011).
Algorithme du rejet
Si X possède une densité f , l’algorithme du rejet-acceptation consiste à tirer dans des variables
aléatoires d’un loi proche de f (mais plus facile à simuler) et de ne garder que celle qui répondent
à une certaine contrainte.
Notons Y une variable aléatoire de densité et fonction de répartition g et U une variable aléatoire
uniforme. S’il existe une constante C 1 telle que on a la majoration 8x, f (x) cg(x), alors la
loi conditionnelle de Y sachant que cU g(Y ) < f (Y ) égale celle de X.
Pour générer Xi , l’algorithme est le suivant
Répéter :
– générer U ⇠ U(0, 1),
– générer Y selon g,
tant que cU g(Y ) < f (Y ).
a↵ecter Xi = Y .
Le nombre de rejet suit une loi géométrique de paramètre 1/C. Par conséquent plus l’approxi-
mation est bonne (C proche de 1), plus le nombre de rejets est faible.
8. l’interpolation linéaire (d’ordre 1) n’est pas efficace car le nombre p de points est trop élevé.
A.2.3 Processus aléatoires et Variables multivariées
Des applications d’actuariat nécessiteront la simulation de processus aléatoires et pas seulement
de variables indépendantes. Dans ce cas, l’équation di↵érentielle stochastique doit être discrétisée
de manière à simuler la ième trajectoire “complète” (Xt0 ,i , . . . XtT ,i ) sur [t0 , tT ]. Par conséquent
le nombre de points n(T +1) grandit rapidement. Il faut donc bien réfléchir si toute la trajectoire
du processus est nécessaire ou si seule la valeur terminale où le supremum nous intéresse.
Par exemple, considérons la simulation d’un processus de Poisson. Si on s’intéresse à un processus
de Poisson homogène, d’intensité , on va générer les durées entre sauts, qui sont exponentielles.
Pour générer un vecteur de dates de sauts sur un intervalle de temps [0, T ] on considère le code
suivant
> nmax <- 10000
> ST <- cumsum(rexp(nmax,lambda))
> ST <- ST[ST<=T]
On peut alors construire la fonction t 7! Nt sous la forme
> Nt <- function(t) sum(ST<=t)
Si le processus de Poisson est non-homogène, d’intensité (t) (que l’on supposera bornée par
), il est possible d’utiliser l’algorithme suivant pour générer un processus : on va générer un
processus de Poisson d’intensité , et on utilise une méthode de type acceptation-rejet pour
savoir si on garde un saut.
– poser T0 = 0 et T? = 0,
– générer E exponentielle de moyenne 1 et poser T? = T? + E,
– générer U uniforme sur [0, 1] : si U > (T? )/ on retourne à la seconde étape, et on tire un
nouveau E, sinon on pose Ti = T? .
Une autre possibilité est de noter que pour un processus de Poisson homogène, on partait de
T0 = 0, et on utilisait
Ti = Ti 1 + F 1 (U ),
Ti = Ti 1 + FTi 1 1 (U ),
où Fs est la fonction de répartition du temps d’attente entre le Ns ième saut, et le suivant, i.e.
✓Z s+t ◆
Fs (t) = 1 P(Ns+t Ns = 0) = 1 exp (u)du .
s
La génération d’une loi normale multivariée N (µ, ⌃) est un peu plus complexe :
– générer d variables indépendantes Xi ⇠ N (0, 1),
– calculer la décomposition de Cholesky ⌃ = C 0 C,
– calculer Y = µ + C 0 X.
Notons que si l’on veut simuler une variable multivariée sur l’hyperellypse définie par {x, xT ⌃x
r}, il suffit de remplacer la première étape par la génération de d variables uniformément dis-
tribuées dans la sphère unité.
> set.seed(1)
> rmultinormal <- function(n,S){
+ Z <- matrix(NA,n,ncol(S))
+ C <- chol(S)
+ for(i in 1:n){Z[i,] <- t(C) %*% rnorm(3)}
+ return(Z)}
> Sigma <- matrix(c(1,.7,.3,.7,1,-.3,.3,-.3,1),3,3)
> rmultinormal(1,Sigma)
[,1] [,2] [,3]
[1,] -0.6264538 -0.3073701 -0.8475816
> cor(rmultinormal(10000,Sigma))
[,1] [,2] [,3]
[1,] 1.0000000 0.7034906 0.2989346
[2,] 0.7034906 1.0000000 -0.2918081
[3,] 0.2989346 -0.2918081 1.0000000
Bibliographie
Bailey, A. L. (1950), ‘Credibility procedures, Laplace’s generalization of Bayes’ rule and the
combination of collateral knowledge with observed data’, Proceedings of the Casualty Actuarial
Society 37, 7–23.
Bailey, R. (1963), ‘Insurance rates with minimum bias’, Proceedings of the Society of Actuaries
50, 4–11. 63, 64
Balson, N. (2008), Mesure d’incertitude sur l’estimation des provisions de sinistres en Assurance
Non Vie, Institut des Actuaires - ENSAE. 130
Belhadj, H., Goulet, V. & Ouellet, T. (2009), ‘On parameter estimation in hierarchical credibi-
lity’, ASTIN Bulletin 39(2).
Benktander, G. (1976), ‘An approach to credibility in calculating ibnr for casualty excess rein-
surance’, Actuarial Review 3, 7–31. 127, 128
Bernegger, S. (1997), ‘The swiss re exposure curves and the mbbefd distribution class’, Astin
Bull. 27(1), 99–111. 10, 11
Bowers, N. L., Jones, D. A., Gerber, H. U., Nesbitt, C. J. & Hickman, J. C. (1997), Actuarial
Mathematics, 2nd Edition, SOA. iii, iv
Bühlmann, H. & Gisler, A. (1997), ‘Credibility in the regression case revisited’, ASTIN Bulletin
27, 83–98.
Bühlmann, H. & Gisler, A. (2005), A Course in Credibility Theory and its Applications, Springer.
Bühlmann, H. & Jewell, W. S. (1987), ‘Hierarchical credibility revisited’, Bulletin of the Swiss
Association of Actuaries 87, 35–54.
Bühlmann, H. & Straub, E. (1970), ‘Glaubwürdigkeit fur schadensätze’, Bulletin of the Swiss
Association of Actuaries 70, 111–133.
195
Cairns, A. J. G., Blake, D., Dowd, K., Coughlan, G. D. & Epstein, D. (2008), ‘A Quantitative
Comparison of Stochastic Mortality Models using Data from England and Wales and the
United States’, North American Actuarial Journal 13(1), 1–35. 159
Chambers, J. (2009), Software for Data Analysis : Programming with R, Springer Verlag. iii
Cormen, T. H., Leiserson, C. E., Rivest, R. L. & Stein, C. (2009), Introduction to Algorithms,
The MIT Press. iii
Davison, A. & Snell, E. (1991), Residuals and diagnostics, in N. R. D.V. Hinkley & E. Snell,
eds, ‘Statistical Theory and Modelling’, Chapman and Hall. 51
Daykin, C. D., Pentikainen, T. & Pesonen, M. (n.d.), Practical Risk Theory for Actuaries,
Chapman and Hall. 12
de Jong, P. & Zeller, G. (2008), Generalized Linear Models for Insurance Data, Cambridge
University Press. iii, 39
De Vylder, F. (22-28), Estimation of ibnr claims by least squares, in ‘Proc. First Meeting
Contact-group Actuarial Sciencesl’. 109
Denuit, M. & Robert, C. (2007), Actuariat des Assurances de Personnes : Modélisation, Tarifi-
cation et Provisionnement, Economica. 133, 159
Dickson, D. C., Hardy, M. R. & Waters, R. H. (2009), Actuarial Mathematics for Life Contingent
Risks, Cambridge University Press. iii, iv, 133
Dubey, A. & Gisler, A. (1981), ‘On parameter estimation in credibility’, Bulletin of the Swiss
Association of Actuaries 81, 187–211.
Dubreuil, E. & Vendé, P. (2005), Les couvertures indicielles en réassurance catastrophe. Prise
en compte de la dépendance spatiale dans la tarification. 30
Dutang, C., Goulet, V. & Pigeon, M. (2008), ‘actuar : An R package for actuarial science’,
Journal of Statistical Software 25(7). 7
Embrechts, P., Klüppelberg, C. & Mikosch, T. (1997), Modelling Extremal Events, Springer. 85
Embrechts, P., Lindskog, F. & McNeil, A. (2001), Modelling dependence with copulas and ap-
plications to risk management, Technical report, ETH Zurich. 13, 15
England, P. D. & Verrall, R. J. (1999), ‘Analytic and bootstrap estimates of prediction errors
in claims reserving’, Insurance : Mathematics and Economics 25, 281–293. 118
Frees, E. (2009), Regression modeling with actuarial and financial applications, Cambridge Uni-
versity Press. iii, 39
Frees, E. W. & Valdez, E. (1998), ‘Understanding Relationships Using Copulas’, North American
Actuarial Journal 2(1). 13
Frees, E. W. & Wang, P. (2006), ‘Copula credibility for aggregate loss models’, Insurance :
Mathematics and Economics 38, 360–373. 13
Friedman, J. (1991), ‘Multivariate additive regression splines’, Annals of Statistics 19(1), 1–67.
72
Genest, C., Kojadinovic, I., Nešlehová, J. & Yan, J. (2011), ‘A goodness-of-fit test for bivariate
extreme-value copulas’, Bernoulli 17(1), 253–275. 33
Gerber, H. & Shiu, E. (1994), ‘Option pricing by esscher transforms’, Transactions of the Society
of Actuaries Society of Actuaries 46, 99–191. 49
Giles, T. L. (1993), ‘Life insurance application of recursive formulas’, Journal of Actuarial Prac-
tice 1(2), 141–151. 147
Gilks, W. & Wild, P. (2004), ‘Adaptive rejection sampling from log-concave density’, Applied
Statistics 42, 701–709.
Hachemeister, C. A. (1975), Credibility for regression models with application to trend, in ‘Cre-
dibility, theory and applications’, Proceedings of the Berkeley actuarial research conference
on credibility, Academic Press, New York, pp. 129–163.
Hachemeister, C. A. & Stanard, J. N. (1975), Ibnr claims count estimation with static lag
functions, in ‘12th ASTIN Colloquium’, Portimao, Portugal. 110
Hastie, T. & Tibshirani, R. (1990), Generalized Additive Models, Chapman and Hall. 69, 72
Hsiao, C., Kim, C. & Taylor, G. (1990), ‘A statistical perspective on insurance rate-making’,
Journal of Econometrics 44(1-2), 5 – 24.
Hurvich, C. M. & Tsai, C.-L. (1995), ‘Model selection for extended quasi-likelihood models in
small samples’, Biometrics 51, 1077–1084. 52
Hyndman, R. J. & Fan, Y. (1996), ‘Sample quantiles in statistical packages’, American Statis-
tician 50, 361–365. 17
Ihaka, R. & Gentleman, R. (1996), ‘R : A language for data analysis and graphics’, Journal of
Computational and Graphical Statistics 5(3), 299–314.
Je↵rey, A. & Dai, H.-H. (2008), Handbook of mathematical formulas and integrals, Academic
Press.
Jewell, W. S. (1974), ‘Credible means are exact bayesian for exponential families’, Astin Bull.
8, 77–90.
Jewell, W. S. (1975), ‘The use of collateral data in credibility theory : A hierarchical model’,
Giornale dell’Istituto Italiano degli Attuari 38, 1–16.
Joe, H. (1997), Multivariate dependence measure and data analysis, in ‘Monographs on Statistics
and Applied Probability’, Vol. 73, Chapman & Hall. 28, 33
Johnson, N. L., Kotz, S. & Balakrishnan, N. (1997), Discrete Multivariate Distributions, Wiley
Interscience. 14
Johnson, N. L., Kotz, S. & Kemp, A. W. (2005), Univariate discrete distributions, 3rd edn,
Wiley Interscience. 9
Kaas, R., Goovaerts, M., Dhaene, J. & Denuit, M. (2009), Modern Actuarial Risk Theory, Sprin-
ger Verlag. iii, 39
Klugman, S. A., Panjer, H. H. & Willmot, G. (1998), Loss Models : From data to Decisions,
Wiley, New York.
Klugman, S. A., Panjer, H. H. & Willmot, G. E. (2009), Loss Models : From Data to Decisions,
Wiley Series in Proability and Statistics. iii, iv
Knuth, D. E. (1998), The Art of Computer Programming, volume 3 : Sorting and Searching,
Massachusetts : Addison-Wesley. iii
Kremer, E. (1982), ‘Ibnr claims and the two-way model of anova’, Scandinavian Actuarial Jour-
nal pp. 47–55. 110
Lacoume, A. (2009), Mesure du risque de réserve sur un horizon de un an, Institut des Actuaires
- ISFA. 107
L’Ecuyer, P. (1990), ‘Random numbers for simulation’, Communications of the ACM 33, 85–98.
188
Lee, R. & Carter, L. (1992), ‘Modeling and forecasting u.s. mortality’, Journal of the American
Statistical Association 87(419), 659–671. 166
Leydold, J. & Hörmann, W. (2011), Runuran : R interface to the UNU.RAN random variate
generators. 191
Mack, T. (1991), ‘A simple parametric model for rating automobile insurance or estimating ibnr
claims reserves’, ASTIN Bulletin 21, 93–109. 110
Mack, T. (1993b), ‘The standard error of chain-ladder reserve estimates : Recursive calculation
and inclusion of a tail factor’, ASTIN Bulletin 29, 361–366. 100
Mack, T. (1994), ‘Which stochastic model is underlying the chain-ladder method ?’, Insurance :
Mathematics and Economics 23, 213–225. 100
Maindonald, J. & Braun, W. J. (2007), Data Analysis and Graphics Using R : An Example-Based
Approach, Cambridge University Press. iii
Marshall, A. W. & Olkin, I. (1988), ‘Families of multivariate distributions’, Journal of the Ame-
rican Statistical Association 83(403), 834–841. 15
McDonald, J. & Butler, R. (1990), ‘Regression models for positive random variables’, Journal
of Econometrics 43, 227–251. 86
Merz, M. & Wüthrich, M. V. (2008), ‘Modelling the claims development result for solvency
purposes’, CAS E-Forum pp. 542–568. 106, 107
Moral, P. D., Remillard, B. & Rubenthaler, S. (2006), Introduction aux probabilités, Ellipses. 1
Niederreiter, H. (1992), Random Number Generation and Quasi-Monte Carlo Methods, SIAM,
Philadelphia. 190
Ohlsson, E. & Johansson, B. (2010), Non-Life Insurance Pricing with Generalized Linear Models,
Springer Verlag.
Ohlsson, E. & Johansson, B. (2010), Non-life insurance pricing with Generalized Linear Models,
Springer Verlag. iii, 39
Olver, F. W. J., Lozier, D. W., Boisvert, R. F. & Clark, C. W., eds (2010), NIST Handbook of
Mathematical Functions, Cambridge University Press.
URL: http ://dlmf.nist.gov/ 2
Partrat, C., Lecoeur, E., Nessi, J., Nisipasu, E. & Reiz, O. (2008), Provisionnement technique
en Assurance non vie, Economica. 91
Pitacco, E., Denuit, M., Haberman, S. & Olivieri, A. (2009), Modelling Longevity Dynamics for
Pensions and Annuity Business, Oxford University Press. 159
Quarg, G. & Mack, T. (2004), ‘Munich chain-ladder and a reserving method that reduces the
gap between ibnr projections based on paid losses and ibnr projections based on incurred
losses’, Variances 2, 267–299. 101, 104
Renshaw, A. E. & Haberman, S. (2006), ‘A cohort-based extension to the lee-carter model for
mortality reduction factors’, Insurance : Mathematics and Economics 58, 556–570. 181
Renshaw, A. E. & Verrall, R. J. (1998), ‘A stochastic model underlying the chain-ladder tech-
nique’, British Actuarial Journal 4, 903–923. 115
Robert, C. (2006), Le choix bayésien, Principes et pratique, Springer Verlag. 129
Saporta, G. (2006), Probabilités, analyse de donnés et statistique, Technip. 21, 29
Simonet, G. (1998), Comptabilité des entreprises d’assurance, L’Argus de l’Assurance. 91
Sklar, A. (1959), ‘Fonctions de répartition à n dimensions et leurs marges’, Publications de
l’ISUP de Paris 8 8, 229–231. 14
Stone, C. (1985), ‘Additive regression and other nonparametric models’, Annals of Statistics
13(2), 689–705. 69
T., M. & T., S. (2006), Dynamic Regression Models for Survival Data, Springer Verlag.
Tanner, M. A. & Wong, W. H. (1983), ‘The estimation of the hazard function from randomly
censored data by the kernel method’, The Annals of Statistics .
Taylor, G. (1977), ‘Separation of inflation and other e↵ects from the distribution of non-life
insurance claim delays’, ASTIN Bulletin 9, 217–230. 108
Therneau, T. (2009), survival : Survival Analysis, Including Penalised Likelihood. R package
version 2.35-4. Original R port by Thomas Lumley.
Venables, W. N. & Ripley, B. D. (2002a), Modern Applied Statistics with S, 4th edn, Springer.
iii
Venables, W. N. & Ripley, B. D. (2002b), Modern Applied Statistics with S, 4 edn, Springer,
New York.
Verrall, R. J. (2000), ‘An investigation into stochastic claims reserving models and the chain-
ladder technique’, Insurance : Mathematics and Economics 26, 91–99. 108
Vylder, E. D. (2010), Life Insurance Theory : Actuarial Perspectives, Springer Verlag. 133
Walker, A. J. (1977), ‘An efficient method for generating discrete random variables with general
distributions’, ACM Transactions on Mathematical Software 3, 253–256. 191
Wheeler, B. (2006), SuppDists : Supplementary Distributions. R package version 1.1-0.
URL: http ://www.bobwheeler.com/stat
Whitney, A. W. (1918), ‘The theory of experience rating’, Proceedings of the Casualty Actuarial
Society 4, 275–293.
Wood, S. (2000), ‘Additive regression and other nonparametric models’, Annals of Statistics
62(2), 413–428. 72
Wüthrich, M. V. & Merz, M. (2008), Stochastic Claims Reserving Methods in Insurance, Wiley
Interscience. 91, 104
Zehnwirth, B. (1985), Interactive claims reserving forecasting system (ICRFS), Benhar Nominees
Pty Ltd. Tarramurra N.S.W., Australia. 109
Zuur, A. F., Ieno, E. N. & Meesters, E. (2009), A Beginner’s Guide to R, Springer Verlag. iii
Index
203
facteur, 63, 108, 174 continue, 3
facteurs de transition, 94 discrete, 7
Fast Fourier Transform, 12 Erlang, 2
Fn , 16 exp, 31
fn , 16 exponentielle, 23, 25, 26, 81, 185
expontielle, 35
gamma, 2, 5, 118, 122 famille exponentielle, 40, 121
generalized additive models, 69 gamma, 2, 5, 6, 23, 25, 31, 41, 42, 80,
generalized linear models, 39 118, 121, 185
Gibbs, 130 inverse Gaussienne, 186
Gini, 53 log-normale, 2, 35, 80, 109, 123, 186
Glivenko-Cantelli, 17 MBBEFD, 10
Gompertz, 155 normale, 14, 40, 42, 80, 185
Pareto, 6, 14, 23, 25, 35, 85
hétérogénéité, 37
Poisson, 7, 9, 40, 42, 62, 73, 108, 110,
histogramme, 17, 35
118, 121
IAx , 155 Poisson composée, 121
IBNR, 93 quasi-Poisson, 118
incréments simulations, 12
négatifs, 113 Student, 186
paiements, 91 tronquée, 9
inflation de zéros, 10, 78 Tweedie, 121
interpolation, 151 Weibull, 3, 5
zéro-modifiée, 10
L, 20 longitudinale, 164
j , 94 loss ratio, 128
1 , 100 Lx , 134
Lee-Carter, 166
↵x , 166, 172, 174, 177 méthode des marges, 63, 110
Mack, 98
x , 166, 172, 174, 177
t , 166, 168, 172, 174 Markov, 98, 135
résidus, 171 maximisation, 21, 43
Lexis, 164 mean squared error, 97, 115
lien, 41 Merz & Wüthrich, 106
LifeMetrics, 172 moindres carrés, 87, 166
ligne, 112 moment, 19
lissage, 16, 72 µ, 19
log-linéaire, 109 µx,t , 160, 174
log-normale, 2, 123
Newton-Raphson, 23, 43
logit, 52, 174
normale, 14
loi
noyau, 16
Beta, 185
beta, 5 o↵set, 66
binomiale, 7, 40, 52
binomiale négative, 7, 73, 77, 118 paiements
Cauchy, 186 cumulés, 91
chi-deux, 2 incréments, 91
composée, 11, 37 Panjer, 11
Pareto, 14 temporaire décès, 142
Pearson, 185 test, 48
Poisson, 7, 9, 110, 122 transervale, 164
processus, 192 triangle, 91
predict, 119 automobile, 91
prime corporel, 123
acquise, 91 matériel, 123
pure, 37, 38, 141, 142, 145 Tweedie, 122
probabilité
décés, 134, 159 valeur actuelle probable, 133, 141
survie, 134 variance, 41
probit, 52 vraisemblance, 20, 28, 43, 51
provisions mathématiques, 141, 155, 157 k Vx , 142–145, 147, 150
S4, 150
2
j , 98
simulations, 187
splines, 57, 68
surdispersion, 73, 111, 118
table
prospective, 159
rectangularisation, 162
TD88-90, 134, 150
TGF-05, 136
TGH-05, 136
TV88-90, 134, 150
tail factor, 100
Taylor, 108
tempête, 30
Index des commandes
206
IAxn, 154 quasipoisson, 73, 111, 118, 174, 181
INCURRED, 92 qxt, 151
is.na, 119
readShapeSpatial, 66
knots, 17 region, 38
residuals, 50, 115, 171
lca, 166 rqpoisBN, 118
lifecontingencies, 150 rqpoisG, 118
lifetable, 169
linearHypothesis, 48, 75 S4, 124
lm, 82, 95, 109 sample, 116
lm.disp, 49 set.seed, 119, 190
log-normal, 80 sigma, 110
logLik, 51 sinistre, 38
loi splines, 73
mixte, 10 summary, 17, 82, 109
PAID, 92
pearson, 50, 126
PearsonDS, 186
persp, 160
poisson, 40, 44, 66, 110, 122, 174
predict, 42, 52, 56, 68, 70, 72, 82, 112, 113
PREMIUM, 92, 127
PtProcess, 192
pxt, 150
pxyt, 152
qmedist, 26
quantile, 120