Tout - Enonce Et Corrige - Ensae.net - Simple
Tout - Enonce Et Corrige - Ensae.net - Simple
Tout - Enonce Et Corrige - Ensae.net - Simple
2005-2005
Guillaume Lacôte
vBureau E03
B [email protected]
☞ http://ensae.no-ip.com/SE206/
2 Travaux Dirigés n◦ 2 15
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Exercice 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Travaux Dirigés n◦ 3 34
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Travaux Dirigés n◦ 4 47
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5 Travaux Dirigés n◦ 5 61
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6 Travaux Dirigés n◦ 6 66
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7 Travaux Dirigés n◦ 7 80
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8 Travaux Dirigés n◦ 8 96
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1
ensae.net
Travaux Dirigés n◦1
Enoncé de l’exercice 1
Soit (²t )t∈Z un bruit blanc (supposé dans L2 ) de variance σ 2 > 0.
Discuter dans chacun des cas suivants de la stationnarité de (Xt )t∈Z .
Rappels :
– Une suite de variables aléatoires réelles (ou processus) X = (Xt )t∈Z est dite du second ordre
si chacune d’elles est de carré intégrable.
– Un processus X est fortement stationnaire ssi
∀n ∈ N, ∀(t1 , . . . , tn ) ∈ Nn , ∀h ∈ Z, LXt1 ,...,Xtn = LXt1 +h ,...,Xtn +h
où LY désigne la loi de Y .
– Un processus X est (faiblement) stationnaire ssi
½
¯
∀t ∈ Z, E (Xt ) = E (X0 )
∃γ : Z → R+ / ∀t ∈ Z, ∀h ∈ Z, Cov (Xt , Xt+h ) = γ(h)
– Le processus X est un bruit blanc fort de variance σ 2 ≥ 0 ssi
¯ ∀t ∈ Z, E (Xt ) = 0
¯
¯ ∀t ∈ Z, V (Xt ) = σ 2
¯
¯ (Xt )t est i.i.d
☞ Q1 Lorsque ∀t ∈ Z, Xt = ²t − ²t−1 ?
☞ Q2 Le processus (Xt )t∈Z défini pour (a, b, c) ∈ R3 par
∀t ∈ Z, Xt = a + b²t + c²t−1
est-il (faiblement) stationnaire ?
☞ Q3 Lorsque ∀t ∈ Z, Xt = ²t ²t−1 , si ² est un bruit blanc fort ? Faible ?
Lorsque X est tel que ∀t ∈ Z, Xt − Xt−1 = ²t (on supposera en outre que ∀t > 0, ²t
|=
☞ Q4 X0 ) ?
☞ Q5 Lorsque ∀t ∈ Z, Xt = ²t cos(ct) + ²t−1 sin(ct) pour c ∈ R donné ?
P
☞ Q6 Lorsque ∀t ∈ Z, Xt = ti=0 λi (²t−i − ²t−i−1 ), pour λ ∈ R (discuter selon λ) ?
Lorsque λ ∈] − 1, 1[, montrer qu’il existe un processus stationnaire Y tel que
L2
(Xt − Yt ) −−−−→ (0).
t→+∞
☞ Q7 La somme de deux processus stationnaires est-elle stationnaire ?
ensae.net
Corrigé de l’exercice 1
Rappels :
– Une suite de variables aléatoires réelles (ou processus) X = (Xt )t∈Z est dite du second ordre
si chacune d’elles est de carré intégrable.
– Un processus X est fortement stationnaire ssi
ensae.net
– Si ² est un bruit blanc fort, ²2t est indépendant de ²2t0 et donc V (Xt ) = V (²t )V (²t−1 ) = (σ 2 ) .
En revanche si ²t et ²t−1 sont décorrélés
¡ 2 2 ¢mais pas indépendants
un bruit blanc faible ² tel que E ²t ²t−1 dépend de t.
– Enfin pour ∀h ∈ Z et si ² est un bruit blanc fort
V (Xt ) = V
à t−1
X
²t−i + X0
!
t−1
X
i=0
1
on ne peut rien dire : il existe
=
½ 2
σ² si h = 0
0 sinon
En revanche il existe un bruit blanc faible ² tel que Cov (Xt , Xt+h ) dépend de t. 2
Le processus X est donc stationnaire si ² est un bruit blanc fort, et il existe au moins un
|=
= X0
i=0
|{z}
>0
2
= tσ + V (X0 )
ensae.net
sin c soit
Xt =
0
= ²t +
=
i=0
sin(c) − sin((2t − 1)c)
= 2 sin
µ
1 − (2t − 1)
2
λi (²t−i − ²t−i−1 )
t
X
V (Xt ) = σ 2
Ã
¡ i
i=1
¢
¶
c cos
1+
t
X ¡
µ
1 + (2t − 1)
λi − λ
2
¢
¶
i−1 2
(“transformation d’Abel”)
+ λ2t
!
par indépendance
i=1
à t
!
X ¡ ¢
i−1 2
= σ2 1+ λ (λ − 1)2 + λ2t
i=1
à t−1
!
X ¡ 2 ¢i
= σ2 1 + (λ − 1) 2
λ + λ2t
i=0
µ 2t
¶
2 2 −λ
1 2t
= σ 1 + (λ − 1) +λ
1 − λ2
µ ¶
2 (1 − λ) (1 − λ2t ) 2t
= σ 1+ +λ
1+λ
1 + λ2t+1
= 2σ 2
1+λ
En particulier pour que X soit stationnaire, il faut que λ = 1 ou λ = 0.
Réciproquement si λ = 1, alors ∀t ∈ Z, Xt = ²t − ²−1P et donc X est stationnaire.
2t+1 2σ 2 +∞ i
– Constatant que 2σ 2 1+λ
1+λ
−
− −−→ 1+λ
, on pose Y t = i=0 λ (²t−i − ²t−i−1 ) (qui existe car la
t→+∞
2
série est normalement convergente car |λ| < 1). On a par construction V (Yt ) = 2 1−λ
σ
.
P+∞ i−1
On a par ailleurs Yt = ²t + (λ − 1) i=1 λ ²t−i .
ensae.net
Par conséquent pour h ∈ N∗ on a
= Cov
= Cov P
P
²t + (λ − 1) +∞
²t + (λ − 1) +∞
i=1 λ
i=1 λ
i=1 λ
= (λ − 1)λh−1 σ 2 + (λ − 1)2 λh
= − (1 − λ)2 λh−1 σ 2
P+∞ i−1
²t+h + (λ − 1) i=1 λ ²t+h−i
P
²t + (λ − 1) +∞ i−1
Ph−1 i−1
i−1
²t−i ,
²t−i ,
²t−i ,
t+h − i
(λ − 1)λ
λi−1 ²t−i
1
1−λ
σ2
!
P+∞ i−1
²t+h + (λ − 1) i=1 λ ²t+h−i + (λ − 1) i=h λ ²t−(i−h)
P
h−1
i=1
² t + (λ − 1)λ h
P+∞ j−1
j=1 λ ²t− j
≥1
P+∞: i i ¡ P ¢
On a Y = i=0 λ L ( − L) ◦ ² = + +∞ i
i=0 (λ − λ
i−1
) Li ◦ ² et donc Y − ² est la transfor-
P+∞ i i−1
mée moyenne mobile
P i infinie du processus stationnaire ² avec les cœfficients i=0 (λ − λ ).
i−1
Comme la série i (λ − λ ) est absolument convergente, Y est stationnaire.
Enfin on a
à +∞
!
X
V (Yt − Xt ) = V (λ − 1) λi−1 ²t−i + λt ²t−1
i=t+1
+∞
X
= λt V (²t−1 ) + (λ − 1)2 λi−1 V (²t−i )
i=t+1
1
= λt σ 2 + (λ − 1)2 λt+1 σ 2
1−λ
−−−−→ 0
t→+∞
et comme
à +∞
!
X
E (Yt − Xt ) = E (λ − 1) λi−1 ²t−i + λt ²t−1
i=t+1
+∞
X
= (λ − 1) λi−1 E (²t−i ) + λt E (²t−1 )
| {z } | {z }
i=t+1 =0 =0
= 0
ensae.net
on a 3
0 sinon
(Xt − Yt ) −−−−→ (0)
L2
t→+∞
et donc Cov (Xt + Yt , Xt+h + Yt+h ) = 4γX (h) t∈2Z h∈2Z qui dépend non-seulement de h mais
aussi de t.
En revanche la somme de deux processus (faiblement ou fortement) stationnaires non-corrélés
0
|=
est faiblement stationnaire : si ∀t, t , Xt Yt0 alors
naire.
Cov (Xt + Yt , Xt+h + Yt+h ) = Cov (Xt , Xt+h ) + Cov (Yt , Yt+h ) = γX (h) + γY (h)
? ?
?
Enoncé de l’exercice 2
On considère le processus défini par
∀t ∈ Z Xt = a + bt + st + ut
où a, b ∈ R, (st )t∈Z est un processus saisonnier (périodique) de période 4 et (ut )t∈Z est un bruit
blanc de variance σ 2 indépendant de s.
☞ Q1 Le modèle est-il correctement paramétré ? Proposer le cas échéant une contrainte naturelle (que
l’on supposera vérifiée par la suite) portant sur (st )t .
On définit l’opérateur
µ µ ¶¶
Zt + Zt−1 + Zt−2 + Zt−3
M4 : (Zt )t 7→
4 t
et on considère le processus Y = M4 X.
☞ Q2 Donner l’expression de Yt pour t ∈ Z, et justifier l’intérêt de la transformation.
¡ ¢ 2
3
La suite (Zn )n∈N converge vers Z dans L2 ssi kZn k2 −−−−−→ Z soit E Zn 2 −−−−−→ Z soit V (Zn )+E (Zn ) −−−−−→
n→+∞ n→+∞ n→+∞
Z soit V (Zn ) −−−−−→ Z et E (Zn ) −−−−−→ Z
n→+∞ n→+∞
ensae.net
☞ Q3 On définit alors Z = ∆Y .
Montrer que Z est stationnaire et calculer sa fonction d’auto-corrélation.
Corrigé de l’exercice 2
☞ Q1 Les composantes saisonnières ne sont pas identifiables : en effet les processus définis par a, b, (s t )t
et a + µ, b, (st − µ)t sont égaux pour tout µ ∈ R.
Il est néanmoins naturel de supposer que le processus saisonnier est “centré” sur une période :
i.e.
☞ Q2 On a pour t ∈ Z
Yt = a + b
∀t ∈ Z st + st+1 + st+2 + st+3 = 0
(le processus s étant de période 4 cette quantité ne dépend de tout façon pas de la date t).
t + (t − 1) + (t − 2) + (t − 3)
6
= (a − b) + bt +
4
4
M4 (s)t
| {z }
+ M4 (s)t + M4 (u)t
+ M4 (u)t
=0 par hypothèse
= µ + bt + vt
?
? ?
ensae.net
Enoncé de l’exercice 3
On considère le processus défini par ∀t ∈ Z Xt = ²t − θ²t−1 où (²t )t∈Z est un bruit blanc et
θ ∈] − 1, +1[.
☞ Q1 Montrer que X est stationnaire et calculer sa fonction d’auto-covariance.
☞ Q2 Soient φT , φT −1 , . . . , φ1 les coefficients de la régression
Ecrire les conditions d’orthogonalité entre XT +1 − X
En déduire que (φ1 , . . . , φT ) vérifie
³
(1 + θ2 ) φT − θφT −1
−θφk+1 + (1 + θ 2 ) φk − θφk−1
(1 + θ2 ) φ1 − θφ2
linéaire b
´ XT +1 de XT +1 sur (XT , XT −1 , . . . , X1 ).
bT +1 et < XT , . . . , X1 >.
= −θ
= 0 pour k ∈ J2, T − 1K
= −θ
Corrigé de l’exercice 3
☞ Q1 On a successivement pour t ∈ Z
– E (Xt ) = E (²t ) − θE (²t−1 ) = 0
– V (Xt ) = V (²t ) + θ2 V (²t−1 ) = (1 + θ 2 ) σ²2 ½
−θσ²2 si h = ±1
– Cov (Xt , Xt−h ) = Cov (²t − θ²t−1 , ²t−h − θ²t−h−1 ) =
0 sinon
En particulier X est stationnaire.
bT +1 = PT φk Xk .
☞ Q2 On a par définition pour t ∈ Z X k=1
Alors pour k ∈ J1, T K
³³ ´ ´
b
Cov XT +1 − XT +1 , Xk = 0
T
X
soit Cov (XT +1 , Xk ) − φl Cov (Xl , Xk ) = 0
l=1
T
X
soit γX (T + 1 − k) − φl γX (k − l) = 0
l=1
ensae.net
d’où (puisque σ²2 > 0)
(1 + θ2 ) φT − θφT −1
−θφk+1 + (1 + θ 2 ) φk − θφk−1
(1 + θ2 ) φ1 − θφ2
– Calcul de r(2) :
r(1) = −
θ
= −θ lorsque k = T
= 0 pour k ∈ J2, T − 1K
= 0 lorsque k = 1
r(m) = Corr (Xt − E (Xt |Xt−1 , . . . , Xt−m ) , Xt−m − E (Xt−m |Xt−m , . . . , Xt−1 ))
(comme E (Xt ) = 0 il n’est pas nécessaire de régresser sur < 1, Xt−1 , . . . , Xt−m > mais seulement
sur < Xt−1 , . . . , Xt−m > ). Or il est aussi égal au cœfficient de Xt−m dans la régression de Xt
(1)
Projetant Xt sur < Xt−1 > on a E (Xt |Xt−1 ) = φ1 Xt−1 avec r(1) = φ1 .
(1)
Or d’après la question précédente on a (1 + θ 2 ) φ1 = −θ et donc
1 + θ2
(2)
Projetant Xt sur < Xt−1 , Xt−2 > on a E (Xt |Xt−1 , Xt−2 ) = φ1 Xt−1 + φ2 Xt−2 avec r(2) =
(2)
(1)
(2)
φ2 .
(1) (2)
Attention : il n’y a aucune raison pour que φ1 = φ1 . . .
On a alors (
(2) (2)
(1 + θ2 ) φ1 − θφ2 = −θ
(2) (2)
−θφ1 + (1 + θ 2 ) φ2 = 0
soit ³ ´
(1 − θ + θ 2 ) φ(2) (2)
+ φ2 = −θ
³1 ´
(1 + θ + θ 2 ) φ1 − φ(2)
(2)
2 =0
ce dont on tire que µ ¶
(2) 1 θ θ
φ2 =− 2
−
2 1−θ+θ 1 + θ + θ2
soit
θ2
r(2) = −
1 + θ2 + θ4
Remarque : on constate par ailleurs que φ(2) (1)
θ+θ 3
1 = − 1+θ 2 +θ 4 6= φ1 .
4
Une preuve en est donnée dans “Séries temporelles et modèles dynamiques”, C. Gouriéroux et A. Monfort, V-D.2
page 161. Voir aussi exercice 4 .
ensae.net
– Calcul de r(T ) :
(T )
(1 + θ2 ) φT − θφT −1
Enoncé de l’exercice 4
(T )
(T )
(T )
−θφk+1 + (1 + θ 2 ) φk − θφk−1
(1 + θ2 ) φ1 − θφ2
(T )
r(T ) = −
?
? ?
(T )
θT
(T )
Projetant Xt sur < Xt−1 , . . . , Xt−T > on a E (Xt |Xt−1 , . . . , Xt−T ) = φ1 Xt−1 + · · · + φ2 Xt−2
(T )
avec r(T ) = φT .
On a alors
= −θ lorsque k = T
= 0 pour k ∈ J2, T − 1K
= 0 lorsque k = 1
1 + θ2 + · · · + θ 2T
(T )
ensae.net
Corrigé de l’exercice 4
¡¡ ¢¡ ¢¢ ¡ ¢
(b) En déduire que E Xt − Xt∗+ Xt−m − Xt∗− = cm V Xt−m − Xt∗− .
☞ Q3 En déduire que ρ(m) = r(m).
☞ Q1 (a) Remarque : bien-entendu comme X est stationnaire ρ(m) ne dépend pas de t et est donc bien
défini.
¡ ¢
– E Xt∗+ est la projection orthogonale de Xt sur le sous-espace vectoriel engendré par
(1, Xt−1 , . . . , Xt−m+1 ) pour le produit scalaire < X|Y >= E (XY ). Donc par définition
(Xt − Xt∗+ ) est orthogonal à h1, Xt−1 , . . . , Xt−m+1 i, donc en particulier (Xt − Xt∗+ ) (1)
|=
¡ ¢
ce qui s’écrit E¡ Xt −¢ Xt∗+ = 0.
De E (Xt ) = E Xt∗+ on tire alors que
E (Xt ) = a0 + a1 E (Xt−1 ) + · · · + am−1 E (Xt−m+1 )
et donc, (Xt )t étant stationnaire,
a0 = (1 − a1 − · · · − am−1 ) E (Xt )
¡ ¢
Par ailleurs par définition Xt∗+ on a ∀j ∈ J1, m − 1K, Xt − Xt∗+
|=
Xt−j . Autrement
dit pour j ∈ J1, m − 1K
¡¡ ¢ ¢
0 = E Xt − Xt∗+ · Xt−j
soit E (Xt Xt−j ) = a0 E (Xt ) + a1 E (Xt−1 Xt−j ) + · · · + am−1 E (Xt−m+1 Xt−j )
soit E (Xt Xt−j ) = (1 − a1 − · · · − am−1 ) E (Xt )E (Xt−j ) + a1 E (Xt−1 Xt−j ) + · · ·
+am−1 E (Xt−m+1 Xt−j )
= E (Xt )E (Xt−j ) + a1 (E (Xt−1 Xt−j ) − E (Xt−1 )E (Xt−j )) + · · ·
+am−1 (E (Xt−m+1 Xt−j ) − E (Xt−m+1 )E (Xt−j ))
soit γX (j) = a1 γX (j − 1) + · · · + am−1 γX (j − m + 1)
Autrement dit en notant
γX (0) γX (1) ··· γX (m − 2)
γX (1) γX (0) ··· γX (m − 1)
Γm−1 = .. .. ... .. = Cov (Xt−1 , . . . , Xt−m+1 )
. . .
γX (m − 2) γX (m − 3) ··· γX (0)
on a
γX (1) a1
.. ..
. = Γm−1 .
γX (m − 1) am−1
ensae.net
– De façon similaire on a pour j ∈ J1, m − 1K
de sorte que
¡¡
0 = E Xt − Xt∗− · Xt−j
m−1
X
i=1
λi
¢
γX (m − 1)
γ X (i
¢
γX (1)
..
.
..
.
−
γX (i − m + 1)
1)
bm−1
.
b1
= Γm−1 ..
Alors pour t ∈ Z
m−1
X
∀k ∈ J1, m − 1K, λi Cov (Xt−i , Xt−k ) = 0
i=1
Ãm−1 !
X
soit ∀k ∈ J1, m − 1K, Cov λi Xt−i , Xt−k = 0
i=1
m−1
Ãm−1 !
X X
donc λk Cov λi Xt−i , Xt−k = 0
k=1 i=1
Ãm−1 !
X
soit V λi Xt−i = 0
i=1
donc V (Xt−r |Xt−r−1 , . . . , Xt−m−1 ) = 0
où r est le numéro du premier λk non nul : ainsi le processus X est déterministe (condi-
tionnellement à m − r valeurs initiales) !
Par conséquent Γm−1 est inversible et
a1 γX (1) bm−1
.. −1 .. ..
. = (Γm−1 ) . = .
am−1 γX (m − 1) b1
6
Auquel cas bien entendu tous les cœfficients de corrélation partielle r(m) sont nuls et l’exercice est trivial.
ensae.net
(b) On a pour t ∈ Z
¡ ¢
V Xt∗+ = V (a1 Xt−1 + · · · + am−1 Xt−m+1 )
Par ailleurs
¡ ¢ ¡ ¢
¡
= V Xt∗−
¢
¡
= (a1 , . . . , am−1 ) V
= (bm−1 , . . . , b1 ) V
= (bm−1 , . . . , b1 ) V
Xt−1
Xt−m+1
Xt−1
..
.
Xt−m+1
Xt−m+1
¢
Xt∗+
a1
..
.
am−1
bm−1
..
.
b1
bm−1
..
¡
|=
Par conséquent
¡ ¢ ¡ ¢
V Xt − Xt∗+ = V Xt−m − Xt∗−
☞ Q2 (a) On a pour t ∈ Z
Xt∗+ = EL (Xt |1, Xt−1 , . . . , Xt−m+1 )
= (c0 + c1 Xt−1 + · · · + cm−1 Xt−m+1 ) + EL (cm Xt−m | 1, Xt−m+1 , . . . , Xt−1 )
+ EL (ut | 1, Xt−1 , . . . , Xt−m+1 )
= (c0 + c1 Xt−1 + · · · + cm−1 Xt−m+1 ) + cm Xt∗− + 0
Par conséquent
Xt − Xt∗+ = Xt − (c0 + c1 Xt−1 + · · · + cm−1 Xt−m+1 ) − cm Xt∗−
= (cm Xt−m + ut ) − cm Xt∗−
¡ ¢
= cm Xt−m − Xt∗− + ut
(b) On a
¡¡ ¢¡ ¢¢ ³ ¡ ¢2 ¡ ¢´
E Xt − Xt∗+ Xt−m − Xt∗− = E cm Xt−m − Xt∗− + cm ut Xt−m − Xt∗−
¡ ¢
Xt−m − Xt∗− .
|=
|=
ensae.net=
¡¡
= q ¡
V Xt − Xt∗+
= ρ(m)
¡¡
E
¢¡
¢
¡¡
¡¡
¡
V Xt−m − Xt∗−
¢ ¡
¢
Xt − Xt∗+
¢¢
V Xt−m − Xt∗−
¢ ¡
= Corr Xt − Xt∗+ , Xt−m − Xt∗−
¢
¢¢
¢¡
¡
Xt−m − Xt∗−
¢
¢
☞ Q3 A moins que le processus ne soit dégénéré on a V Xt−m − Xt∗− > 0 et donc
¡
¢¢
Autrement dit, le cœfficient d’auto-corrélation partielle d’ordre m est le cœfficient de X t−m dans
¢
la régression affine de Xt sur < 1, Xt−1 , . . . , Xt−m >, qui est aussi le cœfficient de corrélation
de Xt − Xt∗+ avec Xt−m − Xt∗− .
?
? ?
☞ Q1
☞ Q2
☞ Q3
☞ Q4
ensae.net
Travaux Dirigés n◦2
Enoncé de l’exercice 1
On considère un processus X vérifiant
¡P
3
∀t ∈ Z, Xt − Xt−1 + Xt−2 = ²t
2
∀t ∈ Z, Φ∗ (L)Yt = ηt
(1)
Corrigé de l’exercice 1
☞ Q1 On a Φ(X) = (1 − 3X)(1 − 12 X) ; on constate que 13 est racine de Φ et n’est pas hors du disque
unité. Remarque : Considérons E l’espace de tous les processus stationnaires ; il est métrisable (pour
L1 est un Banach
la distance V (· − ·)) et complet (l’algèbre des suites réelles¡P ¢ X 7→ λ · X , X, Y 7→
1
X + Y, , X, Y 7→ X × Y ) . En outre si a est dans L alors a X est stationnaire.
k∈Z k t−k t∈Z
µ ¶
E → E
L’opérateur L : est un morphisme (voir question 3), de norme triple
(Xt )t∈Z 7→ (Xt−1 )t∈Z
kLXk γX (0)
supX∈E kXk = supX∈E γX (0) = 1.
ensae.net
Considérons alors F l’espace des morphismes
standard. Soit λ ∈ R et Θ(X)
Comme 1
2
< 1 on a
1
P
=
1
k
5 1 − 3X
(1 − 3X)
=
k
=
de E dans E, muni à son tour de la
= k∈N λ X . Alors la série d’opérateurs de F
−
1
¶
5
=
·
3 X− 1
µ ¶ µ ¶3
−
1
3
1
1
1 − 21 X
X 1
1 − 21 X k=0 2k
µ
Xk
1
+∞
¡ ¢
X 1 − 31 X1
Pstructure
k k
d’algèbre
k∈N λ L converge
dans F ssi la série réelle k∈N λk converge, puisque L est de norme 1, soit si |λ| < 1.
P P
on a : k∈N λk Lk = (1 − λL)−1 est l’opérateur inverse dans
1
(1 − 3X)(1 − 12 X)
6
·
1
µ ¶
+ −
1 1
µ ¶µ ¶X +∞ µ ¶k
1 1 1 1
= −
3 X k=0 3k X
+∞
X µ ¶k
1 1
= −
k=1
3k X
☞ Q2 – Définissons ½ 1
2k
si k ≥ 0
ak = 6 1
− 5 3k sinon
P
Alors par construction Φ(X)1
= k∈Z ak Xk .
P
Par
P conséquent l’opérateur Φ(L) est inversible et d’inverse Φ(L)−1 = Φ−1 (L) = k∈N ak Lk +
k
k∈N∗ a−k F , où
¡PF désigne ¢l’opérateur avance. −1
Soit donc Y = k∈Z ak ²t−k t∈Z ; par définition Y = Φ(L) ², c’est-à-dire Φ(L)Y = ².
P
– Par ailleurs pour t ∈ Z et k ≥ 1 on a Cov (²t , Yt−k ) = j∈Z aj t=t−k−j σ²2 = a−k σ²2 6= 0. Or si
¡ ¢
² était l’innovation de Y , alors ∀t ∈ Z, ²t = Yt − Yt∗+
|=
< 1, Y t − 1, . . . >.
Donc ² n’est pas l’innovation de Y .
☞ Q3 – A est stationnaire donc ∀t ∈ Z, ∀k ∈ Z, kak At+k k2 ≤ |ak |kAk2 = |ak |γA (0) + E (A0 )2
et comme la série Θ(X) est absolument convergente, la série Θ(L) ◦ A est normalement
convergente. P P
Enfin Cov (Bt , Bt−h ) = i,j∈Z ai aj Cov (At−i , At−h−j ) = i,j∈Z ai aj γA (h − i − j) ne dépend
pas de t ∈ Z.
ensae.net
– Soit λ ∈ C, et montrons tout d’abord que ∀ω ∈ R, f(
tout d’abord pour h ∈ Z 7
γ( −λL)A (h)
Donc pour ω ∈ R
f(
= Cov (At − λAt−1 , At−h − λAt−h−1 )
−λL)A (ω) =
=
¢
= 1 + |λ|2 γA (h) − λγA (h − 1) − λγA (h + 1)
1 X
2π h∈Z
1 X ¡¡
2π h∈Z
2π
¯
1 X ¡¡
2π h∈Z
1 ¡
γ( −λL)A (h)eiωh
¢
−λL)A (ω)
= Cov (At , At−h ) − λCov (At , At−h−1 ) − λCov (At−1 , At−h ) + λλCov (At−1 , At−h−1 )
¡
¢
1 + |λ|2 γA (h) − λγA (h − 1) − λγA (h + 1) eiωh
¯
¢¡
¢
1 − λeiω 1 − λe−iω
¯1 − λeiω ¯2 γA (h)
¢X
h∈Z
¢
1 + |λ|2 − λeiω − λe−iω γA (h)eiωh
γA (h)eiωh
Par suite, pour tout polynôme P ∈ C[X], P est scindé et s’écrit P (X) = (1 − λ 1 X) · · · (1 − λn X),
donc
2
= |1 − λeiω | fA (ω). On a
¯ ¯2
fP (L)A (ω) = ¯1 − λ1 eiω ¯ f(1−λ2 X)···(1−λn X)A (ω)
¯ ¯2 ¯ ¯2
= ¯1 − λ1 eiω ¯ · · · ¯1 − λn eiω ¯ fA (ω)
¯ ¡ ¢¯2
= ¯P eiω ¯ fA (ω)
P (X)
Pour toute fraction rationnelle F = Q(X)
∈ C(X), on a
¯ ¡ iω ¢¯2
¯Q e ¯ fF (L)A (ω) = fQ(L)F (L)A (ω)
= fP (L)A
¯ ¡ ¢¯2
= ¯P eiω ¯ fA (ω)
2
et donc fF (L)A = |F (eiωP
)| fA (ω).
k∈Z ak X
k
Soit enfin Θ(X) = une série absolument convergente ; notons φN (X) =
P iω 2
|k|≥N ak X . Alors ∀N ∈ N, fΘN (L)A (ω) = |ΘN (e )| fA (ω). Or Θ est absolement conver-
k
2 2
gente, donc |ΘN (eiω )| admet une limite finie lorsque N → +∞, à savoir |Θ (eiω )| . Donc
fΘN (L)A (ω) admet une limite lorsque N → +∞, et on a
2
fΘ(L)A (ω) = |Θ (eiω )| fA (ω)
7
Attention : Cov (·, ·) est une forme hermitienne sur les variables aléatoires complexes, i.e.
∀µ ∈ C, Cov (X, µY ) = µCov (X, Y ) et pas µCov (X, Y ).
ensae.net
Autre méthode
et donc
fΘ(L)A (ω) =
=
P:
Soit Θ(X) = k∈Z ak Xk une série absolument convergente. Alors
1 X
2π h∈Z
1 X
γΘ(L)A (h) = Cov
2π j,l∈Z
1 X
2π j,l∈Z
Ã
1 X
2π j∈Z
¯
Ã
aj al
X
j,l∈Z
aj al
Ã
Ã
X
m∈Z
aj eiωj
¯2
!Ã
X
h∈Z
Ã
X
γA (m)e
l∈Z
=
aj At−j ,
X
j,l∈Z
iω(m−i+j)
al e−iωl
!Ã
X
X
m∈Z
al At−h−l
j∈Z
aj al γA (h + l − j) eiωh
γA (h + l − j)eiωh
!
γA (m)eiωm
!
aj al γA (h + l − j)
!
!
l∈Z
idem
¯X ¯
¯ ¯
= ¯ aj eiωj ¯ fA (ω)
¯ ¯
j∈Z
¯ ¡ ¢¯2
= ¯Θ eiω ¯ fA (ω)
☞ Q4 Soit donc Θ une série absolument convergente, et considérons le processus Z = Θ(L)Y . Alors
¯ ¡ ¢¯2
fZ (ω) = ¯Θ eiω ¯ fY (ω)
¯ ¡ ¢¯2
= ¯Θ eiω ¯ fΦ(L)−1 ² (ω)
¯ ¯
¯ Θ (eiω ) ¯2
= ¯¯ ¯ f² (ω)
Φ (eiω ) ¯
1
P σ2
Or si η est un bruit blanc de variance σRη2 , alors fη (ω) = 2π k∈Z γη (h)e
iω
= 2πη . Et comme
1
pour tout processus A on a γA (h) = 2π f (ω)e−iω dω, la réciproque est également vraie
[0,2π] A
(un processus est un bruit blanc ssi sa densité spectrale est constante).
¯ ¯
¯ Θ(eiω ) ¯
En particulier, si Θ est tel que ¯¯ Φ(eiω ) ¯¯ est indépendante de ω, alors Z est un bruit blanc.
¡ ¢¡ ¢
C’est pourquoi on considère Φ∗ (X) = 1 − 31 X 1 − 21 X : Φ∗ a toutes ses racines hors du cercle
ensae.net
unité par construction, et en outre en notant η = Φ∗ (L)Y on a
Ainsi
fη (ω) = ¯¯
= ¯¯
¯
¯
3
=
¯ ¯
¯
¯
¯ Θ (eiω ) ¯2 σ 2
¯
¯
Φ (eiω ) ¯ 2π
¯ 1 iω ¯2 σ 2
¯
= ¯ e ¯¯
3
1 σ2
9 2π
¯
¯ 1 iω ¯2 ¯ 3e−iω − 1 ¯2 σ 2
= ¯¯ e ¯¯ ¯¯ ¯
1 − 3eiω ¯ 2π
σ²2
9
tel que Φ∗ (L)Y = η
?
? ?
ensae.net
Enoncé de l’exercice 2
On considère un processus stationnaire du second ordre X vérifiant
On suppose que l’observation de X est imprécise et qu’on n’observe que Y = X + η, où η est
un bruit blanc décorrélé de ² et de variance ση2 = ρσ²2 , ρ > 0.
☞ Q1 Montrer que ² + ( − 2L)η est un processus Ma(1).
ak Yt−k
a k
¢
telle que
k∈N∗
Corrigé de l’exercice 2
☞ Q1 Soit V = ² + ( − 2L)η.
On a pour t ∈ Z E (V ) = 0 et de plus
Ainsi V est stationnaire et sa fonction d’auto-corrélation est celle d’un processus Ma(1).
Soit alors θ ∈ R et µ un bruit blanc de variance σµ2 , et notons W = ( − θL)µ.
Cherchons θ et σµ2 tels que γW = γV .
(1 + θ2 ) σµ2 si h = 0
On a γW (h) = −θσµ2 si h = ±1 .
0 sinon
Fixons donc r
1+5ρ
−
2
(1+ 2ρ5 ) −1
θ= 2ρ
2
2σ²2
σ2 =
µ
r
2
1+ρ
2ρ
− (1+ 2ρ5 ) −1
ensae.net
Alors8 par construction
soit
et donc γV = γW .
½
½
θ2 − 1+5ρ
2
2ρ
1
θ+1=0
et σµ = θ2 −2θ+1 σ²2
(1 + θ2 ) σµ2 = (1 + 5ρ)σ²2
−θσµ2 = −2ρσ²2
( − 2L)Y = ( − θL)µ
Cependant le polynôme Φ(X) = 1 − 2X admet 21 pour racine qui n’est pas hors du cercle unité :
cette représentation n’est donc pas canonique.
De la même façon que dans exercice 1 on définit Φ∗ (X) = (1 − 21 X).
−1
Notons ξ = ( − θL)Φ∗ (L)µ ; alors ξ est un bruit blanc de variance
¯ ∗ iω ¯2 ¯ ¯
¯ Φ (e ) ¯ 2 ¯ 1 − 21 eiω ¯2 2 1 2
¯ ¯ σµ = ¯ ¯
¯ Φ (eiω ) ¯ ¯ 1 − 2eiω ¯ σµ = 4 σµ
☞ Q3 D’après le résultat précédent l’innovation du processus Y est ξ. Par ailleurs la fraction rationnelle
q q
2 2
8
1+5ρ
2ρ − (1+ 2ρ
5
) −1 (1+ 2ρ
1+5ρ
5
) −1
2ρ +
Le choix de 2 plutôt que 2 permet de garantir que |θ| < 1.
9
En toute rigueur, il faudrait préalablement montrer que si un processus X stationnaire a son auto-corrélation nulle à
partir du rang q, alors il suit un processus Ma d’ordre au plus q. Pour ce faire, il faut définir le polynôme moyenne-mobile
∆ issu des équations de Yule-Walker, puis vérifier que f∆(L)−1 ◦X (ω) est constante, ce qui garantit que ∆(L)−1 ◦ X est
bien un bruit blanc. Voir aussi TD 3, exercice 1
ensae.net
1
1−θX
ξ = ( − θL)
=
õ
¡
µ
− θ−
¢
1
−1
− L ×
2
µ
1
est développable en série entière et on a 1−θX
¶ ÃX
¶
1
P
= k∈N θk Xk de sorte que
¶
− L Y
2
k∈N
θ k Lk
1 X k−1 k
2 k≥1
θ L ◦Y
!!
!
◦Y
P
et donc en définissant pour k ≥ 1 ak = θ − 12 θk−1 on a ∀t ∈ Z, ξt = Yt − k≥1 ak Yt−k et donc
∀t ∈ Z, Yt = ξt +
P
P
k≥1 ak Yt−k
En d’autres termes on a pour tout t ∈ Z EL (Yt |Yt−1 , . . .) = k≥1 ak Yt−k . Cette représentation
permet de prédire en moyenne sans erreur la prochaine valeur de Y compte-tenu de l’observation
de son passé. En outre, la série étant géométrique le nombre de termes nécessaires pour atteindre
une précision δ donnée ne croı̂t que logarithmiquement avec cette précision (et bien-sûr avec
γY (0)).10
?
? ?
Enoncé de l’exercice 3
Etant donné un processus stationnaire X, si ρX (1) est elevée alors Xt est “assez” correlé avec
Xt−1 et Xt−1 avec Xt−2 ; par conséquent il semble naturel que Xt soit “relativement” corrélé
avec Xt−2 , c’est-à-dire que ρX (2) ne soit “pas trop” faible.
L’objet de cet exercice est de déterminer précisément le domaine de (ρX (1), ρX (2)). On définit
à cet effet
R = {(x, y) ∈ [−1, 1]2 / y ≥ 2x2 − 1}
☞ Q1 Soit X un processus stationnaire quelconque (du second ordre).
Montrer que (ρX (1), ρX (2)) ∈ R.
☞ Q2 On se donne réciproquement (ρ1 , ρ2 ) ∈ R et on cherche X stationnaire tel que (ρX (1), ρX (2)) =
(ρ1 , ρ2 ).
On considère pour cela le processus X défini par
∀t ∈ Z, Xt = φ1 Xt−1 + φ2 Xt−2 + ²t
ensae.net
(a) On note Φ(X) = 1 − φ1 X − φ2 X2 .
Donner une condition nécessaire et suffisante sur (φ1 , φ2 ) pour que X soit stationnaire.
(b) On note P l’ensemble des (φ1 , φ2 ) tel que les racines de Φ sont hors du disque unité ;
déterminer P . Que peut-on dire de ² si (φ1 , φ2 ) ∈ P ?
(c) Calculer (ρX (1), ρX (2)), et en déduire l’expression de (φ1 , φ2 ) en fonction de (ρX (1), ρX (2)).
(d) Conclure.
Corrigé de l’exercice 3
X
Xt−1
..
.
Xt−m
³
☞ Q1 On a bien-sûr ∀m ∈ N, ρX (m)2 = Cov(X
t ,Xt−m )
V(Xt )
´2 ³
pour m ∈ N∗ .
≤ V(Xt )V(Xt−m )
V(Xt )V(Xt−m )
´2
=1
Alors pour tout m ∈ N Γm (X) est positive (c’est un produit scalaire) ; en particulier |Γm | ≥ 0,
∗
Remarque : (ρX (m))m∈N est donc soumise à une infinité de contraintes (polynomiales) ; voir aussi
“Séries temporelles et modèles dynamiques”, C. Gouriéroux et A. Monfort, 5.2 p 155.
On notera en particulier que pour que ρX (2) = 0 il faut que |ρX (1)| ≤ √12 .
ensae.net
☞ Q2 (a) Pour que X soit stationnaire, il faut et il suffit qu’aucune racine de Φ ne soit unitaire.
Or les racines de Φ sont ω =
±
√
x = i −x si x < 0.
(b) On a
2
¡ 2
−
¢ 2
√
−φ1 − φ21 +4φ2
2φ2
q
⇔ φ21 + 2φ2 − 2φ22 6= ±φ1 φ21 + 4φ2
q
⇔ φ1 + φ1 + 4φ2 − 4φ2 6= ±2φ1 φ21 + 4φ2
+
et ω =
|ω ± | > 1 ⇔ ¯
¯
¯ 2φ1
1
¡
√
−φ1 + φ21 +4φ2
2φ2
⇔ φ41 + 4φ22 + 4φ42 + 4φ21 φ2 − 4φ21 φ22 − 8φ32 6= φ21 φ21 + 4φ2
⇔ φ22 + φ42 − φ21 φ22 − 2φ32 6= 0
2 ¯
¯
¯ −φ ± ip− (φ2 + 4φ ) ¯2
¯ 1
¯ >1
¯
, avec la convention
Si les racines sont complexes conjuguées z et z, alors |z|2 = |z|2 = zz = − φ12 . Donc si
φ21 + 4φ2 < 0 une condition nécessaire et suffisante est que φ2 6= −1. Sinon, les deux
racines sont réelles et alors
|ω | 6= 1 ⇔
µ q ¶2
−φ1 ± φ1 + 4φ2 6= 4φ22
2
ensae.net
Ainsi dans tous les cas |ω ± | > 1 ⇔ |φ1 | ≤ 1.
– Si φ21 + 4φ2 > 0 : Si φ2 = 0, φ1 6= 0 et ω − = ω + =
Sinon, ω − < ω + , et donc
|ω ± | > 1 ⇔
⇔
⇔
ω + < −1 ou ω − > +1
p
½
φ21 + 4φ2 − φ1
2φ2
Si φ2 < 0 :
φ21 + 4φ2
° ou φ21 + 4φ2
°
p
−φ1 − φ21 + 4φ2
2φ2
Si φ2 > 0 : pφ21 + 4φ2 < φ1 − 2φ2 ou pφ21 + 4φ2 < −φ1 − 2φ2
donc |ω ± | > 1 ⇔ 0 < |φ1 | < 1.
Si φ2 > 0 : φ21 + 4φ2 < (φ1 − 2φ2 )2 ou φ21 + 4φ2 < (φ1 + 2φ2 )2
Si φ2 < 0 : φ21 + 4φ2 > (φ1 − 2φ2 )2 ou φ21 + 4φ2 > (φ1 + 2φ2 )2
φ2 − φ1 > 1 ou φ2 + φ1 > 1
φ2 − |φ1 | > 1
Conclusion : une condition nécessaire et suffisante pour que les racines de Φ soient toutes
<0
=0
et −1 < φ2 < 0
et |φ1 | < 1
° ou φ21 + 4φ2 >0 et φ2 < 1 − |φ1 |
Bien entendu lorsque cette condition est vérifiée le processus X est décrit sous forme Ma
canonique et donc ² est l’innovation de X.
(c) X étant supposée stationnaire et sous forme canonique, on a
Xt−1 , . . .
= φ1 γX (0) + φ2 γX (1)
et donc
φ1
ρX (1) = 1−φ2
Par ailleurs
Xt−1 , . . .
= φ1 γX (1) + φ2 γX (0)
ensae.net
soit
soit
(d) Soit
½
ρX (1) =
(
=
ρX (2) =
φ1
1−φ2
ρX (2) = φ1 ρX (1) + φ2
½
φ1 ρX (1) (1 − φ2 )
φ21
1−φ1
ρX (2) = ρX (1)2 (1 − φ2 ) + φ2
φ1
φ2
(
φ1
=
=
=
+ φ2
Remarque : d’une façon plus générale le développement de Cov (Φ(L)Xt , ²t ) assure que pour
m ≥ d = d◦ Φ, ρX (m) suit la récurrence linéaire de polynôme caractéristique Φ. En particulier il
existe des cœfficients λ1 , . . . , λd tels que ∀m, ρX (m) = λ1 ω1m + · · · + λd ωdm .
ρX (1)(1−ρX (2))
1−ρX (1)2
ρX (2)−ρX (1)2
1−ρX (1)2
ρ1 (1−ρ2 )
1−ρ1 2
ρ2 −ρ1 2
φ2 = 1−ρ1 2
?
? ?
Enoncé de l’exercice 4
On considère un processus X stationnaire du second ordre, et on note pour k ∈ N
Xt−1
Γk = Cov ...
Xt−k
ensae.net
On se donne désormais k ∈ N et on supposera que |Γk | > 0.
☞ Q2 Calculer les cœfficients a1 , . . . , ak de la régression de Xt∗ = EL (Xt |1, Xt−1 , . . . , Xt−k ) sur <
1, Xt−1 , . . . , Xt−k >.
☞ Q3 Calculer σk2 , la variance de l’erreur de prévision Xt − Xt∗ .
☞ Q4 (a) Montrer que |Γk+1 | = σk2 |Γk |.
(b) Montrer que (σl2 )l∈N∗ est décroissante.
En déduire qu’elle admet une limite finie lorsque l → +∞, et que cette limite est σ∞
V (Xt − EL (Xt |1, Xt−1 , . . .)) la variance de l’innovation du processus X.
(c) Montrer que 1l log |Γl | −−−−→ log σ∞
l→+∞
2
.
☞ Q5 Application : on considère un processus du second ordre X vérifiant X = (1 − θL)² pour
θ ∈] − 1, 1[, où ² est un bruit blanc de variance σ²2 .
(a) Montrer que X est stationnaire et calculer γX .
(b) Calculer |Γk |.
(c) Vérifier que ² est l’innovation de X et que k1 log |Γk | −−−−→ log σ²2 .
k→+∞
2
=
Corrigé de l’exercice 4
☞ Q1 On a pour k ∈ N et t ∈ Z
V (Xt−1 ) Cov (Xt , Xt−1 ) ··· Cov (Xt , Xt−k )
Cov (Xt−2 , Xt−1 ) V (Xt−1 ) ··· Cov (Xt−1 , Xt−k )
Γk = .. ... ..
. .
Cov (Xt−k , Xt−1 ) Cov (Xt−k , Xt−1 ) · · · V (Xt−k )
γX (0) γX (1) ··· γX (k − 1)
γX (1) γX (0) ··· γX (k − 2)
= .. ... ..
. .
γX (k − 1) γX (k − 2) ··· γX (0)
En particulier Γk ne dépend pas de t et est symétrique réelle à diagonale positive, donc positive.
Par ailleurs, si k est tel que |Γk | = 0, alors comme il est montré dans TD 1, exercice 4
conditionnellement à un nombre fini de réalisations X1 , . . . , Xr le processus X est presque-
sûrement déterministe.
☞ Q2 Notons Xt∗ = a0 +a1 Xt−1 +· · ·+am−1 Xt−m+1 ; on en tire tout d’abord comme X est stationnaire
que a0 = E (Xt ) (1 − a1 − · · · − ak ). Par ailleurs Xt∗ est caractérisé par13
(Xt − Xt∗ ) 1 et ∀j ∈ J1, kK, (Xt − Xt∗ )
|=
|=
Xj
13
Voir aussi TD 1, exercice 4 .
ensae.net
ce qui s’écrit pour j ∈ J1, kK
et donc en définitive
☞ Q3 On a
¡¡
a1
..
.
ak
¢
0 = E Xt − Xt∗+ · Xt−j
=
¢
a0 = E (Xt ) (1 −
Xt−1
−1
(Γk ) ×
a1 − · · · −
γX (1)
..
.
ak )
γX (k)
Xt − Xt∗ = Xt − a0 − (a1 , . . . , ak ) × ...
Xt−k
Xt−1
= Xt − (E (Xt ) − a1 E (Xt−1 ) − · · · − ak E (Xt−k )) − (a1 , . . . , ak ) × ...
Xt−k
Xt−1 − E (Xt−1 )
..
= (Xt − E (Xt )) − (a1 , . . . , ak ) × .
Xt−k − E (Xt−k )
³ 0 ´−1 Xt−1 − E (Xt−1 )
..
= (Xt − E (Xt )) − (γX (1), . . . , γX (k)) × Γk × .
Xt−k − E (Xt − k)
ensae.net
Or E (Xt ) = E (Xt∗ ) et Γk est symétrique, donc
=
+
¡
V (Xt − Xt∗ ) = E (Xt − Xt∗ )2
¡
E (X
|
¢
t − E (Xt ))
(γ
× (Γk )−1
V (Xt )
2¢
γ X (1)
..
.
γX (k)
−1
{z
Γ k
Xt−1 − E (Xt−1 )
..
.
Xt−k − E (Xt − k)
Xt−1 − E (Xt−1 )
..
.
Xt−k − E (Xt−k )
Xt−1 − E (Xt−1 )
..
.
}
Xt−k − E (Xt − k)
= | {z }
(γX (1),...,γX (k))
0
γ (1)
X
−1 ..
+ (γX (1), . . . , γX (k)) (Γk ) .
γX (k)
γX (1)
..
= V (Xt ) − (γX (1), . . . , γX (k)) (Γk )−1 .
γX (k)
☞ Q4 (a) On a
γX (0) γX (1) · · · γX (k)
γX (1)
Γk+1 =
..
. Γk
γX (k)
puisque Γk de dépend pas de la date t considérée.
Soit alors (λ1 , . . . , λk ) ∈ Rk et considérons A(λ) = Γk+1 − λ1 C2 − · · · − λk Ck+1 où Ci+1 =
ensae.net
γX (i)
γX (i − 1)
γX (i − 2)
..
.
γX (i − k)
est la i-ième colonne de Γk+1 .
CA =
γX (0) −
Posons donc (λ1 , . . . , λk ) =
γX (0)
γX (1)
..
.
γX (k)
γX (1)
..
.
γX (k)
γX (1)
..
.
γX (k)
− λ1 γX (1) − · · · − λk γX (k)
(λ
−1
−1
1 , . .
× (Γk ) ; il vient
. , λ k ) × Γ k
= σk2 · |Γk |
ensae.net
(b) Notons Ek =< 1, Xt−1 , . . . , Xt−k >. Alors
2
σk+1 = V (Xt − EL (Xt |Ek+1 ))
= min V (Xt − Y )
≤
= σk2
Y ∈Ek+1
min
Y ∈Ek ⊂Ek+1
La suite (σl2 )l∈N∗ est donc décroissante et minorée (par 0), donc convergente.
Et réciproquement, (σl2 − σ∞
(c) On a alors
2
Y ∈E
σl2 −−−−→ σ∞
l→+∞
2
Y ∈Ek
¡ 2¢ |Γk+1 |
log σ∞ = lim log
l∞ |Γk |
l
1X |Γj+1 |
= lim log par Césaro
l∞ l
j=1
|Γ j |
à l !
1 Y |Γj+1 |
= lim log
l∞ l
j=1
|Γj |
1 |Γl+1 |
= lim log
l∞ l |Γ1 |
1
= lim (log |Γl+1 | − log |γX (0|)
l∞ l
1
= lim log |Γl+1 |
l∞ l
ensae.net
(b) On a pour k ∈ N∗
On a tout d’abord
¯
¯
¯
¯ −θ
¯
|Ak | = ¯ 0
¯
¯ ..
¯ .
¯
¯ 0
Ak−1
2
Γk = σ ²
2¯
¯µ
|Γ2 | = σ² ¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
1 + θ2
−θ
−θ
¯ 1 + θ2
−θ
1 + θ2
¢
¯
¯
−θ
1 + θ2
···
|Γ1 | = 1 + θ2 σ²2
¶¯
¯ ¡
= 1 + θ 2
+
0
−θ
...
−θ
0
θ 4
¢ 4
σ²
···
1 + θ2
−θ
−θ
0
0
..
.
1 + θ2
ensae.net
Ainsi ∀k ∈ N∗ ,
En définitive
1X
k
k l=1
|Γk |
σ²2k
log |Γl |
= 1 + θ2 + · · · + θ 2k =
k^
→ +∞
−−−−→
k→+∞
=
∀k ∈ N∗ , |Γk | =
−
1¡ ¡
k
1−θ 2k+2
1−θ 2
¢
1−θ 2k+2 2k
1−θ 2
θ2k+2 log (1 − θ 2 )
k
log σ²2
?
? ?
−
k
σ²
(c) |θ| < 1 donc l’unique racine 1θ de 1 − θX est hors du cercle unité (si elle existe, i.e. si
θ 6= 0) ; donc ² est bien l’innovation de X.
Par ailleurs
+ log σ²2
¡ ¢¢
log 1 − θ2k+2 − log 1 − θ2 + log σ²2k
ensae.net
Travaux Dirigés n◦3
Enoncé de l’exercice 1
On considère deux processus stationnaires du second ordre X et Y vérifiant
∀t ∈ Z,
½
Yt = φ1 Yt−1 + aXt + Ut
Xt = φ2 Xt−1 + Vt
où U et V sont deux bruits blancs décorrélés de variances respectives σU2 et σV2 .
On suppose en outre que 0 < |φ1 | < 1 et 0 < φ2 < 1.
☞ Q1 Soit W = ( − φ1 L) ( − φ2 L) ◦ Y .
Montrer que W est stationnaire et calculer γW .
En déduire que W est un processus Ma que l’on déterminera.15
Application numérique : a = 1.5, φ1 = 0.4, φ2 = 0.6, σU2 = 0.016 et σV2 = 0.036.
Corrigé de l’exercice 1
☞ Q1 On a tout d’abord pour t ∈ Z
Yt = φ1 Yt−1 + aXt + Ut
donc (( − φ2 L) Y )t = φ1 ((1 − φ2 L) Y )t−1 + a (( − φ2 L) X)t + (Ut − φ2 Ut−1 )
= φ1 ((1 − φ2 L) Y )t−1 + aVt + (Ut − φ2 Ut−1 )
c’est-à-dire (( − φ1 L) ( − φ2 L) Y )t = aVt + Ut − φ2 Ut−1
soit Wt = aVt + (( − φ2 L) U )t
Alors
– E (Wt ) = 0 2 2
a σV + (1 + φ22 ) σU2 si h = 0
– pour h ∈ Z Cov (Wt , Wt+h ) = −φ2 σU2 si h = ±1
0 sinon
15
¡ ¢ 2
On supposera pour ce faire que a2 σV2 + 1 + φ22 σU 2
> 2φ2 σU .
ensae.net
En particulier W est stationnaire (et sa fonction d’auto-covariance est celle d’un processus
Ma(1)). Cherchons donc Θ et ² bruit blanc tels que W = Θ(L)² et Θ de degré 1.
Donnons-nous pour ce faire un bruit blanc ² de variance σ²2 > 0 et λ ∈] − 1, 1[, et soit Z =
( − λL) ² ; cherchons à déterminer ² et λ de façon à ce que Z = W .
L’égalite γZ = γW pour h ∈ {0, 1} conduit à
soit
Soit donc 16
λ=
½
(1 + λ2 ) σ²2 = a2 σV2 + (1 + φ22 ) σU2
( 2) U
−λσ²2 = −φ2 σU2
λ2 −
2 + 1+φ2 σ 2 −
a2 σV
q
a2 σV ( 2) U
2 + 1+φ2 σ 2
2
φ2 σ U
W = ( − λL) ²
2
λ+1
σ²2
2
−4φ2 σU
=0
= λ
2
φ2 σ U
Application numérique : On a a2 σV2 + (1 + φ22 ) σU2 = 0.10276 > 0.0192 = 2φ2 σU2 . Il vient
2
φ2 σ U
λ
et de plus
λ = 0.095 et σ²2 = 0.101. On vérifie que |λ| < 1 et que la représentation de W est bien
canonique (donc que ² est bien l’innovation de W ).
☞ Q2 On a immédiatement
( − φ1 L) ( − φ1 L) Y = ( − λL) ²
A supposer que λ 6= φ1 et λ 6= φ2 , Y est donc un processus Arma(2,1) (sinon c’est un Ar(1)) ;
en outre cette représentation est canonique.
Application numérique : ( − 0.6L) ( − 0.4L) Y = ( − 0.095L) ².
☞ Q3 Soit Φ(X) = (1 − φ1 X) (1 − φ2 X) ; les racines φ11 et φ12 de Φ sont toutes de module supérieur à
un ; donc
P (voir TD 2, exercice 1 ) Y adment un développement en série à cœfficients positifs
Yt = k≥0 ak ²t−k , et en particulier ∀t ∈ Z, ²t Yt−1 , . . .. Par conséquent ² est l’innovation de
|=
Y et en particulier Y − Y ∗ = ².
On en tire successivement que
V (Yt − Yt∗ ) = σ²2
16 a 2 σV
2
+(1+φ22 )σU
2
Les deux racines sont de même signe car leur produit 1 est positif, et ce signe est positif car leur somme 2
φ 2 σU
√
[··· ]− [··· ]2 −4
est positive. Le produit des racines valant 1, la plus petite des deux est de module inférieur à 1, à savoir 2 .
2
17 2 φ 2 σU
Parmi tous les bruits blancs possibles de variance σ² = λ il n’y en a qu’un seul qui convienne, est c’est
−1
nécessairement ² = ( − λL) W .
ensae.net
et de plus que
Application numérique :
Y∗ = Y −²
=
=
¡
Ã
− Φ(L) ( − λL)−1 Y
=
−
¡
µ
¢
¢
− (φ1 + φ2 ) L + φ1 φ2 L2 ◦
Ã
¡ 2
+∞
X
− λ − λ (φ1 + φ2 ) + φ1 φ2 ·
−λ Φ
µ ¶
1
λ
2
· ( − λL) −1
¶
◦Y
? ?
?
¢ +∞
X
k=0
k=0
P
k
λ L
k≥1
k
!
Y
0.095k yt−k
Enoncé de l’exercice 2
On considère n processus stationnaires X 1 , . . . , X n vérifiant
∀i ∈ J1, nK, ( − ρi L) X i = U i
Θ(L)Z = ∆(L)ξ
où Θ et ∆ sont des polynômes (de degrés finis) et ξ est un bruit blanc (on discutera selon que
les ρi sont deux-à-deux distincts ou non).
☞ Q3 En déduire que Z est un processus Arma dont on déterminera la forme canonique.
☞ Q4 Donner une condition suffisante pour que Z soit un Ar pur.
On détaillera en particulier le cas n = 2.
18
Et ce à toutes dates : ∀t, t0 , ∀i, j, (t 6= t0 oui 6= j) → U i t est indépendant de U j t0
ensae.net
sur les observations agrégées.
Donner la variance VZ de l’erreur de prévision associée en fonction des variances des U i .
Comparer VZ à VX et conclure.
Corrigé de l’exercice 2
ZT +1 = EL
=
n
X
X i T +1 |X 1 T , . . . , X n T , X 1 T −1 , . . . , X n T −1 , . . .
i=1
Xn
i=1
¡
∗
☞ Q5 Dans le cas général, déterminer la prévision optimale ZTZ+1 = EL (ZT +1 |ZT , ZT −1 , . . .) fondée
∗X
à n
X
!
EL X i T +1 |X 1 T , . . . , X n T , X 1 T −1 , . . . , X n T −1 , . . .
¡ ¢
¢
= EL X i T +1 |X i T , X i T −1 , . . .
i=1
= X T +1 + · · · + X n∗ T +1
1∗
En outre
à n n
!
¡ ∗ ¢ X X
V ZT +1 − ZTX
+1 = V X i T +1 − ρi X i T
à i=1
n
i=1
n
!
X ¡ ¢ X
= V ρi X i T + U i T − ρi X i T
à i=1
n
! i=1
X
= V U iT
i=1
= σ12 + · · · + σn2
ensae.net
En particulier dès que Θ(X) est un multiple de tous les (1 − ρi X) l’expression (2) est polyno-
miale des deux côtés. Soit donc Θ le ppcm (au sens de la division euclidienne de polynômes)
de 1 − ρ1 X,. . . ,1 − ρn X. Alors Z vérifie
ρ 6= ρi
Θ(L)Z =
n
X
i=1
Λi (L)U i
Θ(L)Z = ∆(L)ξ
k=0
19
Attention, si k = l et γA (k − 1) + γB (l − 1) = 0 alors A + B est un Ma d’ordre a plus k − 1 . . .
ensae.net
et d’autre part à N
X
k=0
Lk
!
◦ Vt =
k=0 X
Xk (1 − X) ne divise pas
k=0
à N
X
X
i=1 k=0
Lk
!s
× Λi (L) ◦ U i t
³P
Λi (X) ; comme les racines
!
Xk Λi (X)
N
Notons pour tout polynôme P ν(P ) le nombre de cœfficients non-nuls de P : alors ν (Λ i (X)) ≥ 1
car Λi est de degré ni ≥ 1. Par conséquent pour N ≥ ni on a 20
Donc en particulier
V
ÃÃ N
X
k
!
k=0
i
! N +n
L × Λi (L) ◦ U t =
Xi
2
X
¡ i ¢
! !
Xk Λi (X) ≥ N − ni
k=0
µ ¶2
αj V U t−j ≥ (N − ni ) min |αj | σi2 −−−−→ +∞
¡¡
¡
¢s ¢
j=0
− LN +1 ξ t −−−−→ +∞.
¢
N →+∞
k
k=0
´
αj 6=0 N →+∞
N +1 s−1 N +1 s−1
Soit donc η = −L ξ = −L ∆(L)ξ : η est stationnaire puisque ξ est un
bruit blanc.
Or V (ηt − ηt−N −1 ) −−−−→ +∞, et donc γη (h) −−−−→ +∞, et donc
N →+∞ h→+∞
γV (h) −−−−→ +∞
h→+∞
Pn
Pourtant, les U i sont indépendants donc γV (h) = i=1 γΛi (L)U i (h) et donc comme chaque
Λi (L)U i est un processus Ma son auto-covariance est nulle à partir d’un certain rang (ni en
l’occurence), et en particulier
γV (h) −−−−→ 0
h→+∞
Pp
20
Soit P (X) = k=0 ak Xk un polynôme de degré P n’admettant pas 1 pour racine, et développons successivement
X P (X) : il vient
j
ensae.net
Ainsi, (1 − X)s ne peut diviser ∆(X) ; on montre de façon identique qu’il en va de même pour
toute racine de module 1, de sorte que V n’est pas intégré.
En conclusion,
Notons que les racines ρ11 , . . . , ρ1n de Θ sont toutes de module inférieur à 1 ; en outre par construc-
tion il en va de même pour celles de ∆.
Enfin, comme Θ(X) est le ppcm des 1 − ρi X, il n’admet aucune racine commune avec ∆ (car
sinon, ∆ admet par exemple ρ1 , donc il en va de même pour ∆∗ car |ρ1 | < 1, et on montre
que 1 − ρ1 X divise tous les Λi (X) ce qui viole le fait que Θ soit le ppcm des 1 − ρi X). Ainsi la
représentation est canonique.
Notons enfin que si les (ρi )i sont deux-à-deux distincts, Θ(X) = (1 − ρ1 X) · · · (1 − ρn X) et Z est
un Arma(n,n-1).
Remarque : Le résultat reste vrai si l’on substitue à 1 − ρi X un polynôme canonique Ri (X) quel-
conque : Θ(X) reste le ppcm des Ri (X), et s’ils sont tous premiers entre eux Z est un processus Arma(
Pn ◦ ◦
i=1 d Ri , maxi d Λi ).
☞ Q4 Z est un Ar pur ssi V est © un bruit blanc, soit si r = 0, soit encore si (0, . . . , 0) est solution du
système de Yule-Walker Eh : γ∆(L)ξ (h) = 0 pour h ∈ J1, dK .
Notons alors Λi (X) = λi0 + λi1 X + · · · + λini Xni , avec λi0 = 1. Alors pour t ∈ Z
ni
n X
X
Vt = λik U i t−k
i=1 k=1
et donc pour h ∈ N
X X ¡ ¢
Cov (Vt , Vt−h ) = λik λjl Cov U i t−k , U j t−h−l
1≤i,j≤n
0 ≤ k ≤ ni
0 ≤ l ≤ nj
X X
= λik λjl i=j t−k=t−h−l σi2
1≤i,j≤n
0 ≤ k ≤ ni
0 ≤ l ≤ nj
ni
n X
X
= λik λik−h σi2
i=1 k=h
Pn ¡ ¢
∀h ∈ J1, nK, i=1 λi0 λih + · · · + λini −h λini σi2 = 0
ensae.net
En particulier dans le cas où n = 2 et ρ1 6= ρ2 on a Θ(X) = 1 − (ρ1 + ρ2 )X + ρ1 ρ2 X2 ,
Λ1 (X) = 1 − ρ2 X et Λ2 (X) = 1 − ρ1 X.
Donc Z est au plus un Arma(2,1), et c’est un Ar(2) pur ssi 21
alors
Z Z =Z −ξ =
¡
− ∆(L)Θ−1 (L) Z
VZ = V ZT +1 − ZTZ+1
= V (ξT +1 )
³
= V ∆(L)
=
Xn
V
ÃÃ
−1
+∞
X
¡
∗
ρ1 σ12 + ρ2 σ22 = 0
¢
¢
1 n
i
¢ ´
Λ1 (L)U + · · · + Λn (L)U T +1
!
aik Lk ◦ U i T +1
!
Λi (0)
k=0 ak X . Notons que a0 = ∆(0) = 1 = 1. Il vient
1
i=1
n
à +∞ k=0 !
X X ¡ ¢2
= aik σi2
i=1 k=0
n
X ¡ ¢2
≥ ai0 σi2
i=1
= σ12 + · · · + σn2
= VX
Ainsi la prévision fondée sur les observations agrégées est moins bonne que celle fondée sur les
observations individuelles, et ce alors même que les U i sont indépendants !
Notons enfin qu’il n’y a égalité que si pour tout i ∈ J1, nK, ∀k ∈ N∗ , aik = 0 c’est-à-dire si
∆(X) = Λi (X), soit finalement si
ρ1 = · · · = ρ n
?
? ?
21
¡ ¢ ¡ ¢
La condition s’écrit pour h = 1 : “ λ10 λ11 + λ10 λ11 σ12 + λ20 λ21 + λ20 λ21 σ22 = 0 ” c’est-à-dire, compte-tenu de ce que
λi0 = 1 et λi1 = ρi : “ 2ρ1 σ12 + 2ρ2 σ22 = 0 ”.
ensae.net
Enoncé de l’exercice 3
On considère un processus stationnaire X vérifiant
¡
16
14
2π
3
.
ρ = 0.8
ρ = 0.5
ρ = 0.85
12
10
0
0 0.5 1 1.5 2 2.5 3 3.5
1
Graphe de ω 7→ |1+2ρeiω +ρ2 e2iω |2
Corrigé de l’exercice 3
µ ¶ µ ¶
ut 2ρ cos θ ρ2
☞ Q1 Soit Ut = et A = . Alors A est inversible et de plus ∀t ∈ Z, Ut =
ut−1 1 0
At × U0 . Or les valeurs propres de A sont les racines de χA (X) = 1 − 2ρ cos θX + ρ2 X2 , à
ensae.net
savoir ρe
−1
Ut = P ×
+iθ
ρe
d’où on tire
0
En particulier on a
et donc finalement
2
−iθ
et ρe . Soit donc P inversible telle que A = P ×
µ t +itθ
0
ρt e−itθ
¶
P U0 , donc soient α, β tels que
t
∀t ∈ Z, ut = αρt e+itθ + βρt e−itθ
½
α
β
¡ α+β
iθ
ρ αe + βe
u1
−iθ
−
¢ = u0
u1
= u1
u0
ρ sin θ tan θ
1
ρ eiθ −e−iθ
u0 − α
− u0
t
−1
µ
µ
ρe+iθ
0
un
0
ρe−iθ
¶
¶
× P ; alors
-1
-2
-3
-4
0 5 10 15 20
2π
(un )n∈J0,20K lorsque θ =
ρ = 0.8 et u0 = u1 = 1
3
,
³ ´
L’expression “quasi-périodique” tient à ce que u est bornée et que uρtt est périodique.
t∈Z
¡ ¢ ¡ ¢
☞ Q2 Les racines de Φ(X) = 1 − 2ρ cos θX + ρ2 X2 = 1 − ρeiθ X 1 − ρe−iθ X sont de module ρ1 > 1 ;
par conséquent la représentation “Φ(L) ◦ X = ²” est la représentation Ma canonique, et ² est
l’innovation de X.
En particulier, pour tout h ≥ 1 ²t est indépendant de Xt−h ce qui s’écrit
¡ ¢
∀h ≥ 1, Cov 1 − 2ρ cos θXt−1 + ρ2 Xt−2 , Xt−h = 0
soit encore
∀h ≥ 1, γX (h) = 2ρ cos θγX (h − 1) + ρ2 γX (h − 2)
et donc
ensae.net
ce qui s’écrit encore
−2ρ cos θ
ρ2
¢
Cov Xt − 2ρ cos θXt−1 + ρ2 Xt−2 , ²t = V (²t ) = σ²2
γX (1)
γX (0)
γX (1)
γX (2) = σ²2
= 0
γX (2) = 0
σ² (1 + ρ2 )
=
(1 + ρ2 ) + 4ρ4 (cos θ)2 − ρ4 (1 + ρ2 ) + 4ρ2 (cos θ)2
σ² (1+ρ2 )
= 1+((2 cos θ)2 −1)(ρ4 +ρ2 )−ρ6
ensae.net 5
-1
-2
-3
-4
0.8
0.6
0.4
0
1
5
γX lorsque σ²2 = 1, θ = 2π
3
10
ρ = 0.8
ρ = 0.5
ρ = 0.9
15
et différentes valeurs de ρ
ρ = 0.8
ρ = 0.5
ρ = 0.9
20
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0 5 10 15 20
π
γX lorsque σ²2 = 1, θ = 4
et différentes valeurs de ρ
On observe que γX est pseudo-périodique et que le facteur important est sa “vitesse d’aplatis-
sement” ρ.
☞ Q3 On a pour ω ∈] − π, π[
1 σ²2
fX (ω) =
|Φ (eiω )|2 2π
σ²2 1
=
2π |1 − 2ρ cos θeiω + ρ2 e2iω |2
σ²2 1
= ·
2π (1 − 2ρ cos θ cos ω + ρ cos(2ω)) + (−2ρ cos θ sin ω + ρ2 sin(2ω))2
2 2
ensae.net
Soit donc g(ω) =
g(ω) =
Donc
=
½
½
¡
2π 1
σ²2 fX (ω)
; il vient
1 + 4ρ2 (cos θ)2 (cos ω)2 + ρ4 (cos(2ω))2 − 4ρ cos θ cos ω − 2ρ2 cos(2ω)
−2ρ3 cos θ cos ω cos(2ω) + 4ρ2 (cos θ)2 (sin ω)2 + ρ4 (sin(2ω))2 − 2ρ3 cos θ sin ω sin(2ω)
¡
¢
¢
2 1 + 4ρ2 (cos θ)2 + ρ4 − 4ρ cos θ cos ω
−2ρ2 cos(2ω) − 2ρ3 cos θ (cos ω cos(2ω) + sin ω sin(2ω))
g(ω) = 2 1 + 4ρ2 (cos θ)2 + ρ4 − 4ρ cos θ cos ω − 2ρ2 cos (2ω) − 2ρ3 cos θ cos(3ω)
−
¢¡
Lorsque ρ → 1, Φ(X) converge normalement vers 1 − 2 cos θX + X2 = X − eiθ X − e−iθ , dont
toutes les racines sont unitaires. On peut montrer en outre23 que ω0 −−−→
¢
?
? ?
22
Le calcul explicite de ω0 , par exemple dans le cas où θ = 2π 3 , est tout-à-fait passionnant et laissé à la sagacité du
lecteur.
23
Essentiellement, (ρ, ω) 7→ gρ (ω) est C 1 , et θ est l’unique racine sur ]0, π[ de g1 (ω). ω0 vérifie lorsque ρ → 1− :
4 cos θ sin ω0 − 4 sin(2ω0 ) − 6 cos θ sin(3ω0 ) = 0 dont l’unique solution sur ]0, π[ est ω0 = θ.
ensae.net
Travaux Dirigés n◦4
Enoncé de l’exercice 1
L’objet de cet exercice est de présenter la méthode de Beveridge-Nelson pour représen-
ter tout processus même intégré comme somme d’une marche aléatoire et d’une composante
cyclique (stationnaire).
☞ Q1 On considère un processus auto-régressif intégré X vérifiant
P+∞
k=0 ak X .
k
où A est un polynôme sans racine de module un et ² un bruit blanc de variance σ²2 .
(a) Montrer que quitte à substituer à ² un bruit blanc η de variance plus faible, on peut sup-
poser (ce que l’on fera par la suite) que toutes les racines de A sont de module strictement
supérieur à un.
En déduire que A(X) admet pour inverse une série absolument convergente A(X)−1 =
1
x 7→ A(x)
A(X)−1 =
´
est absolument convergente. 24
Montrer qu’il existe une série convergente (de rayon au moins 1) A telle que
1
A(1)
+ (1 − X)A(X)
X =T +C
1
et où T est une marche aléatoire vérifiant ( − L)T = A(1)
² et où C est stationnaire.
où B est un polynôme dont toutes les racines sont de module strictement supérieur à 1 et U et
V sont deux bruits blancs (pas nécessairement décorrélés) de variances σU2 et σV2 .
σ²2
(a) Montrer que 1t V (Xt ) −−−−→ A(1)2
.
t→+∞
σ²2
Montrer que σU2 = A(1)2
.
(b) Soit Y = ( − L)X.
Exprimer Y en fonction de ² et en déduire l’expression de fY .
24
i.e. de rayon de convergence au moins 1 et absolument convergente en x = 1.
ensae.net
(c) Exprimer alors Y en fonction de U et V .
En supposant que U et V sont décorrélés, en déduire l’expression de fY en fonctionde σU2
et σV2 .
(d) Déduire de l’étude de fY au voisinage de 0 que pour certains polynômes A(X), U et V ne
peuvent pas être décorrélés (on pourra par exemple considérer le cas où A(X) = 1 − ρX
où ρ > 0 ).
Corrigé de l’exercice 1
☞ Q1 (a) Le monôme 1 − λX étant inversible ssi |λ| < 1, posons
∗
¡ ¢
ensae.net
Or pour M ∈ N∗
M
X
k=0
ak X k =
et on pose pour j ∈ N
Notons bN
M
X
j = −
X
PN
¯
M ¯
k=j+1
=
N
X
Ã
M
X
M
X
k=0
k=0
XM
k=0
k=0
¯
¯
ak
k
!
+
ak 1k − (1 − X)
PM
M
X
k=0
ak 1 + a 0 · 0 +
ak 1k − (1 − X)
k=j+1
bj = −
¡
ak X k − 1
M
X
M
X
P+∞
k=1
XM X
−1
j=0
k−1
k=1 j=0
Ã
k=j+1
M
X
k=j+1
ak
¡
ak (X − 1) 1 + X + · · · + Xk−1
ak X j
ak
!
Xj
¢
¯ ¯
|bN
j | = ¯ ak ¯
¯ ¯
j=0 j=0 k=j+1
M X
X N
≤ |ak |
j=0 k=j+1
X X
= |ak | + |ak |
0≤j<k≤M +1
M +2≤k ≤N
0≤j<k
M
X +1 N
X
= k|ak | + k|ak |
k=0 k=M +2
N
X
= k|ak |
k=0
+∞
X µ ¶ X
∂ 1
≤ k|ak | x 7→ = kak Xk est absolument convergente.
k=0
∂x A(x) k
ensae.net
de sorte que la série
On pose donc A(X) =
C = X − T . Alors
(d) On a pour t ∈ Z
|=
P
j bj X est convergente de rayon au moins 1.
P+∞
j
A(X)−1 =
( − L)C = ( − L) ◦ (X − T )
= A(L)−1 ² − ( − L)T
=
µ
1
A(1)
= ( − L)A(L)²
¶
1
A(1)
+ ( − L)A(L) ² − ( − L)T
PM
k=0
+ (1 − X)A(X)
1
Tt = A(1) (²t + · · · + ²T −N ) + Tt−N −1
Ct = α0 ²t + α1 ²t−1 + · · ·
ak −−→
M∞
1
²,
A(1) t
1
A(1)
on a
et notons
donc finalement
¡P+∞ ¢
Cov (Tt , Ct ) = 1
A(1) k=0 αk σ²2
ensae.net
donc par Cauchy-Schwarz
soit
et donc
2
≤ tσU +
p
tσU2
^
−
t → +∞
t→
q
+∞
p
tσU2 − V (Ut + · · · + U0 ) V (M−1 ) + V (M−1 )
≤ tσU2 + Cov (Ut + · · · + U0 , M−1 ) + V (M−1 )
p p
≤ tσU2 + V (Ut + · · · + U0 ) V (M−1 ) + V (M−1 )
V (tσU2 )
| {z }
^
√ 2
tσU
p
V (M−1 ) + V (M−1 )
V (Mt )
p
V (M−1 ) + V (M−1 )
^
t→ +∞
tσU2
V (Xt ) V (Mt )
^
t→ +∞
En particulier
1
t
V (Xt ) −−−−→ σU2 > 0
t→+∞
1
Or X = T + C où T est une marche aléatoire associée à η = A(1)
² et C stationnaire, donc
de façon similaire
1 1
V (Xt ) −−−−→ σ²2
t t→+∞ A(1)2
En particulier
σ²2
σU2 = A(1)2
ensae.net
Ainsi, quelle que soit la décomposition retenue la marche aléatoire est associée à un bruit
fY (ω) =
1
|A (eiω )|2
f ²
de sorte que
γU +(1−L)B(L)V (h) = γU (h) + γ(1−L)B(L)V (h)
fY (ω) =
=
+∞
1 X
2π h=0
+∞
1 X
γU +(1−L)B(L)V (h)e+iωh
2π h=0
γU (h)e +iωh
+
+∞
1 X
2π h=0
= fU (ω) + f(1−L)B(L)V (ω)
γ(1−L)B(L)V (h)e+iωh
σ2 ¯¡ ¢ ¡ ¢¯2 σ 2
= U + ¯ 1 − eiω B eiω ¯ V
2π 2π
et donc
∀ω ∈ R, φ(ω) ≥ φ(0)
σ²2
Or par ailleurs φ(0) = A(1)2
et donc
1 1
∀ω ∈ R, 2 ≥
|A (eiω )| |A(1)|2
σ2
26
η est un bruit blanc de variance ση2 ssi ∀ω ∈ R, fη (ω) = 2πη .
1
P γ (0)
L’implication
R découle de ce que fη (ω) = 2π h∈Z γη (h)e
iωh
= η2π , et la réciproque de ce que Cov (ηt , ηt−h ) =
1 −iωh
2π ]−π,+π[ fη (ω)e dω = h=0 fη (0) (par symétrie de l’intégrale sur ] − π, 0 et ]0, π[).
ensae.net
Considérons alors le cas où A(X) = 1 − ρX où ρ > 0 : on a
¯
¯A
¯
ρ ¯ ¯
|A(−1)|2 = |1 + ρ|2 = 1 + 2ρ + ρ2 > 1 − 2ρ + ρ2 = |A(1)|2
ce qui contredit le résultat précédent, de sorte que U et V ne peuvent pas être décorrélés.
Ceci reste vrai plus généralement si ρ ∈ C avec <(ρ) > 0 : notant ρ = a + ib il vient
¯ µ ¶¯2 ¯
ρ
¯2
¯ √
¯ = ¯1 − ρ ¯ = |1 + |ρ||2 = 1 + 2 a2 + b2 + a2 + b2 > a2 + b2 + 1 − 2a = |A(1)|2
|ρ| ¯ ¯ |ρ| ¯
puis de façon plus générale si A est un polynôme quelconque (sous forme canonique) dont
les racines sont toutes de partie réelle positive.
Ainsi, il n’est pas toujours possible de décomposer un processus Ma intégré en somme
d’une marche aléatoire et d’une tendance dont les bruits blancs associés sont décorrélés.
En revanche la décomposition de Beveridge-Nelson est toujours possible (sous réserve
que A0 (X) soit convergente).
? ?
?
Enoncé de l’exercice 2
En 1978 Robert E. Hall propose et fonde empiriquement dans “Stochastic Implications of
the Life Cycle-Permanent Income Hypothesis : Theory and Evidence” un modèle selon lequel
la consommation des ménages suit . . . une marche aléatoire ! L’objet de cet exercice est de
présenter très brièvement ce résultat.
☞ Q1 On considère un agent dont l’utilité u(·) à chaque date t dépend uniquement de sa consommation
ct . Ses sources de revenus sont le travail, qui lui rapporte wt entre les dates t et t + 1, et le
capital, qui lui rapporte rkt où r désigne le taux d’intérêt réel du marché (supposé constant) et
kt le stock de capital accumulé à la date t.
(a) Montrer que la contrainte budgétaire de l’agent à chaque date t ∈ Z s’écrit
kt+1 − kt = (rkt + wt ) − Ct
(b) On suppose que les revenus du travail à la date t + h sont inconnus à la date t, et modélisés
par la variable aléatoire Wt+h ; on note It l’ensemble d’information de l’agent disponible
à la date t.
Montrer que le choix à la date t du processus de la consommation future de l’agent est
déterminé par le programme de maximisation
¯
¯ maxCt ,Ct+1 ,... E (U (Ct , Ct+1 , . . .)| It )
¯ ©
¯ s.c. ∀h ≥ 0, kt+h+1 = ((1 + r) kt+h + wt+h ) − Ct+h
ensae.net
(c) Ecrire le lagrangien associé et en déduire les équations d’Euler
ment que
h=0
∗t+1
Ct+1
(1 + r)
−
h
Ct∗t
∀h ≥ 1,
= (1 + r)kt +
=
+∞
X
h=0
h=0
r
(1 + r)
(1 + r)h+1
h
∂E(U |It )
∂Ct+h
∂E(U |It )
∂Ct+h−1
−
(1 + r)H
kt+H+1
1
1+r
X ∗t
Ct+h XH
Wt+h 1
∗t
profil de consommation future anticipé à la date t est constant : ∀h ≥ 0, Ct+h
(f) Montrer que pour tout H ≥ 0
H
= Ct∗t
kt+h+1
(1+r)h
☞ Q2 On suppose tout d’abord que les salaires futurs suivent un processus Arma de la forme
∆(L)W = Θ(L)²
où ∆ et Θ sont sous forme canonique et ² est un bruit blanc. On suppose en outre qu’à toute
date t, It contient ²t , ²t−1 , . . .
(a) Montrer qu’il existe une série absolument convergente A telle que W = A(L)² et que ² est
l’innovation de W .
(b) Calculer E (Wt+h+1 |It ) et E (Wt+h+1 |It+1 ) pour h ≥ 0.
(c) En déduire que C est une marche aléatoire.
☞ Q3 On suppose cette fois que les salaires futurs suivent un Arma autour d’une tendance détermi-
niste, de la forme
∀t ∈ Z, ∆(L)Wt = φ(t) + Θ(L)²t
où φ est C ∞ , ∆ et Θ sont sous forme canonique et ² est un bruit blanc.
(a) Montrer qu’il existe une série absolument convergente A et une fonction ψ telles que
W = ψ(t) + A(L)², et calculer E (Wt+h+1 |It ) et E (Wt+h+1 |It+1 ) pour h ≥ 0.
(b) Montrer que C est une marche aléatoire.
ensae.net
☞ Q4 On suppose enfin que les salaires suivent un processus Arima autour d’une tendance détermi-
niste,27 de la forme
Corrigé de l’exercice 2
∀t ∈ Z, ( − L)d ∆(L)Wt = φ(t) + Θ(L)²t
avec les mêmes hypothèses sur ∆, Θ, φ et ², et avec d ≥ 1.
(a) Montrer que si deux suites réelles u et v vérifient ∀n ∈ N, ( − L)d un = vn alors
∀n ∈ N, un =
d−1
X
l=0
l
Cn+l ( l
− L) u0 +
(b) En déduire que C est une marche aléatoire ; à quel bruit blanc est-elle associée ?
Cnd−1
☞ Q1 (a) Les revenus de l’agent entre les dates t et t + 1 sont les revenus du capital rk t et du travail
wt , le seul emploi étant la consommation Ct entre ces dates. Le flux net de revenu est donc
la variation du capital entre les deux dates, soit
n
X
i=1
vi
kt+1 − kt = (rkt + wt ) − Ct
|It )
On a pour tout h ≥ 1 ∂C∂Lt+h
= ∂E(U
∂Ct+h
∂L
+ λh et ∂kt+h+1 = (1 + r)λh+1 − λh .
Une condition nécessaire du premier ordre est donc que
∂E(U |It )
∂Ct+h+1 λh+1 1
∂E(U |It )
= =
λh 1+r
∂Ct+h
27
La théorie macro-économique suggère en effet que le Pib est en effet intégré d’ordre 1, et que la croissance des
salaires suit celle du Pib.
ensae.net
(d) L’utilité attendue à la date t d’un choix de consommation futur Ct , Ct+1 , . . . est
il vient pour h ≥ 0
∂
∂x
c’est-à-dire comme δ = r
Ct
Ct+1
=
=
U (Ct , Ct+1 , . . .) = δ
(x 7→ E (u(x)|It )) = x 7→
..
Wt
Wt+1
1
C
(1+δ)h t+h
∂x
(1+δ)h+1 t+h+1
1
C
∗t
∀h ≥ 0, Ct+h
+
+
P+∞
∂E (u(x)|It )
= Ct∗t
=
1
h=0 (1+δ)h u (Ct+h )
1
1+r
(1 + r)kt
(1 + r)kt+1
−
−
kt+1
kt+2
28
× 1+r
..
1
. .
1
Ct+H = Wt+H + (1 + r)kt+H − kt+H+1 × (1+r) H
PH Ct+h PH Wt+h
donc h=0 (1+r)h = h=0 (1+r)h + (1 + r)kt − kt+H+1
soit
+∞
X rE (Wt+h |It )
Ct∗t = rkt +
h=0
(1 + r)h+1
et donc finalement, comme kt+1 = (1 + r)kt + Wt − Ct∗t
28
P+∞ 1 1
le cœfficient δ sert à normaliser h=0 (1+δ) h = δ . De tout façon puisqu’une fonction d’utilité de Von Neumann-
Morgenstern est définie à une transformation affine positive près, cela ne change rien à la suite.
ensae.net
Soit alors A(X) =
convergente.
De façon similaire
P
∗t+1
Ct+1
Θ
k
¡P+∞
− Ct∗t =
k=0
est
α
−1
k X k
¢
inversible
P+∞
et en
r
h=0 (1+r)h+1
notant
(E (Wt+h+1 |It+1 ) − E (Wt+h+1 |It ))
☞ Q2 (a) ∆ étant supposé sous forme canonique, ses racines sont toutes de module strictement
supérieur àP
un et donc (voir
+∞
∆(X) = k=0 αk X .
−1
TD 2, exercice 1 ) il admet une inverse sous la forme
∆(X)Θ(X)
t ∈ Z Wt = − k≥1 βk Wt−k + ²t et donc ² est l’innovation de W .
(b) Notons A(X) = +∞
et donc
P
k=0 ak X .
On a tout d’abord pour h ≥ 0
k
Wt+h+1 =
E (Wt+h+1 |It ) =
+∞
X
k=0 αk X
k=0
−1
P+∞
=
k
P+∞
¢
Θ(X) est absolument
ak ²t+h+1−k
k=h+1
k
ak ²t+h+1−k
De façon similaire on a
P+∞
E (Wt+h+1 |It+1 ) = k=h ak ²t+h+1−k
(c) On a pour t ∈ Z
+∞
ÃÃ +∞ ! Ã +∞
!!
X r X X
Ct+1 − Ct = ak ²t+h+1−k − ak ²t+h+1−k
h=0
(1 + r)h+1 k=h k=h+1
+∞
ÃÃ +∞ ! Ã +∞ !!
X r X X
= ak+h ²t+1−k − ak+h ²t+1−k
h=0
(1 + r)h+1 k=0 k=1
+∞
X r
= ah ²t+1
h=0
(1 + r)h+1
à +∞ !
X rah
= ²t+1
h=0
(1 + r)h+1
et donc C est une marche aléatoire, qui plus est associée au bruit blanc L−1 ².
☞ Q3 (a) Posons A(X) = ∆(X)−1 Θ(X) (développée en série absolument convergente) et ψ :
(t 7→ ∆(L)−1 φ(t)) : il vient
∀t ∈ Z, Wt = ψ(t) + A(L) ◦ ²t
ensae.net
En outre ² est l’innovation de A.
Par ailleurs on a pour h ≥ 0
(b) On a pour t ∈ Z
Ct+1 − Ct =
=
½
+∞
X
h=0
à +∞
X
r
(1 + r)h+1
h=0
rah
(1 + r)h+1
ÃÃ
!
²t+1
P
E (Wt+h+1 |It ) = ψ(t + h + 1) + +∞
P
ψ(t + 1) +
k=h+1 ak ²t+h+1−k
E (Wt+h+1 |It+1 ) = ψ(t + h + 1) + +∞k=h ak ²t+h+1−k
+∞
X
k=h
ak ²t+h+1−k
et donc C est une marche aléatoire, encore associée au bruit blanc L−1 ².
☞ Q4 (a) Montrons tout d’abord par récurrence sur d ≥ 1 que
un =
d−1
X
l=0
l
Cn+l ( − L)l u0 +
1≤id ≤···≤i1 ≤n
−
Ã
v id
ψ(t + 1) +
+∞
X
k=h+1
ak ²t+h+1−k
!!
n
X
un − un−1 = vn → un = u0 + v i1
i1 =1
ensae.net
Or pour p, q ∈ N on a
Donc
X
un =
1 = |{(a1 , . . . , ap )/1 ≤ a1 ≤ · · · ≤ ap ≤ q}|
1≤ip ≤···≤i1 ≤q
X
d−2
X
X
l=0
d−1
l=0
1≤id ≤···≤i1 ≤n
= |{(a1 , a2 + 1, . . . , ap + p − 1)/1 ≤ a1 ≤ · · · ≤ ap ≤ q}|
= |{(b1 , . . . , bp )/1 ≤ b1 < · · · < bp ≤ q + p − 1}|
l
Cn+l
l
Cn+l
p
= Cq+p−1
( − L)l u0 +
v id =
n
X
d−1
( − L)l u0 + Cn+d−1
id =1
( − L)d−1 u0 +
1≤id ≤···≤i1 ≤n
id ≤id−1 ≤···≤i1 ≤n
v id
1 vid = Cnd−1
n
X
X
1≤id ≤···≤i1 ≤n
id =1
v id
v id
il vient
Pd−1 l
Pn
un = l=0 Cn+l ( − L)l u0 + Cnd−1 i=1 vi
Or
l
X
l
(1 − X) = Clk (−1)l−k Xk
k=0
X h+1
X
l−1 k
Wt+h+1 = Ch+l d−1
Cl (−1)l+k Wt−k + Ch+1 (ψ(t + l) + A(L)²t+l )
0≤k≤l≤d−1 l=0
ensae.net
Or pour 0 ≤ k ≤ l ≤ d − 1 on a
d−1
= Ch+1
d−1
= Ch+1
d−1
= Ch+1
Donc finalement
h+1
X
l=0
h+1
X
Ã
E (Wt−k |It+1 ) − E (Wt−k |It ) = Wt−k − Wt−k = 0
à à +∞
l=0
E
+∞
X
à h+1 !
X
X
k=0
P+∞
k=0
ak Wt+l+1−k −
al ²t+1
l=0
k=l
Ct+1 − Ct =
ak X k
+∞
X
!
ak Wt+l+1−k ¯ It+1 − E
¯
+∞
à +∞
ak Wt+l+1−k
h=0
à +∞
X
r
X
k=0
!
k=l+1
(1 + r)h+1
r
Ã
d−1
¯ !!
¯
¯
ak Wt+l+1−k ¯ It
¯
d−1
Ch+1
à h+1 !
X
al ²t+1
l=0
h+1
X
!
!
= h+1
Ch+1 al ²t+1
h=0
(1 + r) l=0
En particulier,
Ainsi, aussi général que soit le modèle linéaire régissant les revenus du travail, la consom-
mation reste une marche aléatoire ; la seule hypothèse forte est de nature économique, et
postule que la fonction d’utilité instantanée est quadratique.
?
? ?
ensae.net
Travaux Dirigés n◦5
Enoncé de l’exercice 1
L’objectif est ici de mettre en pratique les méthodes habituelles de traitement des séries tem-
porelles. Il s’agit en particulier de mettre en œuvre l’identification, l’estimation et la sélection
d’un modèle pour une série brute donnée.
Remarque : Les programmes Sas réalisés pour traiter cet exercice sont à envoyer à l’issue de la
séance (dûment indentés et commentés) à [email protected].
☞ Q1 (a) Fermer les applications qui ne sont pas strictement indispensables à l’étude des séries
temporelles linéaires (ce qui exclut Risk, Icq et Microsoft Outlook . . . ).
Télécharger depuis http://ensae.no-ip.com/SE206/ le fichier de données Donnees1 au
format Sas . 29
Lancer le logiciel Sas , commencer un nouveau programme et importer ces données.
(b) Représenter graphiquement la série XM .
Commenter.
Mettre en évidence la saisonnalité éventuelle de XM , et définir le cas échéant DeSaison
la série désaisonnalisée.
(c) Etudier les auto-corrélogrammes partiel et inverse de la série DeSaison .
Est-elle intégrée ? Définir le cas échéant DesInt , la série différenciée de DeSaison , et
réitérer le processus tant que nécessaire.
(d) Etudier les auto-corrélogrammes partiel et inverse de la série DesInt .
Proposer des ordres maximum p∗ ,d∗ et q ∗ vraisemblables pour la série DeSaison .
(e) Estimer le modèle le plus général Arima(p∗ , d∗ , q ∗ ) suivi par DeSaison .
Vérifier que ce modèle est valide.
(f) Rechercher s’il existe des sous-modèles valides du modèle Arima(p∗ , d∗ , q ∗ ) pour la série
DeSaison .
Quel modèle proposez-vous finalement de retenir pour la série XM ?
☞ Q2 En suivant une démarche analogue, proposer un modèle valide pour la série contenue dans le
fichier Donnees2.sd2.
☞ Q3 (facultative) Etudier les séries contenues dans les fichiers Base92.sd2, Champ.sd2, Lait.sd2,
Pari2.sd2, SNCF.sd2, TauxLongs.sd2, Traffic.sd2 et Viande.sd2.
29
Le fichier Donnees1.sd2 est au format Sas version 6 , le fichier Donnees1.sas7bdat au format Sas version 8
et le fichier Donnees1.txt au format texte prêt à être importé.
ensae.net
Corrigé de l’exercice 1
☞ Q1 (a) On suppose ici que le fichier Donnees1.sd2 est enregistré dans le dossier W :\Sas.
Le programme commencera donc par
à la suite de quoi les données contenues dans la table table enregistrée dans le fichier
W :\Sas\donnees1.sd2 sont accessibles sous le nom table .
(b) L’affichage graphique se fait au moyen de la PROC GPLOT de la façon suivante :
DATA table ;
SET Td SAS.donnees1 ;
time = N /* Permet de nommer explicitement l’axe des abscisses */ ;
PROC GLPOT ;
PLOT XM * time /* Trace XM en fonction du temps */ ;
SYMBOL I=JOIN ;
RUN ;
DATA table ;
SET Td SAS.donnees1 ;
DeSaison = XM - LAG12(XM) /* LAG[n](Y)(t) = Y(t-n) */ ;
(c) Publi-information :
sous forme Arma le modèle final en XM sera plus simple, et c’est la démarche retenue ici. Cependant le reste de l’étude
pourrait porter sur M12 XM .
ensae.net
Les auto-corrélogrammes direct, partiel et inverse peuvent être visualisés au moyen l’option
IDENTIFY de la PROC ARIMA , de la façon suivante :
PROC ARIMA ;
IDENTIFY VAR=DeSaison NLAG=50 /* 0 <= h <= 50 */ ;
RUN ;
DATA table ;
SET Td SAS.donnees1 ;
DeSaison = XM - LAG12(XM) /* LAG[n](Y)(t) = Y(t-n) */ ;
DesInt = DeSaison - LAG(DeSaison) /* LAG = LAG1 */ ;
PROC ARIMA ;
IDENTIFY VAR=DesInt NLAG=50 /* 0 <= h <= 50 */ ;
RUN ;
d∗ = 0, p∗ = 3 et q ∗ = 2
(d) On cherche tout d’abord à estimer le modèle le plus général Arima(3,0,2) pur pour De-
Saison , au moyen de l’option ESTIMATE de la PROC ARIMA :
31
Cette identification préliminaire ne sert qu’à éviter d’estimer ensuite un modèle dont la plupart des cœfficients seront
non-significativement non-nuls. En toute rigueur, mieux vaudrait retenir les ordres plus conservatoires p ∗ = 7 et q ∗ = 7
quitte à s’assurer ensuite par un test statistique que les cœfficients au-delà de 3, 2 sont non-significativement non-nuls.
Par souci de simplicité on se place directement dans l’hypothèse ou ces tests auraient déjà été effectués.
ensae.net
PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=3 Q=2 ;
RUN ;
PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=3 /* Implicitement, Q=0 */ ;
RUN ;
L’hypothèse selon laquelle les résidus ainsi estimés suivent un bruit blanc est acceptée,
donc on peut légitimement admettre que DeSaison suit un modèle Ar d’ordre au plus
3. Cependant le test individuel de nullité du cœfficient associé au troisième retard est
rejeté au seuil 5%.
On réestime donc un modèle Ar(2) :
PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=2 ;
RUN ;
dont le résidu estimé est toujours un bruit blanc (c’est heureux !), mais dont le second
retard n’est toujours pas significativement non-nul.
32
La colonne Prob donne la p−value associée : l’hypothèse que la variable est significativement non-nulle est acceptée
à 1 − pvalue %. Par exemple une valeur de 0.023 indique que la variable est significativement non-nulle “à 97%”, tandis
qu’une valeur de 0.452 laisse entendre que la variable n’est pas significative à 54%.
ensae.net
On estime donc finalement un modèle Ar(1) :
PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=1 ;
RUN ;
qui est toujours valide et dont tous les cœfficients sont, cette fois, significativement
non-nuls.
Ainsi la série DeSaison peut légitimement être modélisée par un modèle Ar(1).
– un modèle Ma :
On cherche à modéliser DeSaison par un modèle Ma pur, dont on sait que l’ordre
éventuel est au plus 2. On calcule donc
40 PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT Q=2 ;
RUN ;
L’hypothèse selon laquelle les résidus ainsi estimés suivent un bruit blanc est acceptée,
donc on peut légitimement admettre que DeSaison suit un modèle Ma d’ordre au plus
2 ; en outre tous les cœfficients sont significativement non-nuls (au seuil 5%).
Ainsi la série DeSaison peut légitimement être modélisée par un modèle Ma(2).
En définitive, la série DeSaison peut être modélisée par trois modèles statistiquement
valides, à savoir Arima(3,0,2), Arima(1,0,0) et Arima(0,0,2).
Le critère de parcimonie, selon lequel un modèle comprenant strictement moins de cœffi-
cients est toujours préférable, conduit nénanmoins à rejeter le modèle Arima(3,0,2) qui
est un sur-modèle strict à la fois du modèle Ar(1) et du modèle Ma(2).
Pour arbitrer enfin entre ces deux derniers modèles, on peut recourir à un critère informa-
tionnel, qui met en rapport la vraisemblance du modèle estimé et le nombre de paramètres
nécessaires pour l’estimer. Le critère d’Akaike ( AIC ) arbitre en l’occurence en faveur du
modèle Ma(2), que l’on rentiendra finalement.
(f) En conclusion, on peut raisonnablement proposer pour la série d’origine le modèle
ensae.net
Travaux Dirigés n◦6
Enoncé de l’exercice 1
On considère un processus (Xt )t≥0 vérifiant le modèle Arima canonique
t Xt+h
( − L)d Θ(L)X = ∆(L)²
de conditions initiales Z données33 et orthogonales à (²t )t≥0 , bruit blanc de variance σ²2 .
On s’intéresse à la prévision linéaire optimale d’horizon h ≥ 0
33
Z est donc un vecteur comprenant d + d◦ Θ valeurs initiales de X et d◦ ∆ valeurs initiales de ².
ensae.net
Corrigé de l’exercice 1
☞ Q1 Notons (1 − X)d Θ(X) =
Alors pour tout h ≥ 0
t Xt+h
= −
= −
p+d
X
X
i=1
Pp+d
i=1 αi Xi et ∆(X) =
Xt+h = −
= EL ( Xt+h | Xt , . . . , X0 , Z)
p+d
p+d
X
i=1
Pq
αi EL (Xt+h−i | Xt , . . . , X0 , Z) +
αi t Xt+h−i +
i=1
Xq
0 car h > q
i=0
i=0 δi X
αi Xt+h−i +
q
X
q
X
i
i=0
i=0
.
δi ²t+h−i
δi EL ²t+h−i | Xt , . . . , X0 , Z
Ainsi à t fixé (t Xt+h )h suit pour h > q la récurrence linéaire de polynôme caractéristique
(1 − X)d Θ(X).
Application numérique :
Θ(X) = (1 − 12 X) est bien sous forme canonique car 2 > 1 est sa seule racine, et il en va de
| {z }
=h²t ,...,²0 ,Zi
d’où ½ 1
α= 3
(4 t Xt+2 − t Xt+1 )
4
β= ( X − t Xt+2 )
3 t t+1
et donc finalement
ensae.net
☞ Q2 (a) On a pour h ≥ 0
en notant ∆(X) =
Or
donc
eh = Xt+h − t Xt+h
Pq
=
i=0 δi X
eh =
eh =
p+d
X
i=1
i 34
.
αi (Xt+h−i − t Xt+h−i ) +
(Xt+h−i − t Xt+h−i ) =
Pmin(h,p+d)
i=1
i=1
αi
αi eh−i +
½
et+h−i
| {z }
0
eh−i
Pmin(q,h−1)
∈h²t+1 ,...,²t+h−i i
+
min(q,h−1)
X
i=0
si h ≤ i
si h > i
δi ²t+h−i
δi ²t+h−i
min(q,h−1)
X
i=0
δi ²t+h−i
∈ h²t+1 , . . . , ²t+h i
ensae.net
– Soit alors h ≥ 2 tel que ∀l ∈ J0, h − 1K, el = a0 ²t+l + · · · + al−1 ²t+1 ; montrons que
eh = a0 ²t+h + · · · + ah−1 ²t+1 .
Alors
eh =
=
min(q,h−1)
X
k=0
min(q,h−1)
X
k=0
min(q,h−1)
X
k=0
min(q,h−1)
X
k=0
min(q,h−1)
X
k=0
min(q,h−1)
X
k=0
δk ²t+h−k +
δk ²t+h−k +
δk ²t+h−k +
δk ²t+h−k +
δk ²t+h−k +
δk +
X
min(h,p+d)
h−1
X
l=1
X
i=1
min(h,p+d)
X
i=1
1≤i≤min(k,p+d)
X
αi eh−i
αi
X
1≤i≤min(h,p+d) i≤l≤h−1
h−1
l=1 1≤i≤min(h,p+d,l)
X
1≤i≤min(l,p+d)
(h−i)−1
X
j=0
aj ²t+(h−i)−j
αi al−i ²t+h−l
αi al−i ²t+h−l
αi ak−i ²t+h−k +
αi al−i ²t+h−l
h−1
X
par hypothèse de récurrence
l=min(q,h−1)+1
X
1≤i≤min(l,p+d)
αi al−i ²t+h−l
h−1
X
= ah−k ²t+h−k
k=0
ce dont on tire a0 = 1.
De même
3 4
e2 = e1 + ²t+2 − ²t+1
2 5
et donc a1 = 32 a0 − 45 = 10
7
ensae.net
et des valeurs initiales
on tire finalement
(c) On a pour h ≥ 0
½
h=0 : α+β =1
h = 1 : α + 12 β = 10
∀h ≥ 0, ah =
V (eh ) = V
=
h−1
X
k=0
à h−1
à h−1
X
X
k=0
7
k=0
2
5
+ 3 1
5 2h
ak ²t+h−k
ak 2 V (²t+h−k )
ak 2
!
Comme (ak )k∈N suit la récurrence de polynôme (1 − X)Θ(X) dont 1 est racine, on montre
³P ´
!
³P
h−1
k=0 a k
2
´
.
h−1 2
que a αh2d−1 avec α > 0.
k=0 k
h^ → +∞
Notons en effet λ1 , . . . , λr , r ≤ p, les racines de Θ(X), 35 et soit β0 , β1 , . . . , βr ∈ R[X] tels que
∀h ≥ q, ah = β0 (h)1h + β1 (h)λh1 + · · · + βr (h)λhr , avec d◦ β0 = d − 1 et ∀i ∈ J1, rK, d◦ βi ≤ p.
Alors pour h ≥ 0
h−1
à r
!2
X X
V (eh ) = β0 (k) + βi (k)λki σ²2
k=0 i=1
à !2
h−1
X X h−1
r X h−1
X r
X
= σ²2 β0 (k)2 + 2 β0 (k)βi (k)λki + βi (k)λki
k=0 i=1 k=0 k=0 i=1
ensae.net
Alors
Enfin, comme
¯ h−1
¯X
¯
¯
¯
Ph−1
k=0
k=0
h−1
X
k=0
i=1
k¯
h−1
X
k=0
¯
¯
β0 (k)βi (k)λi ¯ ≤
¯
h−1
X
k=0
≤ d i mi
à h−1
X
β0 (k)
βi (k)λki
k^
→ +∞
!2
Ph−1 ¡
≤ max
i
¢
β0 (k) di mi k di λki
! Ã h−1
36
X
on a finalement
à h−1
X
k=0
k di λki
β0 (k)
h−1
X
k=0
!
!
k=0
βi (k)λki
¡
k=0
¢2
Ph−1
V (eh ) β0 (k)2 ρ2 h2d−1 −−−−→ +∞
h^
→ +∞ k=0
h^
→ +∞ h→+∞
36
On a
h−1
X +∞
X
k di λki ≤ k di λki
k=0 k=0
Or en divisant Xdi suivant les puissances croissantes il vient qu’il existe (ν0 , . . . , νdi −1 ) tel que ∀k ∈ N, k di = ν0 k(k −
1) · · · 1 + ν1 (k − 1)(k − 2) · · · 1 + · · · + νdi −1 1 et donc
+∞
X i −1
+∞ dX
X
k di λki = νj j!k j λki
k=0 k=0 j=0
i −1
+∞ dX
X µ ¶
∂j ¡ k
¢
= νj x →
7 x (λi )
∂xj
k=0 j=0
i −1
dX µ µ ¶¶
∂j 1
= νj x 7→ (λi ) car la série converge normalement
j=0
∂xj 1−x
i −1
dX
−1−j
= νj (1 − λi )
j=0
< +∞
ensae.net
Autrement dit, il faut se limiter à des horizons de prévision raisonnables.
Application numérique :
On a ici pour h ≥ 0
☞ Q3 On a pour h ≥ 0 eh =
V (eh ) =
Ph−1
=
=
h µ
X
i=0
Xh
i=0
µ ¶2
2
5
4 2
2
+
5
31
5 5 2i
õ ¶
2
2
hσ²2 +
σ h +
25 ²
+2
12
25
¶2
µ
2 3
µ
2 31
5 52
1
2
−
1
i
2
5 5 1 − 21
¶ µ ¶2 !
1
h
2 − h − h σ²2
+
1
4
¶
3
µ ¶2
3
5
1
5 4i
1 −
(Xt − t Xt+h ) = eh ; N 0,
à à h−1 ! !
X
a2i σ²2
Par conséquent un intervalle de confiance Iα (h) d’horizon h, qui est tel que
P (Xt+h ∈ Iα (h)) = 1 − α
4
1
1 − 41
h
i=0
!
σ²2
37
est
· qP ¸
N (0,1) h−1
Iα (h) = t Xt+h ± q1− α i=0 a2i σ²
2
N (0,1) α
où q1− α désigne le fractile à 1 − 2
% de la loi normale centrée réduite.
2
Application numérique :
On a
1
t Xt+2 = (2 · 10 − 12) + (12 − 10) = 9
22−1
et de plus à µ ¶2 !
¡ ¢ 7
V (e2 ) = a20 + a1 σ²2 =
2
1+ · 1 = 1.49 ' 1.222
10
et donc
I95% (2) ' [ 7.78 , 10.22 ]
?
? ?
37
La somme de deux normales indépendantes est une normale, d’espérance leur somme et de variance leur somme.
ensae.net
Enoncé de l’exercice 2
¥ Partie 1
On considère un processus X stationnaire vérifiant le modèle Arma(1,1) canonique
☞ Q2 L’observation
X̂
t t+1 = k=1 ak Xt+1−k .
( − φL)X = ( − θL)²
☞ Q3 On définit et = σ2 E
1
µ³
²
Xt − t−1 X̂t
Exprimer et+1 en fonction de et .
☞ Q4 Calculer γX (0) puis e0 .
´2 ¶
P P
☞ Q1 Montrer qu’il existe une série absolument convergente k ak telle que t Xt+1 = +∞
et donner son terme général.
k=1 ak Xt+1−k
Pt+1 de (Xt )t<0 étant impossible, on définit pour t ∈ N la prévision linéaire empirique
¥ Partie 2
On considère désormais à un processus (Xt )t≥0 vérifiant le modèle Arima(1,1,1) canonique
de condition initiale Z = (X−1 , X−2 , ²−1 ) orthogonale à (²t )t≥0 bruit blanc de variance σ²2 .
P
☞ Q1 Montrer qu’il existe une série absolument convergente k ak et une fonction f : N → R3 telles
que
X t
∀t ∈ N, Xt = ak Xt−k + ²t + Z × f (t)
k=1
L2
Montrer qu’en outre Z × f (t) −−−−→ (0).
t→+∞
Pt+1
☞ Q2 On définit de nouveau la prévision linéaire empirique t X̂t+1 = k=1 ak Xt+1−k .
Exprimer t X̂t+1 en fonction de Xt , Xt−1 et t−1 X̂t .
µ³ ´2 ¶
☞ Q3 Soit et = σ2 E
1
Xt − t−1 X̂t l’erreur de prévision relative.
²
ensae.net
☞ Q4 Que dire cette fois de l’erreur de la prévision tronquée E
Corrigé de l’exercice 2
☞ Q1 On a pour t ∈ Z
²t = ( − θL)−1 ( − φL)Xt
= ( − φL)
à +∞
X
!
θ k Lk ◦ X t
k=0
t−1 X̂t
´2 ¶
lorsque t → +∞ ?
+∞
X
= Xt + θk−1 (θ − φ)Xt−k
k=1
Donc en définitive
+∞
X
t Xt+1 = (φ − θ)Xt − θ θk−1 (θ − φ)Xt−k
k=1
+∞
X
= θk (φ − θ)Xt−k
k=0
+∞
X
= θk−1 (φ − θ)Xt+1−k
k=1
ak = θk−1 (φ − θ)
P
La série k≥1 ak est alors absolument convergente car |θ| < 1 car le modèle est sous forme
canonique.
ensae.net
☞ Q2 On a pour t ∈ N
☞ Q3 On a pour t ∈ N
et+1 =
=
1
σ²2
1
σ²2
1
σ²2
1
σ²2
1 ³
σ²2
E
E
µ³
µ³
µ³
µ³
V (²
t X̂t+1
Xt+1 − t X̂t+1
t+1 − θ²
³
t ) +
0
= θ (φ − θ)Xt +
= (φ − θ)Xt + θ
´2 ¶
2θCov
³
(Xt+1 − φXt ) + θ Xt − t X̂t−1
´´2 ¶
´´2 ¶
²t+1 − θ²t , Xt −
t+1
X
k=2
Xt
k=1
θk−1 (φ − θ)Xt+1−k
θk−1 (φ − θ)Xt−k
t−1 X̂t
´ ³
+ θ 2 V Xt − t−1 X̂t
´´
2
= (1 + θ 2 ) + 2 Cov (−θ²t , θXt ) + θ2 et
σ² | {z }
−θ 2 σ²2
= (1 − θ2 ) + θ2 et
☞ Q4 On a pour t ∈ N
γX (0) = V (Xt )
¡ ¢
= E Xt 2
¡ ¢
= E (φXt−1 + ²t − θ²t−1 )2
¡ ¢
= E (φXt−1 + ²t − θ²t−1 )2
¡ 2 ¢ ¡ ¢
= φ2 E Xt−1 + 0 − 2φθE (Xt−1 ²t−1 ) + E (²t − θ²t−1 )2 car ²t
|=
Xt−1
¡ ¢
= φ2 γX (0) − 2θφσ²2 + 1 + θ2 σ²2
Par conséquent comme |φ| < 1 (car le modèle est canonique) il vient
1−2θφ+θ 2 2
γX (0) = 1−φ2
σ²
ensae.net
Par suite, on a
de sorte que
Donc en définitive
e0 =
=
1
σ²2
E
σ²2
µ³
1 ¡ 2¢
σ²2
E X0
γX (0)
X0 − −1 X̂0
1 − 2θφ + θ 2
1 − φ2
´2 ¶
(et+1 − 1) = θ 2 (et − 1)
et = θ2t (e0 − 1) + 1
et = 1 + θ2t (θ−φ)2
1−φ2
³³ ´´
☞ Q5 En particulier, l’erreur absolue de la prévision d’horizon 1 tronquée E Xt − t−1 X̂t
converge vers σ²2 lorsque t → +∞, puisque |θ| < 1 puisque le modèle est canonique.
Remarquons en outre que la vitesse de convergence est géométrique (i.e. rapide), et que
l’erreur est toujours supérieure à σ²2 si θ > 0.
(θ−φ)2
Notons enfin que l’erreur maximale 1 + 1−φ2
est une fonction croissante de θ ∈] − 1, 1[ et
de φ ∈] − 1, 1[. 38
☞ Q1 On a pour tout t ∈ N
Xt = (φ + 1)Xt−1 − φXt−2 + ²t − θ²t−1
P
Construisons par récurrence (ak )k∈N et (f (t))t∈N tels que ∀t ∈ N, Xt = tk=1 ak Xt−k + ²t + Z ×
f (t).
φ+1 φ+1
– On a X0 = ²0 + (X−1 , X−2 , ²−1 ) × −φ , et on pose donc f (0) = −φ
−θ −θ
– On a
X1 = (φ + 1)X0 − φX−1 + ²1 − θ²0
Or par ailleurs ²0 = θ²−1 + X0 − (φ + 1)X−1 + φX−2 et donc finalement
θφ + θ − φ
X1 = (φ + 1 − θ)X0 + (X−1 , X−2 , ²−1 ) × −θφ
2
−θ
38
Elle est décroissante en φ au-delà de θ1 , mais φ < 1 < θ1 .
ensae.net
et on pose
a1 = φ + 1 − θ
Xt+1 =
t+1
X
k=1
P
θφ + θ − φ
−θφ
−θ 2
t
X
k=2
ak Xt+1−k + ²t+1 + Z × f (t + 1)
t
X
k=1
– Soit alors t ≥ 2 tel que a1 , . . . , at soient construits et f (0), . . . , f (t) définis ; supposons en
outre que ∀l ∈ J3, tK, al = θal−1 . 39
k=1 ak Xt+1−k + ²t+1 + Z ×
ak Xt−k − Z × f (t)
39
Cette hypothèse, gratuite lorsque t = 2, est nécessaire conduire la récurrence dès que t ≥ 3, car le calcul ci-dessous
requiert la forme explicite des ak pour k < t.
ensae.net
☞ Q2 On a pour t ≥ 2
t X̂t+1 =
t+1
X
k=1
= a 1 Xt +
= a 1 Xt +
= a 1 Xt +
ak Xt+1−k
= a1 Xt + a2 Xt−1 +
t+1
X
k=2
X
Ã
t
k=1
= a1 Xt + a2 Xt−1 + θ
= a1 Xt + a2 Xt−1 + θ
=
ak Xt+1−k
ak+1 Xt−k
a2 Xt−1 +
t
X
k=2
X
t
X
k=2
k=2
³
ak+1 Xt−k
!
θ(k+1)−2 a2 Xt−k
¡ ¢
θk−2 a2 Xt−k
☞ Q3 On a pour t ≥ 0
Xt+1 = (φ + 1)Xt − φXt−1 + ²t+1 − θ²t
et donc pour t ≥ 2
et donc
et+1 = θ2 et + (1 − θ 2 )
Par conséquent
1 µ³ ´2 ¶
2t 2(t−1)
et = θ (e0 − 1) + 1 = θ 2E X1 − 0 X̂1 − 1 + 1
σ²
| {z }
e1
ensae.net
☞ Q4 Enfin,
E
µ³
X1 − 0 X̂1
´2 ¶ ¡
= E (²1 + Z × f (1))2
¡
=
¢
−2θφ(θ + θφ − φ)
−2θ2 (θ + θφ − φ)
2θ3 (θ + θφ − φ)
¢
0
×
¡ 2 ¢
E ¡X−1
E X−2
σ²2
2
Ainsi en général même si l’erreur de prévision absolue Xt − t−1 X̂t converge vers σ²2 , elle dépend
à horizon fini non seulement de σ²2 mais aussi de la variance-covariance des conditions initiales
Z.
? ?
?
ensae.net
Travaux Dirigés n◦7
Enoncé de l’exercice 1
On considère une série réelle observée (yt )t∈J0,200K pour laquelle on cherche une représentation
stationnaire, et dont la représentation est la suivante :
∀t ∈ Z, Φ(L)Yt = µ + βt + ²t
où ∆ = − L.
☞ Q3 On réalise alors la régression de ∆Yt sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−8 i ; l’estimation des para-
mètres est la suivante (où LX désigne la série (Yt−1 )t∈Z et LY i désigne la série (∆Yt−i )t∈Z
):
ensae.net
La modélisation proposée est-elle raisonnable ?
☞ Q4 Justifier le modèle où y est la réalisation d’un processus Y stationnaire vérifiant
ensae.net
(d) La régression de ∆Yt sur h1, t, Yt−1 , ∆Yt−1 i :
ensae.net
(h) Le test de Porte-Manteau du bruit blanc du modèle final :
et exprimer ρ en fonction de φ.
( − ρL)Yt = µ + βt + φ1 ∆Yt−1 + ²t
(a)
(b)
(c)
ensae.net
(d)
(e)
ensae.net
Corrigé de l’exercice 1
☞ Q1 L’observation de la série fait apparaı̂tre une tendance déterministe linéaire : la série observée
est “assez proche” d’une certaine droite ȳt = a + bt.
Si l’on admet, comme le suggère son graphe, qu’à cette composante déterministe près elle est
en outre stationnaire du second ordre, alors le processus Y dont elle est la réalisation admet
une représentation auto-régressive infinie de la forme
Φ(L) ◦ (bt)t = b
Φ(L)(Yt − a − bt) = ²t
= b
+∞
X
k=0
à +∞
X
k=0
φk (t − k)
φk
!
t−b
à +∞
X
k=0
kφk
!
0
= bΦ(1)t − bΦ (1)
Φ(L)Yt = µ + βt + ²t
En pratique, on se contente de chosir Φ de degré fini mais assez grand pour que ² soit signifi-
cativement un bruit blanc.
☞ Q2 Afin de tester la présence éventuelle d’une racine unitaire, on cherche à factoriser ”de force”
Φ(L) par − L (transformation de Beveridge-Nelson, voir TD 4, exercice 1
) : pour ce faire on effectue la division euclidienne Φ(X) par 1 − X ce qui s’écrit, comme 1 est
racine de Φ(X) − Φ(1) 40
Φ(X) − Φ(1)
Φ+ (X) = ∈ R[X], d ◦ Φ+ ≤ d ◦ Φ − 1
(1 − X)
Alors
Φ(X) = Φ(1) + (1 − X)Φ+ (X)
40
Cette opération
PNn’est normalement définie que pour les polynômes, i.e. lorsque Φ est de degré fini. Si d ◦ Φ = +∞ on
définit ΦN (X) = k=0 φk X dont on tire Φ+
k
N (X) pour N ≥ 1, dont on montre qu’elle est convergente de rayon supérieur
à 1.
ensae.net
et donc
Φ(0)−Φ(1)
positives de X, et donc Φ∗ (L) ◦ ∆Yt ne contient que des valeurs passées ∆Yt−1 , ∆Yt−2 , . . . de
∆Yt .
Tester si le modèle est intégré, c’est tester si Φ(1) = 0 ; sous cette forme cela revient juste à
tester si le cœfficient φ de Yt−1 est non-significativement non-nul.
Il aurait été possible de pratiquer une telle régression directement sur l’équation en Y t au lieu
de celle en ∆Yt ; mais comme Y n’est pas stationnaire, Cov (Yt , Yt+h ) est significative pour tout
h, donc la régression aurait dû comporter une infinité de variables explicatives (Y t−h )h≥1 . . . A
l’inverse si ∆Y est stationnaire, un nombre fini d’explicatives peut suffire.
☞ Q3 Il est tout d’abord nécessaire de déterminer Φ tel que le modèle soit vérifié. Pour ce faire on
choisit un degré arbitrairement grand pour Φ (ici 9) 41 et on vérifie que le modèle estimé par la
régression des moindres carrés ordinaires 42 est statistiquement valide ; dans le cas présent, le
R2 ajusté (qui vaut 0, 5129) assure que le modèle capture une part suffisante de la variance, et
donc que suffisamment de variables explicatives ∆Yt−1 , ∆Yt−2 , . . . ont été introduites.
Remarquons que lorsque ∆Y est stationnaire, les cœfficients de la régression sont donc aympto-
tiquement normaux, ce qui justifie l’emploi du test de Student pour tester leur significativité. 43
En l’occurence, on observe que les cœfficients de la régression sur ∆Yt−4 , . . . , ∆Yt−8 ne sont
(individuellement) pas significativement non-nuls (colonne Prob > |τ | ).
Ainsi la modélisation proposée est valide mais le modèle estimé ici n’est pas significatif.
☞ Q4 (a)
(b)
(c)
41
Car 8 = d◦ Φ∗ = d◦ Φ+ = d◦ Φ − 1.
42
Puisque ² est censé être un bruit blanc.
43
En toute généralité il serait possible que ∆Y ne soit pas stationnaire, auquel cas l’emploi du test de Student serait
inadapté.
ensae.net
(d)
(e)
(f)
(g)
(h) On se propose donc de déterminer le sous-modèle minimal qui soit totalement significatif.
Remarque : Bien que l’on observe à ce stade que le cœfficient en Yt−1 est significativement non-
nul, on ne peut pas en déduire qu’il le sera aussi dans le sous-modèle où tous les cœfficients
sont significatifs.44 Il est nécessaire de déterminer ce sous-modèle et d’y tester la significativité
du cœfficient en Yt−1 .
Y = αX 1 + βX 2 + γX 3 + U
est
β̂ − β0
tX 2 = q
c2
σ 2
α
c2 désigne le terme diagonal de la matrice de variance-covariance Σ de β .
où σ 2
γ
3
Or rien ne dit que cette matrice ne dépend pas de X , même ¡ 2 si γ3 ¢est non-significativement non-nul : comme β̂ =
0 20 3 0 3 −1 3 0
(X 2 ¡X 2 )−1 X
¢ Y et γ̂ = (X X ) X Y pour peu que Cov X , X 6= 0, la matrice Σ dépendra de γ̂ (au sens ou
Cov Σi,3 , γ̂ 6= 0 ).
En l’occurence, on sait (voir TD 2, exercice 3 ) comme ∆Y est stationnaire que ∆Y t−1 et ∆Yt−i sont
certainement corrélés.
☞ Q6 (a)
ensae.net
– On effectue donc en définitive la régression de ∆Y sur h1, t, Yt−1 , ∆Yt−1 i, et on observe
que le modèle ainsi estimé est valide. On constate en outre qu’aucun cœfficient n’est
individuellement non-significatif.
On procède donc à l’identification du modèle Ar (voir
en ∆Y sur les explicatives t et LY .
TD 5, exercice 1
en posant ρ = 1 + φ.
(b)
(c)
∆Yt = µ + βt + φYt−1 + φ1 ∆Yt−1 + ²t
( − ρL)Yt = µ + βt + φ1 ∆Yt−1 + ²t
)
(d)
(e) Sous H01 le modèle se réécrit
Yt = µ + Yt−1 + φ1 ∆Yt−1 + ²t
La statistique de test associée est celle de la table VI , selon laquelle le fractile à 5% vaut
6,34 (on retient la valeur pour 250 observations 45 ) ; comparée à la valeur empirique de
F-Value : 5,83 on accepte donc l’hypothèse H01 .
☞ Q7 On constate que H02 → H01 ; comme H01 est acceptable on se propose de tester H02 .
Sous H02 le modèle se réécrit
Yt = Yt−1 + φ1 ∆Yt−1 + ²t
La statistique de test associée est celle de la table V , selon laquelle le fractile à 5% vaut 4,75 ;
comparée à la valeur empirique F-Value : 10,75 on rejette donc l’hypothèse H 02 .
?
? ?
45
Plutôt que celle pour 100 observations, car le test est ainsi plus restrictif : si on accepte H 0 avec le fractile à 250
observations, on l’accepterait a fortiori avec celui à 100 observations.
ensae.net
Enoncé de l’exercice 2
lm
ln−m
µ 1,1
A
A 2,1
A1,2
A 2,2
¶
lm
ln−m
.
☞ Q1 A un instant donné, l’intuition suggère que si Xt2 cause Xt1 alors Xt2 intervient significativement
dans la valeur de Xt1 ; en particulier la prévision optimale de Xt1 n’est dans ce cas pas la même
selon que l’on connaı̂t Xt2 ou pas. On dit donc que Xt2 ne cause pas instantanément Xt1 au sans
de Granger, et on note X 2 ∼Â/ X 1 , ssi EL (Xt1 |Xt2 , Xt−1 , . . .) = EL (Xt1 |Xt−1 , . . .)
(a) Montrer que EL (Xt1 |Xt2 , Xt−1 , . . .) = EL (Xt1 |Xt−1 , . . .) + EL (²1t |²2t )
(b) Montrer que
Xt2 ∼Â / Xt2
/ Xt1 ⇔ Σ1,2 = (0) ⇔ Xt1 ∼Â
(on dit dans ce cas par symétrie que X 2 et X 1 ne se causent pas instantanément au sens
de Granger).
☞ Q2 Par extension on dit alors que X 2 ne cause pas globalement X 1 , ou simplement que X 2
ne cause pas X 1 au sens de Granger (ce que l’on note X 2 ≈Â
/ X 1 ) ssi
¡ ¢ ¡ ¢
∀t ∈ Z, EL Xt1 |Xt−1 , . . . = EL Xt1 |Xt−1
1
,...
aux
ensae.net
¥ Partie 2 Test de la notion de causalité
On se place dans le cas où m = n − m = 1, et on note p = d◦ Φ.
On suppose de plus que Φ(0) = Id .
☞ Q1 Montrer que X vérifie aussi le modèle
1 1 deux estimations
2
Xt , Xt−1 , Xt−1
séparées
1
, . . . , Xt−p 2
, Xt−p
☞ Q3 On considère l’hypothèse H0 : ” X 1 ∼Â
®R
.
/ X 2 ”.
X
Ψ(L)X = η
pour un certain polynôme matriciel Ψ (de degré p) et un bruit blanc η à déterminer
☞ Q2 Montrer que la régression R par les moindres carrés
1 1
1 de X2t sur hXt−1
t−1 , X t−1 , . . . , X 1
, . . . , X®t−p i est équivalente
Montrer qu’à supposer qu’ ²1 est gaussien, le test de l’hypothèse H0 se ramène à un test de
/ X 1 ”.
En supposant qu’² est gaussien, proposer une procédure de test de H0∗ .
2 2
t−p , Xt−p et R de Xt sur
2
Corrigé de l’exercice 2
☞ Q1 (a) Le modèle étant sous forme canonique, ² est l’innovation du processus vectoriel X : par
définition de l’innovation ²t = Xt − EL (Xt |Xt−1 , . . .) et donc en projetant pour i ∈ {1, 2}
¡ ¢
²it = Xit − EL Xti |Xt−1 , . . .
(²2 est l’innovation du processus X 2 |X 1 )
¡ ¢ ¡ ¡ ¢ ¡ 1 ¢¢
EL Xt1 |Xt2 , Xt−1 , . . . = EL Xt1 | Xt2 , Xt−1 2
, . . . , Xt−1 ,...
¡ ¡ ¢ ¡ 1 ¢¢
= EL Xt1 | ²2t , ²2t−1 , . . . , Xt−1 ,...
¡ ¡ 2 ¢¢
= EL Xt1 |²2t , Xt−1 1
, . . . , Xt−1 ,...
¡ ¢
= EL Xt1 |²2t , Xt−1 , . . .
|=
Or ∀t ∈ Z, ²2t
|=
¡ ¢ ¡ ¢ ¡ ¢
EL Xt1 |Xt2 , Xt−1 , . . . = EL Xt1 |²2t ⊕ EL Xt1 |Xt−1 , . . .
Or ◦
d Φ
X
Xt = Φk Xt−k + ²t
k=1
ensae.net
et ²t
|=
hXt−1 , . . .i donc en projetant
et donc finalement
☞ Q2 (a) On a pour t ∈ Z
Xt2 ∼Â
/ Xt1
¡
⇔
⇔
⇔
⇔
⇔
⇔
⇔
⇔
¢ ¡
EL Xt1 |²2t = EL ²1t |²2t
¡
¡
Σ1,2 = (0)
¡
¡
Xt1 ∼Â
Xt =
¢
/ Xt2
X
◦
¢
Cov ²1t , ²2t = (0)
¢
Cov ²1t , ²2t = (0)
EL ²2t |²1t = 0
¡
d Φ
k=1
¢
φk Xt−k + ²t
¡
EL Xt1 |Xt2 , Xt−1 , . . . = EL Xt1 |Xt−1 , . . .
¡
EL Xt2 |Xt1 , Xt−1 , . . . = EL Xt2 |Xt−1 , . . .
¢
et donc en projetant
d Φ ◦ ◦
d Φ
X X
Xt1 = φ1,1 1
k Xt−k + φ1,2 2 1
k Xt−k + ²t
k=1 k=1
1,2
Si Φ(X) = (0) alors
◦
d Φ
X
Xt1 = φ1,1 1 1
k Xt−k + ²t
k=1
et donc ◦
d Φ
¡ 1 ¢ X ¡ 1 1 ¢
EL Xt |Xt−1 , . . . = φ1,1 1
k Xt−k = EL Xt |Xt−1 , . . .
k=1
2 1
c’est-à-dire X ≈Â
/ X .
(b) Comme ² est l’innovation de X, soit (Ak )k∈N ∈ Mn (R)N telle que
+∞
X
∀t ∈ Z, Xt = Ak ²t−k
k=0
47
Alors en projetant il vient
+∞
X +∞
X
∀t ∈ Z, Xt1 = A1,1 1
k ²t−k + A1,2 2
k ²t−k
k=0 k=0
° °2 P
° ° 2
47
Chacune des deux sommes converge car °A1,j
k ° ≤ kAk k2 et que k Ak est normalement convergente.
2
ensae.net
(c) Supposons
¡ 1 1 alors¢ que X /≈Â
et donc
soit
Alors
48
µ
2
Xt1
Xt2
X 1¡; alors pour¢ tout t ∈ Z EL (Xt1 |Xt−1 , . . .) =
EL Xt |Xt−1 , . . . et donc Xt1 − EL Xt1 |Xt−1
est donc l’innovation de X 1 .
(d) Si X 2 ≈Â
² = Φ(L)X = Φ(L)
¶
=
1
Xt2
X=
, . . . = Xt1 − EL (Xt1 |Xt−1 , . . .) = ²1t : ²1
µ P+∞
=
k=0 Bk
P+∞
k=0 Ak
+∞ µ
X
à +∞ µ
X
k=0
+∞
X
k=0
2,1
Bk
A2,1
k
Bk
k=0
A2,1
k
Xt1
A
(0)
2,2
k
=
A2,1 1
k ²t−k
¶ !
+∞
X
k=0
Lk ◦ ²
Bk ²1t−k
(0)
P+∞ 2,2
k=0 Ak
(0)
A2,2
k
+∞
X
k=0
A2,2
¶
2
k ²t−k
Lk ◦ ²
×
µ
²1t−k
²2t−k
¶
µ µ ¶ ¶
P+∞ Bk (0)
et donc la matrice 2,1 Xk sur l’anneau Mn (R)[X] est régulière et
k=0 Ak A2,2
k
est une inverse de Φ(X), ce qui s’écrit encore par blocs
µ ¶ µ ¡P+∞ ¢ ¶ µ ¶
Φ(X)1,1 Φ(X)1,2 ¡ Bk Xk ¢ ¡ (0) ¢ Idm (0)
× P+∞ 2,1 k
k=0 P+∞ 2,2 k =
Φ(X)2,1 Φ(X)2,2 k=0 Ak X k=0 Ak X
(0) Idn−m
et en particulier en considérant le bloc (1, 2) il vient
à +∞ !
X 2,2
(0) × Φ(X)1,1 + Ak Xk × Φ(X)1,2 = (0)
k=0
µ P+∞ ¶
Bk Xk (0) ¡P+∞ 2,2 k ¢
k=0 Ak X
Or P+∞ 2,1 k P+∞ 2,2 k
k=0 est inversible, donc également49 et
A
k=0 k X A
k=0 k X
donc
Φ(X)1,2 = (0) ∈ Mn (R)[X] et finalement
48
Avec la convention que
M 1,1 Lk ··· M 1,n Lk
k .. ..
ML = . .
M n,1 Lk ··· M n,n Lk
P i,j k P
et en remarquant que chaque
µ k X
k A¶ est convergente car |Ai,j
k | ≤ kAk k2 et que k Ak est normalement convergente.
49 A 0
Comme la matrice est triangulaire par blocs, si elle est inversible, alors C l’est également.
B C
ensae.net
ce qui achève la preuve de la réciproque.
☞ Q1 On sait que
Notons donc η =
µ
µµ
1
−α
Posons en particulier α = Σ
1 0
−α 1
¶
Φ(L)X = ²
µ
¶ µ
1,2
1 0
−α 1
¶
× Φ(L) ◦ X =
¶
µ
il vient
1
−α
¶ Ã 1,1
1 0
−α 1
Σ
¶
Φ(L)1,2 = (0)
ײ
0
1
¶0
Cov (²t , ²t−l )
0
!
µ
1
−α
1,1 : alors Cov (ηt , ηt−l ) = 0 et donc η est un bruit blanc. Sa matrice
0
1
¶
1 0 1 −α
Σ = (Σ1,2 )
2
−α 1 0 1 0 Σ2,2 − 1,1 Σ
µ ¶
1 0
Notons enfin Ψ(X) la matrice à cœfficients dans R[X] × Φ(X) ; alors
−α 1
µ ¶ µ ¶
1 0 1 0
Ψ(0) = × Φ(0) =
−α 1 −α 1
(car Φ(0) = Id ), donc Ψ(0) est bien inversible et le modèle est correctement spécifié.
☞ Q2 D’une façon générale, l’estimateur des moindres carrés ordinaires de la régression de Y = Xb+U
−1
est, si X est de plein rang, b̂mcg = (X 0 Ω−1 X) X 0 × Ω−1 Y , où Ω désigne la matrice de variance-
covariance de U .
Considérons alors les deux sous-blocs
µ 1 ¶ µ ¶ µ 1 ¶
Y Xb1 U
= +
Y2 Xb2 U2
µ ¶ µ ¶
U1 Ω1,1 (0)
et supposons que V = soit bloc-diagonale.
U2 (0) Ω2,2
ensae.net
Alors
µ
1
−α
0
1
b̂mcg =
¶µ
=
=
³
Xt1
Xt2
³
¡
¶
XΩ X
0
0
X (Ω ) X
bˆ1 mcg
bˆ2 mcg
!
0
−1
X 0 (Ω1,1 ) X
2,2 −1
−1
´−1
´−1
=
¡
(0)
1
Xt−1
¢−1
Ω1,1
X ×Ω0
(0)
Ω2,2
−1
X 0 × (Ω1,1 ) Y 1
2,2 −1 2
X × (Ω ) Y
···
−1
¶−1
1
Xt−p
µ
X
Y1
Y2
!−1
2
Xt−1
¶
×X × 0
···
µ
Ω1,1
(0)
2
Xt−p
(0)
Ω2,2
×
¶−1 µ
ψ11,1
..
.
¢ ψp1,1
ψ 1,2
1
..
.
ψp2,1
Y1
Y2
ψ 2,1
ψp2,1
ψ 1,2
ψp2,2
¶
µ 1 ¶
+ η2t
ηt
et
α
ψ12,1
..
.
¡ ¢ 2,1
(R2 ) : Xt2 = Xt1 1
Xt−1 ··· 1
Xt−p 2
Xt−1 ··· 2
Xt−p ×
ψp2,2
+ ηt2
ψ
1
..
.
ψp2,2
à !
Σ1,1 0
comme V (ηt ) = est diagonale, l’estimation des cœfficients de Ψ par
(Σ1,2 )
2
0 Σ2,2 − Σ1,1
la régression globale R est équivalente à celle résultant des deux sous-régressions R 1 et R2 .
50
ensae.net
☞ Q3 L’hypothèse H0 se réécrit “Σ1,2 = 0” soit encore “α = 0”.
Le test de
A savoir F =
H0∗
SCR H0 −SCR
SCR¬H0
¬H0 T −2p
? ?
?
1,2
k = 0” soit encore “∀k ∈ N, ψk = 0”.
²2 − V(²1 ) ²1
tester H0 revient donc à tester la nullité individuelle du cœfficient estimé α
Ã
Remarquons que sous H0 seule la régression R2 est modifiée ; il suffit donc de pratiquer le test
dans la seule régression R2 .
☞ Q4 L’hypothèse H0∗ se réécrit “∀k ∈ N, φ1,2
³
d
1,2
²1
Cov (²2 ,²1 )
d1,2
revient alors au test de la nullité simultanée des cœfficients estimés ψ1 , . . . , ψp ,
qui peut être conduit au moyen de la statistique de Fisher. 50
Remarquons que cette fois sous H0∗ seule la régression R1 est modifiée, et tester H0∗ revient à
tester la régression R1 sous H0∗ par rapport à R1 sous ¬H0∗ . Ainsi il suffit de pratiquer le test
dans la seule régression R1 .
´
et p le nombre de variables dont on teste la nullité simultanée, et bien-sûr SCR H désigne la somme des carrés des résidus
;
estimés (i.e. la variance non-expliquée) sous l’hypothèse H. Si H 0 est vraie alors F suit une loi de Fisher F(p, T − 2p).
ensae.net
Travaux Dirigés n◦8
Enoncé de l’exercice 1
On considère deux processus stationnaires X et Y vérifiant :
σu2 et σv2 .
où c est une constante et u et v sont deux bruits blanc indépendants de variances respectives
Corrigé de l’exercice 1
☞ Q1 On a
µ ¶µ ¶ µ ¶ µ ¶µ ¶
0 X 0 − θ1 L 0 U
= +
−µL3 − φL Y c(1 − φ) 0 ( − θ2 L)( − φL) V
µ ¶ µ ¶
0 − θ1 L 0
et on pose donc Φ(L) = et Θ(L) = .
−µL3 − φL 0 ( − θ2 L)( − φL)
µ ¶ µ ¶
U X
Alors est l’innovation du processus ssi |Φ(X)| = 1 − φX et |Θ(X)| = (1 −
V Y
θ1 X)(1 − θ2 X)(1 − φX) ont tous deux leurs racines de module strictement51 supérieur à 1 (soit
ssi |θ1 | < 1, |θ2 | < 1 et |ϕ| < 1).
☞ Q2 Soit Zt = (1 − ϕL)Yt . On a :
ensae.net
puis, comme Xt−3 = ( − θ1 L)Ut−3 il vient
En particulier (voir
Zt = c( − φ) + µ( − θ1 L)Ut−3 + ( − θ2 L)( − φL)Vt
| {z
TD 3, exercice 2
un processus Ma d’ordre au plus 2.
} |
Ma(1)
Soit Ψ ∈ R2 [X] et η bruit blanc tels que Z = Ψ(L)η ; Ψ et ση2 sont déterminés (voir
exercice 2
d’après la définition de Z
TD 2,
) par les équations de Yule-Walker en Z qui pour h ∈ Z s’écrivent d’une part
Cov (Zt , Zt+h ) = µ2 γUt−3 −θ1 Ut−4 (h) + γVt −(θ2 +φ)Vt−1 +θ2 φVt−2 (h)
= ...
et d’autre part d’après la définition de Ψ(X) = Ψ0 + Ψ1 X + Ψ2 X2 et η
Cov (Zt , Zt+h ) = Cov (Ψ0 ηt + Ψ1 ηt−1 + Ψ2 ηt−2 , Ψ0 ηt−h + Ψ1 ηt−h−1 + Ψ2 ηt−h−2 )
= ...
L’égalisation de ces expressions pour h ∈ {0, 1, 2} conduit à un système polynômial en
Ma(2)
Ψ0 , Ψ1 , Ψ2 , ση2 qui s’expriment donc de façon non-linéaire (en général) en les paramètres θ1 ,
θ2 et φ.
☞ Q3 La prévision linéaire optimale de Y conditionnellement au seul passé de Y s’obtient en trans-
formant la forme Arma(1,2) précédente en une forme Ar(∞) en Y . Mais pour obtenir celle
conditionnellement
µ ¶ aux passés de X et de Y , il faut déterminer la prévision linéaire optimale
X
de conditionnellement à son passé, ce qui se fait en transformant la formulation Arma
Y
vectorielle en forme Ar(∞) vectorielle :52
µ ¶ µ ¶ µ ¶
−1 X −1 0 U
Θ(L) Φ(L) = Θ(1) +
Y c(1 − φ) V
Comme
µ ¶−1
−1 − θ1 L 0
Θ(L) =
0 ( − θ2 L)( − φL)
µ ¶
( − θ1 L)−1 0
=
0 ( − θ2 L) ( − φL)−1
−1
il vient
µ ¶µ ¶ à ! µ ¶
( − θL)−1 0 X ³ 0
´ U
= 1 +
−µL ( − θ2 L)−1 ( − φL)−1
3
( − θ2 L)−1 Y (1−φ)(1−θ2 )
(c(1 − φ)) V
52
Attention à l’ordre en général : Θ(L)−1 et Φ(L) sont des matrices et donc en général Θ(L)−1 ×Φ(L) 6= Φ(L)×Θ(L)−1
. Cependant dans le cas présent Θ(L) est diagonale, donc commute avec Φ(L).
ensae.net
La projection linéaire optimale de Y connaissant le passé de X et de Y s’obtient alors en
projetant : on a
et donc
EL
à +∞
X
k=0
+∞
X
k=0
θ2k Yt−k − µL3 ( − θ2 L)−1 ( − φL)−1 Xt =
θ2k Yt−k 3 −1 −1
− µL ( − θ2 L) ( − φL) Xt |Xt−1 , . . . , Yt−1 , . . .
Enoncé de l’exercice 2
c
1−θ2
+ µL3 ( − θ2 L)−1 ( − φL)−1 Xt −
? ?
?
53
c
1 − θ2
+V
P+∞
=
c
1 − θ2
k
k=1 θ2 Yt−k
On considère deux processus du second ordre (Xt )t≥0 et (Yt )t≥0 tels que
½
Xt = Xt−1 + Ut
Yt = 65 Yt−1 − 61 Yt−2 − Xt−1 + Vt
où U et V sont deux bruits blanc indépendants de variances respectives σu2 et σv2 .
On suppose en outre que ∀t < 0; Xt = Yt = Ut = Vt = 0
☞ Q1 (a) Vérifier que ni (Xt )t>0 ni (Yt )t>0 n’est stationnaire.
(b) Vérifier que (∆Xt )t≥2 et (∆Yt )t≥2 sont équivalents à des processus stationnaires, et préciser
le cas échéant
µ leur¶ forme µ Arma¶.
X U
On note Z = et ² = .
Y V
☞ Q2 Montrer qu’il existe un polynôme (matriciel) A tel que
∀t > 0, A(L)Z = ²
ensae.net
☞ Q3 Montrer qu’il existe un polynôme (matriciel) A∗ de degré d◦ A − 1 tel que A(X) = A(1) + (1 −
X)A∗ (X).
En déduire qu’il existe une combinaison linéaire de X et Y qui est asymptotiquement équivalente
à un processus stationnaire.
Corrigé de l’exercice 2
☞ Q1 (a) ( − L)X = U donc (Xt )t>0 est une marche aléatoire, donc non-stationnaire.
D’autre part, V (Xt−1 − Vt ) = (t − 1)σU2 + σY2 car Xt et Vt sont indépendants. Or si
(par l’absurde) (Yt )t>0 était stationnaire, alors Xt−1 − Vt = −Yt + 56 Yt−1 − 61 Yt−2 serait
stationnaire, donc de variance constante, et il en irait de même pour X ! Donc (Yt )t>0
n’est pas stationnaire.
Autre méthode :
Si Y était stationnaire alors X − V = (− + 56 L − 16 L2 )Y le serait également, et comme V
est stationnaire et X et V sont décorrélés, X le serait également.
(b) ∆X = U est un bruit blanc, donc stationnaire.
Par ailleurs
5 1
∆Yt = (∆Y )t−1 − (∆Y )t−2 − Ut−1 + Vt − Vt−1
6 6
Définissons Wt = −Ut−1 + Vt − Vt−1 ; alors (voir TD 3, exercice 2 ) W est
|{z} | {z }
Ma(0) Ma(1)
un processus Ma d’ordre au plus 1. Comme en outre γw (1) = −σv2 6= 0, W est un Ma(1)
et donc ∆Y est un processus Arma(2,1)
☞ Q2 Posons µ ¶
1−X 0
A(X) =
X 1 − 6 X + 16 X2
5
Alors µ ¶ µ ¶
X U
A(L) =
Y V
et en outre
µ ¶ µ ¶µ ¶
5 1 1 1
|A(X)| = (1 − X) 1 − X + X2 = (1 − X) 1 − X 1− X
6 6 2 3
dont les racines 1, 2 et 3 sont toutes de module supérieur (ou égal) à un, de sorte que la
représentation est canonique.
☞ Q3 A(X)−A(1) est un polynôme (matriciel) en X qui s’annule en X = 1, donc divisible par (1−X) :
on a en l’occurence
ensae.net
Notons donc A =
On a alors
Or A(1)Z =
µ
0
∗
X + 31 Y
A(X) − A(1) =
¶
µ
1
−1 2
3
0
=
µ
= (1 − X) ×
− 61 X
¶
1−X
X
1−X
X−1 2
µ3
0
− 6 X + 61 X2
1
5
¶
−
µ
0
1
0
1
3
¶
?
? ?
Enoncé de l’exercice 3
On considère un processus vectoriel (Yt )t∈Z de taille n, dont on suppose qu’il est intégré d’ordre
1, et qu’il admet une représentation VAR de la forme :
Φ(L)Y = µ + ²
54
Ce n’est pas tout-à-fait évident : ∆X et ∆Y sont stationnaires, mais il faut encore montrer que Cov (∆X t , ∆Yt+h )
ne dépend pas du temps t : pour ce faire, on soustrait l’équation en Y aux dates t et t − 1, ce qui fait apparaı̂tre
∆Yt = 65 ∆Yt−1 − 16 ∆Yt−2 − ∆Xt−1 + ∆Vt .
ensae.net
(b) Montrer que le rang de Φ(1) est inférieur strictement à n.
(c) On suppose que le rang de Φ(1) est égal à r. Montrer qu’il existe deux matrices α et β de
dimensions (n, r) et de rang r telles que Φ(1) = αβ 0 .
(d) Montrer que β 0 yt est nécessairement stationnaire (les colonnes de β sont alors appelées
vecteurs de cointégration de yt ).
Y = S + T.
( − L)Y = m + C(L)²
(c) Soit β ⊥ une base56 de l’orthogonal de β. Déduire de la question précédente qu’il existe
m0 ∈ Rn−r et δ ∈ Mn,n−r (R) tels que m = β ⊥ m00 et C(1) = β ⊥ δ 0 .
(d) En déduire que Tt s’exprime en fait comme combinaison linéaire de n−r marches aléatoires
univariées (ces marches aléatoires sont appelées tendances communes aux séries (Yti )t ).
,
Corrigé de l’exercice 3
Φ(X)−Φ(1)
☞ Q1 (a) Comme Φ(X)−Φ(1) s’annule en 1, il est divisible par 1−X et soit donc Φ + (X) = 1−X
∈
R[X] ; ainsi Φ(X) = Φ(1) + (1 − X)Φ+ (X).
Alors (voir TD 7, exercice 1 )
Φ(L)Y = Φ(1) × Y + ( − L) · Φ+ (L) ◦ Y
= Φ(1) × Y + Φ+ (L) ◦ ∆Y
¡ ¢
= Φ(1) × Y + Φ+ (0) ∆Y + Φ+ (L) − Φ+ (0) ∆Y
| {z } | {z }
Φ(0)−Φ(1) −Φ∗ (L)
∗
= Φ(1) × Y + ( − Φ(1)) × ∆Y − Φ (L) ◦ ∆Y
= Φ(1) × Y + ∆Y − (Φ(1) × Y − Φ(1) × LY ) − Φ∗ (L) ◦ ∆Y
= ∆Y + Φ(1) × LY − Φ∗ (L) ◦ ∆Y
et donc comme par ailleurs Φ(L)Yt = µ + ²t il vient en définitive
55
Avec dérive : ( − L)T = η où η est un bruit d’espérance a priori non-nulle.
56
C’est-à-dire que les colonnes de β ⊥ forment une base de l’orthogonal de l’espace engendré par les colonnes de β.
ensae.net
(b) On a
et donc
∆Yt = −Φ(1)Yt−1 +
∆Y = Φ(1)LY −
Φ(1)LY = −∆Y +
|
Pp−1
i=1
LY
Pp−1
p−1
X
i=1
p−1
X
i=1
{z
Ψ(L)∆Y
i=1
Γi X i .
Γi ∆Yt−i + µ + ²t
Γi Li ∆Y + µ + ²
Γi Li ∆Y + µ + ²
Mais comme Y est intégré d’ordre 1, ∆Y est stationnaire, et donc LY , donc Y , serait
stationnaire ! 57
Comme on a supposé que Y était intégré d’ordre 1, Φ(1) n’est pas inversible, i.e. est de
rang au plus n − 1.
(c) Soit α une base de l’image de Φ(1) (qui est de dimension r ≤ n − 1), et notons βi,1 , . . . , βi,r
les cœfficients de la i-ième ligne Li de Φ(1) dans la base α. On a pour tout i ∈ J1, nK
Xr α j,1
Li = βi,j αj où αj = ... ∈ Mn, 1(R)
j=1 αj,n
et donc
L1 β ··· βn,1
¡ ¢ 1,1 ..
Φ(1) = ... = α1 ··· αr × ... .
Ln β1,r ··· βn,r
| {z }
β0
soit
Φ(1) = αβ 0
57
En toute rigueur se pose le problème de la corrélation de Φ(1)−1 Ψ(L)∆Y avec ². Mais comme Y est intégré d’ordre
1 (et pas plus), ∆Y vérifie une équation Ar(d)e la forme A(L)∆Y = γ + ² de sorte que LY = B(L)∆Y pour B(X) =
Φ(1)−1 (Ψ(X) + A(X) − γ) .
ensae.net
(d) On a
il vient alors
Φ(1)Yt−1 = Ψ(L)∆Yt + µ + ²t
Or α est une base, donc α0 α est de plein rang donc inversible ; en multipliant par (α0 α)−1 α0
(α0 α)−1 α0 Φ(1)Yt−1 = (α0 α)−1 α0 Ψ(L)∆Yt + (α0 α)−1 α0 µ + (α0 α)−1 α0 ²t
Soit alors T = Y − S, montrons que T est une marche aléatoire (avec dérive) : on a
0 = E (( − L) ◦ (β 0 Y ))
= E (β 0 ( − L)Y )
= E (β 0 m + β 0 C(1)² + β 0 ( − L)C ∗ (L)²)
= β 0m
( − L)T = m + C(1)²
= β ⊥ (m00 + δ 0 ²)
ensae.net
Soit donc M la marche aléatoire multi-variée (de taille n − r) vérifiant M0 = 0 et
( − L)M = m00 + δ 0 ²
¡ ¢
Alors ( − L)T = β ⊥ ( − L)M = ( − L) ◦ β ⊥ M , donc les processus T et β ⊥ M sont
égaux à une constante (aléatoire) près ; 58 comme dim(β ⊥ ) = n − dim(β) = n − r on a
? ?
?
58
On n’a pas nécessairement T = M : notamment il n’y a aucune raison a priori pour que T 0 = Y0 − C + (L)²0 soit
égal à β ⊥ M0 , car une valeur de M0 ad hoc n’existe pas forcément !