Tout - Enonce Et Corrige - Ensae.net - Simple

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 106

Deuxième année

2005-2005

Séries temporelles linéaires


Enoncé et corrigé des travaux dirigés n◦1 à
8

Guillaume Lacôte
vBureau E03
B [email protected]
☞ http://ensae.no-ip.com/SE206/

Version du 20050121-11h02, révisée le 17 février 2005


Table des matières
1 Travaux Dirigés n◦ 1 1
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Exercice 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Travaux Dirigés n◦ 2 15
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Exercice 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3 Travaux Dirigés n◦ 3 34
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4 Travaux Dirigés n◦ 4 47
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5 Travaux Dirigés n◦ 5 61
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6 Travaux Dirigés n◦ 6 66
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

7 Travaux Dirigés n◦ 7 80
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

8 Travaux Dirigés n◦ 8 96
Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
Travaux Dirigés n◦1
Enoncé de l’exercice 1
Soit (²t )t∈Z un bruit blanc (supposé dans L2 ) de variance σ 2 > 0.
Discuter dans chacun des cas suivants de la stationnarité de (Xt )t∈Z .
Rappels :

– Une suite de variables aléatoires réelles (ou processus) X = (Xt )t∈Z est dite du second ordre
si chacune d’elles est de carré intégrable.
– Un processus X est fortement stationnaire ssi
∀n ∈ N, ∀(t1 , . . . , tn ) ∈ Nn , ∀h ∈ Z, LXt1 ,...,Xtn = LXt1 +h ,...,Xtn +h
où LY désigne la loi de Y .
– Un processus X est (faiblement) stationnaire ssi
½

¯
∀t ∈ Z, E (Xt ) = E (X0 )
∃γ : Z → R+ / ∀t ∈ Z, ∀h ∈ Z, Cov (Xt , Xt+h ) = γ(h)
– Le processus X est un bruit blanc fort de variance σ 2 ≥ 0 ssi
¯ ∀t ∈ Z, E (Xt ) = 0
¯
¯ ∀t ∈ Z, V (Xt ) = σ 2
¯
¯ (Xt )t est i.i.d

– Le processus X est un bruit blanc (faible) de variance σ 2 ≥ 0 ssi



 ∀t ∈ Z, E (Xt ) = 0
∀t ∈ Z, V (Xt ) = σ 2

∀t ∈ Z, ∀h ∈ Z , Cov (Xt , Xt+h ) = 0

☞ Q1 Lorsque ∀t ∈ Z, Xt = ²t − ²t−1 ?
☞ Q2 Le processus (Xt )t∈Z défini pour (a, b, c) ∈ R3 par
∀t ∈ Z, Xt = a + b²t + c²t−1
est-il (faiblement) stationnaire ?
☞ Q3 Lorsque ∀t ∈ Z, Xt = ²t ²t−1 , si ² est un bruit blanc fort ? Faible ?
Lorsque X est tel que ∀t ∈ Z, Xt − Xt−1 = ²t (on supposera en outre que ∀t > 0, ²t
|=

☞ Q4 X0 ) ?
☞ Q5 Lorsque ∀t ∈ Z, Xt = ²t cos(ct) + ²t−1 sin(ct) pour c ∈ R donné ?
P
☞ Q6 Lorsque ∀t ∈ Z, Xt = ti=0 λi (²t−i − ²t−i−1 ), pour λ ∈ R (discuter selon λ) ?
Lorsque λ ∈] − 1, 1[, montrer qu’il existe un processus stationnaire Y tel que
L2
(Xt − Yt ) −−−−→ (0).
t→+∞
☞ Q7 La somme de deux processus stationnaires est-elle stationnaire ?

Version du 20050121-11h02, révisée le 17 février 2005 1


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
Corrigé de l’exercice 1
Rappels :

– Une suite de variables aléatoires réelles (ou processus) X = (Xt )t∈Z est dite du second ordre
si chacune d’elles est de carré intégrable.
– Un processus X est fortement stationnaire ssi

∀n ∈ N, ∀(t1 , . . . , tn ) ∈ Nn , ∀h ∈ Z, LXt1 ,...,Xtn = LXt1 +h ,...,Xtn +h

où LY désigne la loi de Y .


– Un processus X est (faiblement) stationnaire ssi
½
+
∀t ∈ Z, E (Xt ) = E (X0 )
∃γ : Z → R / ∀t ∈ Z, ∀h ∈ Z, Cov (Xt , Xt+h ) = γ(h)

– Le processus X est un bruit blanc fort de variance σ 2 ≥ 0 ssi


¯
¯ ∀t ∈ Z, E (Xt ) = 0
¯
¯ ∀t ∈ Z, V (Xt ) = σ 2
¯
¯ (Xt )t est i.i.d

– Le processus X est un bruit blanc (faible) de variance σ 2 ≥ 0 ssi



 ∀t ∈ Z, E (Xt ) = 0
∀t ∈ Z, V (Xt ) = σ 2

∀t ∈ Z, ∀h ∈ Z∗ , Cov (Xt , Xt+h ) = 0
☞ Q1 On a pour t ∈ Z
– E (Xt ) = 0
– V (Xt ) = V (²t ) + V (²t−1 ) = 2σ 2 par indépendance
– Enfin Cov (Xt , Xt−1 ) = −σ 2 et ∀h ≥ 2, Cov (Xt , Xt−h ) = 0
X est donc stationnaire.
☞ Q2 On a successivement pour t ∈ Z :
– E (Xt ) = a + bE (²t ) + cE (²t−1 ) = a
– V (Xt ) = 0 + b2 V (²t ) + c2 V (²t−1 ) = (b2 + c2 ) σ 2 car ²t et ²t−1 sont non-corrélés
– Par ailleurs

Cov (Xt , Xt−1 ) = Cov (a + b²t + c²t−1 , a + b²t−1 + c²t−2 )


= b2 Cov (²t , ²t−1 ) + bcCov (²t , ²t−2 ) + cbV (²t−1 ) + c2 Cov (²t−1 , ²t−2 )
= bcσ 2

– Enfin Cov (Xt , Xt+h ) = 0, ∀h ≥ 2


Le processus X est donc stationnaire.
☞ Q3 On a de façon similaire pour t ∈ Z :
– E (Xt ) = E (²t )E (²t−1 ) = 0 car ²t et ²t−1 sont non-corrélés

Version du 20050121-11h02, révisée le 17 février 2005 2


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
– Si ² est un bruit blanc fort, ²2t est indépendant de ²2t0 et donc V (Xt ) = V (²t )V (²t−1 ) = (σ 2 ) .
En revanche si ²t et ²t−1 sont décorrélés
¡ 2 2 ¢mais pas indépendants
un bruit blanc faible ² tel que E ²t ²t−1 dépend de t.
– Enfin pour ∀h ∈ Z et si ² est un bruit blanc fort

bruit blanc faible ² tel que X n’est pas stationnaire.


☞ Q4 X est une marche aléatoire. On a plus précisément
– On a E (Xt ) − E (X
Pt−1
t−1
) = 0 et donc ∀t ∈ Z, E (Xt ) = E (X0 ).
– Par ailleurs Xt = i=0 ²t−i + X0 ; Par conséquent

V (Xt ) = V
à t−1
X
²t−i + X0
!

t−1
X
i=0
1
on ne peut rien dire : il existe

Cov (Xt , Xt+h ) = E (²t ²t−1 ²t+h ²t+h−1 )

=
½ 2
σ² si h = 0
0 sinon

En revanche il existe un bruit blanc faible ² tel que Cov (Xt , Xt+h ) dépend de t. 2
Le processus X est donc stationnaire si ² est un bruit blanc fort, et il existe au moins un

V (²t−i ) + V (X0 ) car ²t − i


2

|=
= X0
i=0
|{z}
>0
2
= tσ + V (X0 )

En particulier V (X1 ) = σ 2 + V (X0 ) > V (X0 ) et donc X n’est pas stationnaire.


☞ Q5 Pour t ∈ Z on a
– E (Xt ) = 0
– V (Xt ) = σ 2
– Cov (Xt , Xt−h ) = 0 si h ≥ 2
– Par ailleurs

Cov (Xt , Xt−1 ) = σ 2 sin(ct) cos (c(t − 1))


σ2
= (sin (ct + c(t − 1)) + sin (ct − c(t − 1)))
2
σ2
= (sin(c(2t − 1)) + sin(c))
2
En particulier pour que X soit stationnaire il faut et il suffit que ut = ∀t ∈ Z, sin (c(2t − 1)) ne
dépende pas de t, donc en particulier que ∀t ∈ Z, ut = u1 ce qui s’écrit ∀t ∈ Z, sin (c(2t − 1)) =
1
³ Par exemple
´ X2t = 1 et X2t+1 = 21 δt + 12 δ−t la binômiale qui vaut −1 ou 1 de façon équiprobable. Alors E (Xt Xt+1 ) =
¡ 2 2 ¢ ¡ 2 ¢
E X2d 2t e+1 = 0 mais E X2t X2t+1 = 21 t2 + 21 (−t)2 = t2 et E X2t−1 X2t2
= 21 (t − 1)2 + 12 (−(t − 1))2 = (t − 1)2 qui
dépend de t à tout t ∈ Z. ¡ ¢ ¡ ¢
2
Reprenant le contre-exemple ci-dessus on a Cov (X2t+1 , X2t+2 ) = E ²2t ²22t+1 ²2t+2 = E ²22t+1 = (2t + 1)2 .

Version du 20050121-11h02, révisée le 17 février 2005 3


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
sin c soit

Xt =
0

= ²t +
=

i=0
sin(c) − sin((2t − 1)c)

= 2 sin
µ
1 − (2t − 1)
2

λi (²t−i − ²t−i−1 )

t
X

Donc E (Xt ) = 0 et par ailleurs

V (Xt ) = σ 2
Ã
¡ i
i=1
¢

c cos

= −2 sin((t + 1)c) cos(tc)


π
soit (t + 1)c ∈ πZ ou tc ∈ + πZ

Donc X est stationnaire ssi c ∈ π2 Z.


☞ Q6 – On a pour t ∈ Z
t
2

λ − λi−1 ²t−i − λt ²−1

1+
t
X ¡
µ
1 + (2t − 1)

λi − λ
2

Cela étant vrai pour tout t ∈ Z il faut et il suffit donc que c ∈ π2 Z.


c

¢

i−1 2
(“transformation d’Abel”)

+ λ2t
!
par indépendance
i=1
à t
!
X ¡ ¢
i−1 2
= σ2 1+ λ (λ − 1)2 + λ2t
i=1
à t−1
!
X ¡ 2 ¢i
= σ2 1 + (λ − 1) 2
λ + λ2t
i=0
µ 2t

2 2 −λ
1 2t
= σ 1 + (λ − 1) +λ
1 − λ2
µ ¶
2 (1 − λ) (1 − λ2t ) 2t
= σ 1+ +λ
1+λ
1 + λ2t+1
= 2σ 2
1+λ
En particulier pour que X soit stationnaire, il faut que λ = 1 ou λ = 0.
Réciproquement si λ = 1, alors ∀t ∈ Z, Xt = ²t − ²−1P et donc X est stationnaire.
2t+1 2σ 2 +∞ i
– Constatant que 2σ 2 1+λ
1+λ

− −−→ 1+λ
, on pose Y t = i=0 λ (²t−i − ²t−i−1 ) (qui existe car la
t→+∞
2
série est normalement convergente car |λ| < 1). On a par construction V (Yt ) = 2 1−λ
σ
.
P+∞ i−1
On a par ailleurs Yt = ²t + (λ − 1) i=1 λ ²t−i .

Version du 20050121-11h02, révisée le 17 février 2005 4


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
Par conséquent pour h ∈ N∗ on a

Cov (Yt , Yt+h ) = Cov 

= Cov 



= Cov  P
P
²t + (λ − 1) +∞

²t + (λ − 1) +∞
i=1 λ

i=1 λ

i=1 λ

 ²t+h + 1≤i≤h−1 λi−1 ²

= (λ − 1)λh−1 σ 2 + (λ − 1)2 λh

= − (1 − λ)2 λh−1 σ 2

et donc Y est bien stationnaire.


Autre méthode
i−1

P+∞ i−1
²t+h + (λ − 1) i=1 λ ²t+h−i
P
²t + (λ − 1) +∞ i−1

Ph−1 i−1

i−1
²t−i ,

²t−i ,

²t−i ,

t+h − i

= (λ − 1)λh−1 V (²t ) + (λ − 1)2 λh V


| {z }
≥1
à +∞
X
+

(λ − 1)λ

λi−1 ²t−i

1
1−λ
σ2
!
P+∞ i−1
²t+h + (λ − 1) i=1 λ ²t+h−i + (λ − 1) i=h λ ²t−(i−h)
P

h−1

i=1
² t + (λ − 1)λ h

P+∞ j−1
j=1 λ ²t− j
≥1



P+∞: i i ¡ P ¢
On a Y = i=0 λ L ( − L) ◦ ² = + +∞ i
i=0 (λ − λ
i−1
) Li ◦ ² et donc Y − ² est la transfor-
P+∞ i i−1
mée moyenne mobile
P i infinie du processus stationnaire ² avec les cœfficients i=0 (λ − λ ).
i−1
Comme la série i (λ − λ ) est absolument convergente, Y est stationnaire.
Enfin on a
à +∞
!
X
V (Yt − Xt ) = V (λ − 1) λi−1 ²t−i + λt ²t−1
i=t+1
+∞
X
= λt V (²t−1 ) + (λ − 1)2 λi−1 V (²t−i )
i=t+1
1
= λt σ 2 + (λ − 1)2 λt+1 σ 2
1−λ
−−−−→ 0
t→+∞

et comme
à +∞
!
X
E (Yt − Xt ) = E (λ − 1) λi−1 ²t−i + λt ²t−1
i=t+1
+∞
X
= (λ − 1) λi−1 E (²t−i ) + λt E (²t−1 )
| {z } | {z }
i=t+1 =0 =0
= 0

Version du 20050121-11h02, révisée le 17 février 2005 5


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
on a 3

0 sinon
(Xt − Yt ) −−−−→ (0)
L2
t→+∞

☞ Q7 Non en général : considérer par exemple Xt stationnaire d’espérance nulle, et Yt = (−1)t Xt :


alors E (Yt ) = 0 et Cov (Yt , Yt+h ) = (−1)t (−1)t+h Cov (Xt , Xt+h ) = (−1)h γX (h) donc Y est
stationnaire, et de plus
Xt + Y t =
½
2Xt si t est pair

et donc Cov (Xt + Yt , Xt+h + Yt+h ) = 4γX (h) t∈2Z h∈2Z qui dépend non-seulement de h mais
aussi de t.
En revanche la somme de deux processus (faiblement ou fortement) stationnaires non-corrélés
0
|=
est faiblement stationnaire : si ∀t, t , Xt Yt0 alors

naire.
Cov (Xt + Yt , Xt+h + Yt+h ) = Cov (Xt , Xt+h ) + Cov (Yt , Yt+h ) = γX (h) + γY (h)

La somme de deux processus fortement stationnaires et indépendants est fortement station-

? ?
?

Enoncé de l’exercice 2
On considère le processus défini par

∀t ∈ Z Xt = a + bt + st + ut

où a, b ∈ R, (st )t∈Z est un processus saisonnier (périodique) de période 4 et (ut )t∈Z est un bruit
blanc de variance σ 2 indépendant de s.
☞ Q1 Le modèle est-il correctement paramétré ? Proposer le cas échéant une contrainte naturelle (que
l’on supposera vérifiée par la suite) portant sur (st )t .
On définit l’opérateur
µ µ ¶¶
Zt + Zt−1 + Zt−2 + Zt−3
M4 : (Zt )t 7→
4 t

et on considère le processus Y = M4 X.
☞ Q2 Donner l’expression de Yt pour t ∈ Z, et justifier l’intérêt de la transformation.
¡ ¢ 2
3
La suite (Zn )n∈N converge vers Z dans L2 ssi kZn k2 −−−−−→ Z soit E Zn 2 −−−−−→ Z soit V (Zn )+E (Zn ) −−−−−→
n→+∞ n→+∞ n→+∞
Z soit V (Zn ) −−−−−→ Z et E (Zn ) −−−−−→ Z
n→+∞ n→+∞

Version du 20050121-11h02, révisée le 17 février 2005 6


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
☞ Q3 On définit alors Z = ∆Y .
Montrer que Z est stationnaire et calculer sa fonction d’auto-corrélation.

Corrigé de l’exercice 2
☞ Q1 Les composantes saisonnières ne sont pas identifiables : en effet les processus définis par a, b, (s t )t
et a + µ, b, (st − µ)t sont égaux pour tout µ ∈ R.
Il est néanmoins naturel de supposer que le processus saisonnier est “centré” sur une période :
i.e.

☞ Q2 On a pour t ∈ Z

Yt = a + b
∀t ∈ Z st + st+1 + st+2 + st+3 = 0
(le processus s étant de période 4 cette quantité ne dépend de tout façon pas de la date t).

t + (t − 1) + (t − 2) + (t − 3)

6
= (a − b) + bt +
4
4
M4 (s)t
| {z }
+ M4 (s)t + M4 (u)t

+ M4 (u)t
=0 par hypothèse
= µ + bt + vt

avec µ = a − 32 b indépendant de t et v = M4 (u) est stationnaire (c’est un Ma(3) mais pas un


bruit blanc). On a ainsi désaisonnalisé la série X et fait apparaı̂tre la tendance déterministe
µ + bt.
☞ Q3 On a immédiatement pour t ∈ Z
ut − ut−4
∆(Y )t = b + ∆(v)t = b +
4
Par conséquent
– E (Zt ) = b
2 +σ 2 σ2
– V (Zt ) = σ 16 = 8 ½
¡ ut −ut−4 ut−h −ut−h−4 ¢ − σ16
2
si h = ±4
– Cov (Zt , Zt−h ) = Cov 4
, 4
=
0 sinon 
 1 si h = 0
γZ (h)
En particulier le processus Z est stationnaire, d’auto-corrélation ρZ (h) = γ0 (h)
= − 12 si h = ±4 .

0 sinon

?
? ?

Version du 20050121-11h02, révisée le 17 février 2005 7


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
Enoncé de l’exercice 3
On considère le processus défini par ∀t ∈ Z Xt = ²t − θ²t−1 où (²t )t∈Z est un bruit blanc et
θ ∈] − 1, +1[.
☞ Q1 Montrer que X est stationnaire et calculer sa fonction d’auto-covariance.
☞ Q2 Soient φT , φT −1 , . . . , φ1 les coefficients de la régression
Ecrire les conditions d’orthogonalité entre XT +1 − X
En déduire que (φ1 , . . . , φT ) vérifie



³

(1 + θ2 ) φT − θφT −1
−θφk+1 + (1 + θ 2 ) φk − θφk−1
(1 + θ2 ) φ1 − θφ2
linéaire b
´ XT +1 de XT +1 sur (XT , XT −1 , . . . , X1 ).
bT +1 et < XT , . . . , X1 >.

= −θ
= 0 pour k ∈ J2, T − 1K
= −θ

☞ Q3 Déterminer (et si possible calculer) la fonction d’auto-corrélation partielle de X.

Corrigé de l’exercice 3
☞ Q1 On a successivement pour t ∈ Z
– E (Xt ) = E (²t ) − θE (²t−1 ) = 0
– V (Xt ) = V (²t ) + θ2 V (²t−1 ) = (1 + θ 2 ) σ²2 ½
−θσ²2 si h = ±1
– Cov (Xt , Xt−h ) = Cov (²t − θ²t−1 , ²t−h − θ²t−h−1 ) =
0 sinon
En particulier X est stationnaire.
bT +1 = PT φk Xk .
☞ Q2 On a par définition pour t ∈ Z X k=1
Alors pour k ∈ J1, T K
³³ ´ ´
b
Cov XT +1 − XT +1 , Xk = 0
T
X
soit Cov (XT +1 , Xk ) − φl Cov (Xl , Xk ) = 0
l=1
T
X
soit γX (T + 1 − k) − φl γX (k − l) = 0
l=1

ce qui s’écrit compte-tenu de l’expression de γX



 +φT −1 θσ²2 −φT (1 + θ2 ) σ²2 −θσ²2 =0 lorsque k = T
+φk−1 θσ² −φk (1 + θ ) σ² +φk+1 θσ²2
2 2 2
=0 lorsque k ∈ J2, T − 1K

−φ1 (1 + θ2 ) σ²2 +φ2 θσ²2 =0 lorsque k = 1

Version du 20050121-11h02, révisée le 17 février 2005 8


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
d’où (puisque σ²2 > 0)



(1 + θ2 ) φT − θφT −1
−θφk+1 + (1 + θ 2 ) φk − θφk−1
(1 + θ2 ) φ1 − θφ2

☞ Q3 Par définition le cœfficient d’auto-corrélation partielle d’ordre m est

sur < Xt−1 , . . . , Xt−m >.4 On a donc successivement :


– Calcul de r(1) :

– Calcul de r(2) :
r(1) = −
θ
= −θ lorsque k = T
= 0 pour k ∈ J2, T − 1K
= 0 lorsque k = 1

r(m) = Corr (Xt − E (Xt |Xt−1 , . . . , Xt−m ) , Xt−m − E (Xt−m |Xt−m , . . . , Xt−1 ))

(comme E (Xt ) = 0 il n’est pas nécessaire de régresser sur < 1, Xt−1 , . . . , Xt−m > mais seulement
sur < Xt−1 , . . . , Xt−m > ). Or il est aussi égal au cœfficient de Xt−m dans la régression de Xt

(1)
Projetant Xt sur < Xt−1 > on a E (Xt |Xt−1 ) = φ1 Xt−1 avec r(1) = φ1 .
(1)
Or d’après la question précédente on a (1 + θ 2 ) φ1 = −θ et donc

1 + θ2

(2)
Projetant Xt sur < Xt−1 , Xt−2 > on a E (Xt |Xt−1 , Xt−2 ) = φ1 Xt−1 + φ2 Xt−2 avec r(2) =
(2)
(1)

(2)

φ2 .
(1) (2)
Attention : il n’y a aucune raison pour que φ1 = φ1 . . .
On a alors (
(2) (2)
(1 + θ2 ) φ1 − θφ2 = −θ
(2) (2)
−θφ1 + (1 + θ 2 ) φ2 = 0
soit  ³ ´
 (1 − θ + θ 2 ) φ(2) (2)
+ φ2 = −θ
³1 ´
 (1 + θ + θ 2 ) φ1 − φ(2)
(2)
2 =0
ce dont on tire que µ ¶
(2) 1 θ θ
φ2 =− 2

2 1−θ+θ 1 + θ + θ2
soit
θ2
r(2) = −
1 + θ2 + θ4
Remarque : on constate par ailleurs que φ(2) (1)
θ+θ 3
1 = − 1+θ 2 +θ 4 6= φ1 .

4
Une preuve en est donnée dans “Séries temporelles et modèles dynamiques”, C. Gouriéroux et A. Monfort, V-D.2
page 161. Voir aussi exercice 4 .

Version du 20050121-11h02, révisée le 17 février 2005 9


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
– Calcul de r(T ) :






(T )
(1 + θ2 ) φT − θφT −1

ce dont on tire que par récurrence5 que

Enoncé de l’exercice 4
(T )

(T )
(T )
−θφk+1 + (1 + θ 2 ) φk − θφk−1
(1 + θ2 ) φ1 − θφ2
(T )

r(T ) = −

Soit (Xt )t∈Z un processus stationnaire du second ordre.


On note pour m ∈ N∗ et t ∈ Z
(T )

?
? ?
(T )

θT
(T )
Projetant Xt sur < Xt−1 , . . . , Xt−T > on a E (Xt |Xt−1 , . . . , Xt−T ) = φ1 Xt−1 + · · · + φ2 Xt−2
(T )
avec r(T ) = φT .

On a alors
= −θ lorsque k = T
= 0 pour k ∈ J2, T − 1K
= 0 lorsque k = 1

1 + θ2 + · · · + θ 2T
(T )

Xt∗+ = EL (Xt |1, Xt−1 , . . . , Xt−m+1 )


Xt∗− = EL (Xt−m |1, Xt−m+1 , . . . , Xt−1 )
¡ ¢
On note ρ(m) = Corr Xt − Xt∗+ , Xt−m − Xt∗− .
On note par ailleurs r(m) le cœfficient d’auto-corrélation partielle d’ordre m de X, et on cherche
à montrer que ρ(m) = r(m).
☞ Q1 On note pour t ∈ Z
Xt∗+ = a0 + a1 Xt−1 + · · · + am−1 Xt−m+1
Xt∗− = b0 + b1 Xt−m+1 + · · · + bm−1 Xt−1
(a) Montrer que (a1 , . . . , am−1 ) = (bm−1 , . . . , b1 ).
¡ ¢ ¡ ¢
(b) Montrer que V X¡t∗+ = V X¢t∗− . ¡ ¢
En déduire que V Xt − Xt∗+ = V Xt−m − Xt∗− .
☞ Q2 On note pour t ∈ Z
Xt = c0 + c1 Xt−1 + · · · + cm Xt−m + ut
où ut est orthogonal à < 1, Xt−1 , . . . , Xt−m > ; ainsi par définition r(m) = cm .
¡ ¢ ¡ ¢
(a) Montrer que Xt − Xt∗+ = cm Xt−m − Xt∗− + ut .
5
Calcul non-détaillé ici. En utilisant exercice 4 , identifier le cœfficient bl−1
k de XTl−1
−k dans la régression de
l−1 l−1
XT −l sur 1, XT −m+1 , . . . , XT −1 , au cœfficient al−k+1 de XT −l+k−1 dans la régression de XT sur 1, XT −1 , . . . , XT −m+1
...

Version du 20050121-11h02, révisée le 17 février 2005 10


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
Corrigé de l’exercice 4
¡¡ ¢¡ ¢¢ ¡ ¢
(b) En déduire que E Xt − Xt∗+ Xt−m − Xt∗− = cm V Xt−m − Xt∗− .
☞ Q3 En déduire que ρ(m) = r(m).

☞ Q1 (a) Remarque : bien-entendu comme X est stationnaire ρ(m) ne dépend pas de t et est donc bien
défini.
¡ ¢
– E Xt∗+ est la projection orthogonale de Xt sur le sous-espace vectoriel engendré par
(1, Xt−1 , . . . , Xt−m+1 ) pour le produit scalaire < X|Y >= E (XY ). Donc par définition
(Xt − Xt∗+ ) est orthogonal à h1, Xt−1 , . . . , Xt−m+1 i, donc en particulier (Xt − Xt∗+ ) (1)

|=
¡ ¢
ce qui s’écrit E¡ Xt −¢ Xt∗+ = 0.
De E (Xt ) = E Xt∗+ on tire alors que
E (Xt ) = a0 + a1 E (Xt−1 ) + · · · + am−1 E (Xt−m+1 )
et donc, (Xt )t étant stationnaire,
a0 = (1 − a1 − · · · − am−1 ) E (Xt )
¡ ¢
Par ailleurs par définition Xt∗+ on a ∀j ∈ J1, m − 1K, Xt − Xt∗+

|=
Xt−j . Autrement
dit pour j ∈ J1, m − 1K
¡¡ ¢ ¢
0 = E Xt − Xt∗+ · Xt−j
soit E (Xt Xt−j ) = a0 E (Xt ) + a1 E (Xt−1 Xt−j ) + · · · + am−1 E (Xt−m+1 Xt−j )
soit E (Xt Xt−j ) = (1 − a1 − · · · − am−1 ) E (Xt )E (Xt−j ) + a1 E (Xt−1 Xt−j ) + · · ·
+am−1 E (Xt−m+1 Xt−j )
= E (Xt )E (Xt−j ) + a1 (E (Xt−1 Xt−j ) − E (Xt−1 )E (Xt−j )) + · · ·
+am−1 (E (Xt−m+1 Xt−j ) − E (Xt−m+1 )E (Xt−j ))
soit γX (j) = a1 γX (j − 1) + · · · + am−1 γX (j − m + 1)
Autrement dit en notant
 
γX (0) γX (1) ··· γX (m − 2)
 γX (1) γX (0) ··· γX (m − 1) 
 
Γm−1 =  .. .. ... ..  = Cov (Xt−1 , . . . , Xt−m+1 )
 . . . 
γX (m − 2) γX (m − 3) ··· γX (0)
on a    
γX (1) a1
 ..   .. 
 .  = Γm−1  . 
γX (m − 1) am−1

Version du 20050121-11h02, révisée le 17 février 2005 11


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
– De façon similaire on a pour j ∈ J1, m − 1K

de sorte que
¡¡
0 = E Xt − Xt∗− · Xt−j

m−1
X 

i=1

λi 



¢

γX (m − 1)

γ X (i
¢

soit E (Xt Xt−j ) = b0 E (Xt ) + b1 E (Xt−m+1 Xt−j ) + · · · + bm−1 E (Xt−1 Xt−j )


soit E (Xt Xt−j ) = (1 − b1 − · · · − bm−1 ) E (Xt )E (Xt−j ) + b1 E (Xt−m+1 Xt−j ) + · · ·
+bm−1 E (Xt−1 Xt−j )
= E (Xt )E (Xt−j ) + b1 (E (Xt−m+1 Xt−j ) − E (Xt−m+1 )E (Xt−j )) + · · ·
+bm−1 (E (Xt−1 Xt−j ) − E (Xt−1 )E (Xt−j ))
soit γX (j) = b1 γX (j − m + 1) + · · · + bm−1 γX (j − 1)

γX (1)

..
.

..
.

γX (i − m + 1)
1)
bm−1
 . 
b1

 = Γm−1  .. 
 

– Or Γm−1 est inversible (sauf si le processus est presque-sûrement déterministe)6 : en effet


dans le cas contraire considérons λ1 , . . . , λm−1 non tous nuls et tels que
 
  .. 
= . 
0
0

Alors pour t ∈ Z
m−1
X
∀k ∈ J1, m − 1K, λi Cov (Xt−i , Xt−k ) = 0
i=1
Ãm−1 !
X
soit ∀k ∈ J1, m − 1K, Cov λi Xt−i , Xt−k = 0
i=1
m−1
Ãm−1 !
X X
donc λk Cov λi Xt−i , Xt−k = 0
k=1 i=1
Ãm−1 !
X
soit V λi Xt−i = 0
i=1
donc V (Xt−r |Xt−r−1 , . . . , Xt−m−1 ) = 0
où r est le numéro du premier λk non nul : ainsi le processus X est déterministe (condi-
tionnellement à m − r valeurs initiales) !
Par conséquent Γm−1 est inversible et
     
a1 γX (1) bm−1
 ..  −1  ..   .. 
 .  = (Γm−1 )  . = . 
am−1 γX (m − 1) b1
6
Auquel cas bien entendu tous les cœfficients de corrélation partielle r(m) sont nuls et l’exercice est trivial.

Version du 20050121-11h02, révisée le 17 février 2005 12


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net
(b) On a pour t ∈ Z
¡ ¢
V Xt∗+ = V (a1 Xt−1 + · · · + am−1 Xt−m+1 )

Par ailleurs
¡ ¢ ¡ ¢
¡
= V Xt∗−
¢

¡


= (a1 , . . . , am−1 ) V 



= (bm−1 , . . . , b1 ) V 



= (bm−1 , . . . , b1 ) V 
Xt−1

Xt−m+1
Xt−1
..
.
Xt−m+1
Xt−m+1

V Xt∗+ + V Xt − Xt∗+ = V (Xt ) car Xt − Xt∗+


..
Xt−1
.
..
.
 



= V (bm−1 Xt−m+1 + · · · + b1 Xt−1 )

¢
Xt∗+
a1
 .. 
  . 
am−1
bm−1
 .. 
 . 


b1
bm−1
 .. 

= V (Xt−m ) car X est stationnaire


¡ ¢ ¡ ¢
b1

¡

 .  car X stationnaire

= V Xt∗− + V Xt−m − Xt∗− car Xt−m − Xt−+


¢ |= Xt∗+

|=
Par conséquent
¡ ¢ ¡ ¢
V Xt − Xt∗+ = V Xt−m − Xt∗−

☞ Q2 (a) On a pour t ∈ Z
Xt∗+ = EL (Xt |1, Xt−1 , . . . , Xt−m+1 )
= (c0 + c1 Xt−1 + · · · + cm−1 Xt−m+1 ) + EL (cm Xt−m | 1, Xt−m+1 , . . . , Xt−1 )
+ EL (ut | 1, Xt−1 , . . . , Xt−m+1 )
= (c0 + c1 Xt−1 + · · · + cm−1 Xt−m+1 ) + cm Xt∗− + 0
Par conséquent
Xt − Xt∗+ = Xt − (c0 + c1 Xt−1 + · · · + cm−1 Xt−m+1 ) − cm Xt∗−
= (cm Xt−m + ut ) − cm Xt∗−
¡ ¢
= cm Xt−m − Xt∗− + ut
(b) On a
¡¡ ¢¡ ¢¢ ³ ¡ ¢2 ¡ ¢´
E Xt − Xt∗+ Xt−m − Xt∗− = E cm Xt−m − Xt∗− + cm ut Xt−m − Xt∗−
¡ ¢
Xt−m − Xt∗− .
|=

|=

Or ut < 1, Xt−1 , . . . , Xt−m+1 >, de sorte que ut


Donc

Version du 20050121-11h02, révisée le 17 février 2005 13


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 1

ensae.net=
¡¡

= q ¡
V Xt − Xt∗+

= ρ(m)
¡¡
E

¢¡

¢
¡¡

E Xt − Xt∗+ Xt−m − Xt∗−

¡¡
¡
V Xt−m − Xt∗−
¢ ¡
¢
Xt − Xt∗+

Cov Xt − Xt∗+ , Xt−m − Xt∗−


q ¡
¢¢

¢¢

V Xt−m − Xt∗−
¢ ¡
= Corr Xt − Xt∗+ , Xt−m − Xt∗−
¢
¢¢
¢¡

¡
Xt−m − Xt∗−

¢
¢
☞ Q3 A moins que le processus ne soit dégénéré on a V Xt−m − Xt∗− > 0 et donc

r(m) = cm par définition

¡
¢¢

car V Xt − Xt∗+ = V Xt−m − Xt∗−


¢
¡
= cm V Xt−m − Xt∗−

Autrement dit, le cœfficient d’auto-corrélation partielle d’ordre m est le cœfficient de X t−m dans
¢

la régression affine de Xt sur < 1, Xt−1 , . . . , Xt−m >, qui est aussi le cœfficient de corrélation
de Xt − Xt∗+ avec Xt−m − Xt∗− .

?
? ?

Version du 20050121-11h02, révisée le 17 février 2005 14


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

☞ Q1

☞ Q2

☞ Q3

☞ Q4
ensae.net
Travaux Dirigés n◦2
Enoncé de l’exercice 1
On considère un processus X vérifiant

où ² est un bruit blanc de variance σ²2 .


Soit Φ(X) = 1 − 27 X + 32 X2 .

Montrer qu’il existe (ak )k∈Z ∈ RZ telle que Y =

En déduire que ² n’est pas l’innovation de X.


7
2

¡P
3
∀t ∈ Z, Xt − Xt−1 + Xt−2 = ²t
2

Factoriser Φ et décomposer Φ(X)−1 en éléments simples.


Développer chaque élément simple en série entière de X ou de X1 selon les cas.
¢
k∈Z ak ²t−k t∈Z existe et vérifie (1).
Vérifier que ∀k < 0, ak 6= 0 et en déduire que ∀t ∈ Z, ∀k ≥ 1, Cov (²t , Yt−k ) 6= 0.

Soit Θ une série entière absolument convergente, et A un processus stationnaire quelconque.


Montrer que le processus B = Θ(L)A existe bien et est stationnaire.
2
Vérifier que ∀ω ∈ R, fB (ω) = |Θ (e+iω )| fA (ω), où fZ désigne la densité spectrale de Z.
Montrer qu’il existe un polynôme Φ∗ de degré 2, dont toutes les racines sont hors du cercle
unité, et un bruit blanc η tels que

∀t ∈ Z, Φ∗ (L)Yt = ηt
(1)

En déduire qu’il existe (bk )k∈N telle que


X
∀t ∈ Z, Yt = bk ηt−k
k∈N

et que η est l’innovation de Y .


☞ Q5 Montrer que la régression linéaire optimale de Yt sur son passé n’est pas 72 Yt−1 − 23 Yt−2 .

Corrigé de l’exercice 1
☞ Q1 On a Φ(X) = (1 − 3X)(1 − 12 X) ; on constate que 13 est racine de Φ et n’est pas hors du disque
unité. Remarque : Considérons E l’espace de tous les processus stationnaires ; il est métrisable (pour
L1 est un Banach
la distance V (· − ·)) et complet (l’algèbre des suites réelles¡P ¢ X 7→ λ · X , X, Y 7→
1
X + Y, , X, Y 7→ X × Y ) . En outre si a est dans L alors a X est stationnaire.
k∈Z k t−k t∈Z
µ ¶
E → E
L’opérateur L : est un morphisme (voir question 3), de norme triple
(Xt )t∈Z 7→ (Xt−1 )t∈Z
kLXk γX (0)
supX∈E kXk = supX∈E γX (0) = 1.

Version du 20050121-11h02, révisée le 17 février 2005 15


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Considérons alors F l’espace des morphismes
standard. Soit λ ∈ R et Θ(X)

Comme 1
2
< 1 on a

A l’inverse 3 > 1 et donc


P

Dans ce cas, comme k∈N λk Xk = 1−λX


F de (1 − λL).
On a en l’occurence
1
Φ(X)

1
P

=
1
k

5 1 − 3X

(1 − 3X)
=
k

=
de E dans E, muni à son tour de la
= k∈N λ X . Alors la série d’opérateurs de F


1

5

=
·

3 X− 1
µ ¶ µ ¶3

1
3
1
1
1 − 21 X

X 1
1 − 21 X k=0 2k

µ
Xk

1
+∞

¡ ¢
X 1 − 31 X1
Pstructure
k k
d’algèbre
k∈N λ L converge
dans F ssi la série réelle k∈N λk converge, puisque L est de norme 1, soit si |λ| < 1.
P P
on a : k∈N λk Lk = (1 − λL)−1 est l’opérateur inverse dans

1
(1 − 3X)(1 − 12 X)
6
·
1
µ ¶
+ −
1 1

µ ¶µ ¶X +∞ µ ¶k
1 1 1 1
= −
3 X k=0 3k X
+∞
X µ ¶k
1 1
= −
k=1
3k X

☞ Q2 – Définissons ½ 1
2k
si k ≥ 0
ak = 6 1
− 5 3k sinon
P
Alors par construction Φ(X)1
= k∈Z ak Xk .
P
Par
P conséquent l’opérateur Φ(L) est inversible et d’inverse Φ(L)−1 = Φ−1 (L) = k∈N ak Lk +
k
k∈N∗ a−k F , où
¡PF désigne ¢l’opérateur avance. −1
Soit donc Y = k∈Z ak ²t−k t∈Z ; par définition Y = Φ(L) ², c’est-à-dire Φ(L)Y = ².

P
– Par ailleurs pour t ∈ Z et k ≥ 1 on a Cov (²t , Yt−k ) = j∈Z aj t=t−k−j σ²2 = a−k σ²2 6= 0. Or si
¡ ¢
² était l’innovation de Y , alors ∀t ∈ Z, ²t = Yt − Yt∗+
|=

< 1, Y t − 1, . . . >.
Donc ² n’est pas l’innovation de Y .
☞ Q3 – A est stationnaire donc ∀t ∈ Z, ∀k ∈ Z, kak At+k k2 ≤ |ak |kAk2 = |ak |γA (0) + E (A0 )2
et comme la série Θ(X) est absolument convergente, la série Θ(L) ◦ A est normalement
convergente. P P
Enfin Cov (Bt , Bt−h ) = i,j∈Z ai aj Cov (At−i , At−h−j ) = i,j∈Z ai aj γA (h − i − j) ne dépend
pas de t ∈ Z.

Version du 20050121-11h02, révisée le 17 février 2005 16


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
– Soit λ ∈ C, et montrons tout d’abord que ∀ω ∈ R, f(
tout d’abord pour h ∈ Z 7

γ( −λL)A (h)

Donc pour ω ∈ R

f(
= Cov (At − λAt−1 , At−h − λAt−h−1 )

−λL)A (ω) =

=
¢
= 1 + |λ|2 γA (h) − λγA (h − 1) − λγA (h + 1)

1 X
2π h∈Z
1 X ¡¡
2π h∈Z


¯
1 X ¡¡
2π h∈Z
1 ¡
γ( −λL)A (h)eiωh

¢
−λL)A (ω)

= Cov (At , At−h ) − λCov (At , At−h−1 ) − λCov (At−1 , At−h ) + λλCov (At−1 , At−h−1 )
¡

¢
1 + |λ|2 γA (h) − λγA (h − 1) − λγA (h + 1) eiωh

¯
¢¡
¢

1 − λeiω 1 − λe−iω

¯1 − λeiω ¯2 γA (h)
¢X
h∈Z
¢
1 + |λ|2 − λeiω − λe−iω γA (h)eiωh

γA (h)eiωh

Par suite, pour tout polynôme P ∈ C[X], P est scindé et s’écrit P (X) = (1 − λ 1 X) · · · (1 − λn X),
donc
2
= |1 − λeiω | fA (ω). On a

¯ ¯2
fP (L)A (ω) = ¯1 − λ1 eiω ¯ f(1−λ2 X)···(1−λn X)A (ω)
¯ ¯2 ¯ ¯2
= ¯1 − λ1 eiω ¯ · · · ¯1 − λn eiω ¯ fA (ω)
¯ ¡ ¢¯2
= ¯P eiω ¯ fA (ω)
P (X)
Pour toute fraction rationnelle F = Q(X)
∈ C(X), on a
¯ ¡ iω ¢¯2
¯Q e ¯ fF (L)A (ω) = fQ(L)F (L)A (ω)
= fP (L)A
¯ ¡ ¢¯2
= ¯P eiω ¯ fA (ω)
2
et donc fF (L)A = |F (eiωP
)| fA (ω).
k∈Z ak X
k
Soit enfin Θ(X) = une série absolument convergente ; notons φN (X) =
P iω 2
|k|≥N ak X . Alors ∀N ∈ N, fΘN (L)A (ω) = |ΘN (e )| fA (ω). Or Θ est absolement conver-
k

2 2
gente, donc |ΘN (eiω )| admet une limite finie lorsque N → +∞, à savoir |Θ (eiω )| . Donc
fΘN (L)A (ω) admet une limite lorsque N → +∞, et on a

2
fΘ(L)A (ω) = |Θ (eiω )| fA (ω)

7
Attention : Cov (·, ·) est une forme hermitienne sur les variables aléatoires complexes, i.e.
∀µ ∈ C, Cov (X, µY ) = µCov (X, Y ) et pas µCov (X, Y ).

Version du 20050121-11h02, révisée le 17 février 2005 17


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Autre méthode

et donc

fΘ(L)A (ω) =

=
P:
Soit Θ(X) = k∈Z ak Xk une série absolument convergente. Alors

1 X
2π h∈Z

1 X
γΘ(L)A (h) = Cov

2π j,l∈Z

1 X
2π j,l∈Z
Ã
1 X
2π j∈Z
¯
Ã

aj al
X

j,l∈Z

aj al
Ã

Ã
X

m∈Z

aj eiωj
¯2

X

h∈Z
Ã
X

γA (m)e

l∈Z
=
aj At−j ,
X

j,l∈Z

iω(m−i+j)

al e−iωl

X
X

m∈Z
al At−h−l
j∈Z

aj al γA (h + l − j) eiωh

γA (h + l − j)eiωh
!

γA (m)eiωm
!

aj al γA (h + l − j)

!
!
l∈Z

car les séries sont absolument sommables

idem

¯X ¯
¯ ¯
= ¯ aj eiωj ¯ fA (ω)
¯ ¯
j∈Z
¯ ¡ ¢¯2
= ¯Θ eiω ¯ fA (ω)

☞ Q4 Soit donc Θ une série absolument convergente, et considérons le processus Z = Θ(L)Y . Alors
¯ ¡ ¢¯2
fZ (ω) = ¯Θ eiω ¯ fY (ω)
¯ ¡ ¢¯2
= ¯Θ eiω ¯ fΦ(L)−1 ² (ω)
¯ ¯
¯ Θ (eiω ) ¯2
= ¯¯ ¯ f² (ω)
Φ (eiω ) ¯

1
P σ2
Or si η est un bruit blanc de variance σRη2 , alors fη (ω) = 2π k∈Z γη (h)e

= 2πη . Et comme
1
pour tout processus A on a γA (h) = 2π f (ω)e−iω dω, la réciproque est également vraie
[0,2π] A
(un processus est un bruit blanc ssi sa densité spectrale est constante).
¯ ¯
¯ Θ(eiω ) ¯
En particulier, si Θ est tel que ¯¯ Φ(eiω ) ¯¯ est indépendante de ω, alors Z est un bruit blanc.
¡ ¢¡ ¢
C’est pourquoi on considère Φ∗ (X) = 1 − 31 X 1 − 21 X : Φ∗ a toutes ses racines hors du cercle

Version du 20050121-11h02, révisée le 17 février 2005 18


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
unité par construction, et en outre en notant η = Φ∗ (L)Y on a

Ainsi
fη (ω) = ¯¯

= ¯¯
¯

¯
3

=
¯ ¯

¯
¯
¯ Θ (eiω ) ¯2 σ 2

¯
¯
Φ (eiω ) ¯ 2π

¯ 1 iω ¯2 σ 2
¯
= ¯ e ¯¯
3

η est un bruit blanc de variance



¯
¯ 1 − 31 eiω ¯2 σ 2
¯
1 − 3eiω ¯ 2π

1 σ2
9 2π
¯
¯ 1 iω ¯2 ¯ 3e−iω − 1 ¯2 σ 2
= ¯¯ e ¯¯ ¯¯ ¯
1 − 3eiω ¯ 2π

σ²2
9
tel que Φ∗ (L)Y = η

Φ∗ ayant toutes ses racines de module strictement supérieur à 1 il admet un développement en


série entière à indices positifs uniquement, à savoir
1 1 1
= (−2) + 3
Φ∗ (X) 1 − 3X
1
1 − 21 X
+∞
X X+∞
1 k 1 k
= −2 k
X +3 X
k=0
3 k=0
2k

Posons donc pour k ∈ N


bk = 3 · 2−k − 2 · 3−k
P
Alors par construction ∀t ∈ Z, Y = Φ∗ −1 (L)η = k∈N bk ηt−k .
En particulier, η est l’innovation de Y .
☞ Q5 Par définition de l’innovation on a pour tout t ∈ Z, ηt = Yt − EL (Yt |Yt−1 , . . .). Donc
EL (Yt |Yt−1 , . . .) = Yt − ηt
= ((1 − Φ∗ (L)) Y )t
5 1
= Yt−1 − Yt−2
6 6
7 3
6= Yt−1 − Yt−2 en général
2 2

?
? ?

Version du 20050121-11h02, révisée le 17 février 2005 19


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Enoncé de l’exercice 2
On considère un processus stationnaire du second ordre X vérifiant

où ² est un bruit blanc de variance σ²2 .


∀t ∈ Z, Xt = 2Xt−1 + ²t

On suppose que l’observation de X est imprécise et qu’on n’observe que Y = X + η, où η est
un bruit blanc décorrélé de ² et de variance ση2 = ρσ²2 , ρ > 0.
☞ Q1 Montrer que ² + ( − 2L)η est un processus Ma(1).

☞ Q2 Montrer Y est un processus Arma(1,1), et donner sa représentation canonique.


☞ Q3 Montrer qu’il existe une série absolument convergente

où e désigne l’innovation de Y .


∀t ∈ Z, Yt = et +

Justifier l’intérêt d’une telle représentation.


X
¡P
k∈N

ak Yt−k
a k
¢
telle que

k∈N∗

Corrigé de l’exercice 2
☞ Q1 Soit V = ² + ( − 2L)η.
On a pour t ∈ Z E (V ) = 0 et de plus

Cov (Vt , Vt−h ) = Cov (²t + ηt − 2ηt−1 , ²t−h + ηt−h − 2ηt−h−1 )



 (1 + 5ρ)σ²2 si h = 0
= −2ρσ²2 si h = ±1

0 sinon

Ainsi V est stationnaire et sa fonction d’auto-corrélation est celle d’un processus Ma(1).
Soit alors θ ∈ R et µ un bruit blanc de variance σµ2 , et notons W = ( − θL)µ.
Cherchons θ et σµ2 tels que γW = γV .
 (1 + θ2 ) σµ2 si h = 0
On a γW (h) = −θσµ2 si h = ±1 .

0 sinon
Fixons donc  r

 1+5ρ

2
(1+ 2ρ5 ) −1
 θ= 2ρ
2
2σ²2

 σ2 =
 µ
r
2
1+ρ

− (1+ 2ρ5 ) −1

Version du 20050121-11h02, révisée le 17 février 2005 20


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Alors8 par construction

soit

et donc γV = γW .
½
½
θ2 − 1+5ρ
2

1
θ+1=0
et σµ = θ2 −2θ+1 σ²2

(1 + θ2 ) σµ2 = (1 + 5ρ)σ²2
−θσµ2 = −2ρσ²2

En particulier, comme le polynôme Ma d’un processus Ma se déduit de ses auto-corrélations


par les équations de Yule-Walker, V et W suivent le même processus Ma : V suit donc le
processus Ma de polynôme (1 − θX). 9
Définissons donc ν = ( − θL)−1 V ; alors par construction ν est un bruit blanc de variance
σν2 = σµ2 .
Ainsi V vérifie
V = ( − θL)ν
où ν est un bruit blanc de variance σν2 =

et donc Y suit un Arma(1,1) (car θ 6= 2).


1
σ2.
θ 2 −2θ+1 ²
☞ Q2 On a ² = ( − 2L)X et donc V = ( − 2L) ◦ (X + η) = ( − 2L)Y . Autrement dit

( − 2L)Y = ( − θL)µ

Cependant le polynôme Φ(X) = 1 − 2X admet 21 pour racine qui n’est pas hors du cercle unité :
cette représentation n’est donc pas canonique.
De la même façon que dans exercice 1 on définit Φ∗ (X) = (1 − 21 X).
−1
Notons ξ = ( − θL)Φ∗ (L)µ ; alors ξ est un bruit blanc de variance
¯ ∗ iω ¯2 ¯ ¯
¯ Φ (e ) ¯ 2 ¯ 1 − 21 eiω ¯2 2 1 2
¯ ¯ σµ = ¯ ¯
¯ Φ (eiω ) ¯ ¯ 1 − 2eiω ¯ σµ = 4 σµ

Ainsi Y suit l’Arma(1,1) sous forme canonique

( − 21 L)Y = ( − θL)ξ, où ξ est un bruit blanc de variance 14 σµ2

☞ Q3 D’après le résultat précédent l’innovation du processus Y est ξ. Par ailleurs la fraction rationnelle
q q
2 2
8
1+5ρ
2ρ − (1+ 2ρ
5
) −1 (1+ 2ρ
1+5ρ
5
) −1
2ρ +
Le choix de 2 plutôt que 2 permet de garantir que |θ| < 1.
9
En toute rigueur, il faudrait préalablement montrer que si un processus X stationnaire a son auto-corrélation nulle à
partir du rang q, alors il suit un processus Ma d’ordre au plus q. Pour ce faire, il faut définir le polynôme moyenne-mobile
∆ issu des équations de Yule-Walker, puis vérifier que f∆(L)−1 ◦X (ω) est constante, ce qui garantit que ∆(L)−1 ◦ X est
bien un bruit blanc. Voir aussi TD 3, exercice 1

Version du 20050121-11h02, révisée le 17 février 2005 21


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
1
1−θX

ξ = ( − θL)

=
õ

¡
µ
− θ−

¢
1
−1

− L ×
2
µ
1
est développable en série entière et on a 1−θX

¶ ÃX


1
P
= k∈N θk Xk de sorte que

− L Y
2

k∈N
θ k Lk

1 X k−1 k
2 k≥1
θ L ◦Y
!!

!
◦Y

P
et donc en définissant pour k ≥ 1 ak = θ − 12 θk−1 on a ∀t ∈ Z, ξt = Yt − k≥1 ak Yt−k et donc

∀t ∈ Z, Yt = ξt +

P
P
k≥1 ak Yt−k

En d’autres termes on a pour tout t ∈ Z EL (Yt |Yt−1 , . . .) = k≥1 ak Yt−k . Cette représentation
permet de prédire en moyenne sans erreur la prochaine valeur de Y compte-tenu de l’observation
de son passé. En outre, la série étant géométrique le nombre de termes nécessaires pour atteindre
une précision δ donnée ne croı̂t que logarithmiquement avec cette précision (et bien-sûr avec
γY (0)).10

?
? ?

Enoncé de l’exercice 3
Etant donné un processus stationnaire X, si ρX (1) est elevée alors Xt est “assez” correlé avec
Xt−1 et Xt−1 avec Xt−2 ; par conséquent il semble naturel que Xt soit “relativement” corrélé
avec Xt−2 , c’est-à-dire que ρX (2) ne soit “pas trop” faible.
L’objet de cet exercice est de déterminer précisément le domaine de (ρX (1), ρX (2)). On définit
à cet effet
R = {(x, y) ∈ [−1, 1]2 / y ≥ 2x2 − 1}
☞ Q1 Soit X un processus stationnaire quelconque (du second ordre).
Montrer que (ρX (1), ρX (2)) ∈ R.
☞ Q2 On se donne réciproquement (ρ1 , ρ2 ) ∈ R et on cherche X stationnaire tel que (ρX (1), ρX (2)) =
(ρ1 , ρ2 ).
On considère pour cela le processus X défini par

∀t ∈ Z, Xt = φ1 Xt−1 + φ2 Xt−2 + ²t

où (²t )t∈Z est un bruit blanc de variance σ²2 .


10
PN
Attention, l’erreur systématique due à la troncature de la série réelle k=1 n’a rien à voir avec l’intervalle de
confiance de cette prévision, qui donne un domaine raisonnable pour réalisation de Y t+1 fondé sur la série complète.

Version du 20050121-11h02, révisée le 17 février 2005 22


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
(a) On note Φ(X) = 1 − φ1 X − φ2 X2 .
Donner une condition nécessaire et suffisante sur (φ1 , φ2 ) pour que X soit stationnaire.
(b) On note P l’ensemble des (φ1 , φ2 ) tel que les racines de Φ sont hors du disque unité ;
déterminer P . Que peut-on dire de ² si (φ1 , φ2 ) ∈ P ?
(c) Calculer (ρX (1), ρX (2)), et en déduire l’expression de (φ1 , φ2 ) en fonction de (ρX (1), ρX (2)).

(d) Conclure.

Corrigé de l’exercice 3

Notons Γm (X) = Cov 





X
 Xt−1 

..
.
Xt−m
³
☞ Q1 On a bien-sûr ∀m ∈ N, ρX (m)2 = Cov(X



t ,Xt−m )
V(Xt )
´2 ³

 pour m ∈ N∗ .

≤ V(Xt )V(Xt−m )
V(Xt )V(Xt−m )
´2
=1

Alors pour tout m ∈ N Γm (X) est positive (c’est un produit scalaire) ; en particulier |Γm | ≥ 0,

ce qui s’écrit lorsque m = 2


¯ ¯
¯ γX (0) γX (1) γX (2) ¯
¯ ¯
|Γ2 (X)| = ¯¯ γX (1) γX (0) γX (1) ¯¯
¯ γX (2) γX (1) γX (0) ¯
= γX (0)3 + 2γX (2)γX (1)2 − γX (0)γX (2)2 − 2γX (0)γX (1)2
¡ ¢
= γX (0)3 (1 − ρX (2)) 1 + ρX (2) − 2ρX (1)2
≥ 0
Si γ (0) = 0, le processus est (presque sûrement) déterministe et par Cauchy-Schwartz γ X (1) ≤
p X 2
γX (0) = 0 ; ainsi dans tous les cas (1 − ρX (2)) (1 + ρX (2) − 2ρX (1)2 ) ≥ 0.
Supposons alors par l’absurde que (1 + ρX (2) − 2ρX (1)2 ) < 0 ; alors |ρX (2)| ≥ 1, et donc
ρX (2) = 1. Mais alors 1 + 1 − 2ρX (1)2 < 0, soit ρX (1)2 > 1 !
Par suite

1 + ρX (2) − 2ρX (1)2 ≥ 0

Remarque : (ρX (m))m∈N est donc soumise à une infinité de contraintes (polynomiales) ; voir aussi
“Séries temporelles et modèles dynamiques”, C. Gouriéroux et A. Monfort, 5.2 p 155.
On notera en particulier que pour que ρX (2) = 0 il faut que |ρX (1)| ≤ √12 .

Version du 20050121-11h02, révisée le 17 février 2005 23


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
☞ Q2 (a) Pour que X soit stationnaire, il faut et il suffit qu’aucune racine de Φ ne soit unitaire.
Or les racines de Φ sont ω =

±

x = i −x si x < 0.

(b) On a
2
¡ 2

¢ 2

−φ1 − φ21 +4φ2
2φ2

q
⇔ φ21 + 2φ2 − 2φ22 6= ±φ1 φ21 + 4φ2
q
⇔ φ1 + φ1 + 4φ2 − 4φ2 6= ±2φ1 φ21 + 4φ2
+
et ω =

– Si φ21 + 4φ2 < 0 : en particulier φ2 < 0 et de plus

|ω ± | > 1 ⇔ ¯
¯

¯ 2φ1
1
¡

−φ1 + φ21 +4φ2
2φ2

⇔ φ41 + 4φ22 + 4φ42 + 4φ21 φ2 − 4φ21 φ22 − 8φ32 6= φ21 φ21 + 4φ2
⇔ φ22 + φ42 − φ21 φ22 − 2φ32 6= 0

2 ¯
¯
¯ −φ ± ip− (φ2 + 4φ ) ¯2
¯ 1
¯ >1
¯
, avec la convention

Si les racines sont complexes conjuguées z et z, alors |z|2 = |z|2 = zz = − φ12 . Donc si
φ21 + 4φ2 < 0 une condition nécessaire et suffisante est que φ2 6= −1. Sinon, les deux
racines sont réelles et alors

|ω | 6= 1 ⇔
µ q ¶2
−φ1 ± φ1 + 4φ2 6= 4φ22
2

⇔ (φ2 6= 0 ou φ1 6= ±1) et φ22 − φ21 − 2φ2 + 1 6= 0 (car φ2 = 0 ⇔ Φ(X) = 1 − φ1 X)

φ21 − (φ21 + 4φ2 )


⇔ >1
4φ22
1
⇔ − >1
φ2
⇔ −1 < φ2 < 0
– Si φ21 + 4φ2 = 0 :
Si φ1 = 0 alors φ2 = 0, et inversement si φ2 = 0 alors φ1 = 1 ; dans ce cas X = ².11
Sinon ω − = ω + et on a
¯ ¯
¯ −φ1 ¯2
|ω | > 1 ⇔ ¯¯
± ¯ >1
2φ2 ¯
1
⇔ |φ2 | < |φ1 |
¯µ ¶2¯
¯ φ 2¯ 1
¯ 1 ¯
⇔ ¯ ¯ < |φ |
¯ 2 ¯ 2 1
¯ ¯2 ¯ ¯
¯ φ1 ¯ ¯ ¯
⇔ ¯ ¯ < ¯ φ1 ¯
¯2¯ ¯2¯
¯ ¯
¯ φ1 ¯
⇔ 0 < ¯¯ ¯¯ < 1
2
11
Ce cas dégénéré est exclu par la suite : ρX (1) = ρX (2) = 0 et X ne convient pas sauf bien-sûr si ρ1 = ρ2 = 0.

Version du 20050121-11h02, révisée le 17 février 2005 24


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Ainsi dans tous les cas |ω ± | > 1 ⇔ |φ1 | ≤ 1.
– Si φ21 + 4φ2 > 0 : Si φ2 = 0, φ1 6= 0 et ω − = ω + =
Sinon, ω − < ω + , et donc

|ω ± | > 1 ⇔



ω + < −1 ou ω − > +1
p

½
φ21 + 4φ2 − φ1
2φ2

Si φ2 < 0 :

de module supérieur à un est :


°
°
°
p
< −1 ou

φ21 + 4φ2
° ou φ21 + 4φ2
°
p
−φ1 − φ21 + 4φ2
2φ2

φ21 + 4φ2 > φ1 − 2φ2 ou


p
>1
1
φ1
,

Si φ2 > 0 : pφ21 + 4φ2 < φ1 − 2φ2 ou pφ21 + 4φ2 < −φ1 − 2φ2
donc |ω ± | > 1 ⇔ 0 < |φ1 | < 1.

φ21 + 4φ2 > −φ1 − 2φ2

Si φ2 > 0 : φ21 + 4φ2 < (φ1 − 2φ2 )2 ou φ21 + 4φ2 < (φ1 + 2φ2 )2
Si φ2 < 0 : φ21 + 4φ2 > (φ1 − 2φ2 )2 ou φ21 + 4φ2 > (φ1 + 2φ2 )2

φ2 − φ1 > 1 ou φ2 + φ1 > 1
φ2 − |φ1 | > 1

Conclusion : une condition nécessaire et suffisante pour que les racines de Φ soient toutes

<0
=0
et −1 < φ2 < 0
et |φ1 | < 1
° ou φ21 + 4φ2 >0 et φ2 < 1 − |φ1 |

Bien entendu lorsque cette condition est vérifiée le processus X est décrit sous forme Ma
canonique et donc ² est l’innovation de X.
(c) X étant supposée stationnaire et sous forme canonique, on a

γX (1) = Cov (φ1 Xt−1 + φ2 Xt−2 + ²t , Xt−1 )


= φ1 V (Xt−1 ) + φ2 Cov (Xt−2 , Xt−1 ) car ²t
|=

Xt−1 , . . .
= φ1 γX (0) + φ2 γX (1)

et donc

φ1
ρX (1) = 1−φ2

Par ailleurs

γX (2) = Cov (φ1 Xt−1 + φ2 Xt−2 + ²t , Xt−2 )


= φ1 Cov (Xt−1 , Xt−2 ) + φ2 V (Xt−2 ) car ²t
|=

Xt−1 , . . .
= φ1 γX (1) + φ2 γX (0)

et donc ρX (2) = φρX (1) + φ2 i.e.

Version du 20050121-11h02, révisée le 17 février 2005 25


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
soit

soit

(d) Soit
½
ρX (1) =

(
=
ρX (2) =

φ1
1−φ2
ρX (2) = φ1 ρX (1) + φ2

½
φ1 ρX (1) (1 − φ2 )
φ21
1−φ1

ρX (2) = ρX (1)2 (1 − φ2 ) + φ2

φ1
φ2

(
φ1
=
=

=
+ φ2

Remarque : d’une façon plus générale le développement de Cov (Φ(L)Xt , ²t ) assure que pour
m ≥ d = d◦ Φ, ρX (m) suit la récurrence linéaire de polynôme caractéristique Φ. En particulier il
existe des cœfficients λ1 , . . . , λd tels que ∀m, ρX (m) = λ1 ω1m + · · · + λd ωdm .

Exprimons alors (φ1 , φ2 ) en fonction de (ρX (1), ρX (2)) : on a

ρX (1)(1−ρX (2))
1−ρX (1)2
ρX (2)−ρX (1)2
1−ρX (1)2

ρ1 (1−ρ2 )
1−ρ1 2
ρ2 −ρ1 2
φ2 = 1−ρ1 2

et définissons le processus X par ∀t ∈ Z, Xt = φ1 Xt−1 + φ2 Xt−2 + ηt où η est un bruit


blanc.
Or (ρ1 , ρ2 ) ∈ R, et donc12 (φ1 , φ2 ) ∈ P , de sorte que X est stationnaire et sous forme
canonique. Par conséquent, (ρX (1), ρX (2)) = (ρ1 , ρ2 ).

?
? ?

Enoncé de l’exercice 4
On considère un processus X stationnaire du second ordre, et on note pour k ∈ N
 
Xt−1
 
Γk = Cov  ... 
Xt−k

☞ Q1 Justifier que Γk est indépendante de t ∈ Z et qu’elle est positive.


Que dire de X si |Γk | = 0 ?
12
Calcul non développé ici . . .

Version du 20050121-11h02, révisée le 17 février 2005 26


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
On se donne désormais k ∈ N et on supposera que |Γk | > 0.
☞ Q2 Calculer les cœfficients a1 , . . . , ak de la régression de Xt∗ = EL (Xt |1, Xt−1 , . . . , Xt−k ) sur <
1, Xt−1 , . . . , Xt−k >.
☞ Q3 Calculer σk2 , la variance de l’erreur de prévision Xt − Xt∗ .
☞ Q4 (a) Montrer que |Γk+1 | = σk2 |Γk |.
(b) Montrer que (σl2 )l∈N∗ est décroissante.
En déduire qu’elle admet une limite finie lorsque l → +∞, et que cette limite est σ∞
V (Xt − EL (Xt |1, Xt−1 , . . .)) la variance de l’innovation du processus X.
(c) Montrer que 1l log |Γl | −−−−→ log σ∞
l→+∞
2
.
☞ Q5 Application : on considère un processus du second ordre X vérifiant X = (1 − θL)² pour
θ ∈] − 1, 1[, où ² est un bruit blanc de variance σ²2 .
(a) Montrer que X est stationnaire et calculer γX .
(b) Calculer |Γk |.
(c) Vérifier que ² est l’innovation de X et que k1 log |Γk | −−−−→ log σ²2 .
k→+∞
2
=

Corrigé de l’exercice 4
☞ Q1 On a pour k ∈ N et t ∈ Z
 
V (Xt−1 ) Cov (Xt , Xt−1 ) ··· Cov (Xt , Xt−k )
 Cov (Xt−2 , Xt−1 ) V (Xt−1 ) ··· Cov (Xt−1 , Xt−k ) 
 
Γk =  .. ... .. 
 . . 
Cov (Xt−k , Xt−1 ) Cov (Xt−k , Xt−1 ) · · · V (Xt−k )
 
γX (0) γX (1) ··· γX (k − 1)
 γX (1) γX (0) ··· γX (k − 2) 
 
=  .. ... .. 
 . . 
γX (k − 1) γX (k − 2) ··· γX (0)

En particulier Γk ne dépend pas de t et est symétrique réelle à diagonale positive, donc positive.
Par ailleurs, si k est tel que |Γk | = 0, alors comme il est montré dans TD 1, exercice 4
conditionnellement à un nombre fini de réalisations X1 , . . . , Xr le processus X est presque-
sûrement déterministe.
☞ Q2 Notons Xt∗ = a0 +a1 Xt−1 +· · ·+am−1 Xt−m+1 ; on en tire tout d’abord comme X est stationnaire
que a0 = E (Xt ) (1 − a1 − · · · − ak ). Par ailleurs Xt∗ est caractérisé par13
(Xt − Xt∗ ) 1 et ∀j ∈ J1, kK, (Xt − Xt∗ )
|=

|=

Xj
13
Voir aussi TD 1, exercice 4 .

Version du 20050121-11h02, révisée le 17 février 2005 27


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
ce qui s’écrit pour j ∈ J1, kK

et donc en définitive

☞ Q3 On a
¡¡

a1
 .. 
 . 
ak
¢
0 = E Xt − Xt∗+ · Xt−j

+am−1 E (Xt−m+1 Xt−j )

=
¢

soit E (Xt Xt−j ) = a0 E (Xt ) + a1 E (Xt−1 Xt−j ) + · · · + am−1 E (Xt−m+1 Xt−j )


soit E (Xt Xt−j ) = (1 − a1 − · · · − am−1 ) E (Xt )E (Xt−j ) + a1 E (Xt−1 Xt−j ) + · · ·

= E (Xt )E (Xt−j ) + a1 (E (Xt−1 Xt−j ) − E (Xt−1 )E (Xt−j )) + · · ·


+am−1 (E (Xt−m+1 Xt−j ) − E (Xt−m+1 )E (Xt−j ))
soit γX (j) = a1 γX (j − 1) + · · · + am−1 γX (j − m + 1)

 a0  = E (Xt ) (1 − 

Xt−1


−1
(Γk ) × 
a1 − · · · −


γX (1)
..
.
ak )



γX (k)

 
Xt − Xt∗ = Xt − a0 − (a1 , . . . , ak ) ×  ... 
Xt−k
 
Xt−1
 
= Xt − (E (Xt ) − a1 E (Xt−1 ) − · · · − ak E (Xt−k )) − (a1 , . . . , ak ) ×  ... 
Xt−k
 
Xt−1 − E (Xt−1 )
 .. 
= (Xt − E (Xt )) − (a1 , . . . , ak ) ×  . 
Xt−k − E (Xt−k )
 
³ 0 ´−1 Xt−1 − E (Xt−1 )
 .. 
= (Xt − E (Xt )) − (γX (1), . . . , γX (k)) × Γk × . 
Xt−k − E (Xt − k)

Version du 20050121-11h02, révisée le 17 février 2005 28


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Or E (Xt ) = E (Xt∗ ) et Γk est symétrique, donc

=

























































+
¡
V (Xt − Xt∗ ) = E (Xt − Xt∗ )2




























¡
E (X

|
¢

 t − E (Xt ))

(γ

× (Γk )−1 

V (Xt )

2E (Xt − E (Xt )) · (γX (1), . . . , γX (k)) × (Γk )−1 × 

X (1), . . . , γX (k)) (Γk )



γ X (1)
..
.
γX (k)



−1

× E (Xt−1 − E (Xt−1 ), . . . , Xt−k − E (Xt−k )) × 



{z
Γ k

− 2 (γX (1), . . . , γX (k)) × (Γk )−1 × E (Xt − E (Xt )) · 







Xt−1 − E (Xt−1 )
..
.
Xt−k − E (Xt − k)

Xt−1 − E (Xt−1 )
..
.
Xt−k − E (Xt−k )

Xt−1 − E (Xt−1 )
..
.











}

 Xt−k − E (Xt − k)
= | {z }

 (γX (1),...,γX (k))
0

  

 γ (1)

 X

 −1  .. 

 + (γX (1), . . . , γX (k)) (Γk )  . 

 γX (k)
 
γX (1)
 .. 
= V (Xt ) − (γX (1), . . . , γX (k)) (Γk )−1  . 
γX (k)

☞ Q4 (a) On a  
γX (0) γX (1) · · · γX (k)
 
 
 γX (1) 
Γk+1 = 
 .. 
 . Γk 
γX (k)
puisque Γk de dépend pas de la date t considérée.
Soit alors (λ1 , . . . , λk ) ∈ Rk et considérons A(λ) = Γk+1 − λ1 C2 − · · · − λk Ck+1 où Ci+1 =

Version du 20050121-11h02, révisée le 17 février 2005 29


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net







γX (i)
γX (i − 1)
γX (i − 2)
..
.
γX (i − k)







 est la i-ième colonne de Γk+1 .

Alors |A(λ)| = |Γk+1 |.


Or la première colonne CA de A(λ) s’écrit

CA = 


 

 
 

 γX (0) − 





Posons donc (λ1 , . . . , λk ) = 
γX (0)

γX (1)



..
.
γX (k)

γX (1)
..
.
γX (k)


γX (1)
..
.
γX (k)


− λ1 γX (1) − · · · − λk γX (k)



−1

−1
1 , . .

 × (Γk ) ; il vient
. , λ k ) × Γ k






 × (Γk ) × (γX (1), . . . , γX (k))








CA =   
  
 0 
 
  ..  
  .  
0
14
de sorte que
   
γX (1)
  ..  −1 
|Γk+1 | = γX (0) −  .  × (Γk ) × (γX (1), . . . , γX (k)) · |Γk |
γX (k)

= σk2 · |Γk |

Par conséquent, pour tout l ∈ N∗ |Γl | = σl−1


2
· · · σ12 |Γ1 | = σl−1
2
· · · σ12 γX (0)
 
γX (1)
14  ..  −1
Γk est symétrique et  .  × (Γk ) × (γX (1), . . . , γX (k)) est un réel (donc égal à son transposé) et donc
γX (k)
   
γX (1) ³ 0 ´−1 γX (1)
 ..  −1  ..  2
γX (0) −  .  (Γk ) (γX (1), . . . , γX (k)) = γX (0) − (γX (1), . . . , γX (k)) Γk  .  = σk
γX (k) γX (k)

Version du 20050121-11h02, révisée le 17 février 2005 30


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
(b) Notons Ek =< 1, Xt−1 , . . . , Xt−k >. Alors
2
σk+1 = V (Xt − EL (Xt |Ek+1 ))
= min V (Xt − Y )

= σk2
Y ∈Ek+1

min
Y ∈Ek ⊂Ek+1

≤ V (Xt − EL (Xt |Ek ))

Notons enfin E∞ =< 1, Xt−1 , . . . > ; alors pour tout l ∈ N∗


2
σ∞
V (Xt − Y )

La suite (σl2 )l∈N∗ est donc décroissante et minorée (par 0), donc convergente.

= V (Xt − EL (Xt |E∞ )) = min V (Xt − Y ) ≤ min V (Xt − Y ) = σk2

Et réciproquement, (σl2 − σ∞

(c) On a alors
2
Y ∈E

σl2 −−−−→ σ∞
l→+∞
2
Y ∈Ek

) ≤ kEL (Xt |El ) − EL (Xt |E∞ )k2 −−−−→ 0 de sorte que


l→+∞

¡ 2¢ |Γk+1 |
log σ∞ = lim log
l∞ |Γk |
l
1X |Γj+1 |
= lim log par Césaro
l∞ l
j=1
|Γ j |
à l !
1 Y |Γj+1 |
= lim log
l∞ l
j=1
|Γj |
1 |Γl+1 |
= lim log
l∞ l |Γ1 |
1
= lim (log |Γl+1 | − log |γX (0|)
l∞ l
1
= lim log |Γl+1 |
l∞ l

☞ Q5 (a) On a pour t ∈ Z E (Xt ) = 0 et pour h ∈ Z



 (1 + θ2 ) σ²2 si h = 0
γX (h) = −θσ²2 si h = ±1

0 sinon

En particulier X est stationnaire.

Version du 20050121-11h02, révisée le 17 février 2005 31


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
(b) On a pour k ∈ N∗

On a tout d’abord

¯
¯
¯
¯ −θ
¯
|Ak | = ¯ 0
¯
¯ ..
¯ .
¯
¯ 0
Ak−1
2


Γk = σ ² 



¯µ
|Γ2 | = σ² ¯

¯
¯
¯
¯
¯
¯
¯
¯
¯

¯
¯
1 + θ2

−θ
−θ

¯ 1 + θ2

puis pour k ≥ 2, en notant Ak = σ12k Γk


¯ 
¯ 1 + θ2 −θ 0 · · · 0 ¯
²
¯
..
.
0
0

−θ
1 + θ2
¢

¯
¯
−θ
1 + θ2

···

|Γ1 | = 1 + θ2 σ²2
¶¯
¯ ¡
= 1 + θ 2
+
0
−θ
...
−θ
0

θ 4
¢ 4
σ²
···

1 + θ2
−θ
−θ
0
0
..
.

1 + θ2






(en développant par rapport à la première colonne)


¯ ¯
¯ −θ 0 0 ··· 0 ¯
¯ ¯
¯ −θ 1 + θ2 −θ 0 ¯
¡ ¢ ¯ ¯
¯ 0 −θ 1 + θ2 0 ¯
= (−1)1+1 1 + θ2 |Ak−1 | + (−1)2+1 (−θ) ¯ ¯
¯ .. ... .. ¯
¯ . . ¯
¯ ¯
¯ 0 0 −θ 1+θ 2 ¯

(en soustrayant la première ligne à la deuxième)


¯ ¯
¯ −θ 0 · · · 0 ¯¯
¯
¯ ¯
¯ ¯
¡ ¢ ¯ −θ ¯
¯  ¯
= 1 + θ2 |Ak−1 | + θ ¯ 0 ¯
¯ ¯
¯ .. Ak−2 ¯
¯ . ¯
¯ ¯
¯ 0 ¯
¡ ¢
= 1 + θ2 |Ak−1 | − θ2 |Ak−2 |

Soit alors k ≥ 3 tel que ∀l < k, |Al | = 1 + θ 2 + · · · + θ 2l . Alors


¡ ¢¡ ¢ ¡ ¢
|Ak | = 1 + θ2 1 + θ2 + · · · + θ 2k−2 − θ2 1 + θ2 + · · · + θ 2k−4
¡ ¢ ¡ ¢
= 1 + 2θ2 + 2θ4 + · · · + 2θ 2k−2 + θ2k − θ2 − θ4 − · · · − θ 2k−2
= 1 + θ2 + · · · + θ 2k

Version du 20050121-11h02, révisée le 17 février 2005 32


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 2

ensae.net
Ainsi ∀k ∈ N∗ ,
En définitive

1X
k

k l=1
|Γk |
σ²2k

log |Γl |
= 1 + θ2 + · · · + θ 2k =

k^
→ +∞
−−−−→
k→+∞
=
∀k ∈ N∗ , |Γk | =


1¡ ¡
k
1−θ 2k+2
1−θ 2

¢
1−θ 2k+2 2k
1−θ 2

θ2k+2 log (1 − θ 2 )
k
log σ²2

?
? ?

k
σ²

(c) |θ| < 1 donc l’unique racine 1θ de 1 − θX est hors du cercle unité (si elle existe, i.e. si
θ 6= 0) ; donc ² est bien l’innovation de X.
Par ailleurs

+ log σ²2
¡ ¢¢
log 1 − θ2k+2 − log 1 − θ2 + log σ²2k

Version du 20050121-11h02, révisée le 17 février 2005 33


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
Travaux Dirigés n◦3
Enoncé de l’exercice 1
On considère deux processus stationnaires du second ordre X et Y vérifiant

∀t ∈ Z,
½
Yt = φ1 Yt−1 + aXt + Ut
Xt = φ2 Xt−1 + Vt

où U et V sont deux bruits blancs décorrélés de variances respectives σU2 et σV2 .
On suppose en outre que 0 < |φ1 | < 1 et 0 < φ2 < 1.
☞ Q1 Soit W = ( − φ1 L) ( − φ2 L) ◦ Y .
Montrer que W est stationnaire et calculer γW .
En déduire que W est un processus Ma que l’on déterminera.15
Application numérique : a = 1.5, φ1 = 0.4, φ2 = 0.6, σU2 = 0.016 et σV2 = 0.036.

☞ Q2 Montrer que Y est un processus Arma que l’on déterminera.


☞ Q3 Déterminer la prévision optimale Yt∗ = EL (Yt |Yt−1 , . . .) et la variance de l’erreur de prévision
Yt − Yt∗ .

Corrigé de l’exercice 1
☞ Q1 On a tout d’abord pour t ∈ Z

Yt = φ1 Yt−1 + aXt + Ut
donc (( − φ2 L) Y )t = φ1 ((1 − φ2 L) Y )t−1 + a (( − φ2 L) X)t + (Ut − φ2 Ut−1 )
= φ1 ((1 − φ2 L) Y )t−1 + aVt + (Ut − φ2 Ut−1 )
c’est-à-dire (( − φ1 L) ( − φ2 L) Y )t = aVt + Ut − φ2 Ut−1
soit Wt = aVt + (( − φ2 L) U )t

Alors
– E (Wt ) = 0  2 2
 a σV + (1 + φ22 ) σU2 si h = 0
– pour h ∈ Z Cov (Wt , Wt+h ) = −φ2 σU2 si h = ±1

0 sinon
15
¡ ¢ 2
On supposera pour ce faire que a2 σV2 + 1 + φ22 σU 2
> 2φ2 σU .

Version du 20050121-11h02, révisée le 17 février 2005 34


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
En particulier W est stationnaire (et sa fonction d’auto-covariance est celle d’un processus
Ma(1)). Cherchons donc Θ et ² bruit blanc tels que W = Θ(L)² et Θ de degré 1.
Donnons-nous pour ce faire un bruit blanc ² de variance σ²2 > 0 et λ ∈] − 1, 1[, et soit Z =
( − λL) ² ; cherchons à déterminer ² et λ de façon à ce que Z = W .
L’égalite γZ = γW pour h ∈ {0, 1} conduit à

soit

Soit donc 16
λ=
½
(1 + λ2 ) σ²2 = a2 σV2 + (1 + φ22 ) σU2



( 2) U
−λσ²2 = −φ2 σU2

λ2 −

2 + 1+φ2 σ 2 −
a2 σV
q
a2 σV ( 2) U
2 + 1+φ2 σ 2

2
φ2 σ U

(a2 σV2 +(1+φ22 )σU2 )


2
2φ2 σU

( − λL)−1 W : ² est par construction un bruit blanc de variance σ²2 =

W = ( − λL) ²
2
λ+1
σ²2
2
−4φ2 σU
=0
= λ
2
φ2 σ U

; ainsi λ ∈] − 1, 1[. Posons alors17 ² =

Application numérique : On a a2 σV2 + (1 + φ22 ) σU2 = 0.10276 > 0.0192 = 2φ2 σU2 . Il vient
2
φ2 σ U
λ
et de plus

λ = 0.095 et σ²2 = 0.101. On vérifie que |λ| < 1 et que la représentation de W est bien
canonique (donc que ² est bien l’innovation de W ).

☞ Q2 On a immédiatement
( − φ1 L) ( − φ1 L) Y = ( − λL) ²
A supposer que λ 6= φ1 et λ 6= φ2 , Y est donc un processus Arma(2,1) (sinon c’est un Ar(1)) ;
en outre cette représentation est canonique.
Application numérique : ( − 0.6L) ( − 0.4L) Y = ( − 0.095L) ².

☞ Q3 Soit Φ(X) = (1 − φ1 X) (1 − φ2 X) ; les racines φ11 et φ12 de Φ sont toutes de module supérieur à
un ; donc
P (voir TD 2, exercice 1 ) Y adment un développement en série à cœfficients positifs
Yt = k≥0 ak ²t−k , et en particulier ∀t ∈ Z, ²t Yt−1 , . . .. Par conséquent ² est l’innovation de
|=

Y et en particulier Y − Y ∗ = ².
On en tire successivement que
V (Yt − Yt∗ ) = σ²2
16 a 2 σV
2
+(1+φ22 )σU
2
Les deux racines sont de même signe car leur produit 1 est positif, et ce signe est positif car leur somme 2
φ 2 σU

[··· ]− [··· ]2 −4
est positive. Le produit des racines valant 1, la plus petite des deux est de module inférieur à 1, à savoir 2 .
2
17 2 φ 2 σU
Parmi tous les bruits blancs possibles de variance σ² = λ il n’y en a qu’un seul qui convienne, est c’est
−1
nécessairement ² = ( − λL) W .

Version du 20050121-11h02, révisée le 17 février 2005 35


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
et de plus que

Application numérique :
Y∗ = Y −²
=

=
¡
Ã
− Φ(L) ( − λL)−1 Y

=

¡




µ
¢

¢
− (φ1 + φ2 ) L + φ1 φ2 L2 ◦
Ã
¡ 2
+∞
X

− λ − λ (φ1 + φ2 ) + φ1 φ2 ·

−λ Φ
µ ¶
1
λ
2
· ( − λL) −1

◦Y

yt∗ = yt−1 − 0.24yt−2 − 1.045


!
λ k Lk Y

et par ailleurs V (Yt − Yt∗ ) = 0.101

? ?
?
¢ +∞
X
k=0

k=0

P
k
λ L

k≥1
k
!
Y

0.095k yt−k

Enoncé de l’exercice 2
On considère n processus stationnaires X 1 , . . . , X n vérifiant

∀i ∈ J1, nK, ( − ρi L) X i = U i

où ρi ∈] − 1, 1[ et U i est un bruit blanc de variance σi2 indépendant18 de tout U j pour j 6= i.


On définit Z = X 1 + · · · X n ; on cherche à déterminer la prévision optimale de ZT +1 fondée sur
l’observation des X i aux dates T, T − 1, . . . .
☞ Q1 Montrer que pour tous t, t0 ∈ Z et i 6= j ∈ J1, nK, X i t est indépendant de X j t0 .

Déterminer ZTX +1 = EL (ZT +1 |X T , . . . , X T , X T −1 , . . . , X T −1 , . . .) et la variance VX de l’er-
1 n 1 n

reur de prévision associée en fonction des variances des U i .


☞ Q2 Montrer que Z satisfait une relation de la forme

Θ(L)Z = ∆(L)ξ

où Θ et ∆ sont des polynômes (de degrés finis) et ξ est un bruit blanc (on discutera selon que
les ρi sont deux-à-deux distincts ou non).
☞ Q3 En déduire que Z est un processus Arma dont on déterminera la forme canonique.
☞ Q4 Donner une condition suffisante pour que Z soit un Ar pur.
On détaillera en particulier le cas n = 2.
18
Et ce à toutes dates : ∀t, t0 , ∀i, j, (t 6= t0 oui 6= j) → U i t est indépendant de U j t0

Version du 20050121-11h02, révisée le 17 février 2005 36


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
sur les observations agrégées.
Donner la variance VZ de l’erreur de prévision associée en fonction des variances des U i .
Comparer VZ à VX et conclure.

Corrigé de l’exercice 2

ZT +1 = EL

=
n
X
X i T +1 |X 1 T , . . . , X n T , X 1 T −1 , . . . , X n T −1 , . . .

i=1
Xn
i=1
¡

☞ Q5 Dans le cas général, déterminer la prévision optimale ZTZ+1 = EL (ZT +1 |ZT , ZT −1 , . . .) fondée

☞ Q1 Pour tous i 6= j et toutes dates t, t0 , U i t , U i t−1 , U i t0 , U i t0 −1 , U j t , U j t−1 , U j t0 , U j t0 −1 sont tous


deux-à-deux indépendants. Donc X i t et X j t0 sont indépendants.
En particulier

∗X
à n
X
!

EL X i T +1 |X 1 T , . . . , X n T , X 1 T −1 , . . . , X n T −1 , . . .

¡ ¢
¢

= EL X i T +1 |X i T , X i T −1 , . . .
i=1
= X T +1 + · · · + X n∗ T +1
1∗

= ρ1 X 1 T + · · · + ρ n X n T puisque − ρi L est sous forme canonique car |ρi | < 1

En outre
à n n
!
¡ ∗ ¢ X X
V ZT +1 − ZTX
+1 = V X i T +1 − ρi X i T
à i=1
n
i=1
n
!
X ¡ ¢ X
= V ρi X i T + U i T − ρi X i T
à i=1
n
! i=1
X
= V U iT
i=1
= σ12 + · · · + σn2

☞ Q2 Observons que Z = ( − ρ1 L)−1 U 1 + · · · + ( − ρn L)−1 U n , de sorte que pour tout polynôme


Θ on a

Θ(L)Z = Θ(L) ( − ρ1 L)−1 U 1 + · · · + Θ(L) ( − ρn L)−1 U n (2)

Version du 20050121-11h02, révisée le 17 février 2005 37


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
En particulier dès que Θ(X) est un multiple de tous les (1 − ρi X) l’expression (2) est polyno-
miale des deux côtés. Soit donc Θ le ppcm (au sens de la division euclidienne de polynômes)
de 1 − ρ1 X,. . . ,1 − ρn X. Alors Z vérifie

où Λi (X) = Θ(X)


1−ρi X
:
= Π8
ρ ∈ {ρ1 , . . . , ρn }
<

ρ 6= ρi
Θ(L)Z =
n
X

i=1
Λi (L)U i

(1 − ρX) est un polynôme de degré ni ≤ n − 1.

Considérons alors V i = Λi (L)U i tous stationnaires, et soit V = V 1 + · · · + V n .


Alors
Cov (Vt , Vt+h ) = γV 1 (h) + · · · + γV n (h)
En particulier Cov (Vt , Vt+h ) est indépendant de t et donc (comme bien-sûr E (Vt ) = 0) V est
stationnaire. En outre γV (h) = 0 dès que h ≥ maxi ni , ce qui caractérise un Ma d’ordre au plus
maxi ni .19
Plus précisément, soit d = max{i / γV (i) 6= 0}, et donnons-nous δ1 , . . . , δd et η un bruit blanc
de variance ση2 ; notons ∆(X) = 1 − δ1 X − · · · − δd Xd . Alors l’égalité γ∆(L)η = γV revient à un
système de d + 1 équations (a priori non-linéaire)
©
Eh : γ∆(L)η (h) = γV (h) pour h ∈ J0, dK
correspondant aux équations de Yule-Walker, et dont on tire ση2 , δ1 , . . . , δd .
Soit alors ∆∗ (X) = 1 + δ1 X + · · · + δr Xr , et notons ∆ le polynôme canonique associé (celui dont
toutes les racines sont de module supérieur à un, voir TD 2, exercice 1 ). Définissons
−1
enfin ξ = ∆(L) V . Alors par construction ξ est un bruit blanc, et en outre V = ∆(L)ξ.
Ainsi

Θ(L)Z = ∆(L)ξ

avec d◦ Θ ≤ n et d◦ ∆ ≤ maxi ni ≤ n−1 et toutes les racines de Θ et ∆ sont de module supérieur


(ou égal) à 1.
☞ Q3 On sait que 1 n’est racine d’aucun 1 − ρi X, donc n’est pas racine de Θ(X). Montrons que par
ailleurs V n’est pas intégré.
Attention :
Il ne suffit pas que Z (et donc Θ(L)Z) soit stationnaire pour interdire que Θ ait une racine
unitaire : X = ( − L)² est par exemple stationnaire TD 1, exercice 1 . . .
Dans le cas contraire, soit s l’ordre de multiplicité de la racine 1 dans ∆, et soit ∆(X) le
∆(X)
polynôme (1−X) s ; on note ξ = ∆(L)ξ.
P
Soit alors N ∈ N ; comme (1 − X) N k=0 X = 1 − X
k N +1
on a d’une part
à N !
X ¡ ¢
L ◦ Vt = 1 − LN +1 ( − L)s−1 ◦ ξ t
k

k=0
19
Attention, si k = l et γA (k − 1) + γB (l − 1) = 0 alors A + B est un Ma d’ordre a plus k − 1 . . .

Version du 20050121-11h02, révisée le 17 février 2005 38


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
et d’autre part à N
X

k=0
Lk
!
◦ Vt =

Considérons donc pour i ∈ J1, nK et N ∈ N le polynôme


de Λi sont parmi les ρi , 1 − X ne divise pas Λi et donc
¡
1 − XN +1 =
¢
à N
X
!
n
X
à N

k=0 X

Xk (1 − X) ne divise pas
k=0
à N
X
X

i=1 k=0
Lk
!s
× Λi (L) ◦ U i t
³P
Λi (X) ; comme les racines

!
Xk Λi (X)
N

Notons pour tout polynôme P ν(P ) le nombre de cœfficients non-nuls de P : alors ν (Λ i (X)) ≥ 1
car Λi est de degré ni ≥ 1. Par conséquent pour N ≥ ni on a 20

Donc en particulier

V
ÃÃ N
X
k
!

k=0
i
! N +n
L × Λi (L) ◦ U t =
Xi

Autrement dit pour tout t ∈ Z V


¡ ¢
ν
ÃÃ N

2
X

¡ i ¢
! !
Xk Λi (X) ≥ N − ni
k=0

µ ¶2
αj V U t−j ≥ (N − ni ) min |αj | σi2 −−−−→ +∞

¡¡

¡
¢s ¢
j=0

− LN +1 ξ t −−−−→ +∞.
¢
N →+∞
k

k=0
´

αj 6=0 N →+∞

N +1 s−1 N +1 s−1
Soit donc η = −L ξ = −L ∆(L)ξ : η est stationnaire puisque ξ est un
bruit blanc.
Or V (ηt − ηt−N −1 ) −−−−→ +∞, et donc γη (h) −−−−→ +∞, et donc
N →+∞ h→+∞

γV (h) −−−−→ +∞
h→+∞
Pn
Pourtant, les U i sont indépendants donc γV (h) = i=1 γΛi (L)U i (h) et donc comme chaque
Λi (L)U i est un processus Ma son auto-covariance est nulle à partir d’un certain rang (ni en
l’occurence), et en particulier
γV (h) −−−−→ 0
h→+∞
Pp
20
Soit P (X) = k=0 ak Xk un polynôme de degré P n’admettant pas 1 pour racine, et développons successivement
X P (X) : il vient
j

1 X X2 ··· Xp Xp+1 ··· XN −p ··· Xp+N


P (X) a0 a1 a2 ··· ap 0 ··· ··· 0
XP (X) 0 a0 a1 ··· ap−1 ap ··· ··· 0
.. .. .. .. .. ..
. . . . . .
¡PnX Pk(X)
N
¢ 0 a0 ··· ap
k=0 X P (X) a 0 a 0 + a 1 · · · a 0 + · · · + a p a 0 + · · · + a p · · · a 0 + · · · + a p · · · ap
¡ Pn ¢
k=0 X ¡¡ ¢ au plus N + p, et au moins N − ν(P ) monômes X ont pour cœfficient
k k
Le polynôme P (X) est ¢de degré
Pn
k=0 X
k
a0 + · · · + ap . Donc si ν P (X) < N − ν(P ), alors au moins 2ν(P ) + 1 cœfficients sont nuls, donc l’une au
moins de N −³³ ν(P ) colonnes´ a 1 + · · ·
´ + ap est nulle. Dans ce cas, P (1) = 0, i.e. 1 est racine de P ! Or 1 n’est pas racine
PN
k=0 X
k
de Λi , donc ν Λi (X) ≥ ν(Λi ).

Version du 20050121-11h02, révisée le 17 février 2005 39


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
Ainsi, (1 − X)s ne peut diviser ∆(X) ; on montre de façon identique qu’il en va de même pour
toute racine de module 1, de sorte que V n’est pas intégré.
En conclusion,

Z est un processus Arma(p, r), où p = d◦ Θ et r ≤ maxi ni

Notons que les racines ρ11 , . . . , ρ1n de Θ sont toutes de module inférieur à 1 ; en outre par construc-
tion il en va de même pour celles de ∆.
Enfin, comme Θ(X) est le ppcm des 1 − ρi X, il n’admet aucune racine commune avec ∆ (car
sinon, ∆ admet par exemple ρ1 , donc il en va de même pour ∆∗ car |ρ1 | < 1, et on montre
que 1 − ρ1 X divise tous les Λi (X) ce qui viole le fait que Θ soit le ppcm des 1 − ρi X). Ainsi la
représentation est canonique.
Notons enfin que si les (ρi )i sont deux-à-deux distincts, Θ(X) = (1 − ρ1 X) · · · (1 − ρn X) et Z est
un Arma(n,n-1).
Remarque : Le résultat reste vrai si l’on substitue à 1 − ρi X un polynôme canonique Ri (X) quel-
conque : Θ(X) reste le ppcm des Ri (X), et s’ils sont tous premiers entre eux Z est un processus Arma(
Pn ◦ ◦
i=1 d Ri , maxi d Λi ).

☞ Q4 Z est un Ar pur ssi V est © un bruit blanc, soit si r = 0, soit encore si (0, . . . , 0) est solution du
système de Yule-Walker Eh : γ∆(L)ξ (h) = 0 pour h ∈ J1, dK .
Notons alors Λi (X) = λi0 + λi1 X + · · · + λini Xni , avec λi0 = 1. Alors pour t ∈ Z
ni
n X
X
Vt = λik U i t−k
i=1 k=1

et donc pour h ∈ N
X X ¡ ¢
Cov (Vt , Vt−h ) = λik λjl Cov U i t−k , U j t−h−l
1≤i,j≤n
0 ≤ k ≤ ni
0 ≤ l ≤ nj
X X
= λik λjl i=j t−k=t−h−l σi2
1≤i,j≤n
0 ≤ k ≤ ni
0 ≤ l ≤ nj
ni
n X
X
= λik λik−h σi2
i=1 k=h

Par conséquent Z est un Ar pur ssi

Pn ¡ ¢
∀h ∈ J1, nK, i=1 λi0 λih + · · · + λini −h λini σi2 = 0

Version du 20050121-11h02, révisée le 17 février 2005 40


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
En particulier dans le cas où n = 2 et ρ1 6= ρ2 on a Θ(X) = 1 − (ρ1 + ρ2 )X + ρ1 ρ2 X2 ,
Λ1 (X) = 1 − ρ2 X et Λ2 (X) = 1 − ρ1 X.
Donc Z est au plus un Arma(2,1), et c’est un Ar(2) pur ssi 21

alors
Z Z =Z −ξ =

¡
− ∆(L)Θ−1 (L) Z

VZ = V ZT +1 − ZTZ+1
= V (ξT +1 )
³
= V ∆(L)

=
Xn
V
ÃÃ
−1

+∞
X
¡

ρ1 σ12 + ρ2 σ22 = 0

☞ Q5 Comme aucune racine de Θ(L) n’est de module 1, ξ est l’innovation de Z, et donc ∀t ∈ Z, ξ t =



Zt − Zt Z ; en particulier
∗ ¡

¢
¢

où Θ(X)−1 admet un développement en puissances positives de X.


Par ailleurs 1 n’est pas racine de ∆, doncPtoutes les racines de ∆ sont de module strictement
supérieur à un ; on définit donc Λ∆(X)
i (X)
= +∞ i k

1 n
i

¢ ´
Λ1 (L)U + · · · + Λn (L)U T +1
!
aik Lk ◦ U i T +1
!
Λi (0)
k=0 ak X . Notons que a0 = ∆(0) = 1 = 1. Il vient
1

i=1
n
à +∞ k=0 !
X X ¡ ¢2
= aik σi2
i=1 k=0
n
X ¡ ¢2
≥ ai0 σi2
i=1
= σ12 + · · · + σn2
= VX

Ainsi la prévision fondée sur les observations agrégées est moins bonne que celle fondée sur les
observations individuelles, et ce alors même que les U i sont indépendants !
Notons enfin qu’il n’y a égalité que si pour tout i ∈ J1, nK, ∀k ∈ N∗ , aik = 0 c’est-à-dire si
∆(X) = Λi (X), soit finalement si
ρ1 = · · · = ρ n

?
? ?

21
¡ ¢ ¡ ¢
La condition s’écrit pour h = 1 : “ λ10 λ11 + λ10 λ11 σ12 + λ20 λ21 + λ20 λ21 σ22 = 0 ” c’est-à-dire, compte-tenu de ce que
λi0 = 1 et λi1 = ρi : “ 2ρ1 σ12 + 2ρ2 σ22 = 0 ”.

Version du 20050121-11h02, révisée le 17 février 2005 41


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
Enoncé de l’exercice 3
On considère un processus stationnaire X vérifiant
¡

Justifier l’expression “u est quasi-périodique”.


☞ Q2 Montrer que ² est l’innovation de X, et calculer γX .
¢
− 2ρ cos θL + ρ2 L2 X = ²

où ρ ∈] − 1, 1[, θ ∈]0, π[ et ² est un bruit blanc de variance σ²2 .


☞ Q1 Soit (un )n∈Z ∈ RZ la suite réelle définie par
½
u0 , u1 ∈ R donnés
∀t ∈ Z, ut − 2ρ cos θut−1 + ρ2 ut−2 = 0

Calculer le terme général de u.

Application numérique : Tracer γX lorsque σ²2 = 1, ρ = 0.8 et θ =

☞ Q3 Etudier la densité spectrale fX de X, en particulier lorsque ρ → 1− .


18

16

14

3
.

ρ = 0.8
ρ = 0.5
ρ = 0.85

12

10

0
0 0.5 1 1.5 2 2.5 3 3.5
1
Graphe de ω 7→ |1+2ρeiω +ρ2 e2iω |2

Corrigé de l’exercice 3
µ ¶ µ ¶
ut 2ρ cos θ ρ2
☞ Q1 Soit Ut = et A = . Alors A est inversible et de plus ∀t ∈ Z, Ut =
ut−1 1 0
At × U0 . Or les valeurs propres de A sont les racines de χA (X) = 1 − 2ρ cos θX + ρ2 X2 , à

Version du 20050121-11h02, révisée le 17 février 2005 42


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
savoir ρe

−1
Ut = P ×
+iθ

ρe

d’où on tire
0

En particulier on a

et donc finalement

2
−iθ
et ρe . Soit donc P inversible telle que A = P ×
µ t +itθ
0
ρt e−itθ

P U0 , donc soient α, β tels que

t
∀t ∈ Z, ut = αρt e+itθ + βρt e−itθ

½
α
β
¡ α+β

ρ αe + βe

∀t ∈ Z, ut = (α+β)ρ cos(tθ)+i(α−β)ρ sin(tθ) = u0 ρ cos(tθ)+t


=
=

u1
−iθ


¢ = u0

u1
= u1

u0
ρ sin θ tan θ
1
ρ eiθ −e−iθ
u0 − α
− u0

t
−1

µ
µ
ρe+iθ
0

un
0
ρe−iθ



× P ; alors

ρt sin(tθ)− iu0 ρt sin(tθ)


|{z}
∈R
/

-1

-2

-3

-4
0 5 10 15 20

(un )n∈J0,20K lorsque θ =
ρ = 0.8 et u0 = u1 = 1
3
,
³ ´
L’expression “quasi-périodique” tient à ce que u est bornée et que uρtt est périodique.
t∈Z
¡ ¢ ¡ ¢
☞ Q2 Les racines de Φ(X) = 1 − 2ρ cos θX + ρ2 X2 = 1 − ρeiθ X 1 − ρe−iθ X sont de module ρ1 > 1 ;
par conséquent la représentation “Φ(L) ◦ X = ²” est la représentation Ma canonique, et ² est
l’innovation de X.
En particulier, pour tout h ≥ 1 ²t est indépendant de Xt−h ce qui s’écrit
¡ ¢
∀h ≥ 1, Cov 1 − 2ρ cos θXt−1 + ρ2 Xt−2 , Xt−h = 0
soit encore
∀h ≥ 1, γX (h) = 2ρ cos θγX (h − 1) + ρ2 γX (h − 2)
et donc

Version du 20050121-11h02, révisée le 17 février 2005 43


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
ce qui s’écrit encore




ce qui s’écrit encore


γX suit la récurrence de polynôme Φ

En particulier d’après la question précédente γX est quasi-périodique.


Pour déterminer explicitement γX il reste à déterminer γX (0) : on a en l’occurence lorsque h = 0
¡

récurrence pour h ∈ {1, 2} il vient



 γX (0) −2ρ cos θ
γX (1) −2ρ cos θ
γX (2) −2ρ cos θ

−2ρ cos θ
ρ2
¢
Cov Xt − 2ρ cos θXt−1 + ρ2 Xt−2 , ²t = V (²t ) = σ²2

γX (0) − 2ρ cos θγX (1) + ρ2 γX (2) = σ²2


Pour calculer γX (0) il suffit de constater que γX est paire et donc en associant l’équation de

γX (1)
γX (0)
γX (1)

γX (0) −2ρ cos θ γX (1) +ρ2


γX (0) + (1 + ρ2 ) γX (1)
γX (0) −2ρ cos θ γX (1)
+ρ2
+ρ2
+ρ2
γX (2)
γX (−1)
γX (0)
= σ²2
= 0
= 0

γX (2) = σ²2
= 0
γX (2) = 0

ce dont on tire que


¯ 2 ¯
¯ σ² −2ρ cos θ ρ2 ¯
¯ ¯
¯ 0 1 + ρ2 0 ¯
¯ ¯
¯ 0 −2ρ cos θ 1 ¯
γX (0) = ¯ ¯
¯ 1 −2ρ cos θ ρ2 ¯¯
¯
¯ −2ρ cos θ 1 + ρ2 0 ¯¯
¯
¯ ρ2 −2ρ cos θ 1 ¯

σ² (1 + ρ2 )
=
(1 + ρ2 ) + 4ρ4 (cos θ)2 − ρ4 (1 + ρ2 ) + 4ρ2 (cos θ)2

σ² (1+ρ2 )
= 1+((2 cos θ)2 −1)(ρ4 +ρ2 )−ρ6

Version du 20050121-11h02, révisée le 17 février 2005 44


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net 5

-1

-2

-3

-4

0.8
0.6
0.4
0

1
5

γX lorsque σ²2 = 1, θ = 2π
3
10
ρ = 0.8
ρ = 0.5
ρ = 0.9

15

et différentes valeurs de ρ

ρ = 0.8
ρ = 0.5
ρ = 0.9
20

0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0 5 10 15 20
π
γX lorsque σ²2 = 1, θ = 4
et différentes valeurs de ρ
On observe que γX est pseudo-périodique et que le facteur important est sa “vitesse d’aplatis-
sement” ρ.
☞ Q3 On a pour ω ∈] − π, π[

1 σ²2
fX (ω) =
|Φ (eiω )|2 2π
σ²2 1
=
2π |1 − 2ρ cos θeiω + ρ2 e2iω |2
σ²2 1
= ·
2π (1 − 2ρ cos θ cos ω + ρ cos(2ω)) + (−2ρ cos θ sin ω + ρ2 sin(2ω))2
2 2

Version du 20050121-11h02, révisée le 17 février 2005 45


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 3

ensae.net
Soit donc g(ω) =

g(ω) =

Donc
=
½
½

¡
2π 1
σ²2 fX (ω)
; il vient

1 + 4ρ2 (cos θ)2 (cos ω)2 + ρ4 (cos(2ω))2 − 4ρ cos θ cos ω − 2ρ2 cos(2ω)
−2ρ3 cos θ cos ω cos(2ω) + 4ρ2 (cos θ)2 (sin ω)2 + ρ4 (sin(2ω))2 − 2ρ3 cos θ sin ω sin(2ω)
¡

¢
¢
2 1 + 4ρ2 (cos θ)2 + ρ4 − 4ρ cos θ cos ω
−2ρ2 cos(2ω) − 2ρ3 cos θ (cos ω cos(2ω) + sin ω sin(2ω))

Or ∀a, b ∈ R, cos(a − b) = cos a cos b + sin a sin b donc

g(ω) = 2 1 + 4ρ2 (cos θ)2 + ρ4 − 4ρ cos θ cos ω − 2ρ2 cos (2ω) − 2ρ3 cos θ cos(3ω)

g 0 (ω) = 4 cos θρ sin ω − 4ρ2 sin (2ω) − 6ρ3 cos θ sin(3ω)


En particulier g 0 s’annule et change de signe sur ]0, π[, de sorte que g admet un minimum en
ω0 ∈]0, π[.22 Donc fX admet un extremum en ω0 .
¡


¢¡
Lorsque ρ → 1, Φ(X) converge normalement vers 1 − 2 cos θX + X2 = X − eiθ X − e−iθ , dont
toutes les racines sont unitaires. On peut montrer en outre23 que ω0 −−−→
¢

θ : ainsi dans le cas


ρ→1
limite où X devient un processus intégré, la densité spectrale de X converge (simplement) vers
la masse de Dirac sur {θ} + 2πZ.

?
? ?

22
Le calcul explicite de ω0 , par exemple dans le cas où θ = 2π 3 , est tout-à-fait passionnant et laissé à la sagacité du
lecteur.
23
Essentiellement, (ρ, ω) 7→ gρ (ω) est C 1 , et θ est l’unique racine sur ]0, π[ de g1 (ω). ω0 vérifie lorsque ρ → 1− :
4 cos θ sin ω0 − 4 sin(2ω0 ) − 6 cos θ sin(3ω0 ) = 0 dont l’unique solution sur ]0, π[ est ω0 = θ.

Version du 20050121-11h02, révisée le 17 février 2005 46


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Travaux Dirigés n◦4
Enoncé de l’exercice 1
L’objet de cet exercice est de présenter la méthode de Beveridge-Nelson pour représen-
ter tout processus même intégré comme somme d’une marche aléatoire et d’une composante
cyclique (stationnaire).
☞ Q1 On considère un processus auto-régressif intégré X vérifiant

P+∞
k=0 ak X .
k

(b) On suppose désormais que la série ∂x∂


³
( − L)A(L)X = ²

où A est un polynôme sans racine de module un et ² un bruit blanc de variance σ²2 .
(a) Montrer que quitte à substituer à ² un bruit blanc η de variance plus faible, on peut sup-
poser (ce que l’on fera par la suite) que toutes les racines de A sont de module strictement
supérieur à un.
En déduire que A(X) admet pour inverse une série absolument convergente A(X)−1 =

1
x 7→ A(x)

A(X)−1 =
´
est absolument convergente. 24
Montrer qu’il existe une série convergente (de rayon au moins 1) A telle que
1
A(1)
+ (1 − X)A(X)

Calculer son terme général.


(c) Montrer qu’il existe deux processus T et C tels que

X =T +C
1
et où T est une marche aléatoire vérifiant ( − L)T = A(1)
² et où C est stationnaire.

(d) T et C sont-ils corrélés ?


☞ Q2 On se donne un autre décomposition de X

 X = M +S
( − L)M = U

S = B(L)V

où B est un polynôme dont toutes les racines sont de module strictement supérieur à 1 et U et
V sont deux bruits blancs (pas nécessairement décorrélés) de variances σU2 et σV2 .
σ²2
(a) Montrer que 1t V (Xt ) −−−−→ A(1)2
.
t→+∞
σ²2
Montrer que σU2 = A(1)2
.
(b) Soit Y = ( − L)X.
Exprimer Y en fonction de ² et en déduire l’expression de fY .
24
i.e. de rayon de convergence au moins 1 et absolument convergente en x = 1.

Version du 20050121-11h02, révisée le 17 février 2005 47


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
(c) Exprimer alors Y en fonction de U et V .
En supposant que U et V sont décorrélés, en déduire l’expression de fY en fonctionde σU2
et σV2 .
(d) Déduire de l’étude de fY au voisinage de 0 que pour certains polynômes A(X), U et V ne
peuvent pas être décorrélés (on pourra par exemple considérer le cas où A(X) = 1 − ρX
où ρ > 0 ).

Corrigé de l’exercice 1
☞ Q1 (a) Le monôme 1 − λX étant inversible ssi |λ| < 1, posons


¡ ¢

où λ11 , . . . , λ1n désignent les racines A.


Ainsi A∗ (L) est inversible.
Soit η = ( − L)A∗ (L)X ; alors (voir
µ µ
1
A (X) = Π|λi |<1 (1 − λi X) Π|λi |>1 1 − X
λi
¶¶

TD 2, exercice 1 ) η est un bruit blanc, de


2
variance Π σ² λ2 .
|λi |>1 i

On peut donc supposer sans perte de généralité, quitte à substituer A∗ à A et η à ², que


toutes les racines de A sont de module strictement supérieur à un.
Dans ces conditions, notant A(X) = (1 − λ1 X) · · · (1 − λn X) il vient
à +∞ ! à +∞ ! +∞
1 X X X
= λk1 Xk · · · λkn Xk = ak X k
A(X) k=0 k=0 k=0
P
avec ∀k ∈ N, ak = i1 +···+in =k λi11 · · · λinn .
(b) On a
+∞
X
1
= ak X k
A(X) k=0

Version du 20050121-11h02, révisée le 17 février 2005 48


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Or pour M ∈ N∗
M
X

k=0
ak X k =

et on pose pour j ∈ N

Notons bN
M
X
j = −

X
PN

¯
M ¯
k=j+1
=

N
X
Ã

M
X

M
X
k=0

k=0
XM

Par ailleurs A est convergente donc


M
X

k=0

k=0

¯
¯
ak

k
!
+

ak 1k − (1 − X)

PM
M
X

k=0

ak 1 + a 0 · 0 +

ak 1k − (1 − X)

k=j+1

bj = −
¡
ak X k − 1

M
X
M
X

P+∞
k=1
XM X

−1

j=0
k−1

k=1 j=0
Ã

k=j+1

ak ; alors pour tous M ∈ N et N ≥ M + 2


¢

M
X

k=j+1

ak
¡
ak (X − 1) 1 + X + · · · + Xk−1

ak X j

ak
!
Xj
¢

ak admet une limite finie lorsque M → +∞,

¯ ¯
|bN
j | = ¯ ak ¯
¯ ¯
j=0 j=0 k=j+1
M X
X N
≤ |ak |
j=0 k=j+1
X X
= |ak | + |ak |
0≤j<k≤M +1
M +2≤k ≤N
0≤j<k
M
X +1 N
X
= k|ak | + k|ak |
k=0 k=M +2
N
X
= k|ak |
k=0
+∞
X µ ¶ X
∂ 1
≤ k|ak | x 7→ = kak Xk est absolument convergente.
k=0
∂x A(x) k

donc à la limite lorsque N → +∞ et pour tout M ∈ N


M
X +∞
X
|bj | ≤ k|ak |
j=0 k=0

Version du 20050121-11h02, révisée le 17 février 2005 49


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
de sorte que la série
On pose donc A(X) =

C = X − T . Alors

(d) On a pour t ∈ Z
|=
P
j bj X est convergente de rayon au moins 1.
P+∞
j

j=0 bj X ; alors par construction comme


j

A(X)−1 =

( − L)C = ( − L) ◦ (X − T )
= A(L)−1 ² − ( − L)T

=
µ
1
A(1)
= ( − L)A(L)²

1
A(1)

+ ( − L)A(L) ² − ( − L)T
PM
k=0

+ (1 − X)A(X)

(c) Soit T la marche aléatoire d’origine 0 et vérifiant ∀t ∈ Z, Tt − Tt−1 =

En particulier, il existe un variable fixe Z telle que ∀t ∈ Z, Ct = A(L)²t + Z, et donc C


est stationnaire. 25

1
Tt = A(1) (²t + · · · + ²T −N ) + Tt−N −1
Ct = α0 ²t + α1 ²t−1 + · · ·
ak −−→
M∞

1
²,
A(1) t
1
A(1)
on a

et notons

Or Tt ²t+h pour h ≥ 1 et donc pour tout N ≥ 1


( PN PN
1 1
αk σ²2 + A(1) Cov (²t−k , Z)
Cov (Tt , Ct ) = ¡ A(1) k=0
P+∞ ¢ k=0
+Cov Tt−N −1 , k=0 αk ²t−k + Cov (Tt−N −1 , Z)
+∞
X
α0 + · · · + α N 2
= σ² + αk Cov (Tt−N −1 , ²t−k )
A(1) k=N +1

donc finalement
¡P+∞ ¢
Cov (Tt , Ct ) = 1
A(1) k=0 αk σ²2

En particulier T et C sont corrélés à toutes dates sauf bien-sûr si A(X) = (1).


☞ Q2 (a) On a pour tous t ∈ Z et N ∈ N∗

V (Mt ) = V (Ut + · · · + U0 ) + Cov (Ut + · · · + U0 , M−1 ) + V (M−1 )


= tσU2 + Cov (Ut + · · · + U0 , M−1 ) + V (M−1 )
25
On ne peut pas choisir Z qui est entièrement déterminée par la définition de C = X − T ; en revanche on peut
supposer que Z est décorrélée de tous les ²t .

Version du 20050121-11h02, révisée le 17 février 2005 50


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
donc par Cauchy-Schwarz

soit

et donc
2
≤ tσU +
p

tσU2

^

t → +∞
t→
q

+∞
p
tσU2 − V (Ut + · · · + U0 ) V (M−1 ) + V (M−1 )
≤ tσU2 + Cov (Ut + · · · + U0 , M−1 ) + V (M−1 )
p p
≤ tσU2 + V (Ut + · · · + U0 ) V (M−1 ) + V (M−1 )

V (tσU2 )
| {z }

^
√ 2
tσU
p
V (M−1 ) + V (M−1 )

≤ tσU2 + Cov (Ut + · · · + U0 , M−1 ) + V (M−1 )


q
V (tσU2 )
| {z }
√ 2
tσU

V (Mt )
p
V (M−1 ) + V (M−1 )

^
t→ +∞
tσU2

Or V (Xt ) = V (Mt ) + 2Cov (Mt , St ) + V (St ) et donc


p p p p
V (Mt ) − 2 V (Mt ) V (St ) + V (St ) ≤ V (Xt ) ≤ V (Mt ) + 2 V (Mt ) V (St ) + V (St )

et comme S est stationnaire (donc de variance V (St ) indépendante de t)

V (Xt ) V (Mt )
^
t→ +∞

En particulier

1
t
V (Xt ) −−−−→ σU2 > 0
t→+∞

1
Or X = T + C où T est une marche aléatoire associée à η = A(1)
² et C stationnaire, donc
de façon similaire
1 1
V (Xt ) −−−−→ σ²2
t t→+∞ A(1)2

En particulier

σ²2
σU2 = A(1)2

Version du 20050121-11h02, révisée le 17 février 2005 51


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Ainsi, quelle que soit la décomposition retenue la marche aléatoire est associée à un bruit

(c) On a par ailleurs


1
blanc de variance A(1) 2
2 σ² .

(b) On a immédiatement Y = ( − L)X = A(L)−1 ² et donc

fY (ω) =
1
|A (eiω )|2
f ²

Y = ( − L)M + ( − L)S = U + ( − L)B(L)V


(ω) =
1 σ²2
|A (eiω )|2 2π
26

Or à supposer que U et V sont décorrélés il en va de même pour U et ( − L)B(L)V , donc


pour tout h ∈ Z,

de sorte que
γU +(1−L)B(L)V (h) = γU (h) + γ(1−L)B(L)V (h)

fY (ω) =

=
+∞
1 X
2π h=0
+∞
1 X
γU +(1−L)B(L)V (h)e+iωh

2π h=0
γU (h)e +iωh
+
+∞
1 X
2π h=0
= fU (ω) + f(1−L)B(L)V (ω)
γ(1−L)B(L)V (h)e+iωh

σ2 ¯¡ ¢ ¡ ¢¯2 σ 2
= U + ¯ 1 − eiω B eiω ¯ V
2π 2π

(d) Soit donc φ définie sur R par


1 ¯¡ ¢ ¡ ¢¯2
∀ω ∈ R, φ(ω) = 2 σ²2 = σU2 + ¯ 1 − eiω B eiω ¯ σV2
|A (eiω )|
Alors pour ce qui concerne la deuxième égalité
¯¡ ¢ ¡ ¢¯2
∀ω ∈ R, ¯ 1 − eiω B eiω ¯ ≥ 0

et donc
∀ω ∈ R, φ(ω) ≥ φ(0)
σ²2
Or par ailleurs φ(0) = A(1)2
et donc

1 1
∀ω ∈ R, 2 ≥
|A (eiω )| |A(1)|2
σ2
26
η est un bruit blanc de variance ση2 ssi ∀ω ∈ R, fη (ω) = 2πη .
1
P γ (0)
L’implication
R découle de ce que fη (ω) = 2π h∈Z γη (h)e
iωh
= η2π , et la réciproque de ce que Cov (ηt , ηt−h ) =
1 −iωh
2π ]−π,+π[ fη (ω)e dω = h=0 fη (0) (par symétrie de l’intégrale sur ] − π, 0 et ]0, π[).

Version du 20050121-11h02, révisée le 17 février 2005 52


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Considérons alors le cas où A(X) = 1 − ρX où ρ > 0 : on a

¯
¯A
¯
ρ ¯ ¯
|A(−1)|2 = |1 + ρ|2 = 1 + 2ρ + ρ2 > 1 − 2ρ + ρ2 = |A(1)|2

ce qui contredit le résultat précédent, de sorte que U et V ne peuvent pas être décorrélés.
Ceci reste vrai plus généralement si ρ ∈ C avec <(ρ) > 0 : notant ρ = a + ib il vient
¯ µ ¶¯2 ¯
ρ
¯2
¯ √
¯ = ¯1 − ρ ¯ = |1 + |ρ||2 = 1 + 2 a2 + b2 + a2 + b2 > a2 + b2 + 1 − 2a = |A(1)|2
|ρ| ¯ ¯ |ρ| ¯

puis de façon plus générale si A est un polynôme quelconque (sous forme canonique) dont
les racines sont toutes de partie réelle positive.
Ainsi, il n’est pas toujours possible de décomposer un processus Ma intégré en somme
d’une marche aléatoire et d’une tendance dont les bruits blancs associés sont décorrélés.
En revanche la décomposition de Beveridge-Nelson est toujours possible (sous réserve
que A0 (X) soit convergente).

? ?
?

Enoncé de l’exercice 2
En 1978 Robert E. Hall propose et fonde empiriquement dans “Stochastic Implications of
the Life Cycle-Permanent Income Hypothesis : Theory and Evidence” un modèle selon lequel
la consommation des ménages suit . . . une marche aléatoire ! L’objet de cet exercice est de
présenter très brièvement ce résultat.
☞ Q1 On considère un agent dont l’utilité u(·) à chaque date t dépend uniquement de sa consommation
ct . Ses sources de revenus sont le travail, qui lui rapporte wt entre les dates t et t + 1, et le
capital, qui lui rapporte rkt où r désigne le taux d’intérêt réel du marché (supposé constant) et
kt le stock de capital accumulé à la date t.
(a) Montrer que la contrainte budgétaire de l’agent à chaque date t ∈ Z s’écrit

kt+1 − kt = (rkt + wt ) − Ct

(b) On suppose que les revenus du travail à la date t + h sont inconnus à la date t, et modélisés
par la variable aléatoire Wt+h ; on note It l’ensemble d’information de l’agent disponible
à la date t.
Montrer que le choix à la date t du processus de la consommation future de l’agent est
déterminé par le programme de maximisation
¯
¯ maxCt ,Ct+1 ,... E (U (Ct , Ct+1 , . . .)| It )
¯ ©
¯ s.c. ∀h ≥ 0, kt+h+1 = ((1 + r) kt+h + wt+h ) − Ct+h

Version du 20050121-11h02, révisée le 17 février 2005 53


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
(c) Ecrire le lagrangien associé et en déduire les équations d’Euler

ment que
h=0

∗t+1
Ct+1
(1 + r)


h

Ct∗t
∀h ≥ 1,

= (1 + r)kt +

=
+∞
X

h=0
h=0

r
(1 + r)

(1 + r)h+1
h
∂E(U |It )
∂Ct+h
∂E(U |It )
∂Ct+h−1

(d) On suppose que l’agent a une préférence pour le présent de δ ≥ 0.


(1 + r)H

(g) En faisant l’hypothèse qu’il n’y a pas de cavalerie (i.e. limh∞


=

kt+H+1
1
1+r

Donner l’utilité intertemporelle U (Ct , Ct+1 , . . .) tirée du processus de consommation


(Ct , Ct+1 , . . .).
(e) En supposant que l’utilité u(·) de l’agent est quadratique et que δ = r montrer que le

X ∗t
Ct+h XH
Wt+h 1
∗t
profil de consommation future anticipé à la date t est constant : ∀h ≥ 0, Ct+h
(f) Montrer que pour tout H ≥ 0
H
= Ct∗t

kt+h+1
(1+r)h

(E (Wt+h+1 |It+1 ) − E (Wt+h+1 |It ))


= 0 ) montrer finale-

☞ Q2 On suppose tout d’abord que les salaires futurs suivent un processus Arma de la forme

∆(L)W = Θ(L)²

où ∆ et Θ sont sous forme canonique et ² est un bruit blanc. On suppose en outre qu’à toute
date t, It contient ²t , ²t−1 , . . .
(a) Montrer qu’il existe une série absolument convergente A telle que W = A(L)² et que ² est
l’innovation de W .
(b) Calculer E (Wt+h+1 |It ) et E (Wt+h+1 |It+1 ) pour h ≥ 0.
(c) En déduire que C est une marche aléatoire.
☞ Q3 On suppose cette fois que les salaires futurs suivent un Arma autour d’une tendance détermi-
niste, de la forme
∀t ∈ Z, ∆(L)Wt = φ(t) + Θ(L)²t
où φ est C ∞ , ∆ et Θ sont sous forme canonique et ² est un bruit blanc.
(a) Montrer qu’il existe une série absolument convergente A et une fonction ψ telles que
W = ψ(t) + A(L)², et calculer E (Wt+h+1 |It ) et E (Wt+h+1 |It+1 ) pour h ≥ 0.
(b) Montrer que C est une marche aléatoire.

Version du 20050121-11h02, révisée le 17 février 2005 54


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
☞ Q4 On suppose enfin que les salaires suivent un processus Arima autour d’une tendance détermi-
niste,27 de la forme

Corrigé de l’exercice 2
∀t ∈ Z, ( − L)d ∆(L)Wt = φ(t) + Θ(L)²t
avec les mêmes hypothèses sur ∆, Θ, φ et ², et avec d ≥ 1.
(a) Montrer que si deux suites réelles u et v vérifient ∀n ∈ N, ( − L)d un = vn alors

∀n ∈ N, un =
d−1
X

l=0
l
Cn+l ( l
− L) u0 +

(b) En déduire que C est une marche aléatoire ; à quel bruit blanc est-elle associée ?
Cnd−1

☞ Q1 (a) Les revenus de l’agent entre les dates t et t + 1 sont les revenus du capital rk t et du travail
wt , le seul emploi étant la consommation Ct entre ces dates. Le flux net de revenu est donc
la variation du capital entre les deux dates, soit
n
X

i=1
vi

kt+1 − kt = (rkt + wt ) − Ct

(b) Compte-tenu des informations It en sa possession à la date t un agent rationnel cherche à


maximiser son utilité intertemporelle espérée (car il est neutre au risque) E (U (C t , Ct+1 , ))
par un choix judicieux de consommations futures, sans néanmoins violer sa contrainte
budgétaire à aucune date future (il n’a pas accès au crédit).
(c) Le Lagrangien s’écrit

L (Ct , Ct+1 , . . . , kt , kt+1 , . . . , λ0 , λ1 , . . .) = E (U (Ct , Ct+1 , . . .)| It )


+∞
X
+ λh (kt+h+1 − (1 + r) kt+h − wt+h + Ct+h )
h=0

|It )
On a pour tout h ≥ 1 ∂C∂Lt+h
= ∂E(U
∂Ct+h
∂L
+ λh et ∂kt+h+1 = (1 + r)λh+1 − λh .
Une condition nécessaire du premier ordre est donc que
∂E(U |It )
∂Ct+h+1 λh+1 1
∂E(U |It )
= =
λh 1+r
∂Ct+h

27
La théorie macro-économique suggère en effet que le Pib est en effet intégré d’ordre 1, et que la croissance des
salaires suit celle du Pib.

Version du 20050121-11h02, révisée le 17 février 2005 55


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
(d) L’utilité attendue à la date t d’un choix de consommation futur Ct , Ct+1 , . . . est

il vient pour h ≥ 0

∂x

c’est-à-dire comme δ = r

(f) On a successivement pour H ≥ 1

Ct
Ct+1
=
=
U (Ct , Ct+1 , . . .) = δ

(x 7→ E (u(x)|It )) = x 7→

..
Wt
Wt+1
1
C
(1+δ)h t+h
∂x

(1+δ)h+1 t+h+1
1
C

∗t
∀h ≥ 0, Ct+h

+
+
P+∞

∂E (u(x)|It )

= Ct∗t
=
1
h=0 (1+δ)h u (Ct+h )

(e) u étant quadratique, u0 (x) est proportionnel à x ; comme par ailleurs


µ ¶

1
1+r

(1 + r)kt
(1 + r)kt+1


kt+1
kt+2
28

× 1+r
..
1

. .
1
Ct+H = Wt+H + (1 + r)kt+H − kt+H+1 × (1+r) H

PH Ct+h PH Wt+h
donc h=0 (1+r)h = h=0 (1+r)h + (1 + r)kt − kt+H+1

(g) En l’absence de cavalerie il vient


+∞
X ∗t +∞
X
Ct+h E (Wt+h |It )
h
= + (1 + r)kt
h=0
(1 + r) h=0
(1 + r)h

ce qui s’écrit encore


+∞
X E (Wt+h |It )
1 ∗t
1 C t = h
+ (1 + r)kt
1 − 1+r h=0
(1 + r)

soit
+∞
X rE (Wt+h |It )
Ct∗t = rkt +
h=0
(1 + r)h+1
et donc finalement, comme kt+1 = (1 + r)kt + Wt − Ct∗t
28
P+∞ 1 1
le cœfficient δ sert à normaliser h=0 (1+δ) h = δ . De tout façon puisqu’une fonction d’utilité de Von Neumann-

Morgenstern est définie à une transformation affine positive près, cela ne change rien à la suite.

Version du 20050121-11h02, révisée le 17 février 2005 56


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Soit alors A(X) =

convergente.
De façon similaire
P
∗t+1
Ct+1

Θ
k
¡P+∞
− Ct∗t =

k=0

est
α
−1
k X k
¢

inversible
P+∞

et en
r
h=0 (1+r)h+1

notant
(E (Wt+h+1 |It+1 ) − E (Wt+h+1 |It ))

☞ Q2 (a) ∆ étant supposé sous forme canonique, ses racines sont toutes de module strictement
supérieur àP
un et donc (voir
+∞
∆(X) = k=0 αk X .
−1
TD 2, exercice 1 ) il admet une inverse sous la forme

Θ(X) : A est absolument convergente car Θ est de degré


fini ; en outre W = ∆(L) Θ(L)² = A(L)² et la série
¡P+∞

∆(X)Θ(X)
t ∈ Z Wt = − k≥1 βk Wt−k + ²t et donc ² est l’innovation de W .
(b) Notons A(X) = +∞

et donc
P
k=0 ak X .
On a tout d’abord pour h ≥ 0
k

Wt+h+1 =

E (Wt+h+1 |It ) =
+∞
X
k=0 αk X

k=0
−1

P+∞
=
k

P+∞
¢
Θ(X) est absolument

k=0 βk X il vient pour

ak ²t+h+1−k

k=h+1
k

ak ²t+h+1−k

De façon similaire on a
P+∞
E (Wt+h+1 |It+1 ) = k=h ak ²t+h+1−k

(c) On a pour t ∈ Z
+∞
ÃÃ +∞ ! Ã +∞
!!
X r X X
Ct+1 − Ct = ak ²t+h+1−k − ak ²t+h+1−k
h=0
(1 + r)h+1 k=h k=h+1
+∞
ÃÃ +∞ ! Ã +∞ !!
X r X X
= ak+h ²t+1−k − ak+h ²t+1−k
h=0
(1 + r)h+1 k=0 k=1
+∞
X r
= ah ²t+1
h=0
(1 + r)h+1
à +∞ !
X rah
= ²t+1
h=0
(1 + r)h+1

et donc C est une marche aléatoire, qui plus est associée au bruit blanc L−1 ².
☞ Q3 (a) Posons A(X) = ∆(X)−1 Θ(X) (développée en série absolument convergente) et ψ :
(t 7→ ∆(L)−1 φ(t)) : il vient

∀t ∈ Z, Wt = ψ(t) + A(L) ◦ ²t

Version du 20050121-11h02, révisée le 17 février 2005 57


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
En outre ² est l’innovation de A.
Par ailleurs on a pour h ≥ 0

(b) On a pour t ∈ Z

Ct+1 − Ct =

=
½

+∞
X

h=0
à +∞
X
r
(1 + r)h+1

h=0
rah
(1 + r)h+1
ÃÃ

!
²t+1
P
E (Wt+h+1 |It ) = ψ(t + h + 1) + +∞
P

ψ(t + 1) +
k=h+1 ak ²t+h+1−k
E (Wt+h+1 |It+1 ) = ψ(t + h + 1) + +∞k=h ak ²t+h+1−k

+∞
X

k=h
ak ²t+h+1−k

et donc C est une marche aléatoire, encore associée au bruit blanc L−1 ².
☞ Q4 (a) Montrons tout d’abord par récurrence sur d ≥ 1 que

un =
d−1
X

l=0
l
Cn+l ( − L)l u0 +

– Lorsque d = 1 on a immédiatement (avec la convention Cn0 = 1 )


X
!

1≤id ≤···≤i1 ≤n

Ã

v id
ψ(t + 1) +
+∞
X

k=h+1
ak ²t+h+1−k
!!

n
X
un − un−1 = vn → un = u0 + v i1
i1 =1

– Soit alors d ≥ 2 tel que la formule soit vérifiée ( −¢L)d−1 un = vn .


¡ lorsqued−1
Alors en appliquant le résultat pour d = 1 à ( − L) un il vient
n
X
d−1 d−1
( − L) un = ( − L) u0 + v i1
i1 =1
¡ P ¢
donc en appliquant l’hypothèse de récurrence à u et ( − L)d−1 u0 + ni1 =1 vi1 n∈N il
vient
d−2
à id−1
!
X X X
l
un = Cn+l ( − L)l u0 + ( − L)d−1 u0 + v id
l=0 1≤id−1 ≤···≤i1 ≤n id =1
d−2
X X X
l
= Cn+l ( − L)l u0 + ( − L)d−1 u0 + v id
l=0 1≤id−1 ≤···≤i1 ≤n 1≤id ≤···≤i1 ≤n
 
d−2
X X X
= l
Cn+l ( − L)l u0 +  1 ( − L)d−1 u0 + v id
l=0 1≤id−1 ≤···≤i1 ≤n 1≤id ≤···≤i1 ≤n

Version du 20050121-11h02, révisée le 17 février 2005 58


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Or pour p, q ∈ N on a

Donc
X

un =
1 = |{(a1 , . . . , ap )/1 ≤ a1 ≤ · · · ≤ ap ≤ q}|
1≤ip ≤···≤i1 ≤q

X
d−2
X

X
l=0
d−1

l=0

ce qui achève la récurrence.


Enfin, comme

1≤id ≤···≤i1 ≤n
= |{(a1 , a2 + 1, . . . , ap + p − 1)/1 ≤ a1 ≤ · · · ≤ ap ≤ q}|
= |{(b1 , . . . , bp )/1 ≤ b1 < · · · < bp ≤ q + p − 1}|

l
Cn+l

l
Cn+l
p
= Cq+p−1

( − L)l u0 +

v id =
n
X
d−1
( − L)l u0 + Cn+d−1

id =1


( − L)d−1 u0 +

1≤id ≤···≤i1 ≤n

id ≤id−1 ≤···≤i1 ≤n
v id

1 vid = Cnd−1
n
X
X

1≤id ≤···≤i1 ≤n

id =1
v id
v id

il vient
Pd−1 l
Pn
un = l=0 Cn+l ( − L)l u0 + Cnd−1 i=1 vi

(b) Soit A(X) = ∆(X)−1 Θ(X) ; alors

∀t ∈ Z, ( − L)d Wt+h = ψ(t) + A(L)²t+h

Donc d’après le résultat précédent pour tout h ≥ 0


d−1
X h+1
X
l−1 l d−1
∀t ∈ Z, Wt+h+1 = Ch+l ( − L) Wt + Ch+1 (ψ(t + l) + A(L)²t+l )
l=1 l=1

Or
l
X
l
(1 − X) = Clk (−1)l−k Xk
k=0

donc pour h ≥ 0 et t ∈ Z (avec la convention C·−1 = 0)

X h+1
X
l−1 k
Wt+h+1 = Ch+l d−1
Cl (−1)l+k Wt−k + Ch+1 (ψ(t + l) + A(L)²t+l )
0≤k≤l≤d−1 l=0

Version du 20050121-11h02, révisée le 17 février 2005 59


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 4

ensae.net
Or pour 0 ≤ k ≤ l ≤ d − 1 on a

Donc en notant A(X) =

d−1
= Ch+1

d−1
= Ch+1

d−1
= Ch+1

Donc finalement
h+1
X

l=0
h+1
X
Ã
E (Wt−k |It+1 ) − E (Wt−k |It ) = Wt−k − Wt−k = 0

à à +∞

l=0
E

+∞
X

à h+1 !
X
X

k=0
P+∞
k=0

ak Wt+l+1−k −

al ²t+1
l=0
k=l

Ct+1 − Ct =
ak X k

E (Wt+h+1 |It+1 ) − E (Wt+h+1 |It )


¯
¯
¯

+∞
X
!
ak Wt+l+1−k ¯ It+1 − E
¯
+∞
à +∞

ak Wt+l+1−k

h=0
à +∞
X
r
X

k=0
!

k=l+1

(1 + r)h+1

r
Ã

d−1
¯ !!
¯
¯
ak Wt+l+1−k ¯ It
¯

d−1
Ch+1
à h+1 !
X
al ²t+1
l=0
h+1
X
!
!

= h+1
Ch+1 al ²t+1
h=0
(1 + r) l=0

En particulier,

C est une marche aléatoire, associée au bruit blanc L−1 ²

Ainsi, aussi général que soit le modèle linéaire régissant les revenus du travail, la consom-
mation reste une marche aléatoire ; la seule hypothèse forte est de nature économique, et
postule que la fonction d’utilité instantanée est quadratique.

?
? ?

Version du 20050121-11h02, révisée le 17 février 2005 60


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 5

ensae.net
Travaux Dirigés n◦5
Enoncé de l’exercice 1
L’objectif est ici de mettre en pratique les méthodes habituelles de traitement des séries tem-
porelles. Il s’agit en particulier de mettre en œuvre l’identification, l’estimation et la sélection
d’un modèle pour une série brute donnée.
Remarque : Les programmes Sas réalisés pour traiter cet exercice sont à envoyer à l’issue de la
séance (dûment indentés et commentés) à [email protected].

☞ Q1 (a) Fermer les applications qui ne sont pas strictement indispensables à l’étude des séries
temporelles linéaires (ce qui exclut Risk, Icq et Microsoft Outlook . . . ).
Télécharger depuis http://ensae.no-ip.com/SE206/ le fichier de données Donnees1 au
format Sas . 29
Lancer le logiciel Sas , commencer un nouveau programme et importer ces données.
(b) Représenter graphiquement la série XM .
Commenter.
Mettre en évidence la saisonnalité éventuelle de XM , et définir le cas échéant DeSaison
la série désaisonnalisée.
(c) Etudier les auto-corrélogrammes partiel et inverse de la série DeSaison .
Est-elle intégrée ? Définir le cas échéant DesInt , la série différenciée de DeSaison , et
réitérer le processus tant que nécessaire.
(d) Etudier les auto-corrélogrammes partiel et inverse de la série DesInt .
Proposer des ordres maximum p∗ ,d∗ et q ∗ vraisemblables pour la série DeSaison .
(e) Estimer le modèle le plus général Arima(p∗ , d∗ , q ∗ ) suivi par DeSaison .
Vérifier que ce modèle est valide.
(f) Rechercher s’il existe des sous-modèles valides du modèle Arima(p∗ , d∗ , q ∗ ) pour la série
DeSaison .
Quel modèle proposez-vous finalement de retenir pour la série XM ?
☞ Q2 En suivant une démarche analogue, proposer un modèle valide pour la série contenue dans le
fichier Donnees2.sd2.
☞ Q3 (facultative) Etudier les séries contenues dans les fichiers Base92.sd2, Champ.sd2, Lait.sd2,
Pari2.sd2, SNCF.sd2, TauxLongs.sd2, Traffic.sd2 et Viande.sd2.

29
Le fichier Donnees1.sd2 est au format Sas version 6 , le fichier Donnees1.sas7bdat au format Sas version 8
et le fichier Donnees1.txt au format texte prêt à être importé.

Version du 20050121-11h02, révisée le 17 février 2005 61


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 5

ensae.net
Corrigé de l’exercice 1
☞ Q1 (a) On suppose ici que le fichier Donnees1.sd2 est enregistré dans le dossier W :\Sas.
Le programme commencera donc par

LIBNAME Td SAS ’W :\Sas\’ ;


DATA table ;
SET Td SAS.donnees1 ;

à la suite de quoi les données contenues dans la table table enregistrée dans le fichier
W :\Sas\donnees1.sd2 sont accessibles sous le nom table .
(b) L’affichage graphique se fait au moyen de la PROC GPLOT de la façon suivante :

DATA table ;
SET Td SAS.donnees1 ;
time = N /* Permet de nommer explicitement l’axe des abscisses */ ;
PROC GLPOT ;
PLOT XM * time /* Trace XM en fonction du temps */ ;
SYMBOL I=JOIN ;
RUN ;

On observe que la série semble périodique, de période 12.


On définit en conséquence la série désaisonnalisée DeSaison au moyen de la fonction
retard LAG de la façon suivante : 30

DATA table ;
SET Td SAS.donnees1 ;
DeSaison = XM - LAG12(XM) /* LAG[n](Y)(t) = Y(t-n) */ ;

(c) Publi-information :

Auto-corrélation Ar(p) Ma(q) Arma(p,q)


décroı̂t exponentiel- décroı̂t exponentiel-
Directe ρ(h) nulle à partir de q + 1
lement vers 0 lement vers 0
Partielle r(h) nulle à partir de p + 1 ( ?) nulle à partir de p + 1
décroı̂t exponentiel- décroı̂t exponentiel-
Inverse ρi (h) nulle à partir de p + 1
lement vers 0 lement vers 0
30
Un façon habituelle de désaisonnaliser serait d’étudier la série moyennée sur une période M 12 XM = ( + L + · · · +
L )XM (voir TD 1, exercice 2 ) ; cependant sous réserve que l’on parvienne à modéliser DeSaison = ( − L 12 )XM
11

sous forme Arma le modèle final en XM sera plus simple, et c’est la démarche retenue ici. Cependant le reste de l’étude
pourrait porter sur M12 XM .

Version du 20050121-11h02, révisée le 17 février 2005 62


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 5

ensae.net
Les auto-corrélogrammes direct, partiel et inverse peuvent être visualisés au moyen l’option
IDENTIFY de la PROC ARIMA , de la façon suivante :

PROC ARIMA ;
IDENTIFY VAR=DeSaison NLAG=50 /* 0 <= h <= 50 */ ;
RUN ;

L’option NLAG permet de spécifier le nombre d’auto-covariances (inverses) à calculer.


On observe que les auto-corrélations inverses tendent (exponentiellement) vers zéro ; la
série DeSaison est donc apparamment stationnaire. Pour s’en assurer, on définit DesInt
la série de ses différences premières de la façon suivante :

DATA table ;
SET Td SAS.donnees1 ;
DeSaison = XM - LAG12(XM) /* LAG[n](Y)(t) = Y(t-n) */ ;
DesInt = DeSaison - LAG(DeSaison) /* LAG = LAG1 */ ;

que l’on étudie à nouveau :

PROC ARIMA ;
IDENTIFY VAR=DesInt NLAG=50 /* 0 <= h <= 50 */ ;
RUN ;

On observe que les auto-corrélations inverses ne décroissent pas exponentiellement (mais


plutôt linéairement) vers zéro, ce qui suggère que la série DesInt est sur-différenciée,
ce qui corrobore la stationnarité de DeSaison envisagée auparavant.
On se propose donc d’estimer un modèle Arma pour la série DeSaison . On sait qu’une
série Y suivant un modèle Arma(p,q) est telle que son auto-corrélation partielle est nulle
à partir de l’ordre p + 1 et son auto-corrélation directe est non-significative à partir de
l’odre q + 1. On recherche donc les premiers ordres au-delà desquels les auto-corrélations
(respectivement partielles et directes) sont toujours en-deçà du fractile à 95% de la loi
normale (à savoir 1.96), ce qui conduit à proposer pour la série DeSaison des ordres 31

d∗ = 0, p∗ = 3 et q ∗ = 2

(d) On cherche tout d’abord à estimer le modèle le plus général Arima(3,0,2) pur pour De-
Saison , au moyen de l’option ESTIMATE de la PROC ARIMA :
31
Cette identification préliminaire ne sert qu’à éviter d’estimer ensuite un modèle dont la plupart des cœfficients seront
non-significativement non-nuls. En toute rigueur, mieux vaudrait retenir les ordres plus conservatoires p ∗ = 7 et q ∗ = 7
quitte à s’assurer ensuite par un test statistique que les cœfficients au-delà de 3, 2 sont non-significativement non-nuls.
Par souci de simplicité on se place directement dans l’hypothèse ou ces tests auraient déjà été effectués.

Version du 20050121-11h02, révisée le 17 février 2005 63


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 5

ensae.net
PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=3 Q=2 ;
RUN ;

L’option METHOD=ML sélectionne la méthode d’estimation du maximum de vraisemblance ;


l’option PLOT permet d’obtenir les auto-corrélogrammes des résidus estimés, afin de
contrôler la validité du modèle.
Il faut en premier lieu s’assurer que le modèle estimé est bien un Arma, ce qui revient
à s’assurer que le résidu estimé est compatible avec l’hypothèse de bruit blanc : Sas
pratique à cet effet le test de Porte-Manteau dont le résultat est indiqué dans la section
Autocorrelation Check for White Noise . 32
Dans le cas présent le test de Porte-Manteau conduit à accepter l’hypothèse selon laquelle le
résidu est un bruit blanc, de sorte que la modélisation Arima(3,0,2) est statistiquement
légitime. En outre, les tests individuels de nullitié des cœfficients du modèle sont tous
rejetés au seuil 5%, de sorte que le modèle estimé est également valide.
(e) Sachant que le modèle Arima(3,0,2) est valide, on cherche enfin p ≤ 3 et q ≤ 2 tels que
le modèle Arima(p,0,q) soit valide. Pour ce faire on estime successivement
– un modèle Ar :
On cherche à modéliser DeSaison par un modèle Ar pur, dont on sait que l’ordre
éventuel est au plus 3. On calcule donc

PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=3 /* Implicitement, Q=0 */ ;
RUN ;

L’hypothèse selon laquelle les résidus ainsi estimés suivent un bruit blanc est acceptée,
donc on peut légitimement admettre que DeSaison suit un modèle Ar d’ordre au plus
3. Cependant le test individuel de nullité du cœfficient associé au troisième retard est
rejeté au seuil 5%.
On réestime donc un modèle Ar(2) :

PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=2 ;
RUN ;

dont le résidu estimé est toujours un bruit blanc (c’est heureux !), mais dont le second
retard n’est toujours pas significativement non-nul.
32
La colonne Prob donne la p−value associée : l’hypothèse que la variable est significativement non-nulle est acceptée
à 1 − pvalue %. Par exemple une valeur de 0.023 indique que la variable est significativement non-nulle “à 97%”, tandis
qu’une valeur de 0.452 laisse entendre que la variable n’est pas significative à 54%.

Version du 20050121-11h02, révisée le 17 février 2005 64


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 5

ensae.net
On estime donc finalement un modèle Ar(1) :

PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT P=1 ;
RUN ;

qui est toujours valide et dont tous les cœfficients sont, cette fois, significativement
non-nuls.
Ainsi la série DeSaison peut légitimement être modélisée par un modèle Ar(1).
– un modèle Ma :
On cherche à modéliser DeSaison par un modèle Ma pur, dont on sait que l’ordre
éventuel est au plus 2. On calcule donc
40 PROC ARIMA ;
IDENTIFY VAR=DesInt ;
ESTIMATE METHOD = ML PLOT Q=2 ;
RUN ;

L’hypothèse selon laquelle les résidus ainsi estimés suivent un bruit blanc est acceptée,
donc on peut légitimement admettre que DeSaison suit un modèle Ma d’ordre au plus
2 ; en outre tous les cœfficients sont significativement non-nuls (au seuil 5%).
Ainsi la série DeSaison peut légitimement être modélisée par un modèle Ma(2).
En définitive, la série DeSaison peut être modélisée par trois modèles statistiquement
valides, à savoir Arima(3,0,2), Arima(1,0,0) et Arima(0,0,2).
Le critère de parcimonie, selon lequel un modèle comprenant strictement moins de cœffi-
cients est toujours préférable, conduit nénanmoins à rejeter le modèle Arima(3,0,2) qui
est un sur-modèle strict à la fois du modèle Ar(1) et du modèle Ma(2).
Pour arbitrer enfin entre ces deux derniers modèles, on peut recourir à un critère informa-
tionnel, qui met en rapport la vraisemblance du modèle estimé et le nombre de paramètres
nécessaires pour l’estimer. Le critère d’Akaike ( AIC ) arbitre en l’occurence en faveur du
modèle Ma(2), que l’on rentiendra finalement.
(f) En conclusion, on peut raisonnablement proposer pour la série d’origine le modèle

( − L12 )(XM − 0, 377) = ( − 0, 286L + 0, 231L2 )²

où ² est un bruit blanc de variance σ²2 ' 0, 233.


☞ Q2
☞ Q3
?
? ?

Version du 20050121-11h02, révisée le 17 février 2005 65


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
Travaux Dirigés n◦6
Enoncé de l’exercice 1
On considère un processus (Xt )t≥0 vérifiant le modèle Arima canonique

t Xt+h
( − L)d Θ(L)X = ∆(L)²

de conditions initiales Z données33 et orthogonales à (²t )t≥0 , bruit blanc de variance σ²2 .
On s’intéresse à la prévision linéaire optimale d’horizon h ≥ 0

= EL (Xt+h |Xt , Xt−1 , . . . , X0 , Z)

☞ Q1 Montrer que (t Xt+h )h>q suit la récurrence linéaire de polynôme (1 − X)d Θ.


Application numérique :
En déduire (t Xt+h )h∈N pour h ≥ 1 en fonction de Xt et t Xt+1 lorsque d = 1, Θ(X) = (1 − 21 X)
et ∆(X) = 1 − 45 X.

☞ Q2 Soit eh = Xt+h − t Xt+h l’erreur de prévision d’horizon h ≥ 0.


(a) Montrer que eh ∈ h²t+1 , . . . , ²t+h i pour h ≥ 0.
(b) Montrer qu’il existe une suite (ah )h telle que

∀h ≥ 0, eh = a0 ²t+h + · · · + ah−1 ²t+1

et que (ah )h≥q suit la récurrence de polynôme (1 − X)d Θ(X).


Application numérique :
Calculer (ah )h dans l’exemple précédent.

(c) Calculer (V (eh ))h∈N et en donner un équivalent pour h → +∞ lorsque d ≥ 1.


Application numérique :
Calculer (V (eh ))h∈N dans l’exemple précédent.

☞ Q3 En supposant que ² est un bruit blanc gaussien, déterminer un intervalle de prévision de X t


d’horizon h ≥ 1 fiable à 95%.
Application numérique :
Donner l’intervalle d’horizon 2 à 95% lorsque xt = 12, t xt+1 = 10 et σ²2 = 1.

33
Z est donc un vecteur comprenant d + d◦ Θ valeurs initiales de X et d◦ ∆ valeurs initiales de ².

Version du 20050121-11h02, révisée le 17 février 2005 66


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
Corrigé de l’exercice 1
☞ Q1 Notons (1 − X)d Θ(X) =
Alors pour tout h ≥ 0

et donc pour tout h > q

t Xt+h

= −

= −
p+d
X
X

i=1
Pp+d
i=1 αi Xi et ∆(X) =

Xt+h = −

= EL ( Xt+h | Xt , . . . , X0 , Z)
p+d
p+d
X

i=1
Pq

αi EL (Xt+h−i | Xt , . . . , X0 , Z) +

car ² est l’innovation de X

αi t Xt+h−i +
i=1
Xq
0 car h > q
i=0
i=0 δi X

αi Xt+h−i +
q
X

q
X
i

i=0

i=0
.

δi ²t+h−i

δi EL  ²t+h−i | Xt , . . . , X0 , Z 

Ainsi à t fixé (t Xt+h )h suit pour h > q la récurrence linéaire de polynôme caractéristique
(1 − X)d Θ(X).
Application numérique :
Θ(X) = (1 − 12 X) est bien sous forme canonique car 2 > 1 est sa seule racine, et il en va de
| {z }
=h²t ,...,²0 ,Zi

même pour ∆(X) = 1 − 45 X.


Par ailleurs (1 − X)Θ(X) = 1 − 32 X + 21 X2 donc pour h ≥ 2
3 1
t Xt+h = t Xt+h−1 − t Xt+h−2
2 2
Donc il existe α, β tels que pour tout h ≥ 0
µ ¶h
h 1
t Xt+h = α1 + β
2

Des valeurs initiales pour h ∈ {1, 2} on tire alors


½
h = 1 : α + 12 β = t Xt+1
h = 2 : α + 14 β = t Xt+2

d’où ½ 1
α= 3
(4 t Xt+2 − t Xt+1 )
4
β= ( X − t Xt+2 )
3 t t+1
et donc finalement

∀h ≥ 1, t Xt+h = 13 (4 t Xt+2 − t Xt+1 ) + 1


3·2h−2
(t Xt+1 − t Xt+2 )

Version du 20050121-11h02, révisée le 17 février 2005 67


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
☞ Q2 (a) On a pour h ≥ 0

en notant ∆(X) =
Or

donc
eh = Xt+h − t Xt+h

Pq
=

i=0 δi X

eh =

eh =
p+d
X

i=1

i 34
.
αi (Xt+h−i − t Xt+h−i ) +

(Xt+h−i − t Xt+h−i ) =

Pmin(h,p+d)
i=1

Procédons alors par récurrence sur h ≥ 0 :


– on a e0 = 0 ∈ h²t+1 , . . . , ²t+h i = h0i

i=1
αi
αi eh−i +
½

et+h−i
| {z }
0
eh−i

Pmin(q,h−1)

– soit alors h ≥ 1 tel que ∀i < h, eh−i ∈ h²t+1 , . . . , ²t+h−i i ; alors


min(h,p+d)
i=0

∈h²t+1 ,...,²t+h−i i
+
min(q,h−1)
X

i=0

si h ≤ i
si h > i
δi ²t+h−i

δi ²t+h−i

min(q,h−1)
X

i=0
δi ²t+h−i

∈ h²t+1 , . . . , ²t+h i

ce qui achève la récurrence.


Autre méthode :
On sait que Xt+h ∈ h²t+h , . . .i car ² est l’innovation de X. Par ailleurs, EL (Y |²t , . . .) étant |=
la projection orthogonale de Y sur h²t , . . .i, (Y − EL (Y |²t , . . .)) ∈ h²t , . . .i .
Or ² est un bruit blanc donc (²t+h , . . .) est une famille orthogonale, et donc dans h²t+h , . . .i
l’orthogonal de h²t , . . .i est h²t+h , . . . , ²t+1 i de sorte que finalement

eh = (Xt+h − t Xt+h ) ∈ h²t+1 , . . . , ²t+h i

(b) On a e0 = 0 et e1 = ²t+1 . Définissons donc par récurrence (ah )h∈N par



 a0 = P 1
min(h,p+d)
ah = (δ + αi ah−i ) si h ∈ J1, q + 1K
 Pmin(h,p+d)i
i=1
ah = i=1 αi ah−i sinon

Montrons alors par récurrence sur h que ∀h ≥ 1, eh = a0 ²t+h + · · · + ah−1 ²t+1


– On a e1 = ²t+1 = a0 ²t+1 puisque a0 = 1 par définition.
34
² est l’innovation de X, donc hXt−1 , . . .i = h²t−1 , . . .i, donc il n’y a pas de terme en ²t+h−i lorsque h − i ≤ 0.

Version du 20050121-11h02, révisée le 17 février 2005 68


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
– Soit alors h ≥ 2 tel que ∀l ∈ J0, h − 1K, el = a0 ²t+l + · · · + al−1 ²t+1 ; montrons que
eh = a0 ²t+h + · · · + ah−1 ²t+1 .
Alors

eh =

=
min(q,h−1)
X

k=0
min(q,h−1)
X

k=0
min(q,h−1)
X

k=0
min(q,h−1)
X

k=0

min(q,h−1)
X

k=0

min(q,h−1)
X

k=0
δk ²t+h−k +

δk ²t+h−k +

δk ²t+h−k +

δk ²t+h−k +

δk ²t+h−k +

δk +
X
min(h,p+d)

h−1
X

l=1
X

i=1
min(h,p+d)
X

i=1

1≤i≤min(k,p+d)

X
αi eh−i

αi 

X

1≤i≤min(h,p+d) i≤l≤h−1
h−1

l=1 1≤i≤min(h,p+d,l)

X

1≤i≤min(l,p+d)
(h−i)−1
X

j=0


aj ²t+(h−i)−j 

αi al−i ²t+h−l

αi al−i ²t+h−l

αi ak−i  ²t+h−k +

αi al−i  ²t+h−l

h−1
X
par hypothèse de récurrence

l=min(q,h−1)+1


X

1≤i≤min(l,p+d)

αi al−i  ²t+h−l

h−1
X
= ah−k ²t+h−k
k=0

ce qui achève la récurrence.


Ainsi lorsque h ≥ q, la suite (ah )h suit la récurrence linéaire de polynôme (1 − X)d Θ(X).
Application numérique :
On a tout d’abord
µ ¶ µ ¶
3 1 4 3 1 4
e1 = Xt − Xt−1 + ²t+1 − ²t − Xt − Xt−1 − ²t = ²t+1
2 2 5 2 2 5

ce dont on tire a0 = 1.
De même
3 4
e2 = e1 + ²t+2 − ²t+1
2 5
et donc a1 = 32 a0 − 45 = 10
7

Puis pour h ≥ 3 on a ah = 32 ah−1 − 21 ah−2 . Or les racines de 1 − 23 X − 12 X2 sont 1 et 21 ,


donc il existe α, β tels que pour tout h ≥ 0
µ ¶h
1h
ah = α1 + β
2

Version du 20050121-11h02, révisée le 17 février 2005 69


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
et des valeurs initiales

on tire finalement

(c) On a pour h ≥ 0
½
h=0 : α+β =1
h = 1 : α + 12 β = 10

∀h ≥ 0, ah =

V (eh ) = V

=
h−1
X

k=0
à h−1

à h−1
X
X

k=0
7

k=0
2
5
+ 3 1
5 2h

ak ²t+h−k

ak 2 V (²t+h−k )

ak 2
!

Il ne reste plus alors qu’à déterminer un équivalent en k de ak , puis en h de


σ²2

Comme (ak )k∈N suit la récurrence de polynôme (1 − X)Θ(X) dont 1 est racine, on montre
³P ´
!

³P
h−1
k=0 a k
2
´
.

h−1 2
que a αh2d−1 avec α > 0.
k=0 k
h^ → +∞
Notons en effet λ1 , . . . , λr , r ≤ p, les racines de Θ(X), 35 et soit β0 , β1 , . . . , βr ∈ R[X] tels que
∀h ≥ q, ah = β0 (h)1h + β1 (h)λh1 + · · · + βr (h)λhr , avec d◦ β0 = d − 1 et ∀i ∈ J1, rK, d◦ βi ≤ p.
Alors pour h ≥ 0
h−1
à r
!2
X X
V (eh ) = β0 (k) + βi (k)λki σ²2
k=0 i=1
 Ã !2 
h−1
X X h−1
r X h−1
X r
X
= σ²2  β0 (k)2 + 2 β0 (k)βi (k)λki + βi (k)λki 
k=0 i=1 k=0 k=0 i=1

Notons alors ρ le cœfficient de plus haut degré (d − 1) de β0 ; ainsi comme d ≥ 1 on a


Ph−1
β0 (h) ρhd−1 . Soit par ailleurs i ∈ J1, rK ; montrons que k=0 β0 (k)βi (k)λki =h→+∞
h ^
→ +∞
³P ´
h−1
0 β
k=0 0 (k) .
Soit mi un majorant de tous les cœfficients de βi (en valeur absolue), et notons di = d◦ βi .
35
Prises deux-à-deux distinctes ; elles sont en outre toutes de module inférieur à 1, et notamment différentes de 1.

Version du 20050121-11h02, révisée le 17 février 2005 70


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
Alors

Enfin, comme
¯ h−1
¯X
¯
¯
¯

Ph−1
k=0

k=0

De la même façon on a pour i ∈ J1, rK

h−1
X

k=0

En définitive, comme β0 (k)2


à r
X

i=1

h−1
X

k=0
¯
¯
β0 (k)βi (k)λi ¯ ≤
¯
h−1
X

k=0

≤ d i mi

k di λki =h→+∞ O(1)


¡

à h−1
X
β0 (k)

β0 (k)βi (k)λki =t→+∞ O

βi (k)λki

k^
→ +∞
!2
Ph−1 ¡

≤ max
i
¢
β0 (k) di mi k di λki
! Ã h−1

36
X

on a finalement
à h−1
X

k=0
k di λki

β0 (k)

h−1
X

k=0
!
!

k=0

βi (k)λki

¡
k=0
¢2

ρ2 k d−1 on a (par Césaro)


¢2
k=0

=h→+∞ O(1), et donc

r2 βi (k)λki =h→+∞ O(1)

Ph−1
V (eh ) β0 (k)2 ρ2 h2d−1 −−−−→ +∞
h^
→ +∞ k=0
h^
→ +∞ h→+∞

36
On a
h−1
X +∞
X
k di λki ≤ k di λki
k=0 k=0

Or en divisant Xdi suivant les puissances croissantes il vient qu’il existe (ν0 , . . . , νdi −1 ) tel que ∀k ∈ N, k di = ν0 k(k −
1) · · · 1 + ν1 (k − 1)(k − 2) · · · 1 + · · · + νdi −1 1 et donc
+∞
X i −1
+∞ dX
X
k di λki = νj j!k j λki
k=0 k=0 j=0
i −1
+∞ dX
X µ ¶
∂j ¡ k
¢
= νj x →
7 x (λi )
∂xj
k=0 j=0
i −1
dX µ µ ¶¶
∂j 1
= νj x 7→ (λi ) car la série converge normalement
j=0
∂xj 1−x
i −1
dX
−1−j
= νj (1 − λi )
j=0
< +∞

Version du 20050121-11h02, révisée le 17 février 2005 71


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
Autrement dit, il faut se limiter à des horizons de prévision raisonnables.
Application numérique :
On a ici pour h ≥ 0

☞ Q3 On a pour h ≥ 0 eh =
V (eh ) =

Ph−1
=

=
h µ
X

i=0
Xh

i=0
µ ¶2
2
5
4 2
2
+

5
31
5 5 2i
õ ¶
2
2

hσ²2 +

σ h +
25 ²
+2

12
25
¶2

µ
2 3
µ
2 31
5 52
1

2

1
i

2
5 5 1 − 21
¶ µ ¶2 !

1
h

2 − h − h σ²2
+

1
4

3

µ ¶2
3
5
1
5 4i
1 −

ai ²t+h−i , et ² est un bruit blanc gaussien. Donc


i=0

(Xt − t Xt+h ) = eh ; N 0,
à à h−1 ! !
X
a2i σ²2

Par conséquent un intervalle de confiance Iα (h) d’horizon h, qui est tel que
P (Xt+h ∈ Iα (h)) = 1 − α
4
1

1 − 41
h

i=0
!
σ²2

37

est
· qP ¸
N (0,1) h−1
Iα (h) = t Xt+h ± q1− α i=0 a2i σ²
2

N (0,1) α
où q1− α désigne le fractile à 1 − 2
% de la loi normale centrée réduite.
2

Application numérique :
On a
1
t Xt+2 = (2 · 10 − 12) + (12 − 10) = 9
22−1
et de plus à µ ¶2 !
¡ ¢ 7
V (e2 ) = a20 + a1 σ²2 =
2
1+ · 1 = 1.49 ' 1.222
10
et donc
I95% (2) ' [ 7.78 , 10.22 ]

?
? ?

37
La somme de deux normales indépendantes est une normale, d’espérance leur somme et de variance leur somme.

Version du 20050121-11h02, révisée le 17 février 2005 72


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
Enoncé de l’exercice 2

¥ Partie 1
On considère un processus X stationnaire vérifiant le modèle Arma(1,1) canonique

où ² est un bruit blanc de variance σ²2 .

☞ Q2 L’observation

t t+1 = k=1 ak Xt+1−k .
( − φL)X = ( − θL)²

On s’intéresse pour t ∈ Z à la prévision linéaire optimale d’horizon 1

= EL (Xt+1 |Xt , Xt−1 , . . .)


t Xt+1

Exprimer t X̂t+1 en fonction de Xt et t−1 X̂t .

☞ Q3 On définit et = σ2 E
1
µ³
²
Xt − t−1 X̂t
Exprimer et+1 en fonction de et .
☞ Q4 Calculer γX (0) puis e0 .
´2 ¶
P P
☞ Q1 Montrer qu’il existe une série absolument convergente k ak telle que t Xt+1 = +∞
et donner son terme général.
k=1 ak Xt+1−k

Pt+1 de (Xt )t<0 étant impossible, on définit pour t ∈ N la prévision linéaire empirique

l’erreur relative de la prévision tronquée.

En déduire l’expression de (et )t .


µ³ ´2 ¶
☞ Q5 Que dire de l’erreur de la prévision tronquée E Xt − t−1 X̂t lorsque t → +∞ ?

¥ Partie 2
On considère désormais à un processus (Xt )t≥0 vérifiant le modèle Arima(1,1,1) canonique

( − L)( − φL)X = ( − θL)²

de condition initiale Z = (X−1 , X−2 , ²−1 ) orthogonale à (²t )t≥0 bruit blanc de variance σ²2 .
P
☞ Q1 Montrer qu’il existe une série absolument convergente k ak et une fonction f : N → R3 telles
que
X t
∀t ∈ N, Xt = ak Xt−k + ²t + Z × f (t)
k=1

L2
Montrer qu’en outre Z × f (t) −−−−→ (0).
t→+∞
Pt+1
☞ Q2 On définit de nouveau la prévision linéaire empirique t X̂t+1 = k=1 ak Xt+1−k .
Exprimer t X̂t+1 en fonction de Xt , Xt−1 et t−1 X̂t .
µ³ ´2 ¶
☞ Q3 Soit et = σ2 E
1
Xt − t−1 X̂t l’erreur de prévision relative.
²

Exprimer et+1 en fonction de et , et en déduire l’expression de et .

Version du 20050121-11h02, révisée le 17 février 2005 73


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
☞ Q4 Que dire cette fois de l’erreur de la prévision tronquée E

Corrigé de l’exercice 2
☞ Q1 On a pour t ∈ Z

car h²t , . . .i = hXt , . . .i


Par ailleurs
t Xt+1
µ³
Xt −

= EL (Xt+1 |Xt , Xt−1 , . . .)


= EL (φXt + ²t+1 − θ²t |Xt , Xt−1 , . . .)
= φXt − θ²t

²t = ( − θL)−1 ( − φL)Xt

= ( − φL)
à +∞
X
!
θ k Lk ◦ X t
k=0
t−1 X̂t
´2 ¶
lorsque t → +∞ ?

+∞
X
= Xt + θk−1 (θ − φ)Xt−k
k=1

Donc en définitive
+∞
X
t Xt+1 = (φ − θ)Xt − θ θk−1 (θ − φ)Xt−k
k=1
+∞
X
= θk (φ − θ)Xt−k
k=0
+∞
X
= θk−1 (φ − θ)Xt+1−k
k=1

et on pose donc pour tout k ∈ N

ak = θk−1 (φ − θ)

P
La série k≥1 ak est alors absolument convergente car |θ| < 1 car le modèle est sous forme
canonique.

Version du 20050121-11h02, révisée le 17 février 2005 74


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
☞ Q2 On a pour t ∈ N

☞ Q3 On a pour t ∈ N

et+1 =

=
1
σ²2
1
σ²2
1
σ²2
1
σ²2
1 ³
σ²2
E

E
µ³

µ³

µ³

µ³

V (²
t X̂t+1

Xt+1 − t X̂t+1

t+1 − θ²
³

t ) +
0
= θ (φ − θ)Xt +

= (φ − θ)Xt + θ

= (φ − θ)Xt + θ t−1 X̂t

´2 ¶

Xt+1 − (φ − θ)Xt − θ t X̂t−1

2θCov
³
(Xt+1 − φXt ) + θ Xt − t X̂t−1

(²t+1 − θ²t ) + θ Xt − t−1 X̂t


³
´´2 ¶

´´2 ¶

´´2 ¶

²t+1 − θ²t , Xt −
t+1
X

k=2
Xt

k=1
θk−1 (φ − θ)Xt+1−k

θk−1 (φ − θ)Xt−k

t−1 X̂t
´ ³
+ θ 2 V Xt − t−1 X̂t
´´

2
= (1 + θ 2 ) + 2 Cov (−θ²t , θXt ) + θ2 et
σ² | {z }
−θ 2 σ²2

= (1 − θ2 ) + θ2 et

☞ Q4 On a pour t ∈ N

γX (0) = V (Xt )
¡ ¢
= E Xt 2
¡ ¢
= E (φXt−1 + ²t − θ²t−1 )2
¡ ¢
= E (φXt−1 + ²t − θ²t−1 )2
¡ 2 ¢ ¡ ¢
= φ2 E Xt−1 + 0 − 2φθE (Xt−1 ²t−1 ) + E (²t − θ²t−1 )2 car ²t
|=

Xt−1
¡ ¢
= φ2 γX (0) − 2θφσ²2 + 1 + θ2 σ²2

Par conséquent comme |φ| < 1 (car le modèle est canonique) il vient

1−2θφ+θ 2 2
γX (0) = 1−φ2
σ²

Version du 20050121-11h02, révisée le 17 février 2005 75


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
Par suite, on a

de sorte que

Donc en définitive
e0 =

=
1
σ²2
E

σ²2
µ³

1 ¡ 2¢
σ²2
E X0

γX (0)
X0 − −1 X̂0

1 − 2θφ + θ 2
1 − φ2
´2 ¶

car −1 X̂0 = EL (X0 |∅) = E (X0 ) = 0

Or par ailleurs et+1 = θ2 et + (1 − θ 2 ) ce qui s’écrit encore

(et+1 − 1) = θ 2 (et − 1)

et = θ2t (e0 − 1) + 1

et = 1 + θ2t (θ−φ)2
1−φ2

³³ ´´
☞ Q5 En particulier, l’erreur absolue de la prévision d’horizon 1 tronquée E Xt − t−1 X̂t

converge vers σ²2 lorsque t → +∞, puisque |θ| < 1 puisque le modèle est canonique.
Remarquons en outre que la vitesse de convergence est géométrique (i.e. rapide), et que
l’erreur est toujours supérieure à σ²2 si θ > 0.
(θ−φ)2
Notons enfin que l’erreur maximale 1 + 1−φ2
est une fonction croissante de θ ∈] − 1, 1[ et
de φ ∈] − 1, 1[. 38
☞ Q1 On a pour tout t ∈ N
Xt = (φ + 1)Xt−1 − φXt−2 + ²t − θ²t−1
P
Construisons par récurrence (ak )k∈N et (f (t))t∈N tels que ∀t ∈ N, Xt = tk=1 ak Xt−k + ²t + Z ×
f (t).    
φ+1 φ+1
– On a X0 = ²0 + (X−1 , X−2 , ²−1 ) ×  −φ , et on pose donc f (0) =  −φ 
−θ −θ
– On a
X1 = (φ + 1)X0 − φX−1 + ²1 − θ²0
Or par ailleurs ²0 = θ²−1 + X0 − (φ + 1)X−1 + φX−2 et donc finalement
 
θφ + θ − φ
X1 = (φ + 1 − θ)X0 + (X−1 , X−2 , ²−1 ) ×  −θφ 
2
−θ
38
Elle est décroissante en φ au-delà de θ1 , mais φ < 1 < θ1 .

Version du 20050121-11h02, révisée le 17 février 2005 76


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
et on pose

a1 = φ + 1 − θ

Xt+1 = (φ + 1)Xt − φXt−1 + ²t+1 − θ²t


Ã
= (φ + 1)Xt − φXt−1 + ²t+1 − θ Xt −

= (φ + 1 − θ)Xt + (θa1 − φ)Xt−1 + θ


et f (1) = 

Construisons alors at+1 et f (t + 1) tels que at+1 = θat et Xt+1 = t+1


f (t + 1).
On a

Posons donc at+1 = θat et f (t + 1) = θf (t) ; alors par construction

Xt+1 =
t+1
X

k=1
P

θφ + θ − φ
−θφ
−θ 2

t
X

k=2

ak Xt+1−k + ²t+1 + Z × f (t + 1)
t
X

k=1

– Soit alors t ≥ 2 tel que a1 , . . . , at soient construits et f (0), . . . , f (t) définis ; supposons en
outre que ∀l ∈ J3, tK, al = θal−1 . 39
k=1 ak Xt+1−k + ²t+1 + Z ×

ak Xt−k − Z × f (t)

ak Xt−k + θZ × f (t) + ²t+1


!

ce qui achève la récurrence. P


On construit ainsi (ak )k≥0 et f tels que ∀t ∈ N, Xt = tk=1 ak Xt−k + ²t + Z × f (t).
 
θφ + θ − φ
En outre, on a pour k ≥ 1 ak+1 = θk−1 a2 et pour t ≥ 1 f (t) = θ t−1  −θφ .
2
−θ
P
En particulier, la série k ak est absolument convergente puisque |θ| < 1 (le modèle étant sous
forme canonique).
Par ailleurs pour t ≥ 1

kZ × f (t)k2 ≤ |θ|t−1 kZ × f (1)k2 −−−−→ 0


t→+∞

car Z borné et |θ| < 1, c’est-à-dire


L2
Z × f (t) −−−−→ (0)
t→+∞

39
Cette hypothèse, gratuite lorsque t = 2, est nécessaire conduire la récurrence dès que t ≥ 3, car le calcul ci-dessous
requiert la forme explicite des ak pour k < t.

Version du 20050121-11h02, révisée le 17 février 2005 77


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
☞ Q2 On a pour t ≥ 2

t X̂t+1 =
t+1
X

k=1

= a 1 Xt +

= a 1 Xt +

= a 1 Xt +
ak Xt+1−k

= a1 Xt + a2 Xt−1 +
t+1
X

k=2
X

Ã
t

k=1

= a1 Xt + a2 Xt−1 + θ

= a1 Xt + a2 Xt−1 + θ
=
ak Xt+1−k

ak+1 Xt−k

a2 Xt−1 +

t
X

k=2
X
t
X

k=2

k=2
³
ak+1 Xt−k
!

θ(k+1)−2 a2 Xt−k

¡ ¢
θk−2 a2 Xt−k

t−1 X̂t − a1 Xt−1

a1 Xt + (a2 − a1 )Xt−1 + θ t−1 X̂t


´

☞ Q3 On a pour t ≥ 0
Xt+1 = (φ + 1)Xt − φXt−1 + ²t+1 − θ²t
et donc pour t ≥ 2

Xt+1 − t X̂t+1 = (φ + 1 − a1 )Xt + (a2 − a1 − φ)Xt−1 + θ t−1 X̂t + ²t+1 − θ²t

Or par définition de a, a1 = φ + 1 − θ et a2 = θa1 − φ, donc


³ ´
Xt+1 − t X̂t+1 = θ Xt − t−1 X̂t + ²t+1 − θ²t

et donc
et+1 = θ2 et + (1 − θ 2 )
Par conséquent
 
 1 µ³ ´2 ¶ 
2t 2(t−1)  
et = θ (e0 − 1) + 1 = θ  2E X1 − 0 X̂1 − 1 + 1
 σ² 
| {z }
e1

Version du 20050121-11h02, révisée le 17 février 2005 78


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 6

ensae.net
☞ Q4 Enfin,

E
µ³
X1 − 0 X̂1
´2 ¶ ¡
= E (²1 + Z × f (1))2
¡





= 


¢

= E (²1 + ²−1 + (θ + θφ − φ)X−1 + θφX−2 )2



(θ + θφ − φ)2
θ 2 φ2
(θ2 + 1)

 −2θφ(θ + θφ − φ)
 −2θ2 (θ + θφ − φ)
2θ3 (θ + θφ − φ)
¢

0
 
 
 
 
 ×
 
 ¡ 2 ¢
E ¡X−1
E X−2
σ²2
2

  Cov (X−1 , X−2 )


 
  Cov (X−1 , ²−1 )
Cov (X−2 , ²−1 )
¢

Ainsi en général même si l’erreur de prévision absolue Xt − t−1 X̂t converge vers σ²2 , elle dépend
à horizon fini non seulement de σ²2 mais aussi de la variance-covariance des conditions initiales
Z.

? ?
?









Version du 20050121-11h02, révisée le 17 février 2005 79


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
Travaux Dirigés n◦7
Enoncé de l’exercice 1
On considère une série réelle observée (yt )t∈J0,200K pour laquelle on cherche une représentation
stationnaire, et dont la représentation est la suivante :

☞ Q1 Justifier le modèle où y est la réalisation d’un processus Y non-stationnaire vérifiant

∀t ∈ Z, Φ(L)Yt = µ + βt + ²t

où ² est un bruit blanc de variance σ²2 à déterminer.


☞ Q2 Montrer qu’il existe un polynôme Φ∗ tel que Y vérifie

∀t ∈ Z, ∆Yt = µ + βt + φYt−1 + Φ∗ (L)∆Yt + ²t

où ∆ = − L.
☞ Q3 On réalise alors la régression de ∆Yt sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−8 i ; l’estimation des para-
mètres est la suivante (où LX désigne la série (Yt−1 )t∈Z et LY i désigne la série (∆Yt−i )t∈Z
):

Version du 20050121-11h02, révisée le 17 février 2005 80


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
La modélisation proposée est-elle raisonnable ?
☞ Q4 Justifier le modèle où y est la réalisation d’un processus Y stationnaire vérifiant

∀t ∈ Z, ∆Yt = µ + βt + φYt−1 + φ1 ∆Yt−1 + ²t

On s’appuiera pour ce faire sur


(a) Le test de φ∆Yt−4 = · · · = φ∆Yt−8 = 0 dans le modèle à 8 retards :

(b) La régression de ∆Yt sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−3 i :

(c) Le test de φ∆Yt−2 = · · · = φ∆Yt−8 = 0 dans le modèle à 8 retards :

Version du 20050121-11h02, révisée le 17 février 2005 81


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
(d) La régression de ∆Yt sur h1, t, Yt−1 , ∆Yt−1 i :

(e) Les auto-corrélations directes du modèle final

(f) Les auto-corrélations inverses du modèle final

(g) Les auto-corrélations partielles du modèle final

Version du 20050121-11h02, révisée le 17 février 2005 82


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
(h) Le test de Porte-Manteau du bruit blanc du modèle final :

☞ Q5 Montrer que le modèle retenu s’écrit

et exprimer ρ en fonction de φ.
( − ρL)Yt = µ + βt + φ1 ∆Yt−1 + ²t

☞ Q6 Tester l’hypothèse “H01 : β = 0 et ρ = 1” en utilisant les tables suivantes :

(a)

(b)

(c)

Version du 20050121-11h02, révisée le 17 février 2005 83


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
(d)

(e)

☞ Q7 Tester finalement l’hypothèse “H02 : µ = 0, β = 0 et ρ = 1” et conclure.

Version du 20050121-11h02, révisée le 17 février 2005 84


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
Corrigé de l’exercice 1
☞ Q1 L’observation de la série fait apparaı̂tre une tendance déterministe linéaire : la série observée
est “assez proche” d’une certaine droite ȳt = a + bt.
Si l’on admet, comme le suggère son graphe, qu’à cette composante déterministe près elle est
en outre stationnaire du second ordre, alors le processus Y dont elle est la réalisation admet
une représentation auto-régressive infinie de la forme

Or, à supposer que Φ(X) =


P+∞
k=0

Φ(L) ◦ (bt)t = b
Φ(L)(Yt − a − bt) = ²t

φk Xk ainsi que sa dérivée sont de rayon supérieur à 1 on a

= b
+∞
X

k=0
à +∞
X

k=0
φk (t − k)

φk
!
t−b
à +∞
X

k=0
kφk
!

0
= bΦ(1)t − bΦ (1)

Comme Φ(L) ◦ (a) = Φ(1) × a il vient en notant µ = a − bΦ0 (1) et β = bΦ(1)

Φ(L)Yt = µ + βt + ²t

En pratique, on se contente de chosir Φ de degré fini mais assez grand pour que ² soit signifi-
cativement un bruit blanc.
☞ Q2 Afin de tester la présence éventuelle d’une racine unitaire, on cherche à factoriser ”de force”
Φ(L) par − L (transformation de Beveridge-Nelson, voir TD 4, exercice 1
) : pour ce faire on effectue la division euclidienne Φ(X) par 1 − X ce qui s’écrit, comme 1 est
racine de Φ(X) − Φ(1) 40

Φ(X) − Φ(1)
Φ+ (X) = ∈ R[X], d ◦ Φ+ ≤ d ◦ Φ − 1
(1 − X)

Alors
Φ(X) = Φ(1) + (1 − X)Φ+ (X)
40
Cette opération
PNn’est normalement définie que pour les polynômes, i.e. lorsque Φ est de degré fini. Si d ◦ Φ = +∞ on
définit ΦN (X) = k=0 φk X dont on tire Φ+
k
N (X) pour N ≥ 1, dont on montre qu’elle est convergente de rayon supérieur
à 1.

Version du 20050121-11h02, révisée le 17 février 2005 85


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
et donc

Φ(L)Y = Φ(1) × Y + ( − L) · Φ+ (L) ◦ Y


= Φ(1) × Y + Φ+ (L) ◦ ∆Y


Φ(0)−Φ(1)

= Φ(1) × Y + (1 − Φ(1)) × ∆Y − Φ∗ (L) ◦ ∆Y


= ∆Y + Φ(1)LY − Φ∗ (L) ◦ ∆Y

et comme par ailleurs Φ(L)Yt = µ + βt + ²t il vient en définitive


}

= Φ(1) × Y + Φ+ (0) × ∆Y + Φ+ (L) − Φ+ (0) ◦ ∆Y
| {z } | {z

∆Yt = µ + βt + Φ∗ (L)∆Yt − Φ(1)Yt−1 + ²t

qui est bien le modèle recherché en posant φ = −Φ(1).


Notons que par construction Φ∗ (0) = 0, donc Φ∗ (X) ne contient que des puissances stricement
−Φ∗ (L)

positives de X, et donc Φ∗ (L) ◦ ∆Yt ne contient que des valeurs passées ∆Yt−1 , ∆Yt−2 , . . . de
∆Yt .
Tester si le modèle est intégré, c’est tester si Φ(1) = 0 ; sous cette forme cela revient juste à
tester si le cœfficient φ de Yt−1 est non-significativement non-nul.

Il aurait été possible de pratiquer une telle régression directement sur l’équation en Y t au lieu
de celle en ∆Yt ; mais comme Y n’est pas stationnaire, Cov (Yt , Yt+h ) est significative pour tout
h, donc la régression aurait dû comporter une infinité de variables explicatives (Y t−h )h≥1 . . . A
l’inverse si ∆Y est stationnaire, un nombre fini d’explicatives peut suffire.
☞ Q3 Il est tout d’abord nécessaire de déterminer Φ tel que le modèle soit vérifié. Pour ce faire on
choisit un degré arbitrairement grand pour Φ (ici 9) 41 et on vérifie que le modèle estimé par la
régression des moindres carrés ordinaires 42 est statistiquement valide ; dans le cas présent, le
R2 ajusté (qui vaut 0, 5129) assure que le modèle capture une part suffisante de la variance, et
donc que suffisamment de variables explicatives ∆Yt−1 , ∆Yt−2 , . . . ont été introduites.
Remarquons que lorsque ∆Y est stationnaire, les cœfficients de la régression sont donc aympto-
tiquement normaux, ce qui justifie l’emploi du test de Student pour tester leur significativité. 43
En l’occurence, on observe que les cœfficients de la régression sur ∆Yt−4 , . . . , ∆Yt−8 ne sont
(individuellement) pas significativement non-nuls (colonne Prob > |τ | ).
Ainsi la modélisation proposée est valide mais le modèle estimé ici n’est pas significatif.
☞ Q4 (a)
(b)
(c)
41
Car 8 = d◦ Φ∗ = d◦ Φ+ = d◦ Φ − 1.
42
Puisque ² est censé être un bruit blanc.
43
En toute généralité il serait possible que ∆Y ne soit pas stationnaire, auquel cas l’emploi du test de Student serait
inadapté.

Version du 20050121-11h02, révisée le 17 février 2005 86


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
(d)
(e)
(f)
(g)
(h) On se propose donc de déterminer le sous-modèle minimal qui soit totalement significatif.
Remarque : Bien que l’on observe à ce stade que le cœfficient en Yt−1 est significativement non-
nul, on ne peut pas en déduire qu’il le sera aussi dans le sous-modèle où tous les cœfficients
sont significatifs.44 Il est nécessaire de déterminer ce sous-modèle et d’y tester la significativité
du cœfficient en Yt−1 .

– Compte-tenu de la régression précédente, on teste la nullité simultanée des cœfficients


de ∆Yt−4 , . . . , ∆Yt−8 dans la régression. En l’occurence, l’hypothèse H0 : “ φ∆Yt−4 =
· · · = φ∆Yt−8 = 0 ” est acceptée car la statistique de Fisher associée vaut 0,7841 .
– On effectue donc la régression de ∆Y sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−4 i, et on observe
que le modèle ainsi estimé est valide (ce qui est heureux).
Il apparaı̂t cependant que les cœfficients de ∆Yt−2 et de ∆Yt−3 sont individuellement
non-significativement non-nuls.
– On effectue donc le test de la nullité simultanée de ces cœfficients en formulant l’hypo-
thèse H0 : “ φ∆Yt−2 = · · · = φ∆Yt−8 = 0 ”.
Remarque : Noter que tester successivement
i. la nullité simultanée des cœfficients de ∆Yt−4 , . . . , ∆Yt−8
dans la régression sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−8 i
ii. puis la nullité simultanée des cœfficients de ∆Yt−2 et ∆Yt−3
dans la régression sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−3 i
est moins robuste statistiquement que de tester directement la nullité simultanée des cœfficients
de ∆Yt−2 , . . . , ∆Yt−8 dans la régression sur h1, t, Yt−1 , ∆Yt−1 , . . . , ∆Yt−8 i.
En l’occurence, l’hypothèse est acceptée car la statistique de Fisher associée vaut
0,6597
44
La statistique de Student du cœfficient β dans la régression ordinaire

Y = αX 1 + βX 2 + γX 3 + U

est
β̂ − β0
tX 2 = q
c2
σ 2
 
α
c2 désigne le terme diagonal de la matrice de variance-covariance Σ de  β .
où σ 2
γ
3
Or rien ne dit que cette matrice ne dépend pas de X , même ¡ 2 si γ3 ¢est non-significativement non-nul : comme β̂ =
0 20 3 0 3 −1 3 0
(X 2 ¡X 2 )−1 X
¢ Y et γ̂ = (X X ) X Y pour peu que Cov X , X 6= 0, la matrice Σ dépendra de γ̂ (au sens ou
Cov Σi,3 , γ̂ 6= 0 ).
En l’occurence, on sait (voir TD 2, exercice 3 ) comme ∆Y est stationnaire que ∆Y t−1 et ∆Yt−i sont
certainement corrélés.

Version du 20050121-11h02, révisée le 17 février 2005 87


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

☞ Q6 (a)
ensae.net
– On effectue donc en définitive la régression de ∆Y sur h1, t, Yt−1 , ∆Yt−1 i, et on observe
que le modèle ainsi estimé est valide. On constate en outre qu’aucun cœfficient n’est
individuellement non-significatif.
On procède donc à l’identification du modèle Ar (voir
en ∆Y sur les explicatives t et LY .
TD 5, exercice 1

On observe en l’occurence que les auto-corrélations directes décroissent “exponentielle-


ment” vers 0 (en l’occurence, elles ne sont plus significativement non-nulles dès l’ordre
h ≥ 3) ; en outre le test de Porte-Manteau permet de conclure que le résidu estimé ² est
non-significativement différent d’un bruit blanc.
☞ Q5 Le modèle estimé s’écrit

en posant ρ = 1 + φ.

(b)
(c)
∆Yt = µ + βt + φYt−1 + φ1 ∆Yt−1 + ²t

où φ1 est le cœfficient en X de Φ∗ (X), ce qui se réécrit encore

( − ρL)Yt = µ + βt + φ1 ∆Yt−1 + ²t
)

(d)
(e) Sous H01 le modèle se réécrit

Yt = µ + Yt−1 + φ1 ∆Yt−1 + ²t

La statistique de test associée est celle de la table VI , selon laquelle le fractile à 5% vaut
6,34 (on retient la valeur pour 250 observations 45 ) ; comparée à la valeur empirique de
F-Value : 5,83 on accepte donc l’hypothèse H01 .
☞ Q7 On constate que H02 → H01 ; comme H01 est acceptable on se propose de tester H02 .
Sous H02 le modèle se réécrit
Yt = Yt−1 + φ1 ∆Yt−1 + ²t
La statistique de test associée est celle de la table V , selon laquelle le fractile à 5% vaut 4,75 ;
comparée à la valeur empirique F-Value : 10,75 on rejette donc l’hypothèse H 02 .

?
? ?

45
Plutôt que celle pour 100 observations, car le test est ainsi plus restrictif : si on accepte H 0 avec le fractile à 250
observations, on l’accepterait a fortiori avec celui à 100 observations.

Version du 20050121-11h02, révisée le 17 février 2005 88


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
Enoncé de l’exercice 2

module stictement supérieur à un.


On se donne m ∈ J1, n − 1K et on note X =
à l’expression “y est la cause x”. 46
µ
X1
X2

³

lm
ln−m

Dans la suite pour toute matrice A de Mn (R) sera notée A =

¥ Partie 1 Définition de la notion de causalité


´Z
On considère un processus stationnaire multivarié X ∈ (Rn )Ω , n ≥ 2, qui suit le modèle
auto-régressif
Φ(L)X = ²
où ² est un bruit blanc de variance-covariance Σ suposée définie positive. On suppose en outre
que le modèle est sous forme canonique, c’est-à-dire que les racines de DetΦ sont toutes de

; on cherche à donner un sens

µ 1,1
A
A 2,1
A1,2
A 2,2

lm
ln−m
.

☞ Q1 A un instant donné, l’intuition suggère que si Xt2 cause Xt1 alors Xt2 intervient significativement
dans la valeur de Xt1 ; en particulier la prévision optimale de Xt1 n’est dans ce cas pas la même
selon que l’on connaı̂t Xt2 ou pas. On dit donc que Xt2 ne cause pas instantanément Xt1 au sans
de Granger, et on note X 2 ∼Â/ X 1 , ssi EL (Xt1 |Xt2 , Xt−1 , . . .) = EL (Xt1 |Xt−1 , . . .)
(a) Montrer que EL (Xt1 |Xt2 , Xt−1 , . . .) = EL (Xt1 |Xt−1 , . . .) + EL (²1t |²2t )
(b) Montrer que
Xt2 ∼Â / Xt2
/ Xt1 ⇔ Σ1,2 = (0) ⇔ Xt1 ∼Â
(on dit dans ce cas par symétrie que X 2 et X 1 ne se causent pas instantanément au sens
de Granger).
☞ Q2 Par extension on dit alors que X 2 ne cause pas globalement X 1 , ou simplement que X 2
ne cause pas X 1 au sens de Granger (ce que l’on note X 2 ≈Â
/ X 1 ) ssi
¡ ¢ ¡ ¢
∀t ∈ Z, EL Xt1 |Xt−1 , . . . = EL Xt1 |Xt−1
1
,...

On cherche à montrer que


X 2 ≈Â
/ X 1 ⇔ Φ(X)1,2 = (0)
(où Φ(X)1,2 désigne le bloc supérieur droit du polynôme matriciel Φ(X)).
(a) Montrer tout d’abord que Φ(X)1,2 = (0) → X 2 ≈Â
/ X 1.
(b) Ecrire dans le cas général la décomposition de Wold de X 1 sur h²1 , ²2 i.
(c) On suppose que X 2 ≈Â
/ X 1 ; montrer qu’²1 est alors l’innovation de X 1 .
(d) En déduire que si X 2 ≈Â
/ X 1 , alors Φ(X)1,2 = (0).
46
La démarche proposée est tirée (de façon très simplifiée) des travaux de Clive W.J. Granger, co-lauréat avec Robert
F. Engle du prix Nobel d’économie 2003. C. Granger fut lauréat non pas pour la notion de causalité qu’il définit
(utilisée pour établir la thèse polémique du réchauffement de la planète), mais pour ses résultats de cointégration. Voir
http://www.nobel.se/economics/laureates/2003/ecoadv.pdf

Version du 20050121-11h02, révisée le 17 février 2005 89


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

aux
ensae.net
¥ Partie 2 Test de la notion de causalité
On se place dans le cas où m = n − m = 1, et on note p = d◦ Φ.
On suppose de plus que Φ(0) = Id .
☞ Q1 Montrer que X vérifie aussi le modèle

­ 1 1 deux estimations
2
Xt , Xt−1 , Xt−1
séparées
1
, . . . , Xt−p 2
, Xt−p
☞ Q3 On considère l’hypothèse H0 : ” X 1 ∼Â
®R
.

Réécrire les régressions R1 et R2 sous H0 .

Student que l’on explicitera.


☞ Q4 On considère l’hypothèse H0∗ : ” X 2 ≈Â
de X t sur

/ X 2 ”.
X
Ψ(L)X = η
pour un certain polynôme matriciel Ψ (de degré p) et un bruit blanc η à déterminer
☞ Q2 Montrer que la régression R par les moindres carrés
1 1
­ 1 de X2t sur hXt−1
t−1 , X t−1 , . . . , X 1
, . . . , X®t−p i est équivalente

Montrer qu’à supposer qu’ ²1 est gaussien, le test de l’hypothèse H0 se ramène à un test de

/ X 1 ”.
En supposant qu’² est gaussien, proposer une procédure de test de H0∗ .
2 2
t−p , Xt−p et R de Xt sur
2

Corrigé de l’exercice 2
☞ Q1 (a) Le modèle étant sous forme canonique, ² est l’innovation du processus vectoriel X : par
définition de l’innovation ²t = Xt − EL (Xt |Xt−1 , . . .) et donc en projetant pour i ∈ {1, 2}
¡ ¢
²it = Xit − EL Xti |Xt−1 , . . .
(²2 est l’innovation du processus X 2 |X 1 )
¡ ¢ ¡ ¡ ¢ ¡ 1 ¢¢
EL Xt1 |Xt2 , Xt−1 , . . . = EL Xt1 | Xt2 , Xt−1 2
, . . . , Xt−1 ,...
¡ ¡ ¢ ¡ 1 ¢¢
= EL Xt1 | ²2t , ²2t−1 , . . . , Xt−1 ,...
¡ ¡ 2 ¢¢
= EL Xt1 |²2t , Xt−1 1
, . . . , Xt−1 ,...
¡ ¢
= EL Xt1 |²2t , Xt−1 , . . .
|=

Or ∀t ∈ Z, ²2t
|=

hXt−1 , . . .i donc h²2t , Xt−1 , . . .i = h²2t i ⊕ hXt−1 , . . .i et donc


|=

¡ ¢ ¡ ¢ ¡ ¢
EL Xt1 |Xt2 , Xt−1 , . . . = EL Xt1 |²2t ⊕ EL Xt1 |Xt−1 , . . .
Or ◦
d Φ
X
Xt = Φk Xt−k + ²t
k=1

Version du 20050121-11h02, révisée le 17 février 2005 90


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
et ²t
|=
hXt−1 , . . .i donc en projetant

et donc finalement

☞ Q2 (a) On a pour t ∈ Z
Xt2 ∼Â
/ Xt1
¡









¢ ¡
EL Xt1 |²2t = EL ²1t |²2t

¡
¡

Σ1,2 = (0)

¡
¡

Xt1 ∼Â

Xt =
¢

EL (Xt1 |Xt2 , Xt−1 , . . .) = EL (Xt1 |Xt−1 , . . .) + EL (²1t |²2t )

(b) Par définition pour t ∈ Z


¡
¢
EL ²1t |²2t = 0

/ Xt2

X

¢
Cov ²1t , ²2t = (0)

¢
Cov ²1t , ²2t = (0)
EL ²2t |²1t = 0
¡

d Φ

k=1
¢

φk Xt−k + ²t
¡
EL Xt1 |Xt2 , Xt−1 , . . . = EL Xt1 |Xt−1 , . . .

¡
EL Xt2 |Xt1 , Xt−1 , . . . = EL Xt2 |Xt−1 , . . .
¢

et donc en projetant
d Φ ◦ ◦
d Φ
X X
Xt1 = φ1,1 1
k Xt−k + φ1,2 2 1
k Xt−k + ²t
k=1 k=1
1,2
Si Φ(X) = (0) alors

d Φ
X
Xt1 = φ1,1 1 1
k Xt−k + ²t
k=1
et donc ◦
d Φ
¡ 1 ¢ X ¡ 1 1 ¢
EL Xt |Xt−1 , . . . = φ1,1 1
k Xt−k = EL Xt |Xt−1 , . . .
k=1
2 1
c’est-à-dire X ≈Â
/ X .
(b) Comme ² est l’innovation de X, soit (Ak )k∈N ∈ Mn (R)N telle que
+∞
X
∀t ∈ Z, Xt = Ak ²t−k
k=0
47
Alors en projetant il vient
+∞
X +∞
X
∀t ∈ Z, Xt1 = A1,1 1
k ²t−k + A1,2 2
k ²t−k
k=0 k=0
° °2 P
° ° 2
47
Chacune des deux sommes converge car °A1,j
k ° ≤ kAk k2 et que k Ak est normalement convergente.
2

Version du 20050121-11h02, révisée le 17 février 2005 91


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
(c) Supposons
¡ 1 1 alors¢ que X /≈Â

et donc

soit

Alors
48
µ
2

Xt1
Xt2
X 1¡; alors pour¢ tout t ∈ Z EL (Xt1 |Xt−1 , . . .) =
EL Xt |Xt−1 , . . . et donc Xt1 − EL Xt1 |Xt−1
est donc l’innovation de X 1 .
(d) Si X 2 ≈Â

² = Φ(L)X = Φ(L)

=
1

Xt2

X=
, . . . = Xt1 − EL (Xt1 |Xt−1 , . . .) = ²1t : ²1

/ X 1 , alors X 1 adment une représentation de Wold sous la forme

où Bk ∈ Mm (R). On a par ailleurs pour tout t ∈ Z

µ P+∞
=

k=0 Bk
P+∞
k=0 Ak

+∞ µ
X

à +∞ µ
X

k=0
+∞
X

k=0

2,1

Bk
A2,1
k

Bk
k=0

A2,1
k
Xt1

A
(0)
2,2
k
=

A2,1 1
k ²t−k

¶ !
+∞
X

k=0

Lk ◦ ²
Bk ²1t−k

(0)
P+∞ 2,2
k=0 Ak

(0)
A2,2
k
+∞
X

k=0
A2,2


2
k ²t−k

Lk ◦ ²
×
µ
²1t−k
²2t−k

µ µ ¶ ¶
P+∞ Bk (0)
et donc la matrice 2,1 Xk sur l’anneau Mn (R)[X] est régulière et
k=0 Ak A2,2
k
est une inverse de Φ(X), ce qui s’écrit encore par blocs

µ ¶ µ ¡P+∞ ¢ ¶ µ ¶
Φ(X)1,1 Φ(X)1,2 ¡ Bk Xk ¢ ¡ (0) ¢ Idm (0)
× P+∞ 2,1 k
k=0 P+∞ 2,2 k =
Φ(X)2,1 Φ(X)2,2 k=0 Ak X k=0 Ak X
(0) Idn−m
et en particulier en considérant le bloc (1, 2) il vient
à +∞ !
X 2,2
(0) × Φ(X)1,1 + Ak Xk × Φ(X)1,2 = (0)
k=0
µ P+∞ ¶
Bk Xk (0) ¡P+∞ 2,2 k ¢
k=0 Ak X
Or P+∞ 2,1 k P+∞ 2,2 k
k=0 est inversible, donc également49 et
A
k=0 k X A
k=0 k X
donc
Φ(X)1,2 = (0) ∈ Mn (R)[X] et finalement
48
Avec la convention que  
M 1,1 Lk ··· M 1,n Lk
k  .. .. 
ML =  . . 
M n,1 Lk ··· M n,n Lk
P i,j k P
et en remarquant que chaque
µ k X
k A¶ est convergente car |Ai,j
k | ≤ kAk k2 et que k Ak est normalement convergente.
49 A 0
Comme la matrice est triangulaire par blocs, si elle est inversible, alors C l’est également.
B C

Version du 20050121-11h02, révisée le 17 février 2005 92


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
ce qui achève la preuve de la réciproque.
☞ Q1 On sait que

donc pour tout α ∈ R en multipliant par

Notons donc η =
µ
µµ

1
−α

Posons en particulier α = Σ
1 0
−α 1

de variance-covariance est alors


µ
0
1


Φ(L)X = ²
µ

Cov (ηt , ηt−l ) =

¶ µ
1,2
1 0
−α 1

× Φ(L) ◦ X =

µ
il vient

1
−α

¶ Ã 1,1
1 0
−α 1

Σ

Φ(L)1,2 = (0)

ײ

× ² ; alors pour tout t ∈ Z et l ∈ Z

0
1
¶0
Cov (²t , ²t−l )

0
!
µ
1
−α

1,1 : alors Cov (ηt , ηt−l ) = 0 et donc η est un bruit blanc. Sa matrice
0
1

1 0 1 −α
Σ = (Σ1,2 )
2
−α 1 0 1 0 Σ2,2 − 1,1 Σ
µ ¶
1 0
Notons enfin Ψ(X) la matrice à cœfficients dans R[X] × Φ(X) ; alors
−α 1
µ ¶ µ ¶
1 0 1 0
Ψ(0) = × Φ(0) =
−α 1 −α 1

(car Φ(0) = Id ), donc Ψ(0) est bien inversible et le modèle est correctement spécifié.
☞ Q2 D’une façon générale, l’estimateur des moindres carrés ordinaires de la régression de Y = Xb+U
−1
est, si X est de plein rang, b̂mcg = (X 0 Ω−1 X) X 0 × Ω−1 Y , où Ω désigne la matrice de variance-
covariance de U .
Considérons alors les deux sous-blocs
µ 1 ¶ µ ¶ µ 1 ¶
Y Xb1 U
= +
Y2 Xb2 U2
µ ¶ µ ¶
U1 Ω1,1 (0)
et supposons que V = soit bloc-diagonale.
U2 (0) Ω2,2

Version du 20050121-11h02, révisée le 17 février 2005 93


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

ensae.net
Alors

µ
1
−α
0
1
b̂mcg =

¶µ
=

=
 ³

Xt1
Xt2
³
¡


XΩ X

0
0

X (Ω ) X

bˆ1 mcg
bˆ2 mcg
!
0

−1
X 0 (Ω1,1 ) X
2,2 −1
−1

´−1
´−1

Dans le cas présent, la régression R s’écrit

=
¡
(0)

1
Xt−1
¢−1

Ω1,1
X ×Ω0

(0)
Ω2,2
−1
X 0 × (Ω1,1 ) Y 1
2,2 −1 2
X × (Ω ) Y

···

−1

¶−1

1
Xt−p
µ

X
Y1
Y2
!−1

2
Xt−1

×X × 0

···
µ
Ω1,1
(0)

2
Xt−p
(0)
Ω2,2

×
¶−1 µ

ψ11,1
 ..
 .

¢  ψp1,1
 ψ 1,2
 1
 ..
 .
ψp2,1
Y1
Y2

ψ 2,1

ψp2,1
ψ 1,2

ψp2,2




 µ 1 ¶

+ η2t




ηt

tandis que les sous-régressions R1 et R2 s’écrivent respectivement


 
ψ11,1
 .. 
 . 
 
¡ ¢  ψp1,1 
(R1 ) : Xt1 = 1
Xt−1 ··· 1
Xt−p 2
Xt−1 ··· 2
Xt−p ×  1,2 
 1
 + ηt
ψ
 1 
 .. 
 . 
ψp1,2

et  
α
 ψ12,1 
 
 .. 
 . 
¡ ¢  2,1 
(R2 ) : Xt2 = Xt1 1
Xt−1 ··· 1
Xt−p 2
Xt−1 ··· 2
Xt−p ×
 ψp2,2
 + ηt2

 ψ 
 1 
 .. 
 . 
ψp2,2
à !
Σ1,1 0
comme V (ηt ) = est diagonale, l’estimation des cœfficients de Ψ par
(Σ1,2 )
2

0 Σ2,2 − Σ1,1
la régression globale R est équivalente à celle résultant des deux sous-régressions R 1 et R2 .

Version du 20050121-11h02, révisée le 17 février 2005 94


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 7

50
ensae.net
☞ Q3 L’hypothèse H0 se réécrit “Σ1,2 = 0” soit encore “α = 0”.

Remarquons en outre que si ² est gaussien, alors il en va de même pour η =

fait au moyen de la statistique de Student habituelle.

Le test de

A savoir F =
H0∗

SCR H0 −SCR
SCR¬H0
¬H0 T −2p
? ?
?
1,2
k = 0” soit encore “∀k ∈ N, ψk = 0”.
²2 − V(²1 ) ²1
tester H0 revient donc à tester la nullité individuelle du cœfficient estimé α
Ã

b, ce qui peut être

Remarquons que sous H0 seule la régression R2 est modifiée ; il suffit donc de pratiquer le test
dans la seule régression R2 .
☞ Q4 L’hypothèse H0∗ se réécrit “∀k ∈ N, φ1,2
³
d
1,2
²1
Cov (²2 ,²1 )

d1,2
revient alors au test de la nullité simultanée des cœfficients estimés ψ1 , . . . , ψp ,
qui peut être conduit au moyen de la statistique de Fisher. 50
Remarquons que cette fois sous H0∗ seule la régression R1 est modifiée, et tester H0∗ revient à
tester la régression R1 sous H0∗ par rapport à R1 sous ¬H0∗ . Ainsi il suffit de pratiquer le test
dans la seule régression R1 .
´

· p où T désigne le nombre d’observations, 2p le nombre total de variable explicatives


!

et p le nombre de variables dont on teste la nullité simultanée, et bien-sûr SCR H désigne la somme des carrés des résidus
;

estimés (i.e. la variance non-expliquée) sous l’hypothèse H. Si H 0 est vraie alors F suit une loi de Fisher F(p, T − 2p).

Version du 20050121-11h02, révisée le 17 février 2005 95


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
Travaux Dirigés n◦8
Enoncé de l’exercice 1
On considère deux processus stationnaires X et Y vérifiant :

σu2 et σv2 .

supposera par la suite).


½
Xt = ( − θ1 L)Ut
µ
Yt = c + 1−φL Xt−3 + ( − θ2 L)Vt

où c est une constante et u et v sont deux bruits blanc indépendants de variances respectives

☞ Q1 Ecrire le vecteur (Xt , Yt )’ sous forme d’un processus ARMA bivarié.


Donner des conditions suffisantes pour que (ut , vt )’ soit l’innovation du processus (ce que l’on

☞ Q2 Montrer que Yt est en fait un processus Arma unidimensionnel.


Déterminer son ordre et montrer que ses coefficients sont liés de manière non linéaire à ceux
introduits dans la définition des processus.
☞ Q3 Déterminer la prévision optimale des valeurs futures de Yt connaissant le passé de Xt et Yt .

Corrigé de l’exercice 1
☞ Q1 On a
µ ¶µ ¶ µ ¶ µ ¶µ ¶
0 X 0 − θ1 L 0 U
= +
−µL3 − φL Y c(1 − φ) 0 ( − θ2 L)( − φL) V
µ ¶ µ ¶
0 − θ1 L 0
et on pose donc Φ(L) = et Θ(L) = .
−µL3 − φL 0 ( − θ2 L)( − φL)
µ ¶ µ ¶
U X
Alors est l’innovation du processus ssi |Φ(X)| = 1 − φX et |Θ(X)| = (1 −
V Y
θ1 X)(1 − θ2 X)(1 − φX) ont tous deux leurs racines de module strictement51 supérieur à 1 (soit
ssi |θ1 | < 1, |θ2 | < 1 et |ϕ| < 1).
☞ Q2 Soit Zt = (1 − ϕL)Yt . On a :

Zt = c(1 − φ) + µXt−3 + ( − θ2 L)( − ϕL)Vt


µ ¶ µ ¶ µ ¶
51 U X X
est l’innovation de ssi leurs racines sont de module supérieur ou égal à 1 ; mais comme
V Y Y
est stationnaire, aucune racine n’est unitaire.

Version du 20050121-11h02, révisée le 17 février 2005 96


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
puis, comme Xt−3 = ( − θ1 L)Ut−3 il vient

En particulier (voir
Zt = c( − φ) + µ( − θ1 L)Ut−3 + ( − θ2 L)( − φL)Vt
| {z

TD 3, exercice 2
un processus Ma d’ordre au plus 2.
} |
Ma(1)

Comme en outre γZ (2) = θ2 φσV2 6= 0, Z est un processus Ma(2).


Par conséquent, Y est un processus Arma(1,2).
{z }

) comme U et V sont indépendants, Z est

Soit Ψ ∈ R2 [X] et η bruit blanc tels que Z = Ψ(L)η ; Ψ et ση2 sont déterminés (voir
exercice 2
d’après la définition de Z
TD 2,
) par les équations de Yule-Walker en Z qui pour h ∈ Z s’écrivent d’une part

Cov (Zt , Zt+h ) = µ2 γUt−3 −θ1 Ut−4 (h) + γVt −(θ2 +φ)Vt−1 +θ2 φVt−2 (h)
= ...
et d’autre part d’après la définition de Ψ(X) = Ψ0 + Ψ1 X + Ψ2 X2 et η
Cov (Zt , Zt+h ) = Cov (Ψ0 ηt + Ψ1 ηt−1 + Ψ2 ηt−2 , Ψ0 ηt−h + Ψ1 ηt−h−1 + Ψ2 ηt−h−2 )
= ...
L’égalisation de ces expressions pour h ∈ {0, 1, 2} conduit à un système polynômial en
Ma(2)

Ψ0 , Ψ1 , Ψ2 , ση2 qui s’expriment donc de façon non-linéaire (en général) en les paramètres θ1 ,
θ2 et φ.
☞ Q3 La prévision linéaire optimale de Y conditionnellement au seul passé de Y s’obtient en trans-
formant la forme Arma(1,2) précédente en une forme Ar(∞) en Y . Mais pour obtenir celle
conditionnellement
µ ¶ aux passés de X et de Y , il faut déterminer la prévision linéaire optimale
X
de conditionnellement à son passé, ce qui se fait en transformant la formulation Arma
Y
vectorielle en forme Ar(∞) vectorielle :52
µ ¶ µ ¶ µ ¶
−1 X −1 0 U
Θ(L) Φ(L) = Θ(1) +
Y c(1 − φ) V
Comme
µ ¶−1
−1 − θ1 L 0
Θ(L) =
0 ( − θ2 L)( − φL)
µ ¶
( − θ1 L)−1 0
=
0 ( − θ2 L) ( − φL)−1
−1

il vient
µ ¶µ ¶ à ! µ ¶
( − θL)−1 0 X ³ 0
´ U
= 1 +
−µL ( − θ2 L)−1 ( − φL)−1
3
( − θ2 L)−1 Y (1−φ)(1−θ2 )
(c(1 − φ)) V
52
Attention à l’ordre en général : Θ(L)−1 et Φ(L) sont des matrices et donc en général Θ(L)−1 ×Φ(L) 6= Φ(L)×Θ(L)−1
. Cependant dans le cas présent Θ(L) est diagonale, donc commute avec Φ(L).

Version du 20050121-11h02, révisée le 17 février 2005 97


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
La projection linéaire optimale de Y connaissant le passé de X et de Y s’obtient alors en
projetant : on a

et donc

EL
à +∞
X

k=0
+∞
X

k=0
θ2k Yt−k − µL3 ( − θ2 L)−1 ( − φL)−1 Xt =

θ2k Yt−k 3 −1 −1
− µL ( − θ2 L) ( − φL) Xt |Xt−1 , . . . , Yt−1 , . . .

et donc en appliquant l’opérateur E (·|Xt−1 , . . . , Yt−1 , . . .) il vient

E (Yt |Xt−1 , . . . , Yt−1 , . . .) =

Enoncé de l’exercice 2
c
1−θ2
+ µL3 ( − θ2 L)−1 ( − φL)−1 Xt −

? ?
?
53
c
1 − θ2
+V

P+∞
=
c
1 − θ2

k
k=1 θ2 Yt−k

On considère deux processus du second ordre (Xt )t≥0 et (Yt )t≥0 tels que
½
Xt = Xt−1 + Ut
Yt = 65 Yt−1 − 61 Yt−2 − Xt−1 + Vt

où U et V sont deux bruits blanc indépendants de variances respectives σu2 et σv2 .
On suppose en outre que ∀t < 0; Xt = Yt = Ut = Vt = 0
☞ Q1 (a) Vérifier que ni (Xt )t>0 ni (Yt )t>0 n’est stationnaire.
(b) Vérifier que (∆Xt )t≥2 et (∆Yt )t≥2 sont équivalents à des processus stationnaires, et préciser
le cas échéant
µ leur¶ forme µ Arma¶.
X U
On note Z = et ² = .
Y V
☞ Q2 Montrer qu’il existe un polynôme (matriciel) A tel que

∀t > 0, A(L)Z = ²

et en donner la représentation canonique du modèle


53
Cette expression fait a priori intervenir E (Xt |Xt−1 , . . . , Yt−1 , . . .) ; mais comme le polynôme en facteur de X est
divisible par L3 , seules les valeurs passées de X interviennent.
Si ce n’était pas le cas, il faudrait déterminer explicitement E (Xt |Xt−1 , . . . , Yt−1 , . . .) en projetant la forme Ar(∞)
sur X : ( − θ1 L)−1 X = U . Notons enfin que cette dernière est indépendante de Y , ce qui est heureux.

Version du 20050121-11h02, révisée le 17 février 2005 98


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
☞ Q3 Montrer qu’il existe un polynôme (matriciel) A∗ de degré d◦ A − 1 tel que A(X) = A(1) + (1 −
X)A∗ (X).
En déduire qu’il existe une combinaison linéaire de X et Y qui est asymptotiquement équivalente
à un processus stationnaire.

Corrigé de l’exercice 2
☞ Q1 (a) ( − L)X = U donc (Xt )t>0 est une marche aléatoire, donc non-stationnaire.
D’autre part, V (Xt−1 − Vt ) = (t − 1)σU2 + σY2 car Xt et Vt sont indépendants. Or si
(par l’absurde) (Yt )t>0 était stationnaire, alors Xt−1 − Vt = −Yt + 56 Yt−1 − 61 Yt−2 serait
stationnaire, donc de variance constante, et il en irait de même pour X ! Donc (Yt )t>0
n’est pas stationnaire.
Autre méthode :
Si Y était stationnaire alors X − V = (− + 56 L − 16 L2 )Y le serait également, et comme V
est stationnaire et X et V sont décorrélés, X le serait également.
(b) ∆X = U est un bruit blanc, donc stationnaire.
Par ailleurs
5 1
∆Yt = (∆Y )t−1 − (∆Y )t−2 − Ut−1 + Vt − Vt−1
6 6
Définissons Wt = −Ut−1 + Vt − Vt−1 ; alors (voir TD 3, exercice 2 ) W est
|{z} | {z }
Ma(0) Ma(1)
un processus Ma d’ordre au plus 1. Comme en outre γw (1) = −σv2 6= 0, W est un Ma(1)
et donc ∆Y est un processus Arma(2,1)
☞ Q2 Posons µ ¶
1−X 0
A(X) =
X 1 − 6 X + 16 X2
5

Alors µ ¶ µ ¶
X U
A(L) =
Y V
et en outre
µ ¶ µ ¶µ ¶
5 1 1 1
|A(X)| = (1 − X) 1 − X + X2 = (1 − X) 1 − X 1− X
6 6 2 3

dont les racines 1, 2 et 3 sont toutes de module supérieur (ou égal) à un, de sorte que la
représentation est canonique.
☞ Q3 A(X)−A(1) est un polynôme (matriciel) en X qui s’annule en X = 1, donc divisible par (1−X) :
on a en l’occurence

Version du 20050121-11h02, révisée le 17 février 2005 99


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
Notons donc A =
On a alors

Or A(1)Z =
µ
0

X + 31 Y
A(X) − A(1) =


µ
1
−1 2
3
0
=
µ

= (1 − X) ×

− 61 X

1−X
X
1−X
X−1 2
µ3

² = A(L)Z = A(1)Z + A∗ (L)∆Z


−1
0
1 − 6 X + 61 X2
5

0
− 6 X + 61 X2
1
5

; A∗ divise A(X) − A(1).


2
3
0
− 61 X

Or ∆Z est (asymptotiquement) stationnaire 54 donc il en va de même pour A(1)Z = ² −


A∗ (L)∆Z.
, donc en particulier

est (asymptotiquement) stationnaire.


X + 13 Y



µ
0
1
0
1
3

?
? ?

Enoncé de l’exercice 3
On considère un processus vectoriel (Yt )t∈Z de taille n, dont on suppose qu’il est intégré d’ordre
1, et qu’il admet une représentation VAR de la forme :

Φ(L)Y = µ + ²

où ² est l’innovation de Y et Φ(0) = Id.


☞ Q1 (a) En utilisant la décomposition Φ(X) = Φ(1) + (1 − X)Φ+ (X), montrer qu’on peut écrire le
modèle sous la forme équivalente :
p−1
X
( − L)Yt = −Φ(1)Yt−1 + Γi ( − L)Yt−i + µ + ²t
i=1

54
Ce n’est pas tout-à-fait évident : ∆X et ∆Y sont stationnaires, mais il faut encore montrer que Cov (∆X t , ∆Yt+h )
ne dépend pas du temps t : pour ce faire, on soustrait l’équation en Y aux dates t et t − 1, ce qui fait apparaı̂tre
∆Yt = 65 ∆Yt−1 − 16 ∆Yt−2 − ∆Xt−1 + ∆Vt .

Version du 20050121-11h02, révisée le 17 février 2005 100


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
(b) Montrer que le rang de Φ(1) est inférieur strictement à n.
(c) On suppose que le rang de Φ(1) est égal à r. Montrer qu’il existe deux matrices α et β de
dimensions (n, r) et de rang r telles que Φ(1) = αβ 0 .
(d) Montrer que β 0 yt est nécessairement stationnaire (les colonnes de β sont alors appelées
vecteurs de cointégration de yt ).

☞ Q2 On suppose que la représentation de Wold du processus Y est de la forme

avec C(0) = Id.


(a) En utilisant la décomposition

Y = S + T.
( − L)Y = m + C(L)²

C(L) = C(1) + ( − L)C + (L)


montrer, en généralisant la démarche présentée dans

(b) Montrer qu’on a nécessairement : β 0 m = 0 et β 0 C(1) = 0.


TD 4, exercice 1
qu’il existe une marche aléatoire55 (multivariée) T et un processus stationnaire S tels que

(c) Soit β ⊥ une base56 de l’orthogonal de β. Déduire de la question précédente qu’il existe
m0 ∈ Rn−r et δ ∈ Mn,n−r (R) tels que m = β ⊥ m00 et C(1) = β ⊥ δ 0 .
(d) En déduire que Tt s’exprime en fait comme combinaison linéaire de n−r marches aléatoires
univariées (ces marches aléatoires sont appelées tendances communes aux séries (Yti )t ).
,

Corrigé de l’exercice 3
Φ(X)−Φ(1)
☞ Q1 (a) Comme Φ(X)−Φ(1) s’annule en 1, il est divisible par 1−X et soit donc Φ + (X) = 1−X

R[X] ; ainsi Φ(X) = Φ(1) + (1 − X)Φ+ (X).
Alors (voir TD 7, exercice 1 )
Φ(L)Y = Φ(1) × Y + ( − L) · Φ+ (L) ◦ Y
= Φ(1) × Y + Φ+ (L) ◦ ∆Y
¡ ¢
= Φ(1) × Y + Φ+ (0) ∆Y + Φ+ (L) − Φ+ (0) ∆Y
| {z } | {z }
Φ(0)−Φ(1) −Φ∗ (L)

= Φ(1) × Y + ( − Φ(1)) × ∆Y − Φ (L) ◦ ∆Y
= Φ(1) × Y + ∆Y − (Φ(1) × Y − Φ(1) × LY ) − Φ∗ (L) ◦ ∆Y
= ∆Y + Φ(1) × LY − Φ∗ (L) ◦ ∆Y
et donc comme par ailleurs Φ(L)Yt = µ + ²t il vient en définitive
55
Avec dérive : ( − L)T = η où η est un bruit d’espérance a priori non-nulle.
56
C’est-à-dire que les colonnes de β ⊥ forment une base de l’orthogonal de l’espace engendré par les colonnes de β.

Version du 20050121-11h02, révisée le 17 février 2005 101


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
(b) On a

et donc
∆Yt = −Φ(1)Yt−1 +

en notant Φ∗ (X) = Φ+ (0) − Φ+ (X) =

∆Y = Φ(1)LY −

Φ(1)LY = −∆Y +
|
Pp−1
i=1

Supposons (par l’absurde) que Φ(1) soit inversible : alors

LY
Pp−1

p−1
X

i=1

p−1
X

i=1
{z
Ψ(L)∆Y
i=1

Γi X i .
Γi ∆Yt−i + µ + ²t

Γi Li ∆Y + µ + ²

Γi Li ∆Y + µ + ²

= Φ(1)−1 Ψ(L)∆Y + Φ(1)−1 µ + Φ(1)−1 ²


}

Mais comme Y est intégré d’ordre 1, ∆Y est stationnaire, et donc LY , donc Y , serait
stationnaire ! 57
Comme on a supposé que Y était intégré d’ordre 1, Φ(1) n’est pas inversible, i.e. est de
rang au plus n − 1.
(c) Soit α une base de l’image de Φ(1) (qui est de dimension r ≤ n − 1), et notons βi,1 , . . . , βi,r
les cœfficients de la i-ième ligne Li de Φ(1) dans la base α. On a pour tout i ∈ J1, nK
 
Xr α j,1
 
Li = βi,j αj où αj =  ...  ∈ Mn, 1(R)
j=1 αj,n

et donc
   
L1 β ··· βn,1
  ¡ ¢  1,1 .. 
Φ(1) =  ...  = α1 ··· αr ×  ... . 
Ln β1,r ··· βn,r
| {z }
β0

soit

Φ(1) = αβ 0

57
En toute rigueur se pose le problème de la corrélation de Φ(1)−1 Ψ(L)∆Y avec ². Mais comme Y est intégré d’ordre
1 (et pas plus), ∆Y vérifie une équation Ar(d)e la forme A(L)∆Y = γ + ² de sorte que LY = B(L)∆Y pour B(X) =
Φ(1)−1 (Ψ(X) + A(X) − γ) .

Version du 20050121-11h02, révisée le 17 février 2005 102


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
(d) On a

il vient alors
Φ(1)Yt−1 = Ψ(L)∆Yt + µ + ²t
Or α est une base, donc α0 α est de plein rang donc inversible ; en multipliant par (α0 α)−1 α0

(α0 α)−1 α0 Φ(1)Yt−1 = (α0 α)−1 α0 Ψ(L)∆Yt + (α0 α)−1 α0 µ + (α0 α)−1 α0 ²t

et donc (α0 α)−1 α0 Φ(1)Y est stationnaire.


Comme Φ(1) = αβ 0 cela revient à dire que

☞ Q2 (a) Comme C(X) − C(1) s’annule en 1, soit C + (X) =


C(1) + (1 − X)C + (X). On a alors
β 0 Y est stationnaire

( − L)Y = m + C(1)² + ( − L)C ∗ (L)²

Définissons S = C ∗ (L)² ; ainsi S est stationnaire.


C(X)−C(1)
1−X

Soit alors T = Y − S, montrons que T est une marche aléatoire (avec dérive) : on a

( − L)T = ( − L)Y − ( − L)S


= m + C(1)²
∈ Mn (R)[X] ; ainsi C(X) =

qui est un “bruit blanc” d’espérance m.


(b) On a en multipliant la décomposition de Y par β 0

β 0 ( − L)Y = β 0 m + β 0 C(1)² + β 0 ( − L)C ∗ (L)²

Or β 0 Y est stationnaire, donc E (β 0 Yt ) = E (β 0 Yt−1 ) et par suite

0 = E (( − L) ◦ (β 0 Y ))
= E (β 0 ( − L)Y )
= E (β 0 m + β 0 C(1)² + β 0 ( − L)C ∗ (L)²)
= β 0m

Enfin, si (par l’absurde) β 0 C(1) 6= 0, alors Z = β 0 Y − β 0 C ∗ (L)² qui vérifie ( − L)Z =


β 0 C(1)² est une marche aléatoire, donc d’espérance non-bornée dans le temps, et donc il
en va de même pour β 0 Y qui est pourtant stationnaire ! Donc β 0 C(1) = 0.
(c) On a β 0 m = 0, donc m ∈ hβi⊥ , et donc il existe m0 tel que m = β ⊥ m00 .
De même β 0 C(1) = 0, donc C(1) ∈ hβi⊥ et il existe δ tel que m = β ⊥ δ 0 .
(d) On a

( − L)T = m + C(1)²
= β ⊥ (m00 + δ 0 ²)

Version du 20050121-11h02, révisée le 17 février 2005 103


Ensae SE206 Enoncé et corrigé des travaux dirigés n◦ 1 à 8 Séance 8

ensae.net
Soit donc M la marche aléatoire multi-variée (de taille n − r) vérifiant M0 = 0 et

( − L)M = m00 + δ 0 ²
¡ ¢
Alors ( − L)T = β ⊥ ( − L)M = ( − L) ◦ β ⊥ M , donc les processus T et β ⊥ M sont
égaux à une constante (aléatoire) près ; 58 comme dim(β ⊥ ) = n − dim(β) = n − r on a

T est un vecteur composé de n − r marches aléatoires univariées

? ?
?

58
On n’a pas nécessairement T = M : notamment il n’y a aucune raison a priori pour que T 0 = Y0 − C + (L)²0 soit
égal à β ⊥ M0 , car une valeur de M0 ad hoc n’existe pas forcément !

Version du 20050121-11h02, révisée le 17 février 2005 104

Vous aimerez peut-être aussi