Statistique Appliquee CCAM
Statistique Appliquee CCAM
Statistique Appliquee CCAM
Par
Jean-Paul TSASA Vangu
Sous la coordination du
Professeur MUKOKO Samba
Il n’existe pas d’ouvrage d’introduction aux séries temporelles qui évite un discours trop technique et qui
présente des exemples concrets de procédure d’estimation-modélisation. Ainsi, ce recueil d’applications,
résultat d’un effort consistant à présenter dans un langage plus ou moins simplifié et rigoureux les
concepts appartenant aux sciences dures, est rédigé en fonction d’un étudiant attentif. Il a pour objet
l’explication de différentes techniques permettant d’estimer et de prévoir les chroniques financières et la
présentation de techniques statistiques d’évaluation de portefeuille.
Et comme objectif, ce recueil se propose d’initier l’étudiant { l’utilisation de la statistique en tant qu’outil
permettant la structuration, l’analyse, l’interprétation des données (chiffrées) financières et économiques.
Pour y aboutir, nous éclatons le cours (partie théorie) et le regroupons en deux grands points.
Le recueil débute par un rappel des fondamentaux du cours, avant de s’intéresser aux études des cas. Ces
dernières permettront de mettre en évidence les modèles appropriés pour les analyses utilisant des
chroniques financières ; puisqu’{ ce jour, la finance, en tant que sous-discipline de l’économie, ne se limite
plus à une gestion et à un recueil de pratiques. Mais elle va au-delà en empruntant { l’économie, ses
raisonnements formalisés et ses mécanismes d'optimisation.
Par ailleurs, notez que les applications retenues dans ce recueil aideront l’étudiant à se préparer { l’examen
final. Le logiciel Eviews 7 a été utilisé pour confectionner les applications. Enfin, l’étudiant est invité { bien
appréhender les concepts théoriques énoncés pendant le cours et aussi de ne pas hésiter de consulter les
ouvrages de références suivants disponibles sur internet : Charpentier (2006) ; Droesbeke, Fichet, Tassi
(1994) ; Hurlin (2006-2007) ; Raggad et Trabelsiy (2003).
Plan de travail‡
1 /. Rappel des concepts techniques
•Chronique •Processus stochastique •Stationnarité, Bruit blanc et Marche aléatoire •Modèles dynamiques
•Méthodologie de Box et Jenkins •Analogie des modèles AR/ ARMA et ARCH/ GARCH
•Méthode de maximum de vraisemblance •Modélisation AR(I)MA ou Modélisation (G)ARCH
2/. De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH : une étude du cas de …
3/. Estimations des paramètres des modèles ARCH /GARCH par la méthode maximum de vraisemblance
†
Assistant au Centre Congolais-Allemand de Microfinance/ Université Protestante au Congo.
‡
Je remercie le Professeur Mukoko Samba pour son orientation lors de la préparation de ce recueil et aussi pour la
collection d’ouvrages, mise { notre disposition. In fine, je suis le seul { blâmer en cas d’éventuelles erreurs ou omissions.
1. CHRONIQUE
Synonyme : série chronologique, série temporelle.
Une chronique est une suite finie de valeurs numériques représentant l’évolution d’une variable aléatoire
indexé par le temps. C’est une suite d’observation des variables { des intervalles de temps réguliers.
Autrement, pour une chronique, les observations doivent être consécutives et d’une fréquence identique.
L’objet des séries temporelles est donc l’étude des processus temporels.
A titre illustratif, l’évolution des indices boursiers ou des prix d’actifs financiers, des données économiques
ou financières des entreprises, des agrégats macroéconomiques, des ventes et achats de biens ou celle des
productions agricoles ou industrielles sont, parmi tant d’autres, des chroniques qui intéressent
particulièrement les économistes et les financiers. Donc, une chronique n’est que la réalisation d’un
processus aléatoire.
NOTE 1 : les séries financières et certaines séries économiques sont caractérisées par de volatilité ; où l’on retrouve des
valeurs qui semblent être aberrantes. La spécification de telles séries exige de modèles non linéaires.
*Processus stationnaire
La stationnarité est un concept clé pour la validité d’une régression sur séries temporelles. D’un point de
vue statistique, la stationnarité suppose que le passé est comparable au présent et au futur. Ainsi, une série
chronologique est stationnaire, au sens strict, si sa distribution de probabilité ne change pas au cours du
temps : cette définition forte de la stationnarité implique que la distribution jointe (Yr+1, Yr+2, . . . , Yr+n ) ne
dépende pas de r ; si c’est le cas, on conclut que Yt est non stationnaire.
§
ARMA ; Auto Regressive (autorégressif) : puisque la spécification de ces modèles utilisent des valeurs « lagées » de Yt
et Moving Average (Moyenne Mobile) : parce que la variable représentant les chocs aléatoires (bruit blanc) dans ce
modèle est retardée. Rappelons que la moyenne mobile est une moyenne statistique qui supprime les fluctuations
transitoires dans une chronique en vue de ressortir les tendances à plus long terme. Elle est dite mobile puisqu’elle est
recalculée de façon continue, en utilisant à chaque calcul un sous-ensemble de valeurs dans lequel une nouvelle valeur
remplace la plus ancienne.
Un processus est stationnaire si celui-ci n’a ni trend, ni saisonnalité et de ce fait, fluctue autour d’une
moyenne constante. Il apparait donc sue la stationnarité est une exigence qui assure l’utilisation du modèle
en dehors de la période sur laquelle il a été estimé.
NOTE 2 : Un processus stationnaire possède de volatile lorsqu’il possède certaines réalisations qui s’écartent
sensiblement de la moyenne constante.
*Processus non-stationnaire
Une chronique qui ne vérifie pas les hypothèses ci-dessus est dite non stationnaire. Donc, il faudra la
stationnariser avant l’estimation. La méthode de stationnarisation dépend de la source de la non
stationnarité. Pour identifier cette source, le modèle suivant doit être testé :
Yt = α0 + αiYt-i + αjt + εt
Le paramètre sera significatif si et seulement si : Prob < 0.05 et t > 1.96. Dans le cas contraire, il est non
significatif.
Procédure :
1/ Estimer le modèle Yt = α0 + αjt + εt
Si le modèle est un TS : 2/ Générer les résidus
3/ Tester si est stationnaire
Si le modèle est un DS : il faut différencier ou intégrer Yt « d » fois pour obtenir une chronique
stationnaire, soit Yt → I(d).
**
La fonction d’autocovariance γk = Cov[Yt, Yt+k] = E[Yt – E(Yt)][Yt+k – E(Yt+k)] d’un processus stationnaire Yt vérifie
les propriétés : 1°) γk =Cov(Yt, Yt) = Var[Yt] = E(Yt2) = σ2 ≥ 0, avec Var[Yt] = E[Yt – E(Yt)2] ;
2°) |γk| ≤ γ0 ;
3°) γk = γ-k, la fonction d’autocovariance est une fonction paire, Cov(Yt, Yt+k) = Cov(Yt, Yt-k).
A titre illustratif, Yt, non stationnaire, sera intégré d’ordre 1 si le processus Zt défini : Zt ≡ Yt – Yt-1 = (1 – L)Yt
est stationnaire. Le terme « L » est un opérateur de retard ou de décalage (lag)
Donc, par extension, Yt sera d’ordre d, si Yt est non-stationnaire, Vt = (1 – L)Yt est non stationnaire, …,
Wt = (1 – L)d-1Yt est non stationnaire et Zt = (1 – L)dYt est stationnaire.
Quelques transformations.
* Première différence : ΔYt = Yt – Yt-1
* Opérateur première différence : (1 – L)Yt = ΔYt
* Première différence en logarithme : ΔLn(Yt) = Ln(Yt) - Ln(Yt-1)
* Taux de croissance : (Yt - Yt-1)/Yt-1 = ΔLn(Yt)
NOTE 3 : les modèles intégrés sont très présents dans les séries économiques et financières, notamment les
séries d’indices boursiers, d’indice de production, d’indice de prix.
*Bruit blanc
Un processus εt†† est un bruit blanc lorsque :
E(εt) = 0 ; pour tout t (hypothèse de centralité).
E(εt2) = σ2 ; pour tout t = t – k (hypothèse d’homoscédasticité).
E(εtεt-k) = 0 ; pour tout t ≠ t-k (absence d’autocorrélation des erreurs).
Par ailleurs, un processus εt est un bruit blanc indépendant si E(εt) = 0 ; E(εt2) = σ2 ; εt et εt-k sont indépendants pour
tout k ≠ 1. Et le bruit blanc est dit gaussien si le processus εt est un bruit blanc indépendant tel que εt ~ N(0, σ2).
Un modèle dynamique est un modèle pour lequel l’on trouve parmi les variables explicatives des variables
endogènes décalées et/ou des variables exogènes décalées. Les modèles ayant parmi ses variables
explicatives que de variables endogènes décalées sont dits autorégressifs. Parallèlement, ceux ayant parmi
les variables explicatives des variables exogènes décalées sont dits échelonnés (modèles à retards
échelonnés). En un premier temps, les modèles dynamiques qui retiennent notre attention est ceux
proposés par YULE et SLUTSKY.
Les modèles proposés par Yule et Slutsky se présentent, respectivement comme suit :
En généralisant les modèles (1) et (2), on obtient les processus AR(p) et MA(q).
††
Dans les séries temporelles, le terme de l’erreur est souvent appelé innovation. Comme on le verra, le terme de l’erreur
sera la seule information nouvelle qui interviendra dans le processus à la date t.
Yt– Φ1Yt-1 – … – ΦpYt-p = εt ; où Φi (i=1, …, p) sont des réels et εt un bruit blanc gaussien.
En introduisant un opérateur retard [tel que LiYt = Yt-i] et un polynôme retard de degré h [tel que Φ(L) = 1 – Φ1L –
Φ2L2 … – ΦpLp] , le processus AR(p) peut donc s’écrire comme suit :
(1 – Φ1L … – ΦpLp)Yt = εt
Soit : Φ(L)Yt = εt
* Processus moyenne mobile d’ordre q, noté MA(q) ; c’est un processus Yt stationnaire vérifiant une
relation du type :
En introduisant un opérateur retard et un polynôme retard de degré h, le processus MA(q) s’écrit donc :
Yt = (1 – θ 1L … – θ pLp) εt
Soit : Yt = Θ(L) εt
* Processus autorégressifs de moyenne mobile, noté ARMA(p, q) ; c’est une extension naturelle des
processus AR(p) et MA(q), c’est donc un processus mixte qui vérifie la relation suivante :
La méthodologie de Box et Jenkins permet de déterminer le processus ARMA adéquat pour la modélisation
d’une chronique. La méthodologie BJ suggère quatre étapes, à noter : l’identification, l’estimation, la
validation et la prévision.
*L’identification : cette première étape consiste à trouver les valeurs p et q des processus ARMA en se
basant sur l’étude des fonctions d’autocorrélation simple et d’autocorrélation partielle.
*L’estimation : après avoir identifié les valeurs p et q d’un ou plusieurs processus ARMA, il sera question
d’estimer les coefficients aux termes autorégressifs et moyenne mobile.
*La validation : après avoir estimé les différents processus ARMA, il convient à présent de valider ces
modèles, en servant d’une part, des tests de significativité des paramètres (test de
student) pour les coefficients et d’autre part, les tests d’hypothèse nulle
d’homoscédasticité (tests ARCH, White, Breusch-Pagan) et d’hypothèse nulle
d’autocorrélation pour les résidus (tests de Box-Pierce, Ljung-Box, Breusch-Godfrey)
NOTE 4 : Si, { l’issue de l’application de ces différents tests diagnostics, plusieurs modèles sont validés,
l’étape de validation doit se poursuivre par une comparaison des qualités de ces modèles. Les critères de
choix du modèle à retenir peuvent être standards ou d’information. Les critères les plus utilisés sont repris
dans le tableau ci-dessous.
*La prévision : c’est la dernière étape de la méthodologie de Box et Jenkins. Connaissant l’horizon de
prévision (h), la prévision faite en T pour la date T+h est donnée par :
Ou encore :
Le terme signifie que la valeur de Yt est prévue sur base des observations passées Yt-1, Yt-2, … en
utilisant la valeur estimée des coefficients.
Notez que la prévision et l’estimation des effets causaux sont des objectifs très différents. Pour un modèle
de prévision, par exemple :
- Le coefficient de détermination corrigé a beaucoup d’importance, alors que le biais d’omission
n’est pas vraiment un problème ;
- On ne cherche pas { interpréter les coefficients d’un modèle de prévision (c’est ce que l’on qualifie
également d’économétrie sans théorie), ce qui importe c’est la validité externe du modèle ;
- Le modèle estimé sur des données du passé (prédiction) doit être valable dans le futur
(prévision)‡‡.
‡‡
Il existe une nette différence entre prédiction et prévision ; une valeur prédite ou valeur ajustée (prédiction) fait
référence { la valeur calculée par la régression pour une date { l’intérieur de l’échantillon d’estimation, (en anglais
predicted value), alors qu’une valeur prévue fait référence à la valeur calculée pour une date postérieure { l’échantillon
d’estimation, (en anglais forecasted value).
La différence entre erreur de prévision et résidu est de même nature que celle entre valeur prévue et valeur prédite (à l’intérieur ou
à l’extérieur de l’échantillon d’estimation).
Professeur de finance américain, Robert F. Engle a partagé le prix Nobel d'économie 2003 avec
le Britannique Clive W. Granger, avec qui il avait publié nombre d'articles sur les séries
chronologiques tout au long des années 1980 et 1990. Il obtient avec la plus haute distinction
une licence de physique au Williams College de New York en 1964, une maîtrise de physique
deux ans plus tard, puis un doctorat de sciences économiques en 1969. Ses travaux ont ouvert
les recherches sur de nouvelles méthodes d'analyse des séries chronologiques et accéléré le
R. F. ENGLE renouvellement des techniques économétriques dans l’analyse économique.
L’incapacité des modèles de type ARMA, { saisir les phénomènes non linéaires, a poussé les économètres à
développer les modèles non linéaires. En vue de prendre en compte la volatilité conditionnelle caractérisant
certaines chroniques, telles que financières, et leur non linéarité, Robert F. Engle§§ a introduit en 1982 la
classe des modèles ARCH***, puis Tim P. Bollerslev l’a généralisé en 1986†††.
Lorsque la variance conditionnelle d’une série Yt sachant Yt-1 est est constante, soit :
R.F. Engle a construit un modèle dans lequel la variance conditionnelle de Yt sachant Yt-1 dépendrait de Yt-1
et plus particulièrement :
Var(Yt/ Yt-1) = [α + βY2t-1] σ2
Cette classe de modèle, appelée ARCH(1) a été généralisée sous la forme ARCH(p) :
Où ht = α0 + α1Y2t-1 + … + αpY2t-p
Cette forme pour ht a permis l’analogie entre les modèles AR et les modèles ARCH. Ainsi, de la même façon
que les ARMA généralisent les AR, la classe de modèle ARCH a été généralisée en considérant la fonction ht
de la forme :
Où
En résumé :
*AR → ARMA
*ARCH → GARCH
Note 5 : les modèles ARCH ou GARCH sont énormément utilisés dans les modèles financières parce qu’ils
sont caractérisés par de longues périodes de forte volatilité, appelée volatility clustering.
§§
"Autoregressive Conditional Heteroskedasticity With Estimates of the Variance of U.K. Inflation", Econometrica 50
(1982): 987-1008.
***
Modèle ARCH : Modèle Autorégressif conditionnellement hétéroscédastique.
†††
Le modèle GARCH(1,1) a été présenté indépendamment par Taylor (1986).
Fonction de Vraisemblance
Soit y = (y1, … yn), la réalisation de taille n d’un vecteur Y. On appelle fonction de vraisemblance ou tout
simplement la vraisemblance, la fonction de y et de θ :
A l’issue de ces tests diagnostics, s’il se dégage que la série des résidus est stationnaire en moyenne ; reste
à déterminer si les erreurs sont autocorrélées ou non et/ou leurs variances sont hétéroscédastiques ou non.
Ces deux derniers tests permettent de préciser le modèle à utiliser pour la prévision.
Modélisation
Homoscédastique :
ARMA
Absence
Si
d’autocorrélation
Modélisation
Hétéroscédastique :
(G)ARCH
Test de
validation
Ecarter le
Homoscédastique :
modèle
Présence
Si
d’autocorrélation
Ecarter le
Hétéroscédastique :
modèle
APPLICATIONS
‡‡‡
La chronique de la DJI a été tirée auprès de la source Euronext Paris.
150
140
130
120
DJI
110
100
90
80
97 98 99 00 01 02 03 04 05 06 07 08
On peut également travailler avec de données logarithmiques. Dans ce cas, le plot de la série linéarisée se
présente comme suit :
5.1
5.0
4.9
4.8
LDJI
4.7
4.6
4.5
4.4
97 98 99 00 01 02 03 04 05 06 07 08
Il faut appliquer le filtre de différence pour stationnariser la série DJI : GENR DDJI = D(DJI)
t-Statistic Prob.*
Il se dégage que la tendance n’est pas significativement différente de zéro car la probabilité critique
associée au trend est supérieure à 5 pour cent.
t-Statistic Prob.*
t-Statistic Prob.*
On accepte donc l’hypothèse alternative selon laquelle la série DDJI est stationnaire et donc :
DDJI → I(0) : la série DDJI suit un processus ARMA OU DJI → I(1) : la série DJI suit un processus ARIMA.
15
10
0
DDJI
-5
-10
-15
-20
97 98 99 00 01 02 03 04 05 06 07 08
Il ressort de ce graphique (après différence première) que la série fluctue autour d’une moyenne constante.
La série DIDJ est stationnaire. On va lui chercher un modèle ARMA (p, q) Pour connaître les ordres du
modèle ARMA (p, q), nous allons nous servir de corrélogrammes de la série stationnaire DIDJ. En effet, le
corrélogramme simple permet d’identifier un modèle MA(q), alors que le corrélogramme partiel permet
d’identifier un modèle AR(q).
Il ressort de ces corrélogrammes que la deuxième autocorrélation (simple et partielle) de la série DDJI est
significativement différente de zéro.
Comme il s’agit de processus ARIMA(2,1,2), les schéma ci-dessus nous servira de guide pour les estimations.
MA(1) MA(2)
AR(2)
MA(2)
MA(2)
Rappelons qu’il existe quatre types de régression, { noter : la régression standard, la régression
hiérarchique, la régression statistique ou régression pas-à-pas et la régression set wise§§§. Pour estimer les
processus ARIMA(2, 1, 2), nous optons pour la régression set wise.
Après estimation des différents modèles, l’analyse de la significativité des coefficients nous conduits {
conserver les six modèles ci-après. Ces six modèles seront soumis à un test de diagnostic. Seuls les modèles
dont les résidus sont de bruits blancs seront validés.
§§§
Lire Tsasa, 2009, Vers l’économétrie approfondie : une présentation en schémas, CRES. Des auteurs, comme
Kintambu M. (2008) préfère la régression statistique.
En appliquant le test de racine unitaire, il ressort que le processus résiduel est stationnaire :
Null Hypothesis: DDJI_RESIDUALS has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=12)
t-Statistic Prob.*
Cependant, le plot indique que le processus résiduel semble être stationnaire en moyenne et non en
variance, pour se faire, il faut passer au test d’hypothèse nulle d’homoscédasticité pour s’en assurer.
10
-5
DDJI_RESIDUALS
-10
-15
-20
97 98 99 00 01 02 03 04 05 06 07 08
En effet, si le processus n’est pas stationnaire en variance, il est conseiller d’utiliser, non plus un processus
ARIMA, mais plutôt un processus (G)ARCH afin de prendre compte la volatilité et le caractère non linéaire
du modèle.
Il se dégage que les probabilités affectées aux résidus au carré pour les différents modèles respectifs, on
est conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence
d’autocorrélation des erreurs.
Etant donné que les hypothèses alternatives pour les différents tests respectifs ont été rejetées, La
modélisation retenue pour la prévision sera donc du type ARIMA.
Les résidus de ces différents modèles sont de bruits blancs et donc, tous les modèles ci-dessous doivent
être validés.
Cependant, pour choisir le modèle à retenir pour la prévision, nous allons recourir aux critères
d’information et au coefficient de détermination. Ces critères permettent d’évaluer la qualité d’une modèle.
****
View (dans la fenêtre d’estimation du modèle sous analyse) → Residual Tests → Correlogram Squared Residuals.
16
Forecast: DDJIF
12 Actual: DDJI
Forecast sample: 1997M06 2008M07
8 Adjusted sample: 1997M09 2008M07
Included observations: 131
4
Root Mean Squared Error 4.161955
Mean Absolute Error 3.103631
0
Mean Abs. Percent Error 95.26647
Theil Inequality Coefficient 0.752537
-4
Bias Proportion 0.001366
Variance Proportion 0.579237
-8 Covariance Proportion 0.419397
-12
98 99 00 01 02 03 04 05 06 07 08
DDJIF
Il ressort de cet output que le coefficient de Theil est assez élevé, ce qui n’assure pas une bonne prédiction.
La figure ci-dessous s’avère assez éloquent { cet effet.
20
10
10 -10
5
-20
0
-5
-10
-15
-20
98 99 00 01 02 03 04 05 06 07 08
Après avoir générer les résidus (resid) et la variable prédite [= (DDJI) – (Resid)], aller dans VIEW → DATED DATA TABLE.
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Year
1997 1997
DDJI -- -- -- -- -- -- -1.0 5.0 7.0 5.0 -2.0 4.0 3.0
FITTED -- -- -- -- -- -- 0.77 0.89 1.21 3.69 -0.89 1.35 1.17
RESIDUAL -- -- -- -- -- -- -1.77 4.11 5.79 1.31 -1.11 2.65 1.83
1998 1998
DDJI -1.0 -3.0 -3.0 4.0 5.0 1.0 -9.0 0.0 5.0 -4.0 0.0 1.0 -0.3
FITTED -0.13 -0.05 0.16 0.71 0.85 -0.49 -0.64 -0.59 1.78 -0.42 0.01 0.70 0.16
RESIDUAL -0.87 -2.95 -3.16 3.29 4.15 1.49 -8.36 0.59 3.22 -3.58 -0.01 0.30 -0.49
1999 1999
DDJI 3.0 0.0 -6.0 3.0 0.0 0.0 1.0 -8.0 2.0 8.0 -2.0 -4.0 -0.3
FITTED 0.01 0.24 -0.74 0.17 0.97 -0.62 0.68 -0.44 0.23 1.67 -0.33 -0.81 0.09
RESIDUAL 2.99 -0.24 -5.26 2.83 -0.97 0.62 0.32 -7.56 1.77 6.33 -1.67 -3.19 -0.34
2000 2000
DDJI -1.0 -12.0 0.0 6.0 2.0 0.0 -1.0 7.0 -4.0 -1.0 -6.0 0.0 -0.8
FITTED 0.26 0.42 0.43 3.27 0.30 0.81 -0.28 0.57 0.05 -1.34 1.02 -0.69 0.40
RESIDUAL -1.26 -12.42 -0.43 2.73 1.70 -0.81 -0.72 6.43 -4.05 0.34 -7.02 0.69 -1.24
2001 2001
DDJI 2.0 3.0 2.0 1.0 -3.0 -6.0 3.0 3.0 -17.0 3.0 12.0 -1.0 0.2
FITTED 2.20 -0.48 1.05 -1.08 0.24 -1.01 0.91 0.78 -0.10 -0.20 4.14 -0.88 0.46
RESIDUAL -0.20 3.48 0.95 2.08 -3.24 -4.99 2.09 2.22 -16.90 3.20 7.86 -0.12 -0.30
2002 2002
DDJI 1.0 -3.0 2.0 1.0 4.0 4.0 1.0 -3.0 1.0 -3.0 3.0 -3.0 0.4
FITTED -0.07 -0.37 -0.30 0.48 -0.70 0.09 -1.48 -0.93 -1.29 0.09 -1.15 0.81 -0.40
RESIDUAL 1.07 -2.63 2.30 0.52 4.70 3.91 2.48 -2.07 2.29 -3.09 4.15 -3.81 0.82
2003 2003
DDJI -1.0 2.0 -2.0 4.0 3.0 -2.0 2.0 0.0 -4.0 1.0 1.0 0.0 0.3
FITTED -1.55 1.31 -0.84 0.42 -0.09 -0.69 -0.81 0.01 -1.06 0.01 0.25 -0.24 -0.27
RESIDUAL 0.55 0.69 -1.16 3.58 3.09 -1.31 2.81 -0.01 -2.94 0.99 0.75 0.24 0.61
2004 2004
DDJI 1.0 -1.0 -2.0 4.0 1.0 1.0 1.0 2.0 1.0 1.0 -4.0 1.0 0.5
FITTED -0.08 -0.17 -0.30 0.13 0.28 -0.90 -0.05 -0.88 -0.28 -1.11 -0.44 -1.03 -0.40
RESIDUAL 1.08 -0.83 -1.70 3.87 0.72 1.90 1.05 2.88 1.28 2.11 -3.56 2.03 0.90
2005 2005
DDJI 2.0 3.0 5.0 2.0 2.0 1.0 2.0 -4.0 5.0 7.0 1.0 2.0 2.3
FITTED 0.68 -0.97 -0.02 -1.42 -1.25 -1.49 -1.37 -1.29 -1.46 0.08 -2.26 -1.68 -1.04
RESIDUAL 1.32 3.97 5.02 3.42 3.25 2.49 3.37 -2.71 6.46 6.92 3.26 3.68 3.37
2006 2006
DDJI -5.0 4.0 3.0 -7.0 2.0 -9.0 -2.0 -2.0 5.0 2.0 -8.0 -8.0 -2.1
FITTED -1.83 -1.67 -0.05 -2.16 -0.78 0.22 -1.04 2.38 -0.23 2.17 -1.40 1.02 -0.28
RESIDUAL -3.17 5.67 3.05 -4.84 2.78 -9.22 -0.96 -4.38 5.23 -0.17 -6.60 -9.02 -1.80
2007 2007
DDJI 2.0 -4.0 1.0 -1.0 4.0 7.0 -3.0 -1.0 1.0 6.0 0.0 3.0 1.3
FITTED 1.00 2.70 0.20 2.88 -0.10 2.27 -1.06 -0.14 -0.00 0.15 -0.25 -1.38 0.52
RESIDUAL 1.00 -6.70 0.80 -3.88 4.10 4.73 -1.94 -0.86 1.00 5.85 0.25 4.38 0.73
2008 2008
DDJI 6.0 1.0 -2.0 -17.0 -2.0 0.0 -4.0 -- -- -- -- -- -2.6
FITTED -0.18 -1.71 -1.61 -1.45 -0.63 3.19 0.05 -- -- -- -- -- -0.33
RESIDUAL 6.18 2.71 -0.39 -15.55 -1.37 -3.19 -4.05 -- -- -- -- -- -2.24
*DDJI : variable observée *FIITED : variable prédite
Il est possible de réaliser la prévision (c’est-à-dire DDJIt après juillet 2008) avec le modèle suivant :
DDJIt+h = 0.453573DDJIt-2+h – 0.701201εt-2+h (avec εt-2+h = 0 pour tout h > 2).
Dans ce cas, comme il s’agit d’un ARIMA (2, 1, 2), ainsi, nous aurons après transformation :
ARIMA(3, 0, 2)
Estimation Command:
=====================
LS DJI C AR(1) AR(2) AR(3) MA(2)
Estimation Equation:
=====================
DJI = C(1) + [AR(1)=C(2),AR(2)=C(3),AR(3)=C(4),MA(2)=C(5),BACKCAST=1997M09]
Substituted Coefficients:
=====================
DJIt = 118.9092118 + 0.9340609646DJIt-1 – 0.8875797139DJIt-2 + 0.8404905899DJIt-3 + 0.8400971652εt-2
(19.57424) (19.04214) (-8.731020) (9.030868) (6.992286)
(0.0000) (0.0000) (0.0000) (0.0000) (0.0000)
R²= 0.885822 AIC = 5.760724 SIC =5.870464
Prob(F-Statistic) = 0.000000
160
Forecast: DJIF
150 Actual: DJI
Forecast sample: 1997M06 2008M07
140 Adjusted sample: 1997M09 2008M07
Included observations: 131
130
80
98 99 00 01 02 03 04 05 06 07 08
DJIF
††††
Il existe quatre types de régressions, parmi celles, la régression statistique, appelée également régression pas-à-pas.
Cette dernière repose sur le test de Student ; c’est-à-dire, elle se refère à la règle de pousse pour décider sur la
prédictibilité d’un modèle.
160
140
120
100
10
80
-10
-20
98 99 00 01 02 03 04 05 06 07 08
Pour prévoir l’évolution de la valeur actuelle de l’indice Dow Jones, nous allons nous référer au résultat de
l’équation estimée :
Pour ce faire, nous avons besoin de données suivantes (VIEW→ Actual, Fitted, Residual→ Table) :
C’est la propriété centrale des processus ARCH : le processus Xt possède les propriétés d’un bruit blanc
homoscédastique, mais sa variance conditionnelle dépend du temps.
Propriété 2 (Autocorrélations des carrés des variations de prix) : La série r2t associée aux carrés des
rendements présente généralement de fortes autocorrélations, tandis que les autocorrélations de la série r t
sont souvent très faibles (hypothèse de bruit blanc).
NOTE : Lorsqu’un processus Xt vérifie les propriétés 1 et 2, on dit qu’il vérifie la définition d’une différence de
martingale‡‡‡‡ homoscédastique et d’un bruit blanc.
Propriété 3 (Queues de distribution épaisses) : L’hypothèse de normalité des rendements est généralement
rejetée. Les queues des distributions empiriques des rendements sont généralement plus épaisses que
celles d’une loi gaussienne. On parle alors de distribution leptokurtique.
Propriété 4 (Clusters de Volatilité) : On observe empiriquement que de fortes variations des rendements
sont généralement suivies de faibles variations. On assiste ainsi à un regroupement des extrêmes en cluster
ou paquets de volatilités. Dans ces conditions, le processus Xt est conditionnellement hétéroscédastique.
C
Propriété 5 (Queues épaisses conditionnelles) : Même une fois corrigée de la volatilité clustering (par
exemple avec des modèles ARCH), la distribution des résidus demeure leptokurtique même si la kurtosis est
plus faible que dans le cas non conditionnel.
Propriété 6 (Effet de levier) : Il existe une asymétrie entre l’effet des valeurs passées négatives et l’effet des
valeurs passées positives sur la volatilité des cours ou de rendements. Les baisses de cours tendent à
engendrer une augmentation de la volatilité supérieure à celle induite par une hausse des cours de même
ampleur.
Cette propriété n’est pas à confondre avec celle d’asymétrie de la distribution des cours ou des rendements
(propriété 8). Il s’agit ici d’une asymétrie de la relation liant les valeurs passés des cours ou rendements à la
volatilité de ces derniers.
Propriété 7 (Saisonnalité) : Les returns présentent de nombreux phénomènes de saisonnalité (effets week-
end, effet janvier, etc..).
Propriété 8 (Asymétrie perte/gain) : La distribution des cours est généralement asymétrique : il y a plus de
mouvements forts { la baisse qu’{ la hausse.
‡‡‡‡
Un processus X test une différence de martingale homoscédastique si et seulement si : E(Xt/Xt-1) = 0 et V(Xt) = σ²x
pout tout t.
B. ETUDE DE LA STATIONNARITE
B.1. Corrélogramme
Au regard de ce corrélogramme, il y a lieu de soupçonner que la série n’est pas stationnaire à niveau.
En se référant à la règle de pousse et aux probabilités critiques, il ressort que le trend et la dérive sont tous
significatifs.
Faudra-t-il appliquer la modélisation ARMA avec la méthodologie BJ ou la modélisation ARCH avec la méthode de
maximum de vraisemblance ? Pour se décider sur la méthodologie à suivre, nous nous basons sur deux tests.
Ce graphique indique la présence de volatilité, il y a donc lieu de suspecter la présence d’une série non stationnaire en
variance. Pour s’en convaincre, formellement, nous effectuons aussitôt le test d’hypothèse nulle d’homoscédasticité. Il
existe plusieurs tests§§§§, à cet effet. Dans le cadre de ce cours, on recourt au test ARCH.
§§§§
Test de Harvey, Test de Glejser, Test de White ou Custom test wizard.
Donc, la prévision de l’évolution de la variable VAGE sera faite sur base d’un modèle (G)ARCH estimé par la méthode de
maximum de vraisemblance.
Comme l’indique le résultat ci-après, le corrélogramme des résidus au carré présente 36 autocorrélations
simples et 8 autocorrélations partielles significativement différentes de zéro.
La comparaison des modèles estimés se fera ensuite { l’aide des critères suivants : AIC, SIC, R², log-likehood.
On choisira le modèle qui vérifiera un maximum de ces critères.
NOTE : les coefficients estimés par la modélisation ARCH doivent être toujours être positif (contrainte de positivité*****).
ARCH(2)
*****
L’optimisation de la fonction de vraisemblance est réalisée sous certaintes conraintes, notamment celle de non
négativité.
ARCH(1)
Le coefficient ARCH(1) est positif et significativement différent de zéro. On garde donc ce modèle.
Au bout de ces estimations, il ressort donc que le seul modèle retenu pour la prévision de la volatilité est le
modèle ARCH(1).
Il y avait en plus un grand nombre de « profanes » c’est-à-dire d’auteurs qui soutenaient des systèmes
théoriques de leur cru, et condamnaient la théorie professionnelle sans se soucier de la maîtriser. Il y avait
enfin autre chose. Comme toujours, la majorité des économistes était absorbée par l’étude des faits et des
problèmes pratiques des divers départements de la politique publique. La théorie ne servait pas à grand
chose pour cette majorité.
Schumpeter, J., 1983, Histoire de l’analyse économique, Tome 3, Gallimard, Paris, p. 273.
Le seul moyen d’accès { une position telle que notre science puisse donner un avis positif pour de
nombreux politiciens et hommes d’affaires repose sur des travaux quantitatifs. Aussi longtemps que nous
ne serons pas capables de traduire nos arguments en chiffres, la voix de notre science, bien qu’elle puisse
occasionnellement aider à éviter des erreurs grossières, ne sera jamais entendue par les praticiens. Ils sont
tous, par instinct, économètres, du fait de leur incrédulité pour toute chose dont il n’existe pas une preuve
exacte.
Schumpeter, J.A., 1933, The common sense of econometrics, vol. 1, Econometrica, p. 12.
En estimant le modèle AR(2), il ressort que AR(1) est non significatif, on l’écarte dès lors du modèle et on
obtient : DDJI = AR(2)
En estimant le modèle MA(2), il ressort que MA(1) est non significatif, on l’écarte dès lors du modèle et on
obtient :
DDJI = MA(2)
En estimant le modèle ARMA(2, 2), il ressort que AR(1) et MA(1) sont non significatifs, on les écarte dès lors
du modèle et on obtient un modèle :
DDJI = AR(2) MA(2)
TEST D’HETEROSCEDASTICITE
Après avoir identifié le nombre de retards, on dès lors effectue le test ARCH : VIEW → RESIDUAL → TESTS ARCH LM Test
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
ARCH Test:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 19:55
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
ARCH Test:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 20:02
Sample (adjusted): 1997M10 2008M07
Included observations: 130 after adjustments
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
ARCH Test:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 20:04
Sample (adjusted): 1997M11 2008M07
Included observations: 129 after adjustments
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
ARCH Test:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:53
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
ARCH Test:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:54
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
ARCH Test:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:56
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Alors que je fus sur le banc de l’école, je me posais toujours la question de savoir d’où vient l’incompréhension ? Qu’est-
ce qui fait que certaines personnes maîtrisent mieux certains concepts que certaines autres ? Après beaucoup de temps
de réflexion, j’ai trouvé une réponse satisfaisante, que j’estime être plus ou moins parfaite. L’incompréhension vient de
trois éléments essentiels, à savoir : le manque de pré-requis, la non maîtrise du jargon et la limite imposée par le
quotient intellectuel. Le dernier argument pose une contrainte de disponibilité. Cependant, pour résoudre les
problèmes liés au pré-requis et au jargon, il faut beaucoup lire. Et cette lecture doit intégrer certaines exigences,
notamment : la concentration, le raisonnement, l’attention, la conscience et le sérieux ; donc, une lecture intelligente.
Pour ce faire, je propose aux étudiants ou intéressés ayant l’accès { la Bibliothèque Universitaire Centrale (B.U.C), une
panoplie d’ouvrage que j’ai eu { lire tout au long de mon parcours universitaire. Donc, voici la liste de quelques
ouvrages de statistique/économétrie répertoriés au sein de la B.U.C de l’Université Protestante au Congo. Une
collection d’ouvrages, limitée, pour l’étudiant qui désire s’entraîner avec des applications classiques de statistique
descriptive, de statistique mathématique ou d’économétrie.
Note : la liste des ouvrages, bien qu’obéissant au principe d’essentialité, apparait non exhaustive puisque la roue de la
recherche scientifique demeure très dynamique dans le temps et dans l’espace.
Avertissement
Ce papier est le fruit d’un effort consistant { rapprocher l’analyse théorique et celle de phénomènes réels
en économie. Noter déj{ { ce niveau que c’est par un processus continu de défis et de réponses que la
Science économique évolue. S’inscrivant dans la logique de la préférence pour la simplicité dans la rigueur,
nous nous sommes proposé d’élaborer un papier qui montrerait l’intérêt de l’outil économétrique dans
l’analyse économique.
Objectif : encourager les intéressés { se servir de l’économétrie comme outil de travail et de ne pas la
considérer comme un instrument de torture scientifique.
0. Introduction
Dans ce papier, nous nous proposons de montrer à l’étudiant inscrit en économie le rôle de l’outil
économétrique dans l’analyse économique. Tout au long de son parcours universitaire et même après
l’université, l’étudiant est appelé { réaliser des études ou analyses (travail pratique, mémoire, séminaire,
etc.) ; alors parmi les multiples outils d’analyse disponibles, l’économétrie occupe sans nul doute une place
de choix.
Prenons un cas simple où il est demandé { l’étudiant de mener une analyse sur les interactions existant
entre le Produit Intérieur Brut (PIB) et la variation de l’indice général des prix, généralement qualifiée de
taux d’inflation (INFLA). Plusieurs approches sont { la portée de l’étudiant pour mener cette étude. Dans le
cas où il décide de recourir { l’outil économétrique, il pourra procéder comme suit. Avant de chercher à
explorer le monde économétrique, l’intéressé doit être { même de définir l’ « économétrie », c’est-à-dire de
cerner ses contours. Après avoir appréhendé les contours de l’économétrie, l’intéressé peut ensuite
s’interroger sur la nature de relations qui lient les variables sous examen. Il ne suffirait pas de préciser
uniquement la nature de relation caractérisant les variables, faudra-t-il encore déterminer l’influence
qu’exerce une variable sur l’autre tout en respectant les hypothèses sous-tendant la méthode utilisée pour
l’analyse.
Enfin, d’une part, pour plus de rigueur et de rapidité lors de l’étude et d’autre part, pour aboutir { de
résultat fiable et généralement admissible, l’intéressé sera obligé de maîtriser au moins l’utilisation d’un
logiciel économétrique. Le tableau suivant résume les différentes étapes { suivre pour l’initiation {
l’utilisation de l’outil économétrique.
ANALYSE ECONOMETRIQUE
L’économétrie pourrait donc être comprise comme une utilisation des mathématiques et de la
statistique pour évaluer les relations de la théorie économique.
†††††
Lire R. Barre, 1975, Economie Politique, Presse universitaire de France, Paris, pp 58-64, pour avoir une idée sur la
genèse de l’économétrie.
Comme une carte résumant la réalité géographique, la technique des modèles correspond à la
cartographie de l’économie. Donc, tout modèle implique une simplification et non une déformation.
Dans un modèle, il y a lieu de distinguer : les variables, les relations et les paramètres.
ETUDE DE LA CORRELATION
CORRELATION
AJUSTEMENT proprement dite
Méthodes :
* Méthode de 3 points ;
* Méthode de moindres carrés
Ci-après est reprise l’évolution du taux de croissance économique et du taux d’inflation (en moyenne
annuelle) en R.D. Congo de 2000 à 2008.
Travail demandé : Mesurez l’intensité de la relation entre les variables Yt (taux de croissance) et Xt
(taux d’inflation) et dites comment varient-elles ?
RESOLUTION
Connaissant la formule du coefficient de corrélation, on dégage le tableau suivant qui permet de
mesurer l’intensité de la relation existant entre le PIB et l’inflation :
Ce tableau indique que pour un niveau de confiance de 0.95, le coefficient de 0,919 est significatif
puisqu’il est supérieur { 0.67 (n-2 = 7 degrés de liberté).
Par ailleurs, le test t-Student permet également d’évaluer la signification du coefficient de corrélation
c’est-à-dire de préciser si la relation entre Y et X n’est pas le fait d’un hasard.
α
* : t calculé et : à lire dans la table de Student.
Etant donné que le coefficient de corrélation est une mesure qualitative, la relation entre X
et Y serait :
parfaite si r = 1 d'intensité moyenne si r se situe entre 0,2 et
très forte si r > 0,8. 0,5.
forte si r se situe entre 0,5 et faible si r se situe entre 0 et 0.2.
0,8. nulle si r = 0
La détermination du coefficient sur les différents logiciels nécessite une installation de chacun d’eux
dans le PC.
Application d’entraînement :
To be continued …
= -1 : DW = 4 (Autocorrélation négative)
Si ê = 0 : DW = 2 (Absence d’autocorrélation)
= +1 : DW = 0 (Autocorrélation positive)
TABLE DE DURBIN-WATSON
0 2 4
Pour savoir si la convergence est assurée après combien d’itérations, il faut voir la ligne :
« convergence achieved after… »
Voir ensuite la statistique D-W , lire dV et dL et déterminer 4-dV et 4-dL.
Si l’on obtient : dV < D-W < 4−dV, ce qu’il s’agit d’une non corrélation des erreurs ; et par conséquent, la
procédure Cochrane Orcutt a corrigé l’autocorrélation des erreurs.
i. TEST DE CHOW(1960)
Le test de Chow, appelé aussi test de changement structurel examine si les coefficients d’une régression
sont stables par rapport aux observations utilisées. Comme tout médaille comporte un révère, le test de
Chow présente un inconvénient majeur : le choix du point de rupture par le modélisateur.
Soit,
H0 : modèle stable
H1 : modèle instable
Instruction Eviews :
Cliquer sur :
VIEW→ STABILITY TESTS→ CHOW BREAKPOINT TESTS→ choisir une année (par exemple : 1973)
Le point de rupture est 1973 (premier choc pétrolier)
Si toutes les probabilités critiques (Probability) sont supérieure à 0.05, ce que l’on rejette H1 ; donc, on
décide que le modèle est stable sur la période sous analyse.
CRITERE DE STABILITE
- Si la courbe sort du corridor, ce que les coefficients du modèle sont instables
- Par contre, si la courbe ne sort pas du corridor, ce que les coefficients du modèle sont stables.
Note : Corridor = intervalles defines par les pointillés.