Statistique Appliquee CCAM

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 70

STATISTIQUE APPLIQUEE

Par
Jean-Paul TSASA Vangu

Sous la coordination du
Professeur MUKOKO Samba

Centre Congolais-Allemand de Microfinance

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 0


Ce recueil de travaux pratiques est rédigé sous la coordination du Professeur
MUKOKO Samba. Il servira d’un recueil de référence et d’applications lors des
travaux pratiques prévus à la fin du cours de Statistique appliquée aux finances.
*Centre Congolais-Allemand de Microfinance, Mai 2010.

Tout passe d’abord par le « fictif », c’est-à-dire l’imaginaire des savants.


− Robert Emerson Lucas
Avertissements

Il n’existe pas d’ouvrage d’introduction aux séries temporelles qui évite un discours trop technique et qui
présente des exemples concrets de procédure d’estimation-modélisation. Ainsi, ce recueil d’applications,
résultat d’un effort consistant à présenter dans un langage plus ou moins simplifié et rigoureux les
concepts appartenant aux sciences dures, est rédigé en fonction d’un étudiant attentif. Il a pour objet
l’explication de différentes techniques permettant d’estimer et de prévoir les chroniques financières et la
présentation de techniques statistiques d’évaluation de portefeuille.

Et comme objectif, ce recueil se propose d’initier l’étudiant { l’utilisation de la statistique en tant qu’outil
permettant la structuration, l’analyse, l’interprétation des données (chiffrées) financières et économiques.
Pour y aboutir, nous éclatons le cours (partie théorie) et le regroupons en deux grands points.

Le recueil débute par un rappel des fondamentaux du cours, avant de s’intéresser aux études des cas. Ces
dernières permettront de mettre en évidence les modèles appropriés pour les analyses utilisant des
chroniques financières ; puisqu’{ ce jour, la finance, en tant que sous-discipline de l’économie, ne se limite
plus à une gestion et à un recueil de pratiques. Mais elle va au-delà en empruntant { l’économie, ses
raisonnements formalisés et ses mécanismes d'optimisation.

Par ailleurs, notez que les applications retenues dans ce recueil aideront l’étudiant à se préparer { l’examen
final. Le logiciel Eviews 7 a été utilisé pour confectionner les applications. Enfin, l’étudiant est invité { bien
appréhender les concepts théoriques énoncés pendant le cours et aussi de ne pas hésiter de consulter les
ouvrages de références suivants disponibles sur internet : Charpentier (2006) ; Droesbeke, Fichet, Tassi
(1994) ; Hurlin (2006-2007) ; Raggad et Trabelsiy (2003).

Je dédie ce recueil aux étudiants de la première promotion du CCAM de master Microfinance


(2009-2010). Leurs multiples questions et interventions m’ont permis, via le mécanisme du
learning by spillover, d’améliorer cet exposé.

Jean-Paul Tsasa V.†

Plan de travail‡
1 /. Rappel des concepts techniques
•Chronique •Processus stochastique •Stationnarité, Bruit blanc et Marche aléatoire •Modèles dynamiques
•Méthodologie de Box et Jenkins •Analogie des modèles AR/ ARMA et ARCH/ GARCH
•Méthode de maximum de vraisemblance •Modélisation AR(I)MA ou Modélisation (G)ARCH

2/. De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH : une étude du cas de …

3/. Estimations des paramètres des modèles ARCH /GARCH par la méthode maximum de vraisemblance

4/. Optimisation de portefeuille selon le critère de la Value at Risk (VaR) et Backtesting

5/. Credit scoring


Assistant au Centre Congolais-Allemand de Microfinance/ Université Protestante au Congo.

Je remercie le Professeur Mukoko Samba pour son orientation lors de la préparation de ce recueil et aussi pour la
collection d’ouvrages, mise { notre disposition. In fine, je suis le seul { blâmer en cas d’éventuelles erreurs ou omissions.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 1


Rappels des concepts techniques
Ce manuel se propose de familiariser l’étudiant aux différentes applications liées { l’économétrie des
séries temporelles, orientée, bien sûr, vers l’économie et la finance. La démarche adoptée, à cet effet,
commence par un rappel de concepts-clé jugés importants pour une meilleure appréhension des
applications qui suivront

1. CHRONIQUE
Synonyme : série chronologique, série temporelle.
Une chronique est une suite finie de valeurs numériques représentant l’évolution d’une variable aléatoire
indexé par le temps. C’est une suite d’observation des variables { des intervalles de temps réguliers.
Autrement, pour une chronique, les observations doivent être consécutives et d’une fréquence identique.
L’objet des séries temporelles est donc l’étude des processus temporels.

A titre illustratif, l’évolution des indices boursiers ou des prix d’actifs financiers, des données économiques
ou financières des entreprises, des agrégats macroéconomiques, des ventes et achats de biens ou celle des
productions agricoles ou industrielles sont, parmi tant d’autres, des chroniques qui intéressent
particulièrement les économistes et les financiers. Donc, une chronique n’est que la réalisation d’un
processus aléatoire.

NOTE 1 : les séries financières et certaines séries économiques sont caractérisées par de volatilité ; où l’on retrouve des
valeurs qui semblent être aberrantes. La spécification de telles séries exige de modèles non linéaires.

Contrairement aux modèles structurels, notamment d’inspiration keynésienne, où la prévision d’une


variable se fait en fonction des autres variables [Yt = f(Xt)], les séries temporelles se propose de prédire la
variable Yt en exploitant ses propriétés statistiques (moyenne, variance) et en utilisant généralement les
valeurs retardées de Yt et de chocs aléatoires (bruit blanc). A cet effet, un modèle très populaire en
économétrie des séries temporelles a été développé en 1970 : modèle ARMA§ (Auto Regressive with Moving
Average). Ce modèle n’est qu’un mélange des modèles AR et MA développés séparément et
respectivement par Yule et Slutsky en 1927.

2. PROCESSUS STOCHASTIQUE, VARIABLES ALEATOIRES


Synonyme : processus aléatoire, fonction aléatoire.
Un processus stochastique correspond { l’évolution d’une variable aléatoire Yt dans le temps. Une variable
aléatoire est la valeur prise par Yt à chaque instant du temps.

3. STATIONNARITE, BRUIT BLANC ET MARCHE ALEATOIRE

*Processus stationnaire

La stationnarité est un concept clé pour la validité d’une régression sur séries temporelles. D’un point de
vue statistique, la stationnarité suppose que le passé est comparable au présent et au futur. Ainsi, une série
chronologique est stationnaire, au sens strict, si sa distribution de probabilité ne change pas au cours du
temps : cette définition forte de la stationnarité implique que la distribution jointe (Yr+1, Yr+2, . . . , Yr+n ) ne
dépende pas de r ; si c’est le cas, on conclut que Yt est non stationnaire.

§
ARMA ; Auto Regressive (autorégressif) : puisque la spécification de ces modèles utilisent des valeurs « lagées » de Yt
et Moving Average (Moyenne Mobile) : parce que la variable représentant les chocs aléatoires (bruit blanc) dans ce
modèle est retardée. Rappelons que la moyenne mobile est une moyenne statistique qui supprime les fluctuations
transitoires dans une chronique en vue de ressortir les tendances à plus long terme. Elle est dite mobile puisqu’elle est
recalculée de façon continue, en utilisant à chaque calcul un sous-ensemble de valeurs dans lequel une nouvelle valeur
remplace la plus ancienne.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 2


Par ailleurs (définition faible de la stationnarité), un processus temporel Yt est stationnaire si :
 E[Yt] = μ, pour tout t : c’est-à-dire la série stationnaire en moyenne.
 Var[Yt] ≡ E(Yt2) = σ2, pour tout t : c’est-à-dire la série est stationnaire en variance.
 Cov[Yt, Yt+k] ≡ E[(Yt – μ) (Yt+k – μ)] = γk : l’autocovariance ou la covariance entre deux périodes t et
t+k** est uniquement fonction de la différence des temps k.

Un processus est stationnaire si celui-ci n’a ni trend, ni saisonnalité et de ce fait, fluctue autour d’une
moyenne constante. Il apparait donc sue la stationnarité est une exigence qui assure l’utilisation du modèle
en dehors de la période sur laquelle il a été estimé.

NOTE 2 : Un processus stationnaire possède de volatile lorsqu’il possède certaines réalisations qui s’écartent
sensiblement de la moyenne constante.

*Processus non-stationnaire
Une chronique qui ne vérifie pas les hypothèses ci-dessus est dite non stationnaire. Donc, il faudra la
stationnariser avant l’estimation. La méthode de stationnarisation dépend de la source de la non
stationnarité. Pour identifier cette source, le modèle suivant doit être testé :

Yt = α0 + αiYt-i + αjt + εt

*Critère de sélection : - Statistique de t de Student (t) ;


- Probabilité critique (Prob).

*Test de signification du trend : *Test de signification de l’intercept :


H0 : αi est non significatif H0 : α0 est non significatif
H0 : αi est significatif H0 : α0 est significatif

Le paramètre sera significatif si et seulement si : Prob < 0.05 et t > 1.96. Dans le cas contraire, il est non
significatif.

En estimant le modèle Yt = α0 + αiYt-i + αjt + εt :


Méthode de
Décision Type de modèle Processus
stationnarisation
αi est significatif Trend and Intercept Trend Stationnary (TS) Ecart à la tendance
αi est non significatif
et Intercept
α0 est significatif
Differency Stationnary (DS) Filtre aux différences
αi est non significatif
et None (ni Trend, ni Intercept)
α0 est non significatif

Procédure :
1/ Estimer le modèle Yt = α0 + αjt + εt
 Si le modèle est un TS : 2/ Générer les résidus
3/ Tester si est stationnaire

 Si le modèle est un DS : il faut différencier ou intégrer Yt « d » fois pour obtenir une chronique
stationnaire, soit Yt → I(d).

**
La fonction d’autocovariance γk = Cov[Yt, Yt+k] = E[Yt – E(Yt)][Yt+k – E(Yt+k)] d’un processus stationnaire Yt vérifie
les propriétés : 1°) γk =Cov(Yt, Yt) = Var[Yt] = E(Yt2) = σ2 ≥ 0, avec Var[Yt] = E[Yt – E(Yt)2] ;
2°) |γk| ≤ γ0 ;
3°) γk = γ-k, la fonction d’autocovariance est une fonction paire, Cov(Yt, Yt+k) = Cov(Yt, Yt-k).

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 3


Un processus DS non-stationnaire Yt est intégré d’ordre d, noté I(d), si en le différenciant « d » fois, on
obtient un processus stationnaire.

A titre illustratif, Yt, non stationnaire, sera intégré d’ordre 1 si le processus Zt défini : Zt ≡ Yt – Yt-1 = (1 – L)Yt
est stationnaire. Le terme « L » est un opérateur de retard ou de décalage (lag)

Donc, par extension, Yt sera d’ordre d, si Yt est non-stationnaire, Vt = (1 – L)Yt est non stationnaire, …,
Wt = (1 – L)d-1Yt est non stationnaire et Zt = (1 – L)dYt est stationnaire.

Quelques transformations.
* Première différence : ΔYt = Yt – Yt-1
* Opérateur première différence : (1 – L)Yt = ΔYt
* Première différence en logarithme : ΔLn(Yt) = Ln(Yt) - Ln(Yt-1)
* Taux de croissance : (Yt - Yt-1)/Yt-1 = ΔLn(Yt)

NOTE 3 : les modèles intégrés sont très présents dans les séries économiques et financières, notamment les
séries d’indices boursiers, d’indice de production, d’indice de prix.

*Bruit blanc
Un processus εt†† est un bruit blanc lorsque :
 E(εt) = 0 ; pour tout t (hypothèse de centralité).
 E(εt2) = σ2 ; pour tout t = t – k (hypothèse d’homoscédasticité).
 E(εtεt-k) = 0 ; pour tout t ≠ t-k (absence d’autocorrélation des erreurs).

Donc, par définition, un bruit blanc est un processus stationnaire.

Par ailleurs, un processus εt est un bruit blanc indépendant si E(εt) = 0 ; E(εt2) = σ2 ; εt et εt-k sont indépendants pour
tout k ≠ 1. Et le bruit blanc est dit gaussien si le processus εt est un bruit blanc indépendant tel que εt ~ N(0, σ2).

4. MODELES DYNAMIQUES EN ECONOMETRIE DES SERIES TEMPORELLES

Un modèle dynamique est un modèle pour lequel l’on trouve parmi les variables explicatives des variables
endogènes décalées et/ou des variables exogènes décalées. Les modèles ayant parmi ses variables
explicatives que de variables endogènes décalées sont dits autorégressifs. Parallèlement, ceux ayant parmi
les variables explicatives des variables exogènes décalées sont dits échelonnés (modèles à retards
échelonnés). En un premier temps, les modèles dynamiques qui retiennent notre attention est ceux
proposés par YULE et SLUTSKY.

Les modèles proposés par Yule et Slutsky se présentent, respectivement comme suit :

AR : Yt = Φ1Yt-1 + Φ2Yt-2 + εt (1)

MA : Yt = εt – θ1εt-1 – θ2εt-2 (2)

En généralisant les modèles (1) et (2), on obtient les processus AR(p) et MA(q).

††
Dans les séries temporelles, le terme de l’erreur est souvent appelé innovation. Comme on le verra, le terme de l’erreur
sera la seule information nouvelle qui interviendra dans le processus à la date t.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 4


* Processus autorégressif d’ordre p, noté AR(p) ; c’est un processus stationnaire Yt vérifiant la relation
du type :

Yt– Φ1Yt-1 – … – ΦpYt-p = εt ; où Φi (i=1, …, p) sont des réels et εt un bruit blanc gaussien.

En introduisant un opérateur retard [tel que LiYt = Yt-i] et un polynôme retard de degré h [tel que Φ(L) = 1 – Φ1L –
Φ2L2 … – ΦpLp] , le processus AR(p) peut donc s’écrire comme suit :

(1 – Φ1L … – ΦpLp)Yt = εt

Soit : Φ(L)Yt = εt

* Processus moyenne mobile d’ordre q, noté MA(q) ; c’est un processus Yt stationnaire vérifiant une
relation du type :

Yt = εt – θ1εt-1 + … – θqεt-q ; où θi (i=1, …, p) sont des réels et εt un bruit blanc gaussien.

En introduisant un opérateur retard et un polynôme retard de degré h, le processus MA(q) s’écrit donc :

Yt = (1 – θ 1L … – θ pLp) εt

Soit : Yt = Θ(L) εt

* Processus autorégressifs de moyenne mobile, noté ARMA(p, q) ; c’est une extension naturelle des
processus AR(p) et MA(q), c’est donc un processus mixte qui vérifie la relation suivante :

Yt– Φ1Yt-1 – … – ΦpYt-p = εt – θ1εt-1 + … – θqεt-q

En se servant de distributeur retard, la relation ci-dessus s’écrit : Φ(L)Yt = Θ(L) εt

* Processus autorégressifs de moyenne mobile intégrés, noté ARIMA(p, d, q) ; c’est un processus Yt ,


non stationnaire à niveau, pouvant se mettre sous la forme :
d
π(L)Yt = Φ(L)(1-L) Yt = Θ(L)εt
Où εt un bruit blanc gaussien et d : l’ordre d’intégration.

5. METHODOLOGIE DE BOX ET JENKINS

La méthodologie de Box et Jenkins permet de déterminer le processus ARMA adéquat pour la modélisation
d’une chronique. La méthodologie BJ suggère quatre étapes, à noter : l’identification, l’estimation, la
validation et la prévision.

*L’identification : cette première étape consiste à trouver les valeurs p et q des processus ARMA en se
basant sur l’étude des fonctions d’autocorrélation simple et d’autocorrélation partielle.

*L’estimation : après avoir identifié les valeurs p et q d’un ou plusieurs processus ARMA, il sera question
d’estimer les coefficients aux termes autorégressifs et moyenne mobile.

*La validation : après avoir estimé les différents processus ARMA, il convient à présent de valider ces
modèles, en servant d’une part, des tests de significativité des paramètres (test de
student) pour les coefficients et d’autre part, les tests d’hypothèse nulle
d’homoscédasticité (tests ARCH, White, Breusch-Pagan) et d’hypothèse nulle
d’autocorrélation pour les résidus (tests de Box-Pierce, Ljung-Box, Breusch-Godfrey)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 5


Autrement, l’étape de validation du modèle consiste à tester si les résidus sont de bruits blancs. Au cas où
les résidus sont de bruits blancs ; il faudra que la série de résidus soit stationnaire (fluctuant autour d’une
moyenne constante nulle) et par ailleurs, après application des tests Box-Pierce et ARCH, que l’on rejette les
hypothèses alternatives.

NOTE 4 : Si, { l’issue de l’application de ces différents tests diagnostics, plusieurs modèles sont validés,
l’étape de validation doit se poursuivre par une comparaison des qualités de ces modèles. Les critères de
choix du modèle à retenir peuvent être standards ou d’information. Les critères les plus utilisés sont repris
dans le tableau ci-dessous.

CRITERES STANDARDS CRITERES D’INFORMATION


Erreur Absolue
Moyenne ou :
Mean Absolute Error Critère d’Akaike
Racine de l’Erreur :
(1969)
Quadratique
Moyenne ou :
Root Mean Squared
Error
Erreur Absolue
Moyenne en Critère de Schwarz
:
Pourcentage ou : (1978)
Mean Absolute
Percent Error
T : nombre d’observation de la série Yt étudiée et et sont les résidus estimés.
Le modèle à retenir parmi les divers processus ARMA validés est celui qui se rapproche le plus des observations c’est-à-
dire celui pour lequel la valeur prise par les critères ci-dessus est plus faible (minimum).
NOTE 5 : contrairement aux critères ci-dessus, les critères tels que R2 ou log-likelihood sont à maximiser.

*La prévision : c’est la dernière étape de la méthodologie de Box et Jenkins. Connaissant l’horizon de
prévision (h), la prévision faite en T pour la date T+h est donnée par :

Cette expression représente la meilleure prévision de la série Y conditionnellement { l’ensemble


d’information disponible { la date t.

Ou encore :

Le terme signifie que la valeur de Yt est prévue sur base des observations passées Yt-1, Yt-2, … en
utilisant la valeur estimée des coefficients.

Notez que la prévision et l’estimation des effets causaux sont des objectifs très différents. Pour un modèle
de prévision, par exemple :
- Le coefficient de détermination corrigé a beaucoup d’importance, alors que le biais d’omission
n’est pas vraiment un problème ;
- On ne cherche pas { interpréter les coefficients d’un modèle de prévision (c’est ce que l’on qualifie
également d’économétrie sans théorie), ce qui importe c’est la validité externe du modèle ;
- Le modèle estimé sur des données du passé (prédiction) doit être valable dans le futur
(prévision)‡‡.

‡‡
Il existe une nette différence entre prédiction et prévision ; une valeur prédite ou valeur ajustée (prédiction) fait
référence { la valeur calculée par la régression pour une date { l’intérieur de l’échantillon d’estimation, (en anglais
predicted value), alors qu’une valeur prévue fait référence à la valeur calculée pour une date postérieure { l’échantillon
d’estimation, (en anglais forecasted value).

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 6


Pour les calculs de l’erreur de prévision et de l’intervalle de prévision, le tableau suivant est si éloquent, {
cet effet.
Calcul de l’erreur de prévision Calcul de l’intervalle de prévision

La différence entre erreur de prévision et résidu est de même nature que celle entre valeur prévue et valeur prédite (à l’intérieur ou
à l’extérieur de l’échantillon d’estimation).

6. ANALOGIE DES MODELES AR/ MA/ ARMA ET ARCH/ GARCH

Professeur de finance américain, Robert F. Engle a partagé le prix Nobel d'économie 2003 avec
le Britannique Clive W. Granger, avec qui il avait publié nombre d'articles sur les séries
chronologiques tout au long des années 1980 et 1990. Il obtient avec la plus haute distinction
une licence de physique au Williams College de New York en 1964, une maîtrise de physique
deux ans plus tard, puis un doctorat de sciences économiques en 1969. Ses travaux ont ouvert
les recherches sur de nouvelles méthodes d'analyse des séries chronologiques et accéléré le
R. F. ENGLE renouvellement des techniques économétriques dans l’analyse économique.

L’incapacité des modèles de type ARMA, { saisir les phénomènes non linéaires, a poussé les économètres à
développer les modèles non linéaires. En vue de prendre en compte la volatilité conditionnelle caractérisant
certaines chroniques, telles que financières, et leur non linéarité, Robert F. Engle§§ a introduit en 1982 la
classe des modèles ARCH***, puis Tim P. Bollerslev l’a généralisé en 1986†††.

Lorsque la variance conditionnelle d’une série Yt sachant Yt-1 est est constante, soit :

Var(Yt/ Yt-1) = σ2 où V(εt) = σ2, on parle dans ce cas de variance homoscédastique.

R.F. Engle a construit un modèle dans lequel la variance conditionnelle de Yt sachant Yt-1 dépendrait de Yt-1
et plus particulièrement :
Var(Yt/ Yt-1) = [α + βY2t-1] σ2

Pour cela, il a considéré les modèles de la forme où ht = α0 + αY2t-1

Cette classe de modèle, appelée ARCH(1) a été généralisée sous la forme ARCH(p) :

Où ht = α0 + α1Y2t-1 + … + αpY2t-p

Cette forme pour ht a permis l’analogie entre les modèles AR et les modèles ARCH. Ainsi, de la même façon
que les ARMA généralisent les AR, la classe de modèle ARCH a été généralisée en considérant la fonction ht
de la forme :

En résumé :
*AR → ARMA
*ARCH → GARCH

Note 5 : les modèles ARCH ou GARCH sont énormément utilisés dans les modèles financières parce qu’ils
sont caractérisés par de longues périodes de forte volatilité, appelée volatility clustering.

§§
"Autoregressive Conditional Heteroskedasticity With Estimates of the Variance of U.K. Inflation", Econometrica 50
(1982): 987-1008.
***
Modèle ARCH : Modèle Autorégressif conditionnellement hétéroscédastique.
†††
Le modèle GARCH(1,1) a été présenté indépendamment par Taylor (1986).

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 7


7. METHODE DE MAXIMUM DE VRAISEMBLANCE

Fonction de Vraisemblance
Soit y = (y1, … yn), la réalisation de taille n d’un vecteur Y. On appelle fonction de vraisemblance ou tout
simplement la vraisemblance, la fonction de y et de θ :

V(y, θ) = V(y1, …, yn, θ)

Ainsi, dans le cas particulier où :

On note par la log-vraisemblance, la fonction :

Estimateurs du maximum de vraisemblance


L’estimateur du maximum de vraisemblance, noté , n’est qu’une solution au problème de
maximisation :

Sachant qu’une transformation strictement croissante ne changeant pas un maximum, on considère


souvent le problème de maximisation du logarithme népérien de la vraisemblance, d’où :

8. MODELISATION AR(I)MA OU MODELISATION (G)ARCH

A l’issue de ces tests diagnostics, s’il se dégage que la série des résidus est stationnaire en moyenne ; reste
à déterminer si les erreurs sont autocorrélées ou non et/ou leurs variances sont hétéroscédastiques ou non.
Ces deux derniers tests permettent de préciser le modèle à utiliser pour la prévision.

Modélisation
Homoscédastique :
ARMA
Absence
Si
d’autocorrélation
Modélisation
Hétéroscédastique :
(G)ARCH
Test de
validation
Ecarter le
Homoscédastique :
modèle
Présence
Si
d’autocorrélation
Ecarter le
Hétéroscédastique :
modèle

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 8


RAPPEL
Avant de passer aux exercices d’entrainement, notez que les applications retenues se feront en deux
temps. Le schéma suivant s’avère assez éloquent pour illustrer la démarche à suivre.

APPLICATIONS

Construction de modèles Optimisation du


de prévision portefeuille

AR/ MA/ AR(I)MA : Méthodologie Le portefeuille étant une collection d’actifs


de Box-Jenkins
financiers détenus par un établissement ou un
individu, on cherchera à limiter les risques courus
(G)ARCH : Méthode de Maximum en se basant essentiellement sur le critère de la
de Vraisemblance VaR.

De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH :


une étude du cas de l’indice boursier Dow Jones
Construisons un modèle AR(I)MA { partir de la série de l’indice Dow Jones ‡‡‡, notée DJI (Dow Jones Index).
Les données considérées { cet effet sont mensuelles et la période retenue pour l’étude va de juin 1997 {
Juillet 2008, 134 observations. Pour construire le modèle de prévision, nous allons emprunter la
méthodologie de Box-Jenkins, telle que décrite précédemment ; mais avant tout, nous commençons par
l’analyse exploratoire (plot) de la dite chronique puis l’analyse de la stationnarité (test de la racine unitaire).

Les données saisies sur Eviews se présentent comme suit :

‡‡‡
La chronique de la DJI a été tirée auprès de la source Euronext Paris.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 9


A. ANALYSE EXPLORATOIRE DES DONNEES

Plot de la série DJI


PLOT DJI

150

140

130

120
DJI
110

100

90

80
97 98 99 00 01 02 03 04 05 06 07 08

On peut également travailler avec de données logarithmiques. Dans ce cas, le plot de la série linéarisée se
présente comme suit :

GENR LDJI = LOG(DJI)

5.1

5.0

4.9

4.8
LDJI
4.7

4.6

4.5

4.4
97 98 99 00 01 02 03 04 05 06 07 08

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 10


B. ETUDE DE LA STATIONNARITE
B.1. TEST INFORMEL : Analyse des Corrélogrammes de la série DJI
IDENT DJI ; cliquer sur level puis valider

B.2.EST FORMEL : TEST DE LA RACINE UNITAIRE


ADF DJI /UROOT DJI

Modèle avec tendance et constante


Null Hypothesis: DJI has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.546403 0.3057
Test critical values: 1% level -4.028496
5% level -3.443961
10% level -3.146755
*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(DJI)
Method: Least Squares
Date: 05/28/10 Time: 01:32
Sample (adjusted): 1997M07 2008M07
Included observations: 133 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.

DJI(-1) -0.101732 0.039951 -2.546403 0.0121


C 10.92612 4.162216 2.625073 0.0097
@TREND(1997M06) 0.016493 0.012938 1.274799 0.2047

R-squared 0.049707 Mean dependent var 0.135338


Adjusted R-squared 0.035087 S.D. dependent var 4.353302
S.E. of regression 4.276247 Akaike info criterion 5.766327
Sum squared resid 2377.218 Schwarz criterion 5.831523
Log likelihood -380.4607 F-statistic 3.399982
Durbin-Watson stat 1.856615 Prob(F-statistic) 0.036369

Série non stationnaire et trend non significatif et trend non significatif.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 11


Modèle sans tendance et avec constante

Null Hypothesis: D(DJI) has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -11.13513 0.0000


Test critical values: 1% level -3.480425
5% level -2.883408

*MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:49
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

D(DJI(-1)) -0.979538 0.087968 -11.13513 0.0000


C 0.140529 0.381913 0.367961 0.7135
R-squared 0.488171 Mean dependent var -0.022727
Adjusted R-squared 0.484234 S.D. dependent var 6.105267
S.E. of regression 4.384610 Akaike info criterion 5.809114
Sum squared resid 2499.225 Schwarz criterion 5.852793
Log likelihood -381.4015 F-statistic 123.9912
Durbin-Watson stat 1.970918 Prob(F-statistic) 0.000000

Série non stationnaire avec intercept significatif

B.3. STATIONARISATION DE LA SERIE DJI

Il faut appliquer le filtre de différence pour stationnariser la série DJI : GENR DDJI = D(DJI)

Test de la racine sur DIDJ


On applique le test de ADF en cliquant sur 1st difference de Unit Root Test puis successivement sur
« Intercept and trand » et on tape 2 pour le nombre de retard
Sur « intercept » et on tape 2 pour le nombre de retard
Sur « none » et on tape 2 pour le nombre de retard

Modèle avec tendance et constante

Null Hypothesis: D(DDJI) has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -17.02519 0.0000


Test critical values: 1% level -4.029595
5% level -3.444487
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:49
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

D(DDJI(-1)) -1.385233 0.081364 -17.02519 0.0000


C -0.070517 1.020420 -0.069106 0.9450
@TREND(1997M06) 6.99E-05 0.013115 0.005332 0.9958

R-squared 0.693677 Mean dependent var -0.076336


Adjusted R-squared 0.688891 S.D. dependent var 10.17661
S.E. of regression 5.676221 Akaike info criterion 6.333083
Sum squared resid 4124.093 Schwarz criterion 6.398927
Log likelihood -411.8169 F-statistic 144.9301
Durbin-Watson stat 2.340458 Prob(F-statistic) 0.000000

Il se dégage que la tendance n’est pas significativement différente de zéro car la probabilité critique
associée au trend est supérieure à 5 pour cent.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 12


Modèle sans tendance et avec constante

Null Hypothesis: D(DDJI) has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -17.09165 0.0000


Test critical values: 1% level -3.480818
5% level -2.883579
10% level -2.578601

*MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:52
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

D(DDJI(-1)) -1.385234 0.081047 -17.09165 0.0000


C -0.065762 0.494008 -0.133118 0.8943

R-squared 0.693677 Mean dependent var -0.076336


Adjusted R-squared 0.691303 S.D. dependent var 10.17661
S.E. of regression 5.654177 Akaike info criterion 6.317816
Sum squared resid 4124.094 Schwarz criterion 6.361712
Log likelihood -411.8169 F-statistic 292.1246
Durbin-Watson stat 2.340455 Prob(F-statistic) 0.000000

Il se dégage que la constante n’est pas significativement différent de zéro.

Modèle sans tendance et sans constante


Null Hypothesis: D(DDJI) has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -17.15677 0.0000


Test critical values: 1% level -2.582734
5% level -1.943285
10% level -1.615099

*MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:54
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

D(DDJI(-1)) -1.385248 0.080741 -17.15677 0.0000

R-squared 0.693635 Mean dependent var -0.076336


Adjusted R-squared 0.693635 S.D. dependent var 10.17661
S.E. of regression 5.632775 Akaike info criterion 6.302686
Sum squared resid 4124.661 Schwarz criterion 6.324634
Log likelihood -411.8259 Durbin-Watson stat 2.340119

On accepte donc l’hypothèse alternative selon laquelle la série DDJI est stationnaire et donc :
DDJI → I(0) : la série DDJI suit un processus ARMA OU DJI → I(1) : la série DJI suit un processus ARIMA.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 13


Graphique de la série stationnaire

15

10

0
DDJI
-5

-10

-15

-20
97 98 99 00 01 02 03 04 05 06 07 08

Il ressort de ce graphique (après différence première) que la série fluctue autour d’une moyenne constante.

C. MODELISATION ARMA PAR LA METHODE DE BOX-JENKINS

C.1. Identification des ordres p et q du modèle ARMA

La série DIDJ est stationnaire. On va lui chercher un modèle ARMA (p, q) Pour connaître les ordres du
modèle ARMA (p, q), nous allons nous servir de corrélogrammes de la série stationnaire DIDJ. En effet, le
corrélogramme simple permet d’identifier un modèle MA(q), alors que le corrélogramme partiel permet
d’identifier un modèle AR(q).

Corrélogramme de la série stationnaire

Il ressort de ces corrélogrammes que la deuxième autocorrélation (simple et partielle) de la série DDJI est
significativement différente de zéro.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 14


C.2. Estimation de processus AR/ MA/ ARMA

Comme il s’agit de processus ARIMA(2,1,2), les schéma ci-dessus nous servira de guide pour les estimations.

MA(1) MA(2)
AR(2)
MA(2)

AR(1) MA(1) MA(2)

MA(2)

Rappelons qu’il existe quatre types de régression, { noter : la régression standard, la régression
hiérarchique, la régression statistique ou régression pas-à-pas et la régression set wise§§§. Pour estimer les
processus ARIMA(2, 1, 2), nous optons pour la régression set wise.

*Modèle AR(1) *Modèle AR(2)


*Modèle AR(1) AR(2) *Modèle AR(2) MA(1)
*Modèle AR(1) AR(2) MA(1) *Modèle AR(2) MA(1) MA(2)
*Modèle AR(1) AR(2) MA(2) *Modèle AR(2) MA(2)
*Modèle AR(1) MA(1) *Modèle MA(1)
*Modèle AR(1) MA(1) MA(2) *Modèle MA(1) MA(2)
*Modèle AR(1) MA(2) *Modèle MA(2)
*Modèle AR(1) AR(2) MA(1) MA(2)
Comment estimer ?
COMMANDE EVIEWS : LS DDJI AR(p) MA(q)
Par exemple pour un modèle AR(1), la commande à passer est : LS DDJI AR(1)
Alors que pour un modèle ARMA(1, 2), la commande est dans ce cas : LS DDJI AR(1) MA(1) MA(2)

C.3. Validation du modèle

Après estimation des différents modèles, l’analyse de la significativité des coefficients nous conduits {
conserver les six modèles ci-après. Ces six modèles seront soumis à un test de diagnostic. Seuls les modèles
dont les résidus sont de bruits blancs seront validés.

* AR(2) : DDJIt = – 0.200963DDJIt-2

* MA(2) : DDJIt = – 0.252652εt-2

* AR(1) MA(1) : DDJIt = – 0.815359DDJIt-1 + 0.933094εt-1

* AR(2) MA(2) : DDJIt = 0.453573DDJIt-2 – 0.701201εt-2

* AR(1) MA(1) MA(2) : DDJIt = – 0.504959DDJIt-1 + 0.546070εt-1 – 0.181535 εt-2

* AR(1) AR(2) MA(1) : DDJIt = 0.619501DDJIt-1 – 0.153935DDJIt-2 – 0.642420εt-1

§§§
Lire Tsasa, 2009, Vers l’économétrie approfondie : une présentation en schémas, CRES. Des auteurs, comme
Kintambu M. (2008) préfère la régression statistique.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 15


Analyse de résidus
Test d’hypothèse nulle de centralité : cette hypothèse veut qu’en moyenne les résidus soient égaux à une
constante nulle.

En appliquant le test de racine unitaire, il ressort que le processus résiduel est stationnaire :
Null Hypothesis: DDJI_RESIDUALS has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -11.09590 0.0000


Test critical values: 1% level -2.582599
5% level -1.943266
10% level -1.615111

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(DDJI_RESIDUALS)
Method: Least Squares
Date: 06/16/10 Time: 04:55
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

DDJI_RESIDUALS(-1) -0.972381 0.087634 -11.09590 0.0000

R-squared 0.484485 Mean dependent var -0.023432


Adjusted R-squared 0.484485 S.D. dependent var 5.821264
S.E. of regression 4.179631 Akaike info criterion 5.705870
Sum squared resid 2288.480 Schwarz criterion 5.727709
Log likelihood -375.5874 Durbin-Watson stat 1.979203

Cependant, le plot indique que le processus résiduel semble être stationnaire en moyenne et non en
variance, pour se faire, il faut passer au test d’hypothèse nulle d’homoscédasticité pour s’en assurer.

10

-5
DDJI_RESIDUALS

-10

-15

-20
97 98 99 00 01 02 03 04 05 06 07 08

En effet, si le processus n’est pas stationnaire en variance, il est conseiller d’utiliser, non plus un processus
ARIMA, mais plutôt un processus (G)ARCH afin de prendre compte la volatilité et le caractère non linéaire
du modèle.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 16


Test d’hypothèse nulle d’autocorrélation des erreurs (test de Box-Pierce)
Au regard de probabilités affectées aux autocorrélations pour les différents modèles respectifs, on est
conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence d’autocorrélation
des erreurs.

Test d’hypothèse nulle d’homoscédasticité (test ARCH)


Pour réaliser ce test, il faut préalablement déterminer le nombre de retards à retenir. Au regard du
corrélogramme des résidus au carré **** du modèle AR(2), on choisit, compte tenu du critère de parcimonie,
un nombre de retards égal à trois.

Il se dégage que les probabilités affectées aux résidus au carré pour les différents modèles respectifs, on
est conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence
d’autocorrélation des erreurs.

Etant donné que les hypothèses alternatives pour les différents tests respectifs ont été rejetées, La
modélisation retenue pour la prévision sera donc du type ARIMA.

NOTE : les différents tests sont repris dans l’annexe 2.

Les résidus de ces différents modèles sont de bruits blancs et donc, tous les modèles ci-dessous doivent
être validés.

* AR(2) : DDJIt = – 0.200963DDJIt-2


* MA(2) : DDJIt = – 0.252652εt-2
* AR(1) MA(1) : DDJIt = – 0.815359DDJIt-1 + 0.933094εt-1
* AR(2) MA(2) : DDJIt = 0.453573DDJIt-2 – 0.701201εt-2
* AR(1) MA(1) MA(2) : DDJIt = – 0.504959DDJIt-1 + 0.546070εt-1 – 0.181535 εt-2
* AR(1) AR(2) MA(1) : DDJIt = 0.619501DDJIt-1 – 0.153935DDJIt-2 – 0.642420εt-1

Cependant, pour choisir le modèle à retenir pour la prévision, nous allons recourir aux critères
d’information et au coefficient de détermination. Ces critères permettent d’évaluer la qualité d’une modèle.

MODELE AIC SIC R²


AR(2) 5.751928 5.773876 0.039808
MA(2) 5.738369 5.760101 0.047693
AR(1) MA(1) 5.764665 5.808344 0.043874
AR(2) MA(2) 5.720381 5.764278 0.083722
AR(1) MA(1) MA(2) 5.770850 5.836368 0.052408
AR(1) AR(2) MA(1) 5.761109 5.826954 0.060094
D’après ces critères, il ressort que le modèle AR(2) MA(2) dispose d’une qualité supérieure. Le fait de
retenir ce modèle ne signifie pas que les autres modèles ne peuvent pas être utilisés pour la prévision. Ces
critères n’accordent au modèle retenu qu’une certaine prééminence sur les autres.

****
View (dans la fenêtre d’estimation du modèle sous analyse) → Residual Tests → Correlogram Squared Residuals.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 17


C.4. Prévision
La prédiction a été obtenue { l’étape 3. A présent, nous allons prévoir l’évolution du processus AR(2) MA(2)
à la période t+h.

Soit : DDJIt = 0.453573DDJIt-2 – 0.701201εt-2

16
Forecast: DDJIF
12 Actual: DDJI
Forecast sample: 1997M06 2008M07
8 Adjusted sample: 1997M09 2008M07
Included observations: 131
4
Root Mean Squared Error 4.161955
Mean Absolute Error 3.103631
0
Mean Abs. Percent Error 95.26647
Theil Inequality Coefficient 0.752537
-4
Bias Proportion 0.001366
Variance Proportion 0.579237
-8 Covariance Proportion 0.419397

-12
98 99 00 01 02 03 04 05 06 07 08

DDJIF

Où DDJIF = DDJI fitted.

Il ressort de cet output que le coefficient de Theil est assez élevé, ce qui n’assure pas une bonne prédiction.
La figure ci-dessous s’avère assez éloquent { cet effet.

20

10

10 -10
5
-20
0
-5
-10
-15
-20
98 99 00 01 02 03 04 05 06 07 08

Residual Actual Fitted

Après avoir générer les résidus (resid) et la variable prédite [= (DDJI) – (Resid)], aller dans VIEW → DATED DATA TABLE.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 18


Une lecture minutieuse de ce tableau (traduisant en chiffre le résultat de la figure précédente) prouve, par
ailleurs, également que la prédiction n’est pas très bonne.

Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Year
1997 1997
DDJI -- -- -- -- -- -- -1.0 5.0 7.0 5.0 -2.0 4.0 3.0
FITTED -- -- -- -- -- -- 0.77 0.89 1.21 3.69 -0.89 1.35 1.17
RESIDUAL -- -- -- -- -- -- -1.77 4.11 5.79 1.31 -1.11 2.65 1.83

1998 1998
DDJI -1.0 -3.0 -3.0 4.0 5.0 1.0 -9.0 0.0 5.0 -4.0 0.0 1.0 -0.3
FITTED -0.13 -0.05 0.16 0.71 0.85 -0.49 -0.64 -0.59 1.78 -0.42 0.01 0.70 0.16
RESIDUAL -0.87 -2.95 -3.16 3.29 4.15 1.49 -8.36 0.59 3.22 -3.58 -0.01 0.30 -0.49

1999 1999
DDJI 3.0 0.0 -6.0 3.0 0.0 0.0 1.0 -8.0 2.0 8.0 -2.0 -4.0 -0.3
FITTED 0.01 0.24 -0.74 0.17 0.97 -0.62 0.68 -0.44 0.23 1.67 -0.33 -0.81 0.09
RESIDUAL 2.99 -0.24 -5.26 2.83 -0.97 0.62 0.32 -7.56 1.77 6.33 -1.67 -3.19 -0.34

2000 2000
DDJI -1.0 -12.0 0.0 6.0 2.0 0.0 -1.0 7.0 -4.0 -1.0 -6.0 0.0 -0.8
FITTED 0.26 0.42 0.43 3.27 0.30 0.81 -0.28 0.57 0.05 -1.34 1.02 -0.69 0.40
RESIDUAL -1.26 -12.42 -0.43 2.73 1.70 -0.81 -0.72 6.43 -4.05 0.34 -7.02 0.69 -1.24

2001 2001
DDJI 2.0 3.0 2.0 1.0 -3.0 -6.0 3.0 3.0 -17.0 3.0 12.0 -1.0 0.2
FITTED 2.20 -0.48 1.05 -1.08 0.24 -1.01 0.91 0.78 -0.10 -0.20 4.14 -0.88 0.46
RESIDUAL -0.20 3.48 0.95 2.08 -3.24 -4.99 2.09 2.22 -16.90 3.20 7.86 -0.12 -0.30

2002 2002
DDJI 1.0 -3.0 2.0 1.0 4.0 4.0 1.0 -3.0 1.0 -3.0 3.0 -3.0 0.4
FITTED -0.07 -0.37 -0.30 0.48 -0.70 0.09 -1.48 -0.93 -1.29 0.09 -1.15 0.81 -0.40
RESIDUAL 1.07 -2.63 2.30 0.52 4.70 3.91 2.48 -2.07 2.29 -3.09 4.15 -3.81 0.82

2003 2003
DDJI -1.0 2.0 -2.0 4.0 3.0 -2.0 2.0 0.0 -4.0 1.0 1.0 0.0 0.3
FITTED -1.55 1.31 -0.84 0.42 -0.09 -0.69 -0.81 0.01 -1.06 0.01 0.25 -0.24 -0.27
RESIDUAL 0.55 0.69 -1.16 3.58 3.09 -1.31 2.81 -0.01 -2.94 0.99 0.75 0.24 0.61

2004 2004
DDJI 1.0 -1.0 -2.0 4.0 1.0 1.0 1.0 2.0 1.0 1.0 -4.0 1.0 0.5
FITTED -0.08 -0.17 -0.30 0.13 0.28 -0.90 -0.05 -0.88 -0.28 -1.11 -0.44 -1.03 -0.40
RESIDUAL 1.08 -0.83 -1.70 3.87 0.72 1.90 1.05 2.88 1.28 2.11 -3.56 2.03 0.90

2005 2005
DDJI 2.0 3.0 5.0 2.0 2.0 1.0 2.0 -4.0 5.0 7.0 1.0 2.0 2.3
FITTED 0.68 -0.97 -0.02 -1.42 -1.25 -1.49 -1.37 -1.29 -1.46 0.08 -2.26 -1.68 -1.04
RESIDUAL 1.32 3.97 5.02 3.42 3.25 2.49 3.37 -2.71 6.46 6.92 3.26 3.68 3.37

2006 2006
DDJI -5.0 4.0 3.0 -7.0 2.0 -9.0 -2.0 -2.0 5.0 2.0 -8.0 -8.0 -2.1
FITTED -1.83 -1.67 -0.05 -2.16 -0.78 0.22 -1.04 2.38 -0.23 2.17 -1.40 1.02 -0.28
RESIDUAL -3.17 5.67 3.05 -4.84 2.78 -9.22 -0.96 -4.38 5.23 -0.17 -6.60 -9.02 -1.80

2007 2007
DDJI 2.0 -4.0 1.0 -1.0 4.0 7.0 -3.0 -1.0 1.0 6.0 0.0 3.0 1.3
FITTED 1.00 2.70 0.20 2.88 -0.10 2.27 -1.06 -0.14 -0.00 0.15 -0.25 -1.38 0.52
RESIDUAL 1.00 -6.70 0.80 -3.88 4.10 4.73 -1.94 -0.86 1.00 5.85 0.25 4.38 0.73

2008 2008
DDJI 6.0 1.0 -2.0 -17.0 -2.0 0.0 -4.0 -- -- -- -- -- -2.6
FITTED -0.18 -1.71 -1.61 -1.45 -0.63 3.19 0.05 -- -- -- -- -- -0.33
RESIDUAL 6.18 2.71 -0.39 -15.55 -1.37 -3.19 -4.05 -- -- -- -- -- -2.24
*DDJI : variable observée *FIITED : variable prédite
Il est possible de réaliser la prévision (c’est-à-dire DDJIt après juillet 2008) avec le modèle suivant :
DDJIt+h = 0.453573DDJIt-2+h – 0.701201εt-2+h (avec εt-2+h = 0 pour tout h > 2).

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 19


Le coefficient d’inégalité de Theil étant élevé, soit 75.25 pour cent ; Il est possible de réduire sa valeur en
transformant le modèle ARIMA(p, d, q) à un modèle ARIMA(p+1, 0, q).

Dans ce cas, comme il s’agit d’un ARIMA (2, 1, 2), ainsi, nous aurons après transformation :
ARIMA(3, 0, 2)

En effectuant successivement une régression statistique††††, on obtient (voir l’output en annexe 2) :

Estimation Command:
=====================
LS DJI C AR(1) AR(2) AR(3) MA(2)
Estimation Equation:
=====================
DJI = C(1) + [AR(1)=C(2),AR(2)=C(3),AR(3)=C(4),MA(2)=C(5),BACKCAST=1997M09]

Substituted Coefficients:
=====================
DJIt = 118.9092118 + 0.9340609646DJIt-1 – 0.8875797139DJIt-2 + 0.8404905899DJIt-3 + 0.8400971652εt-2
(19.57424) (19.04214) (-8.731020) (9.030868) (6.992286)
(0.0000) (0.0000) (0.0000) (0.0000) (0.0000)
R²= 0.885822 AIC = 5.760724 SIC =5.870464
Prob(F-Statistic) = 0.000000

Graphiquement, les valeurs prédites se présentent comme suit.

160
Forecast: DJIF
150 Actual: DJI
Forecast sample: 1997M06 2008M07
140 Adjusted sample: 1997M09 2008M07
Included observations: 131
130

120 Root Mean Squared Error 4.150611


Mean Absolute Error 3.035962
110 Mean Abs. Percent Error 2.615235
Theil Inequality Coefficient 0.017600
100 Bias Proportion 0.000002
Variance Proportion 0.031708
90 Covariance Proportion 0.968290

80
98 99 00 01 02 03 04 05 06 07 08

DJIF

Au regard de ce résultat, il se dégage que le coefficient d’inégalité de THEIL a sensiblement diminué


(0.017600) et que par ailleurs, l’erreur quadratique moyenne est inférieure (4.150611) { celle du modèle
précédent (4.161955). Donc, la prévision réalisée sur base de ce modèle est meilleure à celle du premier
modèle.

††††
Il existe quatre types de régressions, parmi celles, la régression statistique, appelée également régression pas-à-pas.
Cette dernière repose sur le test de Student ; c’est-à-dire, elle se refère à la règle de pousse pour décider sur la
prédictibilité d’un modèle.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 20


Les valeurs actuelles et prédites sont reprises dans la figure suivante :

160

140

120

100
10
80

-10

-20
98 99 00 01 02 03 04 05 06 07 08

Residual Actual Fitted

Pour prévoir l’évolution de la valeur actuelle de l’indice Dow Jones, nous allons nous référer au résultat de
l’équation estimée :

DJIt+h = 118.9092118 + 0.9340609646DJIt-1+h + 0.8875797139DJIt-2+h + 0.8404905899DJIt-3+h + 0.8400971652εt-2+h

Pour ce faire, nous avons besoin de données suivantes (VIEW→ Actual, Fitted, Residual→ Table) :

OBS ACTUAL FITTED RESIDUAL RESIDUAL PLOT


2008M01 142.000 135.513 6.48678 | . | .* |
2008M02 143.000 141.054 1.94598 | . |* . |
2008M03 141.000 140.731 0.26927 | . * . |
2008M04 124.000 139.203 -15.2033 | * . | . |
2008M05 122.000 124.531 -2.53127 | .* | . |
2008M06 122.000 123.073 -1.07260 | . *| . |
2008M07 118.000 121.205 -3.20512 | .* | . |

En août, septembre, octobre, novembre et décembre 2008, nous aurons :

Horizon de prévision Modèle de prévision :


Août 2008 → h=1 DJIaoût = 118.909 + 0.934DJIjuillet – 0.888DJIjuin + 0.841DJImai + 0.840εjuin
Septembre 2008 → h=2 DJIseptembre = 118.909 + 0.934DJIaoût – 0.888DJIjuillet + 0.841DJIjuin + 0.840εjuillet
Octobre 2008 → h=3 DJIoctobre = 118.909 + 0.934DJIseptembre – 0.888DJIaoût + 0.841DJIjuillet
Novembre 2008 → h=4 DJInovembre = 118.909 + 0.934DJIoctobre – 0.888DJIseptembre + 0.841DJIaoût
Décembre 2008 → h=5 DJIdécembre = 118.909 + 0.934DJInovembre – 0.888DJIoctobre + 0.841DJIseptembre

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 21


Estimations des paramètres des modèles ARCH /GARCH
par la méthode maximum de vraisemblance

RAPPEL SUR LES PROPRIETES DE SERIES FINANCIERES


Propriété 1 (Stationnarité) : Les processus stochastiques Xt associés aux prix d’actif sont généralement non
stationnaires au sens de la stationnarité du second ordre, tandis que les processus associés aux rendements
sont compatibles avec la propriété de stationnarité au second ordre.

C’est la propriété centrale des processus ARCH : le processus Xt possède les propriétés d’un bruit blanc
homoscédastique, mais sa variance conditionnelle dépend du temps.

Propriété 2 (Autocorrélations des carrés des variations de prix) : La série r2t associée aux carrés des
rendements présente généralement de fortes autocorrélations, tandis que les autocorrélations de la série r t
sont souvent très faibles (hypothèse de bruit blanc).

NOTE : Lorsqu’un processus Xt vérifie les propriétés 1 et 2, on dit qu’il vérifie la définition d’une différence de
martingale‡‡‡‡ homoscédastique et d’un bruit blanc.

Propriété 3 (Queues de distribution épaisses) : L’hypothèse de normalité des rendements est généralement
rejetée. Les queues des distributions empiriques des rendements sont généralement plus épaisses que
celles d’une loi gaussienne. On parle alors de distribution leptokurtique.

Propriété 4 (Clusters de Volatilité) : On observe empiriquement que de fortes variations des rendements
sont généralement suivies de faibles variations. On assiste ainsi à un regroupement des extrêmes en cluster
ou paquets de volatilités. Dans ces conditions, le processus Xt est conditionnellement hétéroscédastique.
C

Propriété 5 (Queues épaisses conditionnelles) : Même une fois corrigée de la volatilité clustering (par
exemple avec des modèles ARCH), la distribution des résidus demeure leptokurtique même si la kurtosis est
plus faible que dans le cas non conditionnel.

Propriété 6 (Effet de levier) : Il existe une asymétrie entre l’effet des valeurs passées négatives et l’effet des
valeurs passées positives sur la volatilité des cours ou de rendements. Les baisses de cours tendent à
engendrer une augmentation de la volatilité supérieure à celle induite par une hausse des cours de même
ampleur.

Cette propriété n’est pas à confondre avec celle d’asymétrie de la distribution des cours ou des rendements
(propriété 8). Il s’agit ici d’une asymétrie de la relation liant les valeurs passés des cours ou rendements à la
volatilité de ces derniers.

Propriété 7 (Saisonnalité) : Les returns présentent de nombreux phénomènes de saisonnalité (effets week-
end, effet janvier, etc..).

Propriété 8 (Asymétrie perte/gain) : La distribution des cours est généralement asymétrique : il y a plus de
mouvements forts { la baisse qu’{ la hausse.

‡‡‡‡
Un processus X test une différence de martingale homoscédastique si et seulement si : E(Xt/Xt-1) = 0 et V(Xt) = σ²x
pout tout t.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 22


Construisons, { présent, un modèle (G)ARCH { partir de la série de l’action General Electric Co, notée VAGE.
Les données considérées { cet effet sont hebdomadaires et la période retenue pour l’étude va du 3 janvier
1972 au 25 Janvier 2010, 1987 observations.

Les données sur Eviews se présentent comme suit :

A. ANALYSE EXPLORATOIRE DES DONNEES

Plot de la série VAGE

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 23


On peut également travailler avec de données logarithmiques dans ce cas, le plot de la série linéarisée
(noté, LVAGE) se présente comme suit :

B. ETUDE DE LA STATIONNARITE

B.1. Corrélogramme

En examinant le corrélogramme (figure ci-contre), nous


constatons qu’il y a une décroissance lente des
coefficients d’autocorrélation avec 36 coefficients
d’autocorrélation simple non nuls et 8 coefficients
d’autocorrélation partielle significatifs (non nuls). Cela
correspond donc à un modèle ARMA(8, 36) non
stationnaire. En vertu du principe de parcimonie, nous
admettons un processus ARMA(2, 2).

Rappel : d’après le principe de parcimonie, les valeurs


décalées d’une variable dépendante dans un modèle
ont tendance à exercer une influence chaque fois
moindre sur la variable dépendante au fur et à mesure
qu’on s’éloigne dans le temps.

Au regard de ce corrélogramme, il y a lieu de soupçonner que la série n’est pas stationnaire à niveau.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 24


B.2. Test de la racine unitaire

Cependant, en passant le test de Phillips-Perron, il ressort


que la série est stationnarité à niveau, avec trend et
constante significatifs. Le résultat ne change pas de nature
même si l’on recourt au test ADF.

En effet, la statistique PP (qui normalement doit être négative)


en valeur absolue est supérieure aux valeurs critiques de
MacKinnon à tous les seuils.

En se référant à la règle de pousse et aux probabilités critiques, il ressort que le trend et la dérive sont tous
significatifs.

Faudra-t-il appliquer la modélisation ARMA avec la méthodologie BJ ou la modélisation ARCH avec la méthode de
maximum de vraisemblance ? Pour se décider sur la méthodologie à suivre, nous nous basons sur deux tests.

Analyse du plot de la série résiduelle

Ce graphique indique la présence de volatilité, il y a donc lieu de suspecter la présence d’une série non stationnaire en
variance. Pour s’en convaincre, formellement, nous effectuons aussitôt le test d’hypothèse nulle d’homoscédasticité. Il
existe plusieurs tests§§§§, à cet effet. Dans le cadre de ce cours, on recourt au test ARCH.

§§§§
Test de Harvey, Test de Glejser, Test de White ou Custom test wizard.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 25


Test ARCH
Le résultat repris dans le tableau ci-dessous nous pousse à rejeter l’hypothèse nulle. Donc, on admet que la variance
résiduelle est non homoscédastique.

Donc, la prévision de l’évolution de la variable VAGE sera faite sur base d’un modèle (G)ARCH estimé par la méthode de
maximum de vraisemblance.

C. CHOIX DU MODELE (G)ARCH(p,q)


L’ordre approprié au modèle (G)ARCH(p,q) est obtenu { partir du corrélogramme des résidus au carré du
modèle ARMA(2,2). L’autocorrélation partielle permet de déterminer l’ordre q de ARCH, alors que
l’autocorrélation simple permet de définir l’ordre p du GARCH(p,q).

Comme l’indique le résultat ci-après, le corrélogramme des résidus au carré présente 36 autocorrélations
simples et 8 autocorrélations partielles significativement différentes de zéro.

Par principe de parcimonie, on retient les deux


premières autocorrélations (simples et partielles).
Ainsi, on estimera les modèles suivants : ARCH(2),
GARCH(2,2), GARCH(1,2), GARCH(2,1), GARCH(1,1).

La comparaison des modèles estimés se fera ensuite { l’aide des critères suivants : AIC, SIC, R², log-likehood.
On choisira le modèle qui vérifiera un maximum de ces critères.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 26


ESTIMATION
Pour estimer les modèles (G)ARCH, on va dans Quick puis dans Estimate Equation. Ensuite, cliquer la pointe
de la flèche là où on a Least Squares pour sélectionner ARCH. Dans la partie intitulé Mean Equation
Specification : on tape VAGE C T AR(1) AR(2) MA(1) MA(2).

Pour l’estimation d’un modèle :

o ARCH(2), on tape 2 dans la case ARCH et 0 dans la case GARCH


o GARCH (1,1), on tape 1 dans la case ARCH et 1 dans la case GARCH
o GARCH (2,1), on tape 2 dans la case ARCH et 1 dans la case GARCH
o GARCH (1,2), on tape 1 dans la case ARCH et 2 dans la case GARCH
o GARCH (2,2), on tape 2 dans la case ARCH et 2 dans la case GARCH

NOTE : les coefficients estimés par la modélisation ARCH doivent être toujours être positif (contrainte de positivité*****).

ARCH(2)

*****
L’optimisation de la fonction de vraisemblance est réalisée sous certaintes conraintes, notamment celle de non
négativité.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 27


Le coefficient du modèle ARCH(2) n’étant pas significatif ; estimons, à présent, un modèle ARCH(1).

ARCH(1)

Le coefficient ARCH(1) est positif et significativement différent de zéro. On garde donc ce modèle.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 28


GARCH(1,1)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 29


GARCH(1,2)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 30


GARCH(2,1)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 31


GARCH(2,2)

Au bout de ces estimations, il ressort donc que le seul modèle retenu pour la prévision de la volatilité est le
modèle ARCH(1).

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 32


CONCLUSION

Il y avait en plus un grand nombre de « profanes » c’est-à-dire d’auteurs qui soutenaient des systèmes
théoriques de leur cru, et condamnaient la théorie professionnelle sans se soucier de la maîtriser. Il y avait
enfin autre chose. Comme toujours, la majorité des économistes était absorbée par l’étude des faits et des
problèmes pratiques des divers départements de la politique publique. La théorie ne servait pas à grand
chose pour cette majorité.
Schumpeter, J., 1983, Histoire de l’analyse économique, Tome 3, Gallimard, Paris, p. 273.

Le seul moyen d’accès { une position telle que notre science puisse donner un avis positif pour de
nombreux politiciens et hommes d’affaires repose sur des travaux quantitatifs. Aussi longtemps que nous
ne serons pas capables de traduire nos arguments en chiffres, la voix de notre science, bien qu’elle puisse
occasionnellement aider à éviter des erreurs grossières, ne sera jamais entendue par les praticiens. Ils sont
tous, par instinct, économètres, du fait de leur incrédulité pour toute chose dont il n’existe pas une preuve
exacte.
Schumpeter, J.A., 1933, The common sense of econometrics, vol. 1, Econometrica, p. 12.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 33


Bibliographie
1. Charpentier, A., 2006, Cours de séries temporelles : théorie et applications, Université Paris Dauphjine.
2. Cobbaut, R., 1997, Théorie Financière, Economica.
3. Droesbeke, J-J., Fichet, B., et Tassi, P. (eds), 1994, Modélisation ARCH. Théorie statistique et Applications
dans le domaine de la finance, disponible en ligne http://digistore.bib.ulb.ac.be/DL2826626_000_f.pdf.
4. Engel, R.F. and Bollerslev, T.P., 1986, Modelling the persistence of conditional variances, Econometric
reviews, 5, 1-50, pp.81-87.
5. Friedman, B.M. and Kuttner, K.N., 1988, Time varying risk perceptions and the pricing of risk assets,
unpublished manuscript, Departement of economics, Havard University and NBER, Working paper,
n°2694.
6. Hurlin, C., 2006-2007, Econométrie pour la finance: Modèles ARCH-GARCH, Applications à la VaR, Master
econométrie et Statistique appliquée, Université d’Orléans, disponible en ligne http://www.univ-
orleans.fr/deg/masters/ESA/CH/churlin_E.htm .
7. Kintambu, E.G., 2008, Principes d’économétrie, 3ème édition, Presse de l’Université Kongo.
8. Mankiw, N.G. and Shapiro, M.D., 1986, Risk and Return: consumption versus Market Beta, Review of
Economics and statistics, 68.
9. Mukoko, D., 2010, Cours de Statistique appliquée aux finances, Centre Congolais-Allemand de
Microfinance, UPC, Kinshasa.
10. RAGGAD, B. et TRABELSIY, A., 2003, Value at Risk et Prévision de la volatilité d’un panier de taux de
change, Institut Supérieur de Gestion de Tunis.
11. Taylor, S.J., 1984, Estimating the variances of autocorrelations calculated from financial time series,
Journal of the royal statistical association, series C (Applied statistics), 33, pp 300-308.
12. Taylor, S.J., 1986, Modelling financial time series, John Wiley and Sons, Chichester.
13. Tsasa, J.P., Vers l’économétrie approfondie : une présentation en schémas, CRES.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 34


ANNEXE 1 : Estimation de processus ARIMA(2, 1, 2)

*Modèle AR(1) : DDJI = AR(1)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:21
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Convergence achieved after 2 iterations

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.021704 0.087613 0.247728 0.8047

R-squared -0.000625 Mean dependent var 0.143939


Adjusted R-squared -0.000625 S.D. dependent var 4.368752
S.E. of regression 4.370117 Akaike info criterion 5.795004
Sum squared resid 2501.828 Schwarz criterion 5.816843
Log likelihood -381.4702 Durbin-Watson stat 1.970832

Inverted AR Roots .02


Modèle non significatif.

*Modèle AR(2) : DDJI = AR(1) AR(2)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:16
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

AR(2) -0.200563 0.085744 -2.339098 0.0209

R-squared 0.039808 Mean dependent var 0.106870


Adjusted R-squared 0.039808 S.D. dependent var 4.364634
S.E. of regression 4.276878 Akaike info criterion 5.751928
Sum squared resid 2377.919 Schwarz criterion 5.773876
Log likelihood -375.7513 Durbin-Watson stat 1.938085

En estimant le modèle AR(2), il ressort que AR(1) est non significatif, on l’écarte dès lors du modèle et on
obtient : DDJI = AR(2)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 35


*Modèle MA(1) : DDJI = MA(1)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:22
Sample (adjusted): 1997M07 2008M07
Included observations: 133 after adjustments
Convergence achieved after 12 iterations
Backcast: 1997M06

Variable Coefficient Std. Error t-Statistic Prob.

MA(1) 0.036413 0.087261 0.417289 0.6771

R-squared -0.000188 Mean dependent var 0.135338


Adjusted R-squared -0.000188 S.D. dependent var 4.353302
S.E. of regression 4.353712 Akaike info criterion 5.787425
Sum squared resid 2502.035 Schwarz criterion 5.809157
Log likelihood -383.8638 Durbin-Watson stat 2.007848

Inverted MA Roots -.04


Modèle non significatif.

*Modèle MA(2) : DDJI = MA(1) MA(2)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:18
Sample (adjusted): 1997M07 2008M07
Included observations: 133 after adjustments
Convergence achieved after 9 iterations
Backcast: 1997M05 1997M06

Variable Coefficient Std. Error t-Statistic Prob.

MA(2) -0.252652 0.085593 -2.951775 0.0037

R-squared 0.047693 Mean dependent var 0.135338


Adjusted R-squared 0.047693 S.D. dependent var 4.353302
S.E. of regression 4.248223 Akaike info criterion 5.738369
Sum squared resid 2382.257 Schwarz criterion 5.760101
Log likelihood -380.6015 Durbin-Watson stat 1.926493

Inverted MA Roots .50 -.50

En estimant le modèle MA(2), il ressort que MA(1) est non significatif, on l’écarte dès lors du modèle et on
obtient :
DDJI = MA(2)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 36


*Modèle ARMA (1, 1) : DDJI = AR(1) MA(1)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:20
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Convergence achieved after 14 iterations
Backcast: 1997M07

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) -0.815355 0.106831 -7.632190 0.0000


MA(1) 0.933094 0.073167 12.75288 0.0000

R-squared 0.043874 Mean dependent var 0.143939


Adjusted R-squared 0.036519 S.D. dependent var 4.368752
S.E. of regression 4.288239 Akaike info criterion 5.764665
Sum squared resid 2390.569 Schwarz criterion 5.808344
Log likelihood -378.4679 Durbin-Watson stat 2.097860

Inverted AR Roots -.82


Inverted MA Roots -.93

*Modèle ARMA (1, 2) : DDJI = AR(1) MA(1) MA(2)


Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:43
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Convergence achieved after 20 iterations
Backcast: 1997M06 1997M07

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) -0.504959 0.235592 -2.143368 0.0340


MA(1) 0.546070 0.236989 2.304195 0.0228
MA(2)* -0.181535 0.102377 -1.773200 0.0786

R-squared 0.052408 Mean dependent var 0.143939


Adjusted R-squared 0.037717 S.D. dependent var 4.368752
S.E. of regression 4.285572 Akaike info criterion 5.770850
Sum squared resid 2369.230 Schwarz criterion 5.836368
Log likelihood -377.8761 Durbin-Watson stat 1.980523

Inverted AR Roots -.50


Inverted MA Roots .23 -.78
*MA(2) est significatif au seuil de 10%.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 37


*Modèle ARMA (2, 1) : DDJI = AR(1) AR(2) MA(1)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:42
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 8 iterations
Backcast: 1997M08

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.619501 0.210899 2.937434 0.0039


AR(2)* -0.153935 0.089664 -1.716807 0.0884
MA(1) -0.642420 0.207155 -3.101161 0.0024

R-squared 0.060094 Mean dependent var 0.106870


Adjusted R-squared 0.045407 S.D. dependent var 4.364634
S.E. of regression 4.264389 Akaike info criterion 5.761109
Sum squared resid 2327.682 Schwarz criterion 5.826954
Log likelihood -374.3527 Durbin-Watson stat 1.963489

Inverted AR Roots .31+.24i .31-.24i


Inverted MA Roots .64
*AR(2) est significatif au seuil de 10%.

*Modèle ARMA (2, 2) : DDJI = AR(1) AR(2) MA(1) MA(2)

Dependent Variable: DDJI


Method: Least Squares
Date: 06/08/10 Time: 17:44
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 8 iterations
Backcast: 1997M07 1997M08

Variable Coefficient Std. Error t-Statistic Prob.

AR(2) 0.453573 0.194064 2.337233 0.0210


MA(2) -0.701201 0.158860 -4.413952 0.0000

R-squared 0.083722 Mean dependent var 0.106870


Adjusted R-squared 0.076619 S.D. dependent var 4.364634
S.E. of regression 4.194094 Akaike info criterion 5.720381
Sum squared resid 2269.165 Schwarz criterion 5.764278
Log likelihood -372.6850 Durbin-Watson stat 1.942155

Inverted AR Roots .67 -.67


Inverted MA Roots .84 -.84

En estimant le modèle ARMA(2, 2), il ressort que AR(1) et MA(1) sont non significatifs, on les écarte dès lors
du modèle et on obtient un modèle :
DDJI = AR(2) MA(2)

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 38


ANNEXE 2 : Tests de validité

TEST D’HYPOTHESE NULLE D’ABSENCE D’AUTOCORRELATION DES ERREURS

VIEW → RESIDUAL TESTS → CORRELOGRAM-Q-STATISTICS

TEST D’HETEROSCEDASTICITE

*Détermination du nombre de retards à retenir : l’identification du nombre de décalages se fait { partir du


corrélogramme des résidus au carré du modèle estimé, par exemple AR(2).

VIEW → RESIDUAL TESTS → CORRELOGRAM SQUAREDE RESIDUALS

Après avoir identifié le nombre de retards, on dès lors effectue le test ARCH : VIEW → RESIDUAL → TESTS ARCH LM Test

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 39


Modèle AR(2)

Test d’autocorrélation

Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 40


Test d’hypothèse nulle d’homoscédasticité

ARCH Test:

F-statistic 0.489736 Probability 0.690038


Obs*R-squared 1.498843 Probability 0.682537

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 19:55
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 18.15252 4.558358 3.982249 0.0001


RESID^2(-1) -0.091697 0.089684 -1.022446 0.3086
RESID^2(-2) 0.043795 0.089912 0.487087 0.6271
RESID^2(-3) 0.034063 0.089452 0.380790 0.7040

R-squared 0.011710 Mean dependent var 17.93201


Adjusted R-squared -0.012201 S.D. dependent var 39.27809
S.E. of regression 39.51697 Akaike info criterion 10.22209
Sum squared resid 193637.3 Schwarz criterion 10.31121
Log likelihood -650.2137 F-statistic 0.489736
Durbin-Watson stat 1.998437 Prob(F-statistic) 0.690038

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 41


Modèle MA(2)

Test d’autocorrélation

Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 42


Test d’hypothèse nulle d’homoscédasticité

ARCH Test:

F-statistic 0.524552 Probability 0.666191


Obs*R-squared 1.603587 Probability 0.658577

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 20:02
Sample (adjusted): 1997M10 2008M07
Included observations: 130 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 18.24174 4.458063 4.091854 0.0001


RESID^2(-1) -0.097171 0.088843 -1.093737 0.2762
RESID^2(-2) 0.037953 0.089204 0.425459 0.6712
RESID^2(-3) 0.034929 0.088819 0.393257 0.6948

R-squared 0.012335 Mean dependent var 17.80579


Adjusted R-squared -0.011181 S.D. dependent var 38.21441
S.E. of regression 38.42745 Akaike info criterion 10.16571
Sum squared resid 186060.2 Schwarz criterion 10.25394
Log likelihood -656.7709 F-statistic 0.524552
Durbin-Watson stat 2.003703 Prob(F-statistic) 0.666191

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 43


Modèle AR(1) MA(1)

Test d’autocorrélation

Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 44


Test d’hypothèse nulle d’homoscédasticité

ARCH Test:

F-statistic 0.302495 Probability 0.823543


Obs*R-squared 0.929773 Probability 0.818238

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 20:04
Sample (adjusted): 1997M11 2008M07
Included observations: 129 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 17.23746 4.620924 3.730305 0.0003


RESID^2(-1) -0.047793 0.089455 -0.534275 0.5941
RESID^2(-2) 0.067421 0.088857 0.758756 0.4494
RESID^2(-3) 0.012564 0.088991 0.141184 0.8880

R-squared 0.007208 Mean dependent var 17.85585


Adjusted R-squared -0.016619 S.D. dependent var 40.96307
S.E. of regression 41.30206 Akaike info criterion 10.31022
Sum squared resid 213232.5 Schwarz criterion 10.39890
Log likelihood -661.0091 F-statistic 0.302495
Durbin-Watson stat 1.997196 Prob(F-statistic) 0.823543

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 45


Modèle AR(2) MA(2)

Test d’autocorrélation

Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 46


Test d’hypothèse nulle d’homoscédasticité

ARCH Test:

F-statistic 0.495518 Probability 0.686050


Obs*R-squared 1.516330 Probability 0.678506

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:53
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 17.62215 4.368494 4.033918 0.0001


RESID^2(-1) -0.090771 0.089673 -1.012234 0.3134
RESID^2(-2) 0.048596 0.089901 0.540547 0.5898
RESID^2(-3) 0.031668 0.089637 0.353287 0.7245

R-squared 0.011846 Mean dependent var 17.44264


Adjusted R-squared -0.012061 S.D. dependent var 37.56285
S.E. of regression 37.78869 Akaike info criterion 10.13265
Sum squared resid 177070.1 Schwarz criterion 10.22177
Log likelihood -644.4895 F-statistic 0.495518
Durbin-Watson stat 2.000400 Prob(F-statistic) 0.686050

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 47


Modèle AR(1) AR(2) MA(2)

Test d’autocorrélation

Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 48


Test d’hypothèse nulle d’homoscédasticité

ARCH Test:

F-statistic 0.454391 Probability 0.714659


Obs*R-squared 1.391846 Probability 0.707447

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:54
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 17.69121 4.373277 4.045298 0.0001


RESID^2(-1) -0.088161 0.089688 -0.982975 0.3275
RESID^2(-2) 0.045513 0.089907 0.506219 0.6136
RESID^2(-3) 0.027634 0.089655 0.308225 0.7584

R-squared 0.010874 Mean dependent var 17.43300


Adjusted R-squared -0.013057 S.D. dependent var 37.61900
S.E. of regression 37.86379 Akaike info criterion 10.13662
Sum squared resid 177774.7 Schwarz criterion 10.22574
Log likelihood -644.7436 F-statistic 0.454391
Durbin-Watson stat 2.000406 Prob(F-statistic) 0.714659

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 49


Modèle AR(1) AR(2) MA(1)

Test d’autocorrélation

Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 50


Test d’hypothèse nulle d’homoscédasticité

ARCH Test:

F-statistic 0.794439 Probability 0.499211


Obs*R-squared 2.413805 Probability 0.491070

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:56
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 17.16682 4.481736 3.830395 0.0002


RESID^2(-1) -0.094886 0.089643 -1.058488 0.2919
RESID^2(-2) 0.078145 0.089747 0.870726 0.3856
RESID^2(-3) 0.066204 0.089655 0.738435 0.4616

R-squared 0.018858 Mean dependent var 18.04914


Adjusted R-squared -0.004879 S.D. dependent var 38.95178
S.E. of regression 39.04670 Akaike info criterion 10.19815
Sum squared resid 189056.0 Schwarz criterion 10.28727
Log likelihood -648.6813 F-statistic 0.794439
Durbin-Watson stat 1.997104 Prob(F-statistic) 0.499211

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 51


ANNEXE 3 : Estimation du processus ARIMA(3, 0,2) →ARMA(3, 2)

Dependent Variable: DJI


Method: Least Squares
Date: 06/28/10 Time: 16:08
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 13 iterations
Backcast: 1997M07 1997M08

Variable Coefficient Std. Error t-Statistic Prob.

C 118.9092 6.074779 19.57424 0.0000


AR(1) 0.934061 0.049052 19.04214 0.0000
AR(2) -0.887580 0.101658 -8.731020 0.0000
AR(3) 0.840491 0.093069 9.030868 0.0000
MA(2) 0.840097 0.120146 6.992286 0.0000

R-squared 0.885822 Mean dependent var 117.3053


Adjusted R-squared 0.882198 S.D. dependent var 12.33063
S.E. of regression 4.232163 Akaike info criterion 5.760724
Sum squared resid 2256.812 Schwarz criterion 5.870464
Log likelihood -372.3274 F-statistic 244.3858
Durbin-Watson stat 1.893536 Prob(F-statistic) 0.000000

Inverted AR Roots .94 -.00+.95i -.00-.95i

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 52


ANNEXE 4 : Liste des ouvrages de la B.U.C
Jean-Paul TSASA V.
Université Protestante au Congo
Centre Congolais-Allemand de Microfinance

Alors que je fus sur le banc de l’école, je me posais toujours la question de savoir d’où vient l’incompréhension ? Qu’est-
ce qui fait que certaines personnes maîtrisent mieux certains concepts que certaines autres ? Après beaucoup de temps
de réflexion, j’ai trouvé une réponse satisfaisante, que j’estime être plus ou moins parfaite. L’incompréhension vient de
trois éléments essentiels, à savoir : le manque de pré-requis, la non maîtrise du jargon et la limite imposée par le
quotient intellectuel. Le dernier argument pose une contrainte de disponibilité. Cependant, pour résoudre les
problèmes liés au pré-requis et au jargon, il faut beaucoup lire. Et cette lecture doit intégrer certaines exigences,
notamment : la concentration, le raisonnement, l’attention, la conscience et le sérieux ; donc, une lecture intelligente.

Pour ce faire, je propose aux étudiants ou intéressés ayant l’accès { la Bibliothèque Universitaire Centrale (B.U.C), une
panoplie d’ouvrage que j’ai eu { lire tout au long de mon parcours universitaire. Donc, voici la liste de quelques
ouvrages de statistique/économétrie répertoriés au sein de la B.U.C de l’Université Protestante au Congo. Une
collection d’ouvrages, limitée, pour l’étudiant qui désire s’entraîner avec des applications classiques de statistique
descriptive, de statistique mathématique ou d’économétrie.

Note : la liste des ouvrages, bien qu’obéissant au principe d’essentialité, apparait non exhaustive puisque la roue de la
recherche scientifique demeure très dynamique dans le temps et dans l’espace.

N° AUTEUR(S) OUVRAGE CODE


1 ANDREFF, M. Statistique : traitement des données d’échantillon, PUG, Grenoble, 311
1994 : ARS
1er tome : Les méthodes, 158p.
2ème tome : Les applications, 142p.
2 BLUMENTHORL, S. Statistique appliquée en 11 questions et 120 exemples et une annexe 519.53
sur les probabilités pour Michèle Mallens, Ed. d’organisation, Paris, BLU
1985, 221p.
3 BOURBONNAIS, R. Econométrie : Manuel et exercices corrigés, 5è éd. Dunod, Paris, 2003, 330.015 195
329p BOU
2003
4 BOURSIN, J.L. Comprendre la statistique descriptive. 310
BOU
5 BOY, Cl. Et NIZARD, A. Exercices corrigés de probabilités : option générale et économique 519.2
BOY
6 DUBUS, A., Méthodes et pratiques du traitement statistique en Sciences 005.4
humaines : étide de cas avec le logiciel ADSO 3 DUB
7 CARON, N. et PH. TASSI Problèmes résolus de statistique mathématique. 310
CAR
8 CHAUVOT, G. et J.PH. REAU Statistiques descriptives. 310
CHA
9 COHEN, M. et PRUDEL, J. Econométrie : théorie et technique de base, méthode d’utilisation et
exercices, Litec, Paris, 1993
10 DAUNHA-CASTELLE, D. et M. Probabilités et statistiques : Problèmes à temps fixe, tome 1, 220p. 310.02
DUFLS DAC
11 DAGNIELIE, P. Statistique théorique et appliquée ; De Boeck Université, Bruxelles, 310
1998 : DAG
1er tome : Statistique descriptive et bases de l’inférence statistique, 1998
508p.
2ème tome : Inférence statistique à une et à deux dimensions, 659p.
12 DHRYMES, P.J. Econometrics : Statistical foundations and applications 339.5
DHR
13 DREPREZ, M. et DUVANT, M. Méthodes quantitatives de gestion : l’analyse comptable etles 658.15
mathémathématiques appliquées DEP
14 DUTHIL, G. et D. VANHAECKE Les statiques descriptives appliquées à l’économie de l’entreprise, Ed. 310
Harmattan, Paris, 1990, 258p. DUT
1990

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 53


→ Suite...

N° AUTEUR(S) OUVRAGE CODE


15 DUGHOUE, L.T. Manuel de statistique, 5ème éd. Ottawa, éd. De l’Université d’Ottawa, 310.2
1979, 586p. DAY
16 FOURASTIE, J. et S. Levy Statistiques appliquées à l’économie. 310
FOU
17 GHORBANZADEH, D. Probabilités : exercices corrigés, Ed. Technip, Paris, 1998, 270p. 519.2
GHO
1998
18 GIARD, V. Statistique appliquée à la gestion : avec 70 exercices d’application 310.02
corrigés, Economica, 6ème Ed. Paris, 1992, 512p. GIA
19 GIARD, V. Statistique descriptive pour les gestionnaires, Economica, Paris, 1995, 658.403 3
112p. GIA
1995
20 GIRAUD, R. et CHOIX, N. Econométrie, PUF, Paris, 1989, 354p. 330.015.195
GIR
21 GRAIS, B. Méthodes statistiques : techniques statistiques 310
DRA
22 HOWELL, D.C. Méthodes statistiques en sciences humaines, trad. De M. Rogier, 310
Revue scientifique de V. Yvebyt et Y. Bestgzn., Paris, DE Boeck, HOW
Université, ITP, 1998, 821 p.
23 INADES-FORMATION Calcul économique : quelques éléments de mathématiques et 331.028
statistiques économiques, Kinshasa, 76p. INA
24 JOHNSTON, J. Méthodes économétriques, trad. Par Bernard Guerrien, 3ème éd. Paris, 330.015.195
Economica, 1995, 359p. JOH
1995
25 JOHNSTON, J. Méthodes économétriques, trad. Par Bernard Guerrien, 3ème éd. Paris, 330.015.195
Economica, 1988, 648p., tome 2. JOH
1988
26 JOHNSTON, J. & Dinardo, J. Méthodes économétriques, trad. Préf. de Bernard Guerrien, 4ème éd. 330.015.195
Paris, Economica, 1999, 383p. JOH
27 JUSTENS, D. Statistique pour décideurs. 519.5
JUS
28 KAUFFMANN, P. Statistiques : information, estimation, tests. 310.02
KAU
29 KAZMIER, L.J. Statistiques de la gestion : théorie et problèmes, MC Graw-Hill, Série 310.02
Schaum, Montréal, 1982, 374p. KAZ
30 HAMBURG, M. Statistical analysis for decisions making, Brace and World Inc. Cop., 519.5
New-York, 817p. MOR
31 LARSEN, R.J. Statistics, Prentice-hall, 1990. 310
LAR
32 LAVIEVILLE, M. Statistique et probabilités : précis de cours accompagné d’exercices 310.02
corrigés, d’un formulaire d’analyse combinatoire et des tables LAV
numériques.
33 LECOUTRE, J.P. Probabilités : Exercices corrigés avec rappels de cours. 519.2
LEC
34 LECOUTRE, J.P., P. TOSSI et S. Statistique : Exercices corrigés avec rappels de cours, 2ème Ed. 519.5
LEGRITMAILLE complétée, Paris, A990, 278p. LEC
35 MAILLET, P. Econom2trie, 2ème éd., PUF, Paris, 1971, 127p. 658.403 3
36 MARTEL, J.M. et R. NADEAU Statistique en gestion et en économie. 310.02
MAR
37 MASIERI, W. Statistique et calcul des probabilités. 310
MAS
38 MASIERI, W. Statistique et calcul des probabilités, Ed. Dalloz, 2001. 519.2
MAS
2001

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 54


→ Suite...

N° AUTEUR(S) OUVRAGE CODE


39 MONIERS, J-L. et J-L. SOL Statistique et probabilités : accès à l’université, Dunod, Paris, 1994, 310.02
179p. MON
40 RAFFIN, C. Statistique et probabilités : dogmes scientifiques, Armand Colin, Paris, 310.02
1993, 267p. RAF
41 REAU, J.PH. et G. CHAUVOT Probabilité et statistiques : résumé des cours, exercices et problèmes 519.2
corrigés. REA
42 SANDERS, D.H. Statistiques : une approche nouvelle. 310
SAN
43 SINCICH, T. Statistics example, Dellen Mac millan, 4ème Ed. New-York, 1993. 519.5
SIN
44 SMITH, L. Statistical Reasoning, Allyn and Bacon, 3d Ed. Boston, 1991. 519.2
SMI
45 SNEDECOR, L. et W. COCHRAN Statistical methods, 6ème Ed. Anes : The Iowa State University Press, 310
1967, 593p. SNE
46 SCHWARTZ, D. Méthodes statistiques à l’usage des médecins et des biologistes, 4ème 311
éd. Paris : Flammarion, 1993, 314p. SCH
47 TRIGNAN, J. Probabilités statistiques et leurs applications. 519.2
TRI
48 VERLAUT, B. G. SAINT-PIERRE Statistique et Probabilités : corrigé des exercices, Ed. Foucher, Paris, 519.2
tome 2, 63p. VER
1998
49 VESSEREAU, A. Méthodes statistiques en biologie et en agronomie, Paris : Technique et 310
Documentation, 538p., 1998. VES
1988
50 VESSEREAU, A. La statistique, PUF, 18ème Ed. Paris, 1992, 127p. 311
VES
51 WEIMER, R.C. Statistics, 2ème Ed., WCB, 1993. 310
WEI

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 55


ANNEXE 5

Cellule de Réflexions Economiques et Sociales


Ten Pager Avril 2010 Numéro .
Copyright © tsasajp –cres 2010

L’analyse économétrique : Par où commencer ?


Jean-Paul TSASA Vangu

Avertissement
Ce papier est le fruit d’un effort consistant { rapprocher l’analyse théorique et celle de phénomènes réels
en économie. Noter déj{ { ce niveau que c’est par un processus continu de défis et de réponses que la
Science économique évolue. S’inscrivant dans la logique de la préférence pour la simplicité dans la rigueur,
nous nous sommes proposé d’élaborer un papier qui montrerait l’intérêt de l’outil économétrique dans
l’analyse économique.

Objectif : encourager les intéressés { se servir de l’économétrie comme outil de travail et de ne pas la
considérer comme un instrument de torture scientifique.

0. Introduction

Dans ce papier, nous nous proposons de montrer à l’étudiant inscrit en économie le rôle de l’outil
économétrique dans l’analyse économique. Tout au long de son parcours universitaire et même après
l’université, l’étudiant est appelé { réaliser des études ou analyses (travail pratique, mémoire, séminaire,
etc.) ; alors parmi les multiples outils d’analyse disponibles, l’économétrie occupe sans nul doute une place
de choix.

Prenons un cas simple où il est demandé { l’étudiant de mener une analyse sur les interactions existant
entre le Produit Intérieur Brut (PIB) et la variation de l’indice général des prix, généralement qualifiée de
taux d’inflation (INFLA). Plusieurs approches sont { la portée de l’étudiant pour mener cette étude. Dans le
cas où il décide de recourir { l’outil économétrique, il pourra procéder comme suit. Avant de chercher à
explorer le monde économétrique, l’intéressé doit être { même de définir l’ « économétrie », c’est-à-dire de
cerner ses contours. Après avoir appréhendé les contours de l’économétrie, l’intéressé peut ensuite
s’interroger sur la nature de relations qui lient les variables sous examen. Il ne suffirait pas de préciser
uniquement la nature de relation caractérisant les variables, faudra-t-il encore déterminer l’influence
qu’exerce une variable sur l’autre tout en respectant les hypothèses sous-tendant la méthode utilisée pour
l’analyse.

Enfin, d’une part, pour plus de rigueur et de rapidité lors de l’étude et d’autre part, pour aboutir { de
résultat fiable et généralement admissible, l’intéressé sera obligé de maîtriser au moins l’utilisation d’un
logiciel économétrique. Le tableau suivant résume les différentes étapes { suivre pour l’initiation {
l’utilisation de l’outil économétrique.

Tableau 1. Analyse économétrique


Etape 1→ Etape 2→ Etape 3→ Etape 4→ Etape 5.
Avoir une idée Préciser le degré de Construire un Etablir les Recourir à un
sur relation entre les modèle d’analyse différents tests logiciel pour
l’économétrie variables (dans ce cas PIB permettant saisir permettant de l’estimation du
avant de l’utiliser et INFLA) avant les interactions diagnostiquer la modèle.
d’approfondir l’analyse entre variables. validité du modèle.

Source : réalisé par l’auteur.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 56


En vue de faciliter la compréhension, nous proposons une schématisation de l’analyse
économétrique. Ainsi, étant une initiation { l’utilisation de l’outil économétrique, ce papier offre
donc { l’intéressé une vision globale de la démarche qu’il suivra afin de réaliser son étude.

1. Schématisation de l’analyse économétrique

Schéma 1. Analyse économétrique

ANALYSE ECONOMETRIQUE

CONTOUR DE ETUDES CONSTRUCTION VALIDATION DU


L’ECONOMETRIE DE CORRELATION DU MODELE MODELE

*Qu’est-ce que *Qu’est-ce que la →Test de spécification du modèle TESTS DE SIGNIFICATIVITE


l’économétrie ? corrélation ? *Modèle de régression *Test de Student
linéaire (Simple & multiple). *Test de Fisher
*Ses objectifs ? *Coefficient de corrélation ?
*Modèle de régression non TESTS DE DIAGNOSTIC
*Format de données *Corrélation VS Régression. linéaire. *Test d’autocorrélation
utilisées ? *Limites de la corrélation. *Test d’hétéroscédasticité
*Modèle à décalage temporel.
*Principaux éléments *Test de multicolinéarité
*Modèle à équations
présents dans les modèles ? TESTS COMPLEMENTS
simultanées ou
multiéquationnel *Test de normalité
*Test de stabilité

APPLICATION DU MODELE SUR UN


LOGICIEL ECONOMETRIQUE

Source : réalisé par l’auteur.

1.1. Contour de l’économétrie†††††


1.1.1. Qu’est-ce que l’économétrie ?
o Littéralement, l’économétrie se définit comme étant une mesure de l’économie.
o Wassily LEONTIEF (économiste américain d’origine russe, Prix Nobel 1973) définit l’économétrie
comme un type spécial d’analyse économique dans lequel l’approche théorique générale – souvent
formulée en termes explicitement mathématiques – se combine fréquemment au moyen de
procédures statistiques complexes à la mesure empirique des phénomènes économiques.
o Jan TINBERGEN (économiste et statisticien néerlandais, Prix Nobel 1969) propose la définition
suivante : L’économétrie est une observation statistique de concepts théoriquement fondés, ou
économie mathématique travaillant sur données mesurées.

L’économétrie pourrait donc être comprise comme une utilisation des mathématiques et de la
statistique pour évaluer les relations de la théorie économique.

†††††
Lire R. Barre, 1975, Economie Politique, Presse universitaire de France, Paris, pp 58-64, pour avoir une idée sur la
genèse de l’économétrie.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 57


1.1.2. Ses principales fonctions ?
L’économétrie se propose de :
- Estimer les relations. - Tester les théories.
- Evaluer les politiques économiques. - Prévoir l’évolution des grandeurs
économiques.

1.1.3. Types de données ?


Il existe 3 types de données généralement utilisées en Econométrie.

Tableau 2. Types de données


DONNEES EN SERIE DONNEES TRANVERSALES DONNEES DE PANEL
TEMPORELLE Syn. : CROSS-SECTION DATA, Syn. : DONNEES CROISEES
Syn. : CHRONIQUE, DONNEES INDIVIDUELLES,
SERIE CHRONOLOGIQUE DONNEES EN COUPE
Correspondent à une suite Correspondent aux données où Correspondent à un ensemble de
finie de données indexées l’indice rattaché à la variable sous données indexées par des indices
par le temps. examen indique l’individu. indiquant l’individu concerné (i) et le
temps correspondant (t).
Exemple : Evolution du taux Exemple : Niveau du taux de croissance Exemple : Evolution du taux de croissance
de croissance du PIB réel en économique en RDC, Lybie et Gambie en économique en RDC, Lybie et Gambie de
RDC de 20O0 à 2005. 2005. 2000 à 2005.
RDC Lybie Gambie
T Yt : Taux de RDC Lybie Gambie Yit Taux de croissance en %
croissance Yi 6.20 4.28 4.70
2000 -7.18 1.15 5.33
2000 -7.18 2001 -2.66 4.52 7.57
2001 -2.66 2002 3.22 3.26 -3.80
2002 3.22 2003 5.73 9.13 7.70
2003 5.73 2004 6.64 4.39 5.10
2004 6.64 2005 6.20 4.28 4.70
2005 6.20
Indice : t=temps Indice : i=individu Indice : i (individu) et t (temps)
Source : réalisé par l’auteur sur base de statistiques de la BAD.

1.1.4. Eléments principaux d’un modèle économétrique ?


Modèle : représentation simplifiée, mais complète, de l’évolution économique d’une société,
pendant une période donnée, sous un aspect chiffré.

Comme une carte résumant la réalité géographique, la technique des modèles correspond à la
cartographie de l’économie. Donc, tout modèle implique une simplification et non une déformation.

Dans un modèle, il y a lieu de distinguer : les variables, les relations et les paramètres.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 58


Tableau 3. Bref aperçu des éléments principaux d’un modèle
VARIABLES RELATIONS PARAMETRES
Elles correspondent à de symboles On distingue : Les valeurs prises par les
(X, Y, x ou M) qui peut prendre paramètres peuvent être fixées à
toutes les valeurs d’un ensemble - Relations comptables priori, estimés par référence au
donné, appelé domaine de la variable. Exemple : YM = CM + SM – T passé ou inconnus.
On distingue les variables
quantitatives de variables qualitatives. - Relations de définition Il y a lieu de distinguer :
ou Relations d’identité - Les propensions moyennes et
Variable Variable Exemple : RT = Q*P ou marginales ;
quantitative qualitative Yd = C + S
Continue : Nominale - Les productivités moyennes
- Relations d’équilibre et marginales ;
Lorsqu’elle
Exemple :
prend une Ordinale
Y=C+I+X–M - Les élasticités ;
infinité des
valeurs dans
- Relations fonctionnelles : - Les coefficients techniques.
un intervalle
*Relations de comportement
donné.
Exemple : C = a + bY
Discrète
*Relations techniques ;
Exemple : Q = AKaLb
Note : une variable qui ne prend .
qu’une seule valeur est appelée - Relations institutionnelles.
constante.
CLASSIFICATION DES VARIABLES
Variable dépendante (endogène ou
expliquée)
Variable indépendante (exogène ou
explicative)
Variables de flux
Variables de stock
Variable ex ante
Variable ex post
Variable temps
Terme aléatoire
Différence entre ECONOMISTE & ECONOMETRE (ou ECONOMETRICIEN) : si l’on considère à titre illustratif l’analyse de
la fonction keynésienne de consommation.
- Economiste : Y= Co + bCt
- Economètre : Y = Co + bCt + ε
Source : réalisé par l’auteur.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 59


1.2. Etude de la corrélation
L’étude de la corrélation permet de déterminer l’intensité ou la force de la relation existant entre
variables sous examen.

L’étude de la corrélation peut être scindée en deux catégories : l’analyse de la corrélation


proprement dite et l’analyse de l’ajustement.

Schéma 2. Etude de la corrélation

ETUDE DE LA CORRELATION

CORRELATION
AJUSTEMENT proprement dite

Outil d’analyse : Outil d’analyse : Coefficient


* Diagramme de dispersion de corrélation
* Droite d’ajustement,
Droite d’estimation ou
Droite de régression.

Méthodes :
* Méthode de 3 points ;
* Méthode de moindres carrés

METHODE QUALITATIVE METHODE QUANTITATIVE

* : covariance entre Y et X et : écart-type de i.


Source : par l’auteur.

Soit n variable intervenant dans l’étude de corrélation :


- Si n = 2 : la corrélation est dite simple ;
- Si n > 2 : la corrélation est dite multiple et dans ce cas, elle alimente la matrice de corrélation.
Le domaine du coefficient de corrélation « r » est [-1, +1]. Le coefficient de corrélation linéaire, appelé
aussi coefficient de Bravais-Pearson a été préalablement étudié par Galton.

Tableau 4. Coefficient de corrélation et limites


La corrélation entre variables peut être positive, négative, nulle ou maximale.
CORRELATION
POSITIVE ou DIRECTE : NEGATIVE : NULLE : MAXIMALE:
Exemple : Prix et
Exemple : Prix et Quantité demandée
Quantité produite (loi de (loi de la La corrélation est maximale lorsque tous les
l’offre). demande). points se confondent à la droite d’ajustement.
Limites de la corrélation linéaire :
Linéarité : en réalité, la relation entre Symétrie : cette étude traite les variables Corrélation n’est pas
variables n’est pas forcément linéaire. de manière symétrique. causalité (corrélation trompeuse ou
fortuite): le coefficient r mesure l’intensité
de la relation entre variables mais
n’exprime pas la relation de cause à effet.
Le carré du coefficient de corrélation (r) est le coefficient le coefficient de détermination (R²)

Source : réalisé par l’auteur.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 60


APPLICATION 1

Ci-après est reprise l’évolution du taux de croissance économique et du taux d’inflation (en moyenne
annuelle) en R.D. Congo de 2000 à 2008.

Tableau 5. Evolution du PIB et du taux d’inflation en RDC


T Yt Xt
2000 -6.9 511.2
2001 -2.1 135.1
2002 3.5 15.8
2003 5.8 4.4
2004 6.6 9.2
2005 7.2 18.2
2006 5.6 21.3
2007 6.3 9.9
2008 5.9 27.6
Source : Banque Centrale du Congo

Travail demandé : Mesurez l’intensité de la relation entre les variables Yt (taux de croissance) et Xt
(taux d’inflation) et dites comment varient-elles ?

RESOLUTION
Connaissant la formule du coefficient de corrélation, on dégage le tableau suivant qui permet de
mesurer l’intensité de la relation existant entre le PIB et l’inflation :

Tableau 5. Evolution du PIB et du taux d’inflation en RDC


)(
-6.9 511.2 -10.4 427.6 -4447.04 108.16 182841.76
-2.1 135.1 -5.6 51.5 -288.4 31.36 2652.25
3.5 15.8 0 -67.8 0 0 4596.84
5.8 4.4 2.3 -79.2 -182.16 5.29 6272.64
6.6 9.2 3.1 -74.4 -230.64 9.61 5535.36
7.2 18.2 3.7 -65.4 -241.98 13.69 4277.16
5.6 21.3 2.1 -62.3 -130.83 4.41 3881.29
6.3 9.9 2.8 -73.7 -206.36 7.84 5431.69
5.9 27.6 2.4 -56.0 -134.4 5.76 3136
=3.5 =83.6 =186.12 =218624.99

A savoir : (intensité de la relation entre Y et X).


La moyenne arithmétique de Comme , ce que le taux de croissance du PIB réel et l’inflation en
w est donnée par : RDC sont négativement corrélés c’est-à-dire varient dans le sens contraire (si Yt
augmente, Xt diminue et vice-versa).
Limite : le coefficient r ne permet pas de préciser s’il faudra augmenter la
croissance pour diminuer l’inflation ou il faudra diminuer l’inflation pour
promouvoir la croissance. Pour y parvenir, on recourt à l’analyse de causalité.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 61


Note : En général, plus le coefficient est proche de 1, meilleure est la corrélation. Cependant, c’est le
nombre d’observations n, ou plutôt le nombre de degrés de liberté (n - 2 pour une régression
simple), qui détermine plus précisément une valeur limite, pour un niveau de risque d’erreur donné,
et il existe pour cela des tables du r. Elles sont rarement reprises dans les manuels de statistiques.

Le tableau 6 (extrait de la table du coefficient de Pearson) permet de tester si le coefficient « r » est


significatif avec un risque de 5% :

Tableau 6 : Table du coefficient de Pearson


n-2 = Degré de liberté Seuil de signification: α = 0.05
1 1.00
2 0.95
3 0.88
4 0.81
5 0.75
6 0.71
7 0.67
8 0.63
9 0.60
10 0.58
11 0.55
12 0.53
13 0.51
14 0.50
15 0.48
16 0.47
17 0.46
18 0.44
19 0.43
20 0.42

Ce tableau indique que pour un niveau de confiance de 0.95, le coefficient de 0,919 est significatif
puisqu’il est supérieur { 0.67 (n-2 = 7 degrés de liberté).

Par ailleurs, le test t-Student permet également d’évaluer la signification du coefficient de corrélation
c’est-à-dire de préciser si la relation entre Y et X n’est pas le fait d’un hasard.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 62


Test de signification du coefficient r

H0 : le coefficient r est significativement nul (absence de corrélation).


H1 : le coefficient r est significativement différent de zéro.
Décision :
Rejeter H0 Si est supérieure à la valeur du t de la table de Student.

α
* : t calculé et : à lire dans la table de Student.

En considérant l’exemple précédent, il se dégage que :


et que 1.895

Comme , on rejette l’hypothèse nulle ; le coefficient de corrélation entre le


taux de croissance économique et le taux d’inflation est donc significatif.

Etant donné que le coefficient de corrélation est une mesure qualitative, la relation entre X
et Y serait :
 parfaite si r = 1  d'intensité moyenne si r se situe entre 0,2 et
 très forte si r > 0,8. 0,5.
 forte si r se situe entre 0,5 et  faible si r se situe entre 0 et 0.2.
0,8.  nulle si r = 0

Détermination du coefficient de corrélation de Pearson à partir de logiciels Excel, Eviews


et SPSS.

La détermination du coefficient sur les différents logiciels nécessite une installation de chacun d’eux
dans le PC.

Détermination du coefficient de corrélation à partir du logiciel EXCEL

1ère étape : cliquer sur le menu DEMARRER


2ème étape : aller dans TOUS LES PROGRAMMES
3ème étape : cliquer sur Microsoft office et puis sur EXCEL
4ème étape : Saisir les données, telles que reprises dans les 2 premières colonnes du tableau
5ème étape : enregistrer et nommer le fichier ; « PEARSON » par exemple.
6ème étape : écrire la commande :
« =COEFFICIENT.CORRELATION (sélectionner la 1ère colonne ; sélectionner la 2ème colonne) »
En validant (appuyer sur enter  ), aussitôt le résultat apparait.

Détermination du coefficient de corrélation à partir du logiciel EVIEWS

1ère étape : cliquer sur le menu DEMARRER


2ème étape : aller dans TOUS LES PROGRAMMES
3ème étape : cliquer sur Eviews et puis sur EVIEWS
4ème étape : Importer les données à partir du fichier Excel PEARSON (créé précédemment),
en cliquant sur File → Open
5ème étape : Aller dans Fichiers de type → Choisir Excel file (*xls) et ensuite, cliquer
sur le fichier Excel PEARSON et puis sur : Ouvrir → Suivant → Terminer
5ème étape : pour tester la corrélation entre deux Variables ; aller dans :
View → Correlations → Pairwise samples ;
ainsi obtient-on la matrice de corrélation.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 63


Détermination du coefficient de corrélation à partir du logiciel SPSS

1ère étape : lancer le logiciel SPPS


2ème étape : Importer les données à partir du fichier Excel PEARSON en cliquant sur
l’option : « ouvrir une source de données existante »
3ème étape : aller dans type de fichier et choisir « Excel (*.xls) »
4ème étape : cliquer sur ouvrir et puis sur OK
5ème étape : pour calculer le coefficient de corrélation, aller dans :
Analyse → Corrélation → Bivariée…
ème
6 étape : sélectionner chaque variable puis la faire passer dans la case à droite
7ème étape : cliquer sur OK ; aussitôt les résultats s’affichent.
Note : si SIG (correspondant de p-value) est inférieur à 0.05, ce que le r de Pearson est
significatif.

Application d’entraînement :

Effectuer la même étude sur les données suivantes :


- Taux de change annuel moyen (cours indicatif) et
- Taux de croissance de la masse monétaire (M1)
Note : Considérer la période allant de 1990 à 2009, ce qui correspond à 18 observations.

To be continued …

1.3. Construction du modèle d’analyse

1.4. Validation du modèle d’analyse

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 64


Voici juste une brève incursion de ce que nous aurons à développer aux points 1.3 et 1.4 dans les prochaines
éditions :

I. ESTIMATION PAR LA METHODE DES MOINDRES CARRES ORDINAIRES


Instruction Eviews :
Cliquer sur Quick→Estimate Equation→écrire son modèle et après valider.
Par exemple : après instigations on remarque que le taux de croissance à la période t (variable dépendante
ou endogène) est fonction du taux de croissance au temps t-1, du taux d’inflation au temps t (variable
dépendant ou exogène) ; on pourrait donc écrire dans la fenêtre : TXCROIS C TXCROIS(-1) TXINFL.
Commande Eviews :
Ou encore, on peut directement passer la commande suivante : LS suivi du modèle.
Donc, on écrira : LS TXCROIS C TXCROIS(-1) TXINFL.
Où LS = Least Squares (Moindres carrés)
C’est ainsi qu’on obtient l’estimation du modèle linéaire simple.

II. TEST DE SIGNIFICATIVITE DES VARIABLES EXPLICATIVES


D’après ce test, appelé aussi test de student, la variable explicative (ou variable exogène) a une influence
significative sur la variable expliqué (ou variable endogène) si :
Probability < 0.05 et
t-statistic > 1.96 (règle de pousse)
Note : Prob = Probability =Probabilité critique.

III. TEST DE SIGNIFICATIVITE GLOBALE DU MODELE


D’après ce test, appelé aussi test de Fisher, le modèle est globalement significatif si :
Prob(F-Statistic) < 0.05
ou encore si F-statistic > F-théorique.

IV. TEST D’HYPOTHESE NULLE D’HOMOSCEDASTICITE : TEST DE WHITE


Ce test permet d’évaluer l’hypothèse de la constance de la variance résiduelle dans le temps et dans
l’espace :
H0 : modèle homoscédastique
H1 : modèle hétéroscédastique
Où H0 : hypothèse nulle et H1 : hypothèse alternative ou hypothèse de soutien.
Instruction Eviews :
Cliquer sur : VIEW→ RESIDUALS TESTS→ WHITE HETEROSKEDASTICITY (no cross terms).
Rejeter H1 : Si Probability > 0.05
Rejeter H0 : Si Probability ≤ 0.05
Si l’on décide de rejeter H1, ce que les estimations obtenues par les MCO sont optimales.

V. TESTS D’AUTOCORRELATION DES ERREURS


Une des hypothèses de moindre carré veut que les erreurs de la période précédente n’influe n’aient aucune
relation avec celles de périodes à venir.
i. TEST DE DURBIN-WATSON : εt = εt-1 + μt
Ce test n’est utilisé que si les conditions suivantes sont respectées :
a. Le modèle doit impérativement comporter un terme constant ;
b. Le nombre d’observation doit être ≥ 15 ;
c. Le modèle doit être spécifié en série temporelle ;
d. La variable à expliquer ne doit pas figurer parmi les variables explicatives en tant que variable
retardée (si c’est le cas, alors utiliser le test du h de Durbin)
Exemple : Yt = C + αXt +βXt-1 + δYt-1 + ut ; dans ce cas, on ne doit pas utiliser le test de D-w car la
variable explicative(Yt) apparaît encore dans le modèle comme variable retardée parmi les
variables endogènes.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 65


Soit,
H0 : Erreurs non corrélées (ρ = 0)
H1 : Erreurs corrélées (ρ ≠ 0)
La statistique de Durbin-Watson est obtenue après estimation du modèle par la méthode des moindres
carrés ordinaires.

Comment prendre la décision ?


Pour commenter le résultat, il faut maîtriser quelques notions indispensables liées à la lecture de la table de
Durbin-Watson.

La statistique de Durbin-Watson est définie comme suit : DW = et − et−1)2/ et2) :(1)


Supposons que t→∞ ; on aura et-12) = et2).

Et par conséquent, en développant l’expression (1), nous obtenons : DW = 2−2ê …

= -1 : DW = 4 (Autocorrélation négative)
Si ê = 0 : DW = 2 (Absence d’autocorrélation)
= +1 : DW = 0 (Autocorrélation positive)

TABLE DE DURBIN-WATSON

0 2 4

Autocorrélation DOUTE Absence DOUTE Autocorrélation


positive d’autocorrélation négative
dL dV 4-dV 4-dL

Comment déterminer les valeurs de dL et dV se trouvant sur la table de D-W ?


Il faut se référer au tableau de D-W ayant la forme ci-après :

Observation K=1 K=2 K=m


dL dV dL dV dL dV
6
7
8
9
10
11
12
13
14
15
16
17
18
.
.
.
n

Note : K : nombre de variables explicatives, constante exclue ;


n : nombre d’observations et α = 0.05.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 66


Lors d’une application, si vous tombez dans la zone de doute, dites-vous qu’il y a présomption
d’autocorrélation. Il n’y a absence d’autocorrélation que si cette condition est remplie : dV < D-W < 4−dV.

En cas d’autocorrélation, on peut utiliser d’autres méthodes la corriger :


- La méthode d’estimation de COCHRANE ORCUTT ou
- Celle de HILDRETH-LU.

ii. TEST DU h DE DURBIN


Soit le modèle ci-après : Yt = C +aYt-1 + bXt + ut
La statistique du h de Durbin est définie comme suit :

avec ê = 1− (DW :statistique Durbin-Watson calculée sur le modèle


linéaire autorégressif -QUICK→ ESTIMATION-).
n: nombre d’observations (sur Eviews, voir « Included observations »)
Sur le logiciel Eviews, la variance estimée du coefficient « a » (où « a » est toujours le coefficient de la
variable expliquée reprise dans les variables explicatives comme variable retardée), soit σâ2, correspond au
carré de « Std Error » car la variance correspond à l’écart-type élevé à la deuxième puissance.
Hypothèses :
H0 : Erreurs non corrélées
H1 : Erreurs corrélées
- Si |h| < 1.96 : rejeter l’hypothèse alternative (ce que les estimateurs sont BLUE) ;
- Si |h| ≥ 1.96 : rejeter l’hypothèse nulle.

VI. METHODE DE COCHRANE ORCUTT


La méthode de Cochrane Orcutt est une méthode d’estimation des paramètres qui doit être utilisée en cas
de correction des erreurs. Donc, on n’applique cette méthode que si les erreurs du modèle Y t = C +aYt-1 + bXt
+ ut sont corrélées.
Instruction Eviews :
Cliquer sur : QUICK→ ESTIMATE EQUATION→ écrire le modèle (par exemple : Yt C AR(-1) Xt)

Pour savoir si la convergence est assurée après combien d’itérations, il faut voir la ligne :
« convergence achieved after… »
Voir ensuite la statistique D-W , lire dV et dL et déterminer 4-dV et 4-dL.
Si l’on obtient : dV < D-W < 4−dV, ce qu’il s’agit d’une non corrélation des erreurs ; et par conséquent, la
procédure Cochrane Orcutt a corrigé l’autocorrélation des erreurs.

VII. TEST DE NORMALITE DE JARQUE BERA


La statistique de Jarque-Bera est définie comme suit : JB = n[S2/6 + (K-3)2/24]
Où S : Skewness (coefficient de dissymétrie) et
K : Kurtosis (coefficient d’aplatissement)
Instruction Eviews :
Sélectionner les séries que l’on veut tester et
Cliquer sur Quick→Group Statistics→ Descriptive Statistics→Common Sample→Series List puis cliquer sur
OK.
- On décide l’hypothèse de normalité au seuil de 5% :Si JB < 5.99 ou
si Probability (probabilité critique) > 0.05 ;
- On rejette l’hypothèse de normalité au seuil de 5% : Si JB ≥ 5.99 ou
si Probability (probabilité critique) ≤ 0.05 ;
Note : une série est dite log-normale si son logarithme est normal.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 67


VIII. TESTS DE STABILITE DES COEFFICIENTS DU MODELE
Ce test est important lorsqu’on cherche { comprendre les mécanismes de l’évolution d’une économie et
aussi, lorsqu’on se propose de réaliser des projections. L’économie est soumis { des chocs (chocs de
demande ou chocs d’offre), ainsi, au passage de temps l’instabilité des coefficients dans le modèle traduit
ces événements.

i. TEST DE CHOW(1960)
Le test de Chow, appelé aussi test de changement structurel examine si les coefficients d’une régression
sont stables par rapport aux observations utilisées. Comme tout médaille comporte un révère, le test de
Chow présente un inconvénient majeur : le choix du point de rupture par le modélisateur.
Soit,
H0 : modèle stable
H1 : modèle instable
Instruction Eviews :
Cliquer sur :
VIEW→ STABILITY TESTS→ CHOW BREAKPOINT TESTS→ choisir une année (par exemple : 1973)
Le point de rupture est 1973 (premier choc pétrolier)

Si toutes les probabilités critiques (Probability) sont supérieure à 0.05, ce que l’on rejette H1 ; donc, on
décide que le modèle est stable sur la période sous analyse.

ii. TESTS DE CUSUM DE BROW, DURBIN ET EVANS


CUSUM= Cumulative SUM (test fondé sur la somme cumulée des résidus récursifs).
Résidu récursif : c’est l’écart entre la prévision cumulée en t-1 par t et la réalisation en t.
Les tests CUSUM sont des tests graphiques permettant { d’admettre ou non l’hypothèse de stabilité.
L’avantage de ce type des tests, ce qu’ils permettent { l’analyste de mener une étude de la stabilité d’une
régression sans définir a priori la date de rupture sur les coefficients :

CRITERE DE STABILITE
- Si la courbe sort du corridor, ce que les coefficients du modèle sont instables
- Par contre, si la courbe ne sort pas du corridor, ce que les coefficients du modèle sont stables.
Note : Corridor = intervalles defines par les pointillés.

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 68


Instruction Eviews :
Cliquer sur :
VIEW→ STABILITY TESTS→ RECURSIVE ESTIMATES (OLS only) …

*Si Test CuSum : cliquer sur CUSUM Test;


*Si Test CuSum carré : cliquer sur CUSUM of Squares Test.

Jean-Paul TSASA Vangu


ADMINISTRATION DES AFFAIRES ETSCIENCES ECONOMIQUES
CENTRE CONGOLAIS-ALLEMAND DE MICROFINANCE/ DAAD
UNIVERSITE PROTESTANTE AU CONGO
[Année académique2009-2010]

Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 69

Vous aimerez peut-être aussi