Econometria de Las Series Temporales R Perez 2019

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 133

lOMoARcPSD|40821386

Econometria-de-Las-Series-Temporales R perez 2019

Economía (Universidad Politécnica de Madrid)

Escanea para abrir en Studocu

Studocu no está patrocinado ni avalado por ningún colegio o universidad.


Descargado por Adrian Delgado Torres ([email protected])
lOMoARcPSD|40821386

ECONOMETRIA DE LAS
SERIES TEMPORALES.
EJERCICIOS RESUELTOS
CON R

CÉSAR PÉREZ LÓPEZ

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

ÍNDICE

SERIES TEMPORALES Y SUS COMPONENTES ........................................................ 7


1.1 DATOS DE SERIES TEMPORALES .................................................................................... 7
1.2 DESCOMPOSICIÓN CLÁSICA DE UNA SERIE TEMPORAL ............................... 8
1.3 TENDENCIA DE UNA SERIE TEMPORAL: AJUSTE ANALÍTICO, MEDIAS
MÓVILES Y DIFERENCIAS ........................................................................................... 9
1.3.1 Método de ajuste analítico ....................................................................................... 9
1.3.2 Método de las medias móviles ............................................................................... 12
1.3.3 Método de las diferencias ...................................................................................... 13
1.4 TENDENCIA EN SERIES TEMPORALES CON R ................................................. 13
1.5 VARIACIONES ESTACIONALES: MEDIAS MÓVILES, DIFERENCIAS
ESTACIONALES Y VARIABLES FICTICIAS ............................................................. 17
1.5.1 Método de desestacionalización de la tendencia o método de las relaciones de
medias mensuales respecto a la tendencia .................................................................... 18
1.5.2 Métodos de desestacionalización del índice estacional ........................................ 19
1.5.3 Método de desestacionalización de las medias móviles............................................ 19
1.5.4 Método de las diferencias estacionales.................................................................... 20
1.5.5 Desestacionalización con variables ficticias ............................................................ 20
1.6 VARIACIONES ESTACIONALES CON R. DESCOMPOSICIÓN DE UNA SERIE
EN SUS COMPONENTES ............................................................................................. 21
1.7 VARIACIONES CÍCLICAS ..................................................................................... 26
1.8 VARIACIONES CÍCLICAS Y ESTACIONALES CON R: PERIODOGRAMA Y
DENSIDAD ESPECTRAL ............................................................................................. 28

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

4 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

MÉTODOS AUTOPROYECTIVOS DETERMINISTAS DE PREDICCIÓN ............ 35


2.1 PREDICCIÓN Y SUAVIZADO DE SERIES TEMPORALES............................................................. 35
2.2 MÉTODOS AUTOPROYECTIVOS DETERMINISTAS DE PREDICCIÓN ............ 36
2.2.1 Suavizado por medias móviles ............................................................................... 36
2.2.2 Suavizado exponencial de Brown .......................................................................... 37
2.2.3 Suavizado lineal de Holt ........................................................................................ 38
2.2.4 Suavizado estacional de Winters ............................................................................ 39
2.3 PREDICCIONES INCONDICIONALES DETERMINISTAS CON R................................. 39

MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS DE PREDICCIÓN.


METODLOGÍA DE BOX-JENKINS .............................................................................. 47
3.1 PREDICCIONES INCONDICIONALES ESTOCÁSTICAS............................................................ 47
3.2 MODELOS ARIMA: PRIMEROS CONCEPTOS ........................................................ 48
3.2.1 Series temporales y procesos estocásticos. Características ........................................ 48
3.2.2 Procesos estocásticos estacionarios. Funciones de autocorrelación y
autocorrelación parcial ................................................................................................ 49
3.2.3 Series temporales estacionarias. Detección de la estacionariedad ..................... 51
3.2.4 Series temporales estacionales. Detección de la estacionalidad a partir de las funciones de
autocorrelación y autocorrelación parcial ................................................................................... 54
3.3 ANÁLISIS DE LA ESTACIONARIEDAD Y ESTACIONALIDAD CON R ......... 54
3.4 MODELOS AUTOREGRESIVOS AR(P) ................................................................. 58
3.5 MODELOS DE MEDIAS MÓVILES MA(Q) ........................................................... 60
3.6 MODELOS ARMA(P,Q) ........................................................................................... 66
3.7 MODELOS ARIMA(P,D,Q) ....................................................................................... 67
3.8 LA METODOLOGÍABOX JENKINS EN MODELOS ARIMA ............................................ 67
3.8.1 Identificación de modelos ARIMA .................................................................... 71
3.8.2 Estimación de modelos ARIMA(p,d,q).............................................................. 72
3.8.3 Diagnóstico, validación o contraste de modelos ARIMA(p,d,q) ............................................ 73
3.8.4 Predicción en modelos ARIMA ......................................................................... 74
3.9 MODELOS ARIMA CON R. IDENTIFICACIÓN, ESTIMACIÓN, DIAGNOSIS Y
PREDICCIONES ................................................................................................................ 75

MODELOS ARIMA ESTACIONALES Y GENERALES. IDENTIFICACIÓN,


ESTIMACIÓN, DIAGNOSIS Y PREDICCIÓN. METODOLOGÍA BOX JENKINS 81
4.1 SERIES TEMPORALES ESTACIONALES. DETECCIÓN DE LA ESTACIONALIDAD ............................. 81
4.2 MODELOS ESTACIONALES PUROS.......................................................................... 83
4.2.1 Modelos autoregresivos estacionales AR(P)s ................................................... 84
4.2.2 Modelos de medias móviles estacionales MA(Q)s ............................................ 85
4.2.3 Modelos estacionales ARMA(P,Q)s .................................................................. 87

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

ÍNDICE 5

4.2.4 Modelos ARIMA(P,D,Q)s estacionales puros ................................................... 88


4.2.5 Identificación de modelos estacionales puros .................................................... 89
4.3 MODELOS ESTACIONALES GENERALES ................................................................ 91
4.3.1 Modelos estacionales generales con parte regular autorregresiva. Identificación .... 91
4.3.2 Modelos estacionales generales con parte regular de media móvil. Identificación... 94
4.3.3 Identificación de modelos estacionales ARIMA(p,d,q)(P,D,Q)s ....................... 98
4.3.4 Estimación de modelos ARIMA(p,d,q)(P,D,Q)s ............................................. 100
4.3.5 Validación de modelos ARIMA(p,d,q)(P,D,Q)s y predicción ..................................... 101
4.4 R Y LA IDENTIFICACIÓN DE MODELOS ARIMA(P,D,Q)(P,D,Q)S.............................. 102

ANÁLISIS DE LA INTERVENCIÓN Y MODELOS DE LA FUNCIÓN DE


TRANSFERENCIA. ........................................................................................................ 111
5.1 MODELOS DE INTERVENCIÓN .................................................................................... 111
5.2 VALORES ATÍPICOS (OUTLIERS)............................................................................ 112
5.2.1 Tipos de outliers ................................................................................................. 112
5.2.2 Outliers aditivos (AO) ......................................................................................... 113
5.2.3 Outliers innovacionales (IO) ................................................................................ 113
5.2.4 Outliers de cambio en nivel (LS) .......................................................................... 114
5.2.5 Outliers de cambio temporal (TC) ........................................................................ 114
5.3 MODELO UNIVARIANTE DE LA FUNCIÓN DE TRANSFERENCIA O MODELO
ARX .............................................................................................................................. 115
5.3.1 Modelos de la función de transferencia estacionales .............................................. 118
5.4 R Y LOS MODELOS DE FUNCIÓN DE TRANSFERENCIA E INTERVENCIÓN ......... 119
5.4.1 Capítulo 6 ......................................................................................................... 123

CONJUNTOS DE DATOS ............................................................................................. 123

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

1Capítulo 1

SERIES TEMPORALES Y SUS COMPONENTES

1.1 DATOS DE SERIES TEMPORALES


Dentro de las estructuras de datos más importantes, típicas en el trabajo
econométrico aplicado, tenemos los datos de series temporales. Un conjunto de
datos de series temporales consiste en observaciones sobre una variable o
distintas variables a lo largo del tiempo. Ejemplos típicos de datos de series
temporales son el producto interior bruto, la oferta monetaria, los índices de
precios al consumo, las tasas anuales de homicidios o las cifras de venta de
automóviles. Dado que los acontecimientos pasados pueden tener influencia
sobre acontecimientos futuros, y los efectos retardados en el comportamiento de
los individuos son frecuentes en ciencias sociales, el tiempo es un parámetro
importante en los conjuntos de series temporales.

Hablando de economía, l0s datos de series temporales suelen utilizarse


más en el análisis macroeconómico, en contraposición a los datos de corte
transversal, que se utilizan sobre todo en análisis microeconómico. Las series
temporales suelen ser más difíciles de analizar que los datos de corte transversal
debido a que casi nunca podemos suponer que las observaciones económicas son
temporalmente independientes. La mayoría de las series temporales, ya sean
económicas o no, están relacionadas (a menudo fuertemente relacionadas) con su
historia reciente. Por ejemplo, nuestro conocimiento sobre el producto nacional
bruto del trimestre pasado nos dice bastante del nivel de PIB que podemos
esperar para el trimestre en curso ya que el PIB tiende a permanecer estable de un
trimestre a otro. Otra característica importante de los datos de series temporales
es la periodicidad con la que se recogen (semanal, mensual, trimestral, etc.) con

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

8 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

el hecho adicional de que muchas series temporales semanales, mensuales o


trimestrales muestran una característica estacional marcada que puede ser un
factor importante en la metodología del análisis de dichas series.

1.2 DESCOMPOSICIÓN CLÁSICA DE UNA SERIE


TEMPORAL

Una serie temporal es una sucesión de valores en el tiempo. Designaremos


una serie temporal por Yik, donde el índice i toma los valores 1, 2, ..., N
representando por ejemplo años, y el índice k toma los valores 1, 2, ..., m
representando por ejemplo meses (m = 12) o trimestres (m = 4), o cualquier otra
fracción de año. La teoría clásica considera una serie de tiempo formada por cuatro
componentes teóricas: tendencia, variaciones estacionales, variaciones cíclicas y
variaciones residuales (Figura 1-1).
La tendencia viene dada por el movimiento general a largo plazo de la
serie. Designaremos a la tendencia por Tik. Las variaciones estacionales son
oscilaciones que se producen con un período igual o inferior a un año, y que se
reproducen de manera reconocible en los diferentes años. Designaremos a las
variaciones estacionales por Eik. Las variaciones cíclicas son oscilaciones que se
producen con un período superior al año, y que se deben principalmente a la
alternancia de etapas largas (ciclos) en las que se repite el comportamiento de la
serie. Designaremos a las variaciones cíclicas por Cik. Las variaciones residuales o
irregulares son movimientos en la serie que no muestran un carácter periódico
reconocible y que son originados por fenómenos singulares que afectan a la
variable en estudio de manera casual y no permanente. Designaremos a las
variaciones residuales por Rik.
Las componentes teóricas de una serie temporal pueden combinarse de
diferentes formas, dando lugar a distintos esquemas de formación de la serie. El
esquema aditivo supone que Yik = Tik + Cik + Eik + Rik; el esquema multiplicativo
supone que Yik = Tik.Cik.Eik.Rik; el esquema mixto supone que Yik = Tik.Cik.Eik + Rik.
Un supuesto fundamental del análisis clásico es la independencia de las variaciones
residuales respecto de las demás componentes.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 9

Figura 1-1

1.3 TENDENCIA DE UNA SERIE TEMPORAL: AJUSTE


ANALÍTICO, MEDIAS MÓVILES Y DIFERENCIAS

Centrándonos ya en el análisis de la tendencia, designaremos a la serie


temporal por Zt, dependiendo sólo del índice t (período de tiempo principal), ya que de
lo que se trata es de aislar el movimiento a largo plazo de la serie (no usamos el otro
subíndice porque, al hacer un estudio a largo plazo, no es relevante la subdivisión de
cada período principal en subperíodos).

1.3.1 Método de ajuste analítico


Para hallar la tendencia de una serie temporal mediante ajuste analítico,
realizamos un ajuste por regresión de los valores de la serie a una función del
tiempo que sea sencilla, y que recoja de manera satisfactoria la marcha general
del fenómeno representado por la serie temporal. Es común considerar entre otras
las funciones de ajuste Z(t) = a + bt (lineal), Z(t) = a + bt + ct2 (cuadrática), y Z(t)
= Exp(a+bt) (exponencial). No obstante pueden realizarse ajustes a tendencias de
todo tipo (logarítmicas, semilogarítmicas, polinómicas, potenciales, hiperbólicas...).

Tendencia lineal: Una línea de tendencia lineal es una línea recta Z(t) = a + bt
que se ajusta correctamente a los datos. Una línea de tendencia lineal
normalmente muestra que algo aumenta o disminuye a un ritmo constante. En el
ejemplo de la Figura 1-2, el ajuste de tendencia lineal muestra que las inversión

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

10 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

se ha incrementado de manera constante a lo largo del tiempo. Observe que el


valor R2 es 0,924, lo que indica es un buen ajuste de la línea respecto a los datos.

Figura 1-2
Tendencia logarítmica: Una línea de tendencia logarítmica Z(t) = klog(a+bt)+c es
una línea curva muy útil cuando el índice de cambios de los datos aumenta o
disminuye rápidamente y, después, se estabiliza. Esta línea de tendencia
logarítmica puede utilizar valores positivos o negativos. En el siguiente ejemplo
(Figura 1-3), se utiliza una línea de tendencia logarítmica para mostrar el
crecimiento previsto de la inversión. Observe que el valor R2 es 0,7884, lo que
indica un ajuste relativamente bueno de la línea respecto a los datos.

Figura 1-3
Tendencia polinómica: Una línea de tendencia polinómica Z(t) = a + bt + ct2
+…+ ctn es una línea curva que se utiliza cuando los datos fluctúan según la
ecuación de un polinomio. Es útil, por ejemplo, para analizar las pérdidas y
ganancias de un conjunto de datos grande. Una línea de tendencia polinómica de
orden 2 suele tener sólo un máximo o un mínimo. Una de orden 3 normalmente
tiene uno o dos máximos o mínimos. El orden 4 tiene más de tres. En el siguiente
ejemplo (Figura 1-4) se muestra una línea de tendencia polinómica de orden 5.
Observe que el valor R2 es 0,9366, que produce un buen ajuste de la línea respecto
a los datos.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 11

Figura 1-4
Tendencia potencial: Una línea de tendencia de potencia es una línea curva Z(t) =
atb que se utiliza con conjuntos de datos que comparan medidas que aumentan a un
ritmo concreto; por ejemplo, la aceleración de un automóvil de carreras a intervalos
de un segundo. No es posible crear una línea de tendencia de potencia si los datos
contienen valores cero o negativos. En el siguiente ejemplo (Figura 1-5) se muestra
el ajuste a una tendencia potencial de la evolución de una inversión.

Figura 1-5

Tendencia exponencial: Una línea de tendencia exponencial es una línea curva


Z(t) = Exp(a+bt) que es muy útil cuando los valores de los datos aumentan o
disminuyen a intervalos cada vez mayores. No es posible crear una línea de tendencia
exponencial si los datos contienen valores cero o negativos. En el siguiente ejemplo
(Figura 1-6) se utiliza una línea de tendencia exponencial para mostrar la evolución de
una inversión. El valor R2 es 0,91051, es decir, la línea se ajusta muy bien a los datos.

Figura 1-6

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

12 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Tendencia de media móvil: Una línea de tendencia de media móvil atenúa las
fluctuaciones en los datos para mostrar con mayor claridad la trama o la tendencia.
Una media móvil tiene un determinado Período u Orden. Por ejemplo, si el valor
de Período está establecido en 2, el promedio de los dos primeros puntos de datos
se utiliza como el primer punto en la línea de tendencia de media móvil. El
promedio de los puntos de los datos segundo y tercero se utiliza como el segundo
punto de la línea de tendencia, etc. En la Figura 1-7 se muestran la líneas de
tendencia de medias móviles de períodos 4 y 5 para una serie con datos de
inversiones.

Figura 1-7

1.3.2 Método de las medias móviles


El método de las medias móviles de orden p analiza la tendencia de una
serie temporal a partir del resumen de los datos iniciales mediante determinadas
medias de los mismos elaboradas de la siguiente forma:
Si p es impar se forman medias relativas a los instantes (p+1)/2, (p+3)/2,
(p+5)/2, ... (que serán valores enteros porque p es impar). La serie de medias es la
siguiente:

y1 + y 2 +  y p y 2 + y3 +  y p +1 y3 + y3 +  y p + 2
y p +1 = , y p +3 = , y p +5 = ,
2
p 2
p 2
p

Si p es par se forman medias relativas a los instantes (p+1)/2, (p+3)/2, (p+5)/2,


... (que no serán valores enteros porque p es par). A continuación se hallan nuevas
medias móviles entre cada dos medias móviles originales consecutivas, que serán ahora
relativas a los instantes (p+2)/2, (p+4)/2, (p+6)/2, ... (que ya serán valores enteros
porque p es par). La serie de medias móviles se observa a continuación.
y p +1 + y p + 3 y p +3 + y p +5
y p+2 = 2 2
, y p+4 = 2 2
,
2
p 2
p

Una vez obtenida la serie de medias móviles, la tendencia será la línea que las
une.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 13

1.3.3 Método de las diferencias


Consiste en derivar de la serie original yt una nueva serie zt obtenida como
la diferencia entre el valor de la variable en el momento actual y el valor en el
momento inmediatamente anterior zt = yt – yt-1 = yt. Se puede comprobar si zt
crece o decrece a largo plazo, o si oscila alrededor de un mismo valor. En este
segundo caso la serie ya no tendría tendencia, pero en el primero habría que seguir
calculando una nueva serie de diferencias wt definida como wt = zt – zt-1 = zt =
yt = 2yt y así sucesivamente hasta encontrar un serie aleatoria sin tendencia.

1.4 TENDENCIA EN SERIES TEMPORALES CON R


R permite trabajar con los métodos de ajuste analítico de series temporales.
Para ello dispone del comando LM que realiza diversos ajustes de regresión.
Para ilustrar el procedimiento, a partir del archivo tendencia.sav, buscamos
el mejor ajuste polinómico, exponencial, potencial o logarítmico que explique la
evolución de la variable Z en función del tiempo t.

> library(foreign)
> tendencia=read.spss("C:/CURSOS/CURSOR/TENDENCIA.SAV")
> attach(tendencia)
> lineal=lm(Z~t)
> summary(lineal)

Call:
lm(formula = Z ~ t)

Residuals:
Min 1Q Median 3Q Max
-1.986 -1.260 -0.210 1.091 2.617

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 46.6427 0.7069 65.98 < 2e-16 ***
t 0.7887 0.0563 14.01 1.82e-11 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1

Residual standard error: 1.562 on 19 degrees of freedom


Multiple R-squared: 0.9117, Adjusted R-squared: 0.9071
F-statistic: 196.3 on 1 and 19 DF, p-value: 1.82e-11

Observamos que el ajuste al modelo de tendencia lineal es bastante bueno


con un valor alto de R2 ajustado y con una significatividad conjunta e individual de
los parámetros muy alta (p-valores de la F y de la T prácticamente nulos). La
ecuación de la tendencia es:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

14 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Z(t) = 46,64267 +0,7887 t

El problema de este ajuste es que presenta autocorrelación tal y como se


observa a continuación.

> durbinWatsonTest(lineal)
lag Autocorrelation D-W Statistic p-value
1 0.8392503 0.2792645 0
Alternative hypothesis: rho != 0

El estadístico de Durbin Watson vale 0,839 que está muy alejado del valor
óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste lineal no es válida.

A continuación se presenta el ajuste del modelo logarítmico.


> logaritmico=lm(Z~log(t))
> summary(logaritmico)

Call:
lm(formula = Z ~ log(t))

Residuals:
Min 1Q Median 3Q Max
-3.1198 -1.2791 0.1188 1.3621 4.4825

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 42.7475 1.2341 34.64 < 2e-16 ***
log(t) 5.8171 0.5358 10.86 1.38e-09 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1

Residual standard error: 1.959 on 19 degrees of freedom


Multiple R-squared: 0.8612, Adjusted R-squared: 0.8539
F-statistic: 117.9 on 1 and 19 DF, p-value: 1.376e-09

> durbinWatsonTest(logaritmico)
lag Autocorrelation D-W Statistic p-value
1 0.6449312 0.4091078 0
Alternative hypothesis: rho != 0

Observamos que el ajuste al modelo de tendencia logarítmico también es


bastante bueno con un valor alto de R2 ajustado y con una significatividad conjunta
e individual de los parámetros muy alta (p-valores de la F y de la T prácticamente
nulos). La ecuación de la tendencia es:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 15

Z(t) = 42,7475 +5,817 Ln(t)

Pero el estadístico de Durbin Watson vale 0,409 que está muy alejado del
valor óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste logarítmico no es válida.

A continuación se presenta el ajuste del modelo cuadrático.

> cuadratico=lm(Z~t+I(t^2))
> summary(cuadratico)

Call:
lm(formula = Z ~ t + I(t^2))

Residuals:
Min 1Q Median 3Q Max
-1.6166 -0.8232 -0.1919 1.1595 1.9788

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 44.037579 0.850669 51.768 < 2e-16 ***
t 1.468263 0.178107 8.244 1.59e-07 ***
I(t^2) -0.030890 0.007863 -3.929 0.000984 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1

Residual standard error: 1.178 on 18 degrees of freedom


Multiple R-squared: 0.9525, Adjusted R-squared: 0.9472
F-statistic: 180.4 on 2 and 18 DF, p-value: 1.235e-12

> durbinWatsonTest(cuadratico)
lag Autocorrelation D-W Statistic p-value
1 0.6627711 0.5379783 0
Alternative hypothesis: rho != 0

Observamos que el ajuste al modelo de tendencia cuadrática es bastante


bueno con un valor alto de R2 ajustado y con una significatividad conjunta e
individual de los parámetros muy alta (p-valores de la F y de la T prácticamente
nulos). La ecuación de ajuste es:

Z(t) = 44,037579 +1,468263 t -0,03890 t2

Pero el estadístico de Durbin Watson vale 0,537 que está muy alejado del
valor óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste cuadrático no es válida.

A continuación se presenta el ajuste del modelo cúbico.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

16 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> cubico=lm(Z~t+I(t^2)+I(t^3))
> summary(cubico)

Call:
lm(formula = Z ~ t + I(t^2) + I(t^3))

Residuals:
Min 1Q Median 3Q Max
-1.9071 -0.8736 -0.1139 0.6743 1.7696

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 46.164620 1.065092 43.343 <2e-16 ***
t 0.427162 0.409550 1.043 0.3116
I(t^2) 0.084710 0.042733 1.982 0.0638 .
I(t^3) -0.003503 0.001279 -2.739 0.0140 *
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1

Residual standard error: 1.009 on 17 degrees of freedom


Multiple R-squared: 0.967, Adjusted R-squared: 0.9612
F-statistic: 166.2 on 3 and 17 DF, p-value: 8.564e-13

> durbinWatsonTest(cubico)
lag Autocorrelation D-W Statistic p-value
1 0.5121171 0.7770272 0
Alternative hypothesis: rho != 0

Observamos que el ajuste al modelo de tendencia cúbica presenta


problemas de significatividad en la variable t, por lo que no será elegido. Además,
el estadístico de Durbin Watson vale 0,77 que está muy alejado del valor óptimo 2
y adicionalmente el p-valor es muy pequeño.
A continuación se presenta el ajuste del modelo exponencial.
> exponencial=lm(log(Z)~t)
> summary(exponencial)
Call:
lm(formula = log(Z) ~ t)
Residuals:
Min 1Q Median 3Q Max
-0.038189 -0.022108 -0.006695 0.024185 0.047484

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 3.849041 0.013475 285.64 < 2e-16 ***
t 0.014532 0.001073 13.54 3.28e-11 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 17

Residual standard error: 0.02978 on 19 degrees of freedom


Multiple R-squared: 0.9061, Adjusted R-squared: 0.9012
F-statistic: 183.4 on 1 and 19 DF, p-value: 3.281e-11

> durbinWatsonTest(exponencial)
lag Autocorrelation D-W Statistic p-value
1 0.8495733 0.2431753 0
Alternative hypothesis: rho != 0

Observamos que el ajuste al modelo exponencial es bastante bueno con un


valor alto de R2 ajustado y con una significatividad conjunta e individual de los
parámetros muy alta (p-valores de la F y de la T prácticamente nulos). La ecuación
de ajuste es:

Ln(Z(t)) = 3,849041 + 0,014532 t

que se puede escribir de la forma:

Z(t) = e 3,849041 + 0,014532 t

o lo que es lo mismo:

Z(t) = 46,94802 *1,014638t

Pero volemos a tener el problema del estadístico de Durbin Watson, que


vale 0,849 y que está muy alejado del valor óptimo 2 y adicionalmente el p-valor es
muy pequeño.

Hemos observado que no encontramos una ecuación algebráica que defina


la tendencia de nuestra serie y que nos permita hallar predicciones.

1.5 VARIACIONES ESTACIONALES: MEDIAS


MÓVILES, DIFERENCIAS ESTACIONALES Y
VARIABLES FICTICIAS
Ya sabemos que las variaciones estacionales son oscilaciones que se
producen con un período igual o inferior a un año, y que se reproducen de manera
reconocible en los diferentes años.

El motivo principal que induce a estudiar la componente estacional es que en


la inmensa mayoría de las series económicas dicha componente provoca una
distorsión de su verdadero movimiento. Para eliminar estas distorsiones y captar el

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

18 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

movimiento real de la serie, es necesario eliminar las oscilaciones estacionales


desestacionalizando la serie.

La desestacionalización es una tarea no trivial que ha dado lugar a multitud


de estudios y algoritmos, entre los que destacan los programas X11 y X12 del
Bureau of the Census de Estados Unidos. A nivel trivial, existen varios métodos de
desestacionalización. Los más sencillos son el método de la tendencia, el método
de las medias móviles y el método de las diferencias estacionales, a los que
intentaremos aproximarnos aquí.

Cuando se representa una serie temporal mediante yt, se suponen todas las
observaciones ordenadas una detrás de otra tal y como se van produciendo (t = 1, 2,
…, T). Cuando representamos una serie temporal por yik , estamos considerando
explícitamente el año i (i = 1, 2, …, N) y la estación del año k (k = 1, 2, …., m).
Cuando la estación es el año, m = 12 , y cuando es el trimestre, m = 4. Siempre se
tiene que T = Nm

1.5.1 Método de desestacionalización de la tendencia o método


de las relaciones de medias mensuales respecto a la
tendencia
El método de desestacionalización de la tendencia consta de los pasos
siguientes:
• Ajustar una recta por mínimos cuadrados y i . = a − bi a las medias anuales de
m

y
1
los datos observados yi. = ik .
m k =1
N

y
1
• Calcular las medias mensuales en los diferentes años y.k = ik k = 1, 2,
N i =1

…, m.

• Aislar la componente estacional obteniendo la serie de medias mensuales


b(k − 1)
corregidas y '.k = y.k − .
m
y '.1 + y '.2 +  + y '.m
• Calcular la media global corregida y ' = .
m

• Si el esquema es multiplicativo, se calculan los índices de variación


y '.k
estacional I k = 100 y se desestacionaliza la serie dividiendo sus valores
y'

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 19

por los índices de variación estacional. La componente estacional es Eik =


Ik/100.

• Si el esquema es aditivo, la componente estacional del mes k es Eik = y '.k − y ' .

1.5.2 Métodos de desestacionalización del índice estacional


Existen varios métodos de desestacionalización basados en el cálculo de
índices estacionales. Aparte del explicado en el apartado anterior podemos citar un
método general de índice estacional que consta de los siguientes pasos:

• Dada la serie cronológica por meses, estaciones, etc., en varios años, se halla la
tendencia mediante el método de las medias móviles tomando un año de período.

• Se centran los valores así obtenidos en los instantes de tiempo originales.

• Se elimina la tendencia y la variación cíclica en ella incluida, dividiendo los


datos de la serie original por los valores de la tendencia en cada instante del
tiempo.

• Se eliminan las variaciones irregulares hallando las medias aritméticas de los


valores observados en cada período de repetición anual.

• Sobre estos últimos valores se calculan los índices de variación estacional en


forma de porcentajes.

• Se dividen los valores de la serie original por los índices de variación estacional
correspondienes, obteniéndose la serie temporal desestacionalizada.

1.5.3 Método de desestacionalización de las medias móviles


El método de desestacionalización de las medias móviles consiste en
obtener la componente extraestacional mediante un ajuste de la serie original por
medias móviles de orden m para eliminar las variaciones estacionales. Un
procedimiento de medias móviles simples para el ajuste estacional podría ser el
siguiente:

Sea Xt (t = 1,2,...,n) una serie temporal estacional de período s (s = 4 para


datos trimestrales y s = 12 para períodos mensuales). Una serie de medias móviles
centrada de s puntos, Xt*, se obtiene a través de los siguientes pasos para s par:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

20 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

s/2

x t+ j
j = − ( s / 2 ) +1  s s s
Para medias móviles de s puntos xt*+0,5 =  t = , + 1,  , n − 
s  2 2 2

Para medias móviles centradas de s puntos


x t*− 0,5 + x t*+ 0,5  s s s
x t* =  t = + 1, + 2,  , n − 
2  2 2 2

1.5.4 Método de las diferencias estacionales


El método de desestacionalización de las diferencias estacionales permite
eliminar la mayor parte del efecto estacional de una serie, y consiste en obtener la serie
de diferencias de orden m (período estacional), definida como zt = yt – yt − m. De todos
modos, es conveniente recordar que en cada diferenciación de orden m perdemos m
observaciones de la serie original.

1.5.5 Desestacionalización con variables ficticias


Son muy habituales las series de tiempo económicas basadas en
información mensual o trimestral que presentan patrones estacionales. Suele ser
útil eliminar la componente estacional de las series de tiempo con el fin de poderse
concentrar en componentes más importantes como la tendencia. Ya sabemos que el
proceso de eliminar la componente estacional de una serie de tiempo se conoce como
desestacionalización o ajuste estacional y la serie obtenida se denomina serie
desestacionalizada. Hay muchos métodos para desestacionalizar una serie temporal
entre los que se encuentra el método de las variables ficticias dicotómicas.

Supongamos por ejemplo que tenemos una serie temporal Yt con


estacionalidad trimestral. Para desestacionalizarla consideramos el modelo:

Yt = 1D1t + 2D2t + 3D3t + 4D4t + ut

1 en el trimestrei
Dit =  i = 1,,4
0 en el resto
Se observa que en el modelo se omite la constante para evitar la
colinealidad perfecta. Para que el efecto estacional esté presente, los parámetros
estimados del modelo anterior han de ser significativamente distintos de cero
individualmente.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 21

Los residuos estimados de la regresión anterior uˆt = Yt − Yˆt serán los


valores de la serie desestacionalizada.

1.6 VARIACIONES ESTACIONALES CON R.


DESCOMPOSICIÓN DE UNA SERIE EN SUS
COMPONENTES

R, a través del comando decompose, permite el análisis de las variaciones


estacionales de las series temporales. Para ilustrar este procedimiento consideramos
el fichero estacional.sav que contiene una variable X que define los datos de una
serie temporal de estacionalidad mensual desde el 1 de enero de 1968 hasta el 1 de
octubre de 1981. Se trata de estudiar la estacionalidad de esta serie y realizar una
descomposición de la misma en sus componentes. Las primeras tareas son cargar el
archivo que contiene los datos, definir la variable a analizar con estructura de serie
temporal con el comando ts y graficar la serie para ver su evolución con el comando
plot. La gráfica muestra una serie candidata a ser estacional.

> estacional=read.spss("C:/CURSOS/CURSOR/ESTACIONAL.SAV")
> attach(estacional)
> summary(estacional)
Length Class Mode
X 166 -none- numeric
YEAR_ 166 -none- numeric
MONTH_ 166 -none- numeric
DATE_ 166 -none- character
>
> serieX=ts(X,start=1968,frequency=12)
> plot(serieX)
200
150
serieX

100
50

1968 1970 1972 1974 1976 1978 1980 1982

Time

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

22 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

A continuación se realiza la descomposición de la serie en sus componentes


con el comando dcompose, observándose que se obtienen numérca y gráficamente la
componente estacional, la tendencia y la componente residual.

> descomposicion=decompose(serieX)
> summary(descomposicion)
Length Class Mode
x 166 ts numeric
seasonal 166 ts numeric
trend 166 ts numeric
random 166 ts numeric
figure 12 -none- numeric
type 1 -none- character
> plot(descomposicion)

Decomposition of additive time series


200
observed
150
100
180 50
trend
140
100
20
seasonal
0
-20
-40
20
random
0
-20
-40

1968 1970 1972 1974 1976 1978 1980 1982

Time

La siguiente tarea es ver numéricamente las diferentes componentes y


adicionalmente graficarlas de modo aislado para obtener detalles más claros de su
evolución.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 23

> seasonal
Jan Feb Mar Apr May Jun
1968 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1969 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1970 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1971 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1972 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1973 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1974 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1975 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1976 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1977 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1978 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1979 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1980 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1981 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
Jul Aug Sep Oct Nov Dec
1968 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1969 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1970 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1971 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1972 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1973 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1974 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1975 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1976 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1977 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1978 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1979 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1980 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1981 17.274691 18.987191 8.472768 14.973409

> plot(seasonal)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

24 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> trend
Jan Feb Mar Apr May Jun Jul
1968 NA NA NA NA NA NA 126.50000
1969 129.41667 128.32083 127.62500 126.69167 124.61250 122.74583 120.77083
1970 111.10833 111.91667 112.14167 112.93750 115.01250 117.91250 121.30833
1971 149.20417 154.59167 159.53750 162.94167 166.50833 169.73750 172.62083
1972 187.49167 189.00417 191.22500 193.97500 196.00833 196.44167 196.27083
1973 192.92083 191.45000 187.86667 182.70000 177.62500 172.93750 167.84583
1974 138.00833 131.25417 125.57917 121.39167 116.86667 112.97083 110.31667
1975 89.54583 89.50000 90.32500 92.01250 94.04167 95.82500 97.38333
1976 114.48750 116.40000 119.25417 121.95000 124.24167 126.80417 128.47500
1977 149.35833 153.57917 156.66250 159.60417 162.62083 164.68333 165.89583
1978 168.85833 168.82917 168.81667 168.89167 169.00833 168.76250 168.34167
1979 157.27500 155.25000 153.69167 152.02917 149.40417 146.57917 144.78750
1980 116.48750 112.96667 110.22500 108.48750 107.56667 107.50417 108.15833
1981 111.88333 109.22500 105.17083 100.16250 NA NA NA
Aug Sep Oct Nov Dec
1968 127.60417 128.05417 128.15000 128.63333 129.63333
1969 118.65000 117.27500 115.28333 112.73750 110.96250
1970 124.31250 127.69167 132.93750 139.02917 144.53333
1971 176.30833 179.89167 181.82917 183.40417 185.76250
1972 195.57500 194.82083 194.38333 194.45000 193.93750
1973 164.06667 159.74167 154.72500 149.30000 143.46667
1974 106.85417 102.71667 98.27917 94.32917 91.40417
1975 99.53333 102.59167 105.82083 108.78333 111.93750
1976 129.78333 133.02500 137.20000 141.30000 145.33333
1977 165.73333 165.20417 165.77917 166.82083 167.99167
1978 167.62500 166.12500 163.80417 161.37083 159.45000
1979 143.96667 140.95000 135.42500 128.66667 121.46667
1980 108.30000 108.91250 110.97500 112.85000 113.16667
1981 NA NA NA

> plot(trend)
200
180
160
trend

140
120
100

1968 1970 1972 1974 1976 1978 1980 1982

Time

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 25

> random
Jan Feb Mar Apr May
1968 NA NA NA NA NA
1969 19.60639913 4.55928374 2.70383502 12.97210426 2.80458289
1970 2.81473246 5.16345041 0.98716836 -3.87372908 -18.09541711
1971 8.91889913 -9.61154959 6.79133502 18.82210426 3.90874955
1972 9.13139913 5.97595041 11.10383502 -1.71122908 1.70874955
1973 1.20223246 -10.66988292 10.56216836 2.96377092 28.29208289
1974 -5.98526754 20.92595041 -2.35033164 19.07210426 4.05041622
1975 14.07723246 7.98011708 -11.69616498 -13.44872908 -6.02458378
1976 5.53556579 16.28011708 -2.42533164 -4.08622908 -4.42458378
1977 -20.53526754 1.70095041 15.36633502 3.25960426 10.59624955
1978 -32.73526754 -24.74904959 1.71216836 9.27210426 13.90874955
1979 -21.55193421 -27.96988292 -2.36283164 -10.36539574 11.61291622
1980 4.13556579 9.71345041 -26.69616498 -31.62372908 -43.94958378
1981 20.13973246 5.45511708 1.05800169 3.50127092 NA
Jun Jul Aug Sep Oct
1968 NA -3.97469062 -9.99135728 -2.22693421 -2.32340856
1969 -2.82979211 -12.84552395 -12.73719062 3.55223246 -6.85674190
1970 -10.09645878 2.21697605 -14.59969062 -5.26443421 -7.01090856
1971 -3.32145878 4.40447605 9.20447605 -14.56443421 -17.10257523
1972 -0.72562545 -7.04552395 14.03780938 -0.29360087 7.14325810
1973 2.27854122 17.47947605 14.14614272 -19.81443421 -22.59840856
1974 7.24520789 -0.99135728 -14.74135728 -12.88943421 -16.55257523
1975 -12.90895878 4.64197605 -1.22052395 0.83556579 2.80575810
1976 0.01187455 -9.14969062 -2.87052395 10.30223246 -3.77340856
1977 5.53270789 6.62947605 9.27947605 4.02306579 12.34742477
1978 19.85354122 6.58364272 4.28780938 5.90223246 13.32242477
1979 17.83687455 2.13780938 7.34614272 14.27723246 18.60159144
1980 -18.48812545 -5.33302395 2.61280938 20.91473246 26.75159144
1981 NA NA NA NA NA
Nov Dec
1968 9.31505297 1.69742477
1969 -7.28911369 8.06825810
1970 -1.28078036 11.79742477
1971 1.14421964 1.26825810
1972 2.09838631 -8.50674190
1973 -5.15161369 -18.13590856
1974 -8.38078036 -1.37340856
1975 -1.03494703 -0.90674190
1976 -3.35161369 -3.00257523
1977 -1.17244703 -3.86090856
1978 8.07755297 -5.01924190
1979 0.88171964 5.06409144
1980 10.89838631 17.66409144
1981

Al graficar los residios observaremos que constituyen una secuencia de


números aleatorios y que están centrados en el valor cero.

> plot(random)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

26 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

20
0
random

-20
-40

1968 1970 1972 1974 1976 1978 1980 1982

Time

1.7 VARIACIONES CÍCLICAS

La componente cíclica de una serie temporal es la más difícil de detectar,


pues a diferencia de la tendencia, que es un movimiento a largo plazo muy general,
y de las variaciones estacionales, que tienen un período fijo, las variaciones cíclicas
tienen un período no fácilmente identificable y en muchos casos incluso variable,
siendo frecuente la existencia de ciclos que se superponen, lo que hace todavía más
difícil su identificación.

En la práctica, para identificar el ciclo, suele eliminarse de la serie la


tendencia y las variaciones estacionales, y después analizar la parte restante de la
serie, que puede denotarse por xik = cik + rik. Incluso puede prescindirse del doble
subíndice, ya que no existe variación estacional. De esta forma se intentarán
detectar los ciclos en la serie xt, mediante determinados métodos entre los que
destaca el análisis armónico.

Una onda armónica tiene la ecuación Xj = A Cos wj + B Sen wj, o también


puede expresarse como Xj = R Cos(wj - ). Ambas expresiones son equivalentes
mediante las relaciones R = (A2 + B2)1/2 y  = Arctan (B/A). R se denomina
amplitud y proporciona el valor máximo de Xj. El valor 2/ es el período o
intervalo de tiempo necesario para que se produzca una oscilación completa; /2
es la frecuencia o número de oscilaciones que se producen entre dos momentos

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 27

consecutivos de tiempo;  es el ángulo expresado en radianes, y  es la fase que


marca el valor de Xj en el origen. La Figura 1-28 aclara estos conceptos.

Figura 1-28

El trabajo fundamental en el análisis del ciclo es detectar en la serie


original alguna función de tipo armónico o similar. Para detectar la existencia de un
ciclo de orden p se suele formar el cuadro de la Figura 1-29.

1ª oscilación x1 x2 xp
2ª oscilación x p +1 x p+2 x2 p

   
q ª oscilación x ( q −1) p +1 x ( q −1) p + 2 x qp
Medias x1 x2  xp
Figura 1-29

La fila j-ésima de la tabla anterior recoge los p valores que forman la j-


ésima oscilación, y el número de osilaciones q se obtiene dividiendo el número de
observaciones de la serie xt por el período pj. La última fila de la tabla presenta las
medias de los primeros elementos de cada oscilación, el valor medio de los
segundos, etc.
La siguiente tarea es ajustar a los datos medios una expresión de la forma:
2 2
x j = A0 + A cos j + B cos j j = 1,2,, p
p p

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

28 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

A0 es una constante que se incluye para mejorar el ajuste, y 2/p se incluye


porque si el período es 2/ entonces  = 2/p.
El ajuste se realiza por mínimos cuadrados y las soluciones son las
siguientes:
p
xj p
2j p
2j
   x sen
2 2
A0 = , A= x j cos , B= j
j =1 p p j =1 p p j =1 p

Para distintos valores de p se obtienen distintas amplitudes R(p)


correspondientes a cada período. Los puntos (p, R(p)) forman el periodograma.
El periodograma transforma la serie temporal de su dominio natural, que
es el tiempo, al dominio de las frecuencias (a los valores de la serie se le aplican
transformadas de Fourier). Si no hay picos destacables en el periodograma no hay
estacionalidad y cada pico destacable identifica un período que incluso puede ser
un ciclo. A cada amplitud destacable le corresponde una frecuencia cuya inversa es
el período estacional o cíclico.

Luego el periodograma es un instrumento que identifica la longitud del


período estacional y en su caso la del ciclo. Las amplitudes más fuertes
(correspondientes a valores más bajos de las frecuencias p) suelen corresponder a
ciclos, y las menos fuertes (correspondientes a valores no tan bajos de las
frecuencias) suelen corresponder a estaciones.
También suele utilizarse el periodograma acumulativo que resulta de
representar en el eje de abscisas las frecuencias y en el eje de ordenadas las
amplitudes acumuladas.
Para una serie aleatoria el periodograma acumulativo coincide con la
diagonal del primer cuadrante. Desvíos bruscos de la diagonal provocan presencia
de ciclos o estaciones para las respectivas frecuencias, que serán ciclos cuando las
frecuencias sean bajas.
Existen diversos métodos para eliminar el ciclo en una serie temporal entre
los que se encuentra el filtro de Hodrick y Prescot.

1.8 VARIACIONES CÍCLICAS Y ESTACIONALES CON


R: PERIODOGRAMA Y DENSIDAD ESPECTRAL
R permite trabajar con variaciones cíclicas y estacionales de series
temporales mediante la teoría espectral a partir del periodograma. Para ello se
considera la serie en el dominio de las frecuencias y se representa su densidad
espectral o periodograma a través de la transformada de Fourier de la serie.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 29

Un periodograma plano indica ausencia de estacionalidad y ciclo en la serie.


Un periodograma con fluctuaciones muy acusadas (picos) puede indicar presencia de
estacionalidad y ciclo en la serie. El primer pico acusado suele corresponder a un
punto cuya abscisa representa la frecuencia del ciclo. La inversa de esta frecuencia
representará el período del ciclo, siempre y cuando sea mayor que 12. El segundo
pico acusado del periodograma suele corresponder a un punto cuya abscisa
representa la frecuencia de la estación. La inversa de esta frecuencia representará el
período estacional de la serie, siempre y cuando sea menor o igual que 12.
Vamos a construir el periodograma de nuestra serie X contenida en el
archivo estacional.sav. Deduciremos a partir del periodograma la estación y el ciclo
de la serie.
> library(foreign)
> estacional=read.spss("C:/CURSOS/CURSOR/ESTACIONAL.SAV")
> attach(estacional)
> summary(estacional)
Length Class Mode
X 166 -none- numeric
YEAR_ 166 -none- numeric
MONTH_ 166 -none- numeric
DATE_ 166 -none- character
>
> windows()
> serieX=ts(X,start=c(1968,1),frequency=12)
> periodograma=spec.pgram(X)

Series: X
Raw Periodogram
10000
1000
spectrum

100
10
1

0.0 0.1 0.2 0.3 0.4 0.5

frequency
bandwidth = 0.0016

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

30 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

El primer pico alto del periodograma, correspondiente a la frecuencia 0,02


detecta el ciclo de la serie. Como el período es el inverso de la frecuencia, resulta que
el ciclo corresponde a un período de 1/0,02 = 50 meses (aproximadamente 4 años). El
segundo pico más alto del periodograma, correspondiente a la frecuencia 0,08 detecta
el período estacional de la serie. Como el período es el inverso de la frecuencia, resulta
que el período estacional corresponde a 1/0,08 = 12 meses.
Ejercicio 1-1. Una región de un determinado país ha experimentado en siete
años las siguientes entradas de turistas por estaciones en millones.
1978 1979 1980 1981 1982 1983 1984
Primavera 2 3 3 4 4 5 6
Verano 6 9 11 14 16 19 20
Otoño 3 3 4 4 5 5 6
Invierno 1 1 2 2 3 3 4

Analizar la estacionalidad de la serie y, si es necesario, desestacionalizarla a través


del método de las variables ficticias y otros métodos. Representar la serie original y
las serie desestacionalizada sobre los mismos ejes. Hallar los índices de variación
estacional y descomponer la serie en sus componentes.

Realizar la descomposición de la serie en sus componentes y la representación de los


gráficos espectrales a través de R partiendo del conjunto de datos turismo.sav que
recode los datos mostrados anteriormente

Como en R es necesario definir las series de tiempo como tales, la primera


tarea, después de cargar el archivo, es definir la variable Turistas como serie
temporal estacional trimestral desde el 1 de junio de 1978.

> library(foreign)
> turistas=read.spss("C:/CURSOS/CURSOR/TURISMO.SAV")
> attach(turistas)
> summary(turistas)
Length Class Mode
T 28 -none- numeric
Turistas 28 -none- numeric
YEAR_ 28 -none- numeric
QUARTER_ 28 -none- numeric
DATE_ 28 -none- character
ERR_1 28 -none- numeric
SAS_1 28 -none- numeric
SAF_1 28 -none- numeric
STC_1 28 -none- numeric

> windows()

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 31

> serieturistas=ts(Turistas,start=c(1978,5),frequency=4)

Ahora ya se puede ejecutar el procedimiento Descomposición estacional.

> descomposicion=decompose(serieturistas)
> summary(descomposicion)
Length Class Mode
x 28 ts numeric
seasonal 28 ts numeric
trend 28 ts numeric
random 28 ts numeric
figure 4 -none- numeric
type 1 -none- character
> plot(descomposicion)

Decomposition of additive time series


20
15
observed
10
5
9
8
7
trend
6
5
4
83
6
seasonal
4
2
0
-2
3 -4
2
random
1
0
-1
-2
-3

1979 1980 1981 1982 1983 1984 1985 1986

Time

Se observa un gráfico de la serie muy estacional, una tendencia creciente,


una componente estacional muy acusada y en error aleatorio.

Para analizar las variaciones cíclicas y estacionales analizamos el


periodograma de la serie.

> periodogram=spec.pgram(serieturistas)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

32 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Se observa que el periodograma tiene el segundo pico en f=0,25, luego la


estacíón corresponde a 1/0,25 = 4, es decir, la serie es estacional trimestral.

Ejercicio 1-2 Consideramos los datos de población de un país en varias décadas:


Población Año Década Población Año Década
3,895 1790 0 49,92 1880 9
5,267 1800 1 62,69 1890 10
7,182 1810 2 75,73 1900 11
9,566 1820 3 91,81 1910 12
12,834 1830 4 109,81 1920 13
16,985 1840 5 122,78 1930 14
23,069 1850 6 131,67 1940 15
31,278 1860 7 150,70 1950 16
38,416 1870 8 178,46 1960 17

Ajustar a los datos un modelo exponencial de evolución de población según el tiempo.


El problema se puede resolver con R a partir de los datos del archivo
poblacion.sav. Realizamos el ajuste exponencial que explique la evolución de la
variable Población en función del tiempo t expresado en décadas.

> library(foreign)
> poblacion=read.spss("C:/CURSOS/CURSOR/POBLACION.SAV")
> attach(poblacion)
> summary(poblacion)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 1. SERIES TEMPORALES Y SUS COMPONENTES 33

Length Class Mode


Población 32 -none- numeric
Año 32 -none- numeric
Década 32 -none- numeric

> exponencial=lm(log(Población)~Década)
> summary(exponencial)

Call:
lm(formula = log(Población) ~ Década)

Residuals:
Min 1Q Median 3Q Max
-0.3260 -0.1619 0.0280 0.1742 0.2217

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 1.639580 0.088453 18.54 3.08e-12 ***
Década 0.227696 0.008882 25.63 2.02e-14 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’
1

Residual standard error: 0.1955 on 16 degrees of freedom


(14 observations deleted due to missingness)
Multiple R-squared: 0.9762, Adjusted R-squared: 0.9747
F-statistic: 657.1 on 1 and 16 DF, p-value: 2.023e-14

Observamos que el ajuste al modelo exponencial es bastante bueno con un


valor alto de R2 ajustado y con una significatividad conjunta e individual de los
parámetros muy alta (p-valores de la F y de la T prácticamente nulos).

Pero el estadístico de Durbin Watson vale 0,773 que está muy alejado del
valor óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste de la población futura mediante
el modelo exponencial no es óptima.

> library("car", lib.loc="~/R/win-library/3.2")


> durbinWatsonTest(exponencial)
lag Autocorrelation D-W Statistic p-value
1 0.7737599 0.1505895 0
Alternative hypothesis: rho != 0

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

34 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Se observa que el modelo ajustado para obtener predicciones de


poblaciones futuras en función de la década tiene la ecuación siguiente:

Ln(Población) = 1,639580 + 0,227696 Década

Población = e1,63958+ 0,0227696Década


Sustituyendo los sucesivos valores de las décadas en la ecuación anterior se
van obteniendo las predicciones de poblaciones futuras. Se observa que en este
caso hemos utilizado las décadas como variable independiente en lugar de los años.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

2Capítulo 2

MÉTODOS AUTOPROYECTIVOS
DETERMINISTAS DE PREDICCIÓN

2.1 PREDICCIÓN Y SUAVIZADO DE SERIES TEMPORALES

Toda predicción es un intento de anticipar el futuro. En el contexto temporal,


y tratándose de procedimientos cuantitativos, puede hablarse inicialmente de dos clases
de predicciones: condicionales e incondicionales.

Las predicciones condicionales son las que se realizan mediante modelos


causales. Por ejemplo, en un modelo de regresión que relaciona dos variables, una
dependiente, Y, y otra independiente, X, las predicciones de Y están condicionadas a X,
es decir, se predice Y dada X.

Las predicciones incondicionales son las que se hacen mediante métodos


autoprotectivos (el modelo de predicción sólo incluye valores actuales,
pasados y futuros de la propia serie en estudio). Estos métodos pueden estar
basados en dos enfoques alternativos: el determinista, o clásico, y el
estocástico, o moderno (basado en la metodología de Box y Jenkins).

• El enfoque determinista es el que tratamos en este capítulo. El enfoque


determinista es más adecuado cuando se dispone de un número limitado de
observaciones, mientras que el enfoque estocástico es más adecuado cuando
las series son de mayor tamaño. El enfoque determinista está basado en
modelos no parámétricos en los cuales no se pone atención a la estructura
estocástica de la población de la cual se han extraído las observaciones de la

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

36 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

serie. Se trata de modelos de naturaleza más descriptiva en los que tiene menos
interés la teoría de la probabilidad, la inferencia estadística y la formalización
de los modelos econométricos.

• El enfoque estocástico se basa en la modelización econométrica formal.


Estamos aquí ante modelos estocásticos en los que se utiliza todo el aparato
formal probabilístico, inferencial y econométrico. El enfoque estocástico está
basado en modelos paramétricos en los que se tendrán en cuenta todas las
fases de la modelización econométrica, incluyendo la identificación,
estimación, diagnosis formal y predicción con los modelos. En el enfoque
estocástico se utiliza la metodología de Box y Jenkins.
Para cada tipo de predicciones (a corto, medio y largo plazo), existen
determinados métodos más adecuados. Por ejemplo, el análisis de tendencias es un
método para realizar predicciones a largo plazo, los modelos econométricos son
adecuados para hacer predicciones a corto y medio plazo, y los métodos
autoproyectivos son más adecuados para realizar predicciones a corto plazo.
Precisamente, en las predicciones a corto plazo es conveniente tener presentes también
las variaciones estacionales, lo mismo que en las predicciones a medio plazo es
conveniente tener presente también la componente cíclica.

2.2 MÉTODOS AUTOPROYECTIVOS DETERMINISTAS


DE PREDICCIÓN

2.2.1 Suavizado por medias móviles


Los métodos autoprotectivos deterministas se utilizan para suavizar
irregularidades y fluctuaciones de una serie temporal a fin de obtener la línea de
suavizado como señal clara libre de variaciones estacionales y óptima para la
predicción. Cuando no hay tendencia clara ni estacionalidad en la serie original, se
utiliza el suavizado por medias móviles. El método de medias móviles es un
procedimiento mecánico para suavizar las irregularidades y las fluctuaciones de una
serie temporal a fin de obtener la línea de tendencia. Dada la serie temporal Xt t = 1, 2,
…, T, se define la media móvil de orden, por ejemplo 5, como sigue:

Ts = (Xs−2+Xs−1+Xs+Xs+1+Xs+2)/5 s = 3, 4, …, T − 2
La serie temporal Ts es una versión suavizada de la Xt.
Si se elige bien el orden de la media móvil, Ts no contiene la componente
estacional, y será una representación correcta de las componentes a medio y largo plazo
(ciclo-tendencia). El método es equivalente a ajustar una tendencia lineal a cada cinco
puntos consecutivos de la serie inicial y tomar en cada ajuste solamente el punto central

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 2. MÉTODOS AUTOPROYECTIVOS DETERMINISTAS… 37

de la recta ajustada para alisar la serie original. Habitualmente, las medias móviles de
orden 4 o 5 suelen suavizar la serie lo suficiente como para intuir su tendencia y poder
hacer predicciones. Existen muchos tipos de medias móviles, algunos muy sofisticados,
que, como veremos, suelen estar implementados en el software.

2.2.2 Suavizado exponencial de Brown


Sea Xt el valor observado de la serie temporal (a la que vamos a aplicar el método
suavizado) en el instante t. Sea St(l) la predicción de Xt a horizonte l. St va a ser un
suavizado de la serie Xt. El modelo simple de alisado exponencial de Brown obtiene
predicciones de una serie temporal en función de las observaciones pasadas. Cada
predicción se obtiene promediando los valores observados de la variable como
sigue: St(l) = aXt + a(1−a)X2 t−1 + a(1−a)2 Xt−2 + ...

Este procedimiento produce, efectivamente, un alisado de la serie Xt, ya que


la nueva serie alisada, St(l), al estar constituida por promedios (medias ponderadas)
de valores de la serie primaria, presentará fluctuaciones más amortiguadas que Xt. El
valor de a ha de ser fijado entre cero y uno. Valores más pequeños de a alisan más
los datos. Como regla práctica, si los datos presentan fuertes fluctuaciones o gran
aleatoriedad, se deben usar valores pequeños de a. Las predicciones obtenidas
mediante este procedimiento no cambian con el horizonte temporal, es decir, St(1) =
St(2) = ... = St(l) = ...

En general podemos poner:

St(l) = aXt + (1 − a)St−1(l)


para el modelo simple de alisado exponencial de Brown.

En todos los métodos de predicción basados en el suavizado exponencial, se


presenta el problema de la fijación de los valores iniciales.

Si el parámetro de alisamiento a está próximo a cero, el valor inicial fijado


(S0) influirá en el resultado durante muchos períodos de tiempo. Por el contrario, con
valores de a próximos a la unidad, desaparecerá rápidamente la influencia del valor
inicial adoptado, pero es muy posible que los datos presenten tendencias o
estacionalidad, en cuyo caso usar este método de predicción no sería muy adecuado.
Se toma como valor inicial S1 = X1.

También existe el modelo exponencial de Brown con tendencia lineal, extensión


del modelo simple mediante:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

38 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

S’t(l) = aXt + (1 − a)S’t−1(l) y S’’t(l) = aS’t + (1 − a)S’t−1(l)

En este caso suponemos la serie temporal generada por el esquema definido


como Xt+i = d + ei + ut+i (i = 0, 1, 2, 3, ...). La predicción en el período t a horizonte l
se obtendrá mediante St(l) = at + bt l, donde at y bt son estimaciones de d y e.

Será necesario, una vez fijado a, dar un valor inicial a St' cuando t = 1. Este
valor se establece siguiendo algún criterio ajeno al método. Se puede hacer, por
ejemplo, S1' = X1. También se puede igualar S1' a un promedio de los primeros
valores de X. También habrá que dar un valor inicial a S1", que también puede ser
X1. También se toma at = 2 S’t - S’’t y bt = a(S’t - S’’t )/(1-a). Como valor fijado
para a se suele tomar un número entre 0,1 y 0,3.

Además, existe el modelo exponencial de Brown con tendencia cuadrática, que


es una extensión de los dos anteriores. En este caso suponemos que la serie original
sigue una tendencia cuadrática de la forma: Xt+i = d + ei + fi 2 + ut+i (i = 0, 1, 2, 3, ...).
Las ecuaciones para el modelo son:

S’t(l) = aXt + (1 − a)S’t−1(l)


S’’t(l) = aS’t + (1 − a)S’t−1(l)
S’’’t(l) = aS’’t + (1 − a)S’’t−1(l).

Las predicciones se obtendrán mediante la serie alisada St(l) = pt + (qt)l + 1/2


(rt)l2, en donde, dado a, los parámetros pt =3St’-3St’’+St’’’, qt = a[(1-5a)St’-(10-
8a)St’’+(4-3a)St’’’]/[2(1-a)2] y rt = a2(St’-2St’’+St’’’)/(1-a)2 se estiman con los valores
iniciales S1' = S1" = S1''' = X1. El método con tendencia cuadrática sirve para predecir
series con puntos de cambio de tendencia (turning points). Los métodos con tendencia
lineal y simple no son válidos para este fin.

2.2.3 Suavizado lineal de Holt


El método de Holt, al igual que el de Brown, sirve para realizar predicciones
bajo el supuesto de tendencia lineal, pero a diferencia de aquel, utiliza dos parámetros
de alisado a y b, que toman valores constantes entre 0 y 1. Los valores predichos
vienen dados por el modelo lineal:

Ft(l) = St-1 + (bt-1)l t > 2


St = aXt + (1-a)[St-1 + bt-1]
bt = b[St - St-1] + (1-b)bt-1

Los valores iniciales son S1 = x1 y b1 = x2-x1

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 2. MÉTODOS AUTOPROYECTIVOS DETERMINISTAS… 39

N = Número de observaciones
xt = Observación t de la serie de tiempo en estudio
St = Observación t de la serie alisada
Ft(l) = Predicción en el instante t a horizonte l
bt = Valor del parámetro estimado del modelo en el instante t
a = Primera constante de alisado (relacionado con la componente aleatoria)
b = Segunda constante de alisado (relacionado con la tendencia)

2.2.4 Suavizado estacional de Winters


Winters generalizó el método de Holt para tratar con datos que presenten
variaciones estacionales. En este caso la fórmula de predicción es: Ft(l) = (St + l(bt))It+l-L
donde L es el número de observaciones anuales. La estacionalidad se tiene en cuenta
mediante el factor It+l-L (modelo multiplicativo). Las fórmulas de actualización son:
St = aXt/It-L + (1-a)[St-1 + bt-1]
bt = b(St - St-1) + (1-b)bt-1
It = cXt/St + (1-c)It-L.
Ahora es necesario conocer el valor de tres parámetros a, b y c. El primero está
relacionado con la componente aleatoria, el segundo con la tendencia y el tercero
con la componente estacional. La inicialización de los cálculos con este
procedimiento requiere usar al menos L períodos para establecer los índices
estacionales iniciales. Para estimar el factor de tendencia es conveniente utilizar
datos referidos a 2L períodos (dos años consecutivos) en la forma siguiente:
b1 = [(XL+1-X1)/L + (XL+2-X2)/L +...+ (XL+L-XL)]/L
Existen otros métodos deterministas de suavizado que suelen ser
combinaciones de los anteriores y que aparecerán implementados en el software.

2.3 PREDICCIONES INCONDICIONALES DETERMINISTAS


CON R
R utiliza el comando HoltWinters para estimar modelos autoproyectivos de
series temporales. Su sintaxis general es la siguiente:

HoltWinters(x, alpha = NULL, beta = NULL, gamma = NULL,


seasonal = c("additive", "multiplicative"),
start.periods = 2, l.start = NULL, b.start = NULL,
s.start = NULL,
optim.start = c(alpha = 0.3, beta = 0.1, gamma = 0.1),
optim.control = list())

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

40 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Argumentos:

x La serie temporal objeto de estudio (objeto de calse ts)


alpha Parametro alpha del filtro de Holt-Winters.
beta Parametro beta del filtro de Holt-Winters. Cuando toma el
valor FALSE, se realize un suavizado exponencial.
gamma Parametro gamma del filtro de Holt-Winters. Cuando toma el
valor FALSE, se ajusta un modelo no estacional.
seasonal Su valor es "additive" (por defecto)
o "multiplicative" para considerar ambos tipos de
modelos. (Solo tiene efecto si gamma no es cero).
start.periods Número de valores iniciales. Debe de valer al menos 2.
l.start Valor de inicio para el nivel (a[0]).
b.start Valor de inicio para la tendencia (b[0]).
s.start Vector de valores iniciales para la componenteestacional
(s_1[0] … s_p[0])
optim.start Vector con componentes alfa, beta y gamma que contienen los
valores iniciales para el optimizador. Sólo se deben especificar
los valores necesarios. Se ignora en el caso de un parámetro.
optim.control Lista opcional con parámetros de control adicionales pasados a
optim si se utiliza. Se ignora en el caso de un parámetro.

Como ejemplo consideramos la serie temporal de nombre Cantidad contenida en el


archivo suavizado.sav cuyos valores comienzan el 1 de enero de 1968 y vamos a
realizar un suavizado de la misma. En primer lugar representamos la serie y se obtiene
el gráfico de la Figura 2-1.

> library(foreign)
> datos=read.spss("K:/CURSOR2017/suavizado.SAV")
> attach(datos)
> seriecantidad=ts(cantidad,start=c(1968,1),frequency=12)
> plot(seriecantidad)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 2. MÉTODOS AUTOPROYECTIVOS DETERMINISTAS… 41

Figura 2-1

Gráficamente no se observa estacionalidad, pero para certificarlo construimos el


periodograma.

> periodogram=spec.pgram(seriecantidad)

Figura 2-2

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

42 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

El periodograma de la Figura 2-2 no presenta picos destacados, lo que hace


intuir que no hay estacionalidad. Por lo tanto estimaremos un modelo de Holt Winters
no estacional.

> estimacion=HoltWinters(seriecantidad, alpha = NULL, beta =


NULL, gamma = FALSE)
> estimación

Holt-Winters exponential smoothing with trend and without


seasonal component.

Call:
HoltWinters(x = seriecantidad, alpha = NULL, beta = NULL,
gamma = FALSE)

Smoothing parameters:
alpha: 0.8531394
beta : 0.0494463
gamma: FALSE

Coefficients:
[,1]
a 1025.9132834
b 0.8863679

Una vez estimado el modelo calculamos 10 predicciones con sus intervalos de


confianza al 80% y al 95% de confianza.

> library("forecast", lib.loc="D:/Program Files/R/R-


3.3.2/library")
> predicciones=forecast.HoltWinters(estimacion,10)
> predicciones
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
Jun 1980 1026.800 1012.3191 1041.280 1004.6535 1048.946
Jul 1980 1027.686 1008.2496 1047.122 997.9606 1057.411
Aug 1980 1028.572 1004.8643 1052.280 992.3140 1064.831
Sep 1980 1029.459 1001.8303 1057.087 987.2047 1071.713
Oct 1980 1030.345 999.0036 1061.687 982.4124 1078.278
Nov 1980 1031.231 996.3072 1066.156 977.8194 1084.644
Dec 1980 1032.118 993.6950 1070.541 973.3551 1090.881
Jan 1981 1033.004 991.1369 1074.872 968.9737 1097.035
Feb 1981 1033.891 988.6124 1079.169 964.6435 1103.138
Mar 1981 1034.777 986.1066 1083.447 960.3421 1109.212

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 2. MÉTODOS AUTOPROYECTIVOS DETERMINISTAS… 43

Ejercicio 2-1. Consideramos el archivo estacional.sav que contiene la variable X que


define los datos de una serie temporal de estacionalidad mensual desde el 1 de enero
de 1968 hasta el 1 de octubre de 1981. Se trata de suavizar la serie temporal X y
realizar predicciones para una año completo mediante un método determinista.

> library(foreign)
> datos=read.spss("H:/CURSOR2017/estacional.SAV")
> attach(datos)
> serieX=ts(X,start=c(1968,1),frequency=12)
> plot(serieX)

Gráficamente se observa estacionalidad, pero para certificarlo construimos


el periodograma.

> periodogram=spec.pgram(serieX)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

44 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Como el periodograma presenta un segundo pico muy significativo en la


frecuencia 0,08, la series es estacional con período 1/0,08=12, es decir, la serie es
estacional mensual.

Como se trata de una serie con estacionalidad, para suavizarla y realizar


predicciones con ella, utilizaremos el método de suavizado estacional de Winters.

> estimacion=HoltWinters(serieX, alpha = NULL, beta = NULL,


gamma = NULL)
> estimacion

Holt-Winters exponential smoothing with trend and additive


seasonal component.

Call:
HoltWinters(x = serieX, alpha = NULL, beta = NULL, gamma =
NULL)

Smoothing parameters:
alpha: 0.8362429
beta : 0
gamma: 0.5566653

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 2. MÉTODOS AUTOPROYECTIVOS DETERMINISTAS… 45

Coefficients:
[,1]
a 78.3290423
b -0.2850962
s1 -16.2457168
s2 -35.4526893
s3 -43.5409396
s4 -35.5208367
s5 6.1897464
s6 24.5063593
s7 32.0221227
s8 29.7651202
s9 14.8067063
s10 11.9259070
s11 2.6771832
s12 8.1092548

Para obtener un año de predicciones con intervalos de confianza al 80% y al


95%, utilizamos la siguiente sintaxis:

> library("forecast")
> predicciones=forecast.HoltWinters(estimacion,12)
> predicciones

Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
Nov 1981 61.79823 43.029929 80.56653 33.094591 90.50187
Dec 1981 42.30616 17.840314 66.77201 4.888878 79.72344
Jan 1982 33.93281 4.865544 63.00008 -10.521739 78.38737
Feb 1982 41.66782 8.633979 74.70166 -8.853081 92.18872
Mar 1982 83.09331 46.520596 119.66602 27.160172 139.02644
Apr 1982 101.12482 61.326687 140.92296 40.258825 161.99082
May 1982 108.35549 65.574417 151.13657 42.927485 173.78350
Jun 1982 105.81339 60.244227 151.38256 36.121368 175.50542
Jul 1982 90.56988 42.373645 138.76612 16.860097 164.27967
Aug 1982 87.40399 36.716653 138.09132 9.884398 164.92358
Sep 1982 77.87017 24.808557 130.93178 -3.280562 159.02090
Oct 1982 83.01714 27.683040 138.35125 -1.609066 167.64335

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

3Capítulo 3

MÉTODOS AUTOPROYECTIVOS
ESTOCÁSTICOS DE PREDICCIÓN.
METODLOGÍA DE BOX-JENKINS

3.1 PREDICCIONES INCONDICIONALES ESTOCÁSTICAS


En el capítulo anterior hemos estudiado las series temporales desde el
punto de vista determinista o clásico. En este apartado vamos a ver el estudio de las
series temporales desde el punto de vista estocástico o moderno, que utiliza
métodos más complejos y su aplicación requiere series más largas. También
sabemos del capítulo anterior que existen predicciones condicionales e
incondicionales.

Las predicciones condicionales se realizan a través de modelos causales (se


predicen valores futuros de la variable independiente de un modelo según los
valores que tomen las variables independientes del modelo ajustado).

Las predicciones incondicionales se realizan mediante métodos


autoprotectivos (se predicen valores futuros de una variable en función de valores
pasados, actuales y futuros de la misma). Pero las predicciones incondicionales
pueden tener un enfoque determinista o estocástico según la naturaleza del modelo
utilizado.

El esquema siguiente ilustra la clasificación de las técnicas de predicción:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

48 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Condicionales → Se realizan mediante modelos causales (regresión, etc.)



Predicciones   Determinis tas → Métodos autoproyectivos deterministas
 Incondicionales  Estocásticas → Métodos autoproyectivos estocásticos
 

En este capítulo se estudian las predicciones incondicionales mediante


métodos autoprotectivos con un enfoque estocástico a través de modelos ARIMA.

3.2 MODELOS ARIMA: PRIMEROS CONCEPTOS


Box y Jenkins son los autores de la modelización ARIMA. Un modelo ARIMA
(AutoRegresive Integrated Moving Average) es un modelo estadístico autoprotectivo que
permite predecir los valores de una variable en función de sus valores pasados sin necesidad de
ninguna otra información de variables auxiliares o relacionadas. Cada observación en un
momento dado es modelada en función de valores anteriores suyos en el tiempo. El nombre
genérico ARIMA de estos modelos se deriva de sus tres componentes: Autoregresivo (AR),
Integrado(I) de Medias Móviles (MA). El modelo ARIMA presenta una ecuación explícita que
permite describir un valor como una función lineal de datos anteriores y errores debidos al
azar. Puede incluir, además, un componente cíclico o estacional. El objetivo consiste en
obtener un modelo adecuado, pero parsimonioso, es decir, el modelo ARIMA debe contener
todos los elementos necesarios, pero los mínimos necesarios para describir el fenómeno en
estudio. Box y Jenkins recomiendan como mínimo unas 50 observaciones en la serie temporal.
Modelizar una serie temporal consiste en derivar un modelo ARIMA que se ajuste al conjunto
de datos dado. Para ello es necesario estudiar características esenciales de las series como
estacionalidad, estacionalidad, funciones de autocorrelación, etc.

3.2.1 Series temporales y procesos estocásticos. Características


El concepto de serie temporal se deriva de un concepto más amplio como
es el de proceso estocástico. Se define un proceso estocástico {Xt}, para t =
1,2,3,..., como una colección de variables aleatorias Xt, ordenadas de acuerdo con el
parámetro discreto t, que en nuestro contexto es el tiempo. Los modelos
estocásticos de series temporales conciben una serie temporal dada Xt como una
colección de observaciones muestrales, cada una correspondiente a una variable del
proceso. Las leyes probabilísticas que rigen cualquier proceso estocástico se
describen exhaustivamente y sin ambigüedades mediante las funciones de
distribución de probabilidad conjunta de todos y cada uno de los vectores de
variables aleatorias que se puedan formar con las variables que constituyen el
proceso.

Sin embargo, para muchos fines prácticos, los procesos se suelen describir
mediante sus momentos. La media del proceso estocástico se define por ut = E(Xt) y
generalmente es una función del tiempo. La función de autocovarianza se define como:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 49

g(t,t+k) = Cov[Xt,Xt+k] = E{[Xt-E(Xt)][Xt+k-E[Xt+k]]}


k = ... -3, -2, -1, 0, 1, 2, 3, ...
A partir de esta función se obtienen dos resultados útiles. Por una parte,
para k=0 surge la función de varianza del proceso g(t,t) = Var Xt.

Por otra parte la función de autocorrelación se define como:

h(t,t+k) = g(t,t+k)/ [g(t,t)g(t+k,t+k)]1/2


k = ... -3, -2, -1, 0, 1, 2, 3, ...

3.2.2 Procesos estocásticos estacionarios. Funciones de


autocorrelación y autocorrelación parcial
Otro concepto importante en los procesos estocásticos es el de
estacionariedad. Un proceso estocástico es estacionario en sentido estricto si los
vectores [Xt1, Xt2, .., Xtn] y [X t1+s, Xt2+s, ..., Xtn+s] poseen la misma función de
distribución de probabilidad, independientemente de s, para cualquier n dado. La
definición de estacionariedad en sentido estricto implica que las características del
proceso estocástico no sufren alteración en tiempos históricamente diferentes. Esta
condición es quizá demasiado fuerte para imponer en la práctica. Un proceso es
estacionario en sentido amplio (o estacionario de segundo orden, o de covarianza
estacionaria, o débilmente estacionario) cuando se verifica que ut = u <  y g(t,t+k)
= gk < , lo que significa que la media del proceso es constante (no depende del
tiempo) y la autocovarianza es solo función del lapso temporal considerado, y no del
tiempo histórico. Los momentos de orden superior pueden variar con el tiempo. En
el caso de procesos con función de distribución de probabilidad normal, la
estacionariedad en sentido amplio implica la estacionariedad en sentido estricto.
La función de autocorrelación FAC en procesos estacionarios es hk = gk / g0
= Cov(Xt,Xt+k/V(Xt) k = ...-3,-2,-1,0,1,2,3...Para procesos reales se cumple además
que g0>0, gk = g-k, hk = h-k, h0 = 1 y |hk| menor o igual que 1. La representación
gráfica con hk en ordenadas y k en abscisas se denomina correlograma del proceso.
La función de autocorrelación de las series estacionarias disminuye sensiblemente
a medida que aumenta el desfase temporal k. Esto no suele ocurrir en las series no
estacionarias.
En las aplicaciones prácticas, en las que se dispone de ciertas
observaciones, Xt (t = 1,2,…,T), relativas a un proceso estocástico que se supone
estacionario, la media del proceso se estima mediante:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

50 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

T
Xt
X =
t =1 T
Análogamente, la función de autocorrelación, hk, se estima mediante la función
de autocorrelación muestral o función de autocorrelación estimada, que se define por:
T

(X t − X )( X t − k − X )
rk = t =1
T
k = 1, 2, ...
(X
t =1
t − X) 2

La representación gráfica de rk, denominada correlograma muestral, constituye


un instrumento de análisis de series temporales de gran interés práctico. Para obtener
correlogramas debe partirse en la práctica de muestras de tamaño suficientemente
grande (al menos 50 observaciones). La función de autocorrelación muestral no se
puede calcular cuando k >T+1, y en la práctica no debe calcularse para k >T/4.
Otro concepto que tiene importancia en la teoría de series temporales es el de
ruido blanco. Un proceso puramente aleatorio (ruido blanco), se define por las
condiciones:

u = E(Xt) = 0, g02 = var(Xt) = , gk = cov[Xt,X t+k] = 0 k = ..., -3,-2,-1,0,1,2,3,...


En este tipo de procesos, puramente aleatorios, el correlograma se reduce a un
segmento de longitud unitaria sobre el eje de ordenadas.
Otro concepto muy útil en el análisis de series temporales es la función de
autocorrelación parcial FACP de una serie temporal. El primer término de la
función de autocorrelación parcial, que vamos a denotar por 11, puede estimarse
transformando la serie Xt en desviaciones respecto a su media muestral Yt = Xt -
X y a continuación estimando una regresión de Yt sobre Yt-1. La pendiente estimada
de esta regresión es 11. El modelo de regresión es Yt = 11Yt-1 + ut. Además, el
primer valor de la función de autocorrelación parcial 11 es precisamente igual al
primer valor de la función de autocorrelación. Esta es una propiedad de las funciones
de autocorrelación de todo proceso estocástico estacionario.

El segundo valor de la función de autocorrelación parcial, 22, se estima


mediante una regresión de Yt sobre Yt-1 e Yt-2. El modelo de regresión es Yt = 21Yt1 +
22Yt-2 + ut. El tercer valor de la función de autocorrelación parcial, 33, se estima
mediante una regresión de Yt sobre Yt-1, Yt-2 e Yt-3. El modelo de regresión es Yt =
31Yt-1 + 32Yt-2 + 33Yt-3 + ut.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 51

Vemos pues que la función de autocorrelación parcial puede estimarse


mediante una serie de regresiones, cada una de las cuales contiene como variable
explicativa un retardo más que la anterior, y de la que nos vamos quedando en cada
caso con los coeficientes estimados en los retardos más altos: 11, 22, 33, ..., que
son así los valores estimados de la función de autocorrelación parcial. Otra
posibilidad de obtener la función de autocorrelación parcial estimada es mediante
fórmulas recursivas, utilizando la función de autocorrelación previamente estimada y
utilizando las ecuaciones de Yule-Walker. A veces se suele denominar correlograma
a la representación gráfica de las funciones de autocorrelación y autocorrelación
parcial.

3.2.3 Series temporales estacionarias. Detección de la


estacionariedad
Muy pocas series temporales reales del mundo económico son estacionarias.
La mayoría suelen presentar tendencia, suelen tener varianza no constante y también
suelen presentar variaciones estacionales. La presencia de variaciones estacionales se
traduce en una variabilidad de la media del proceso, lo que es contrario a la hipótesis de
estacionariedad. Pero, normalmente, es posible transformar muchas series económicas
reales no estacionarias en otras aproximadamente estacionarias, sometiéndolas a
operaciones algebraicas adecuadas. A las series no estacionarias que presentan una
tendencia lineal se las somete a la transformación Zt = Xt - Xt-1 para convertirlas en
estacionarias (en media). Si Xt muestra una tendencia lineal, la primera diferencia de la
serie, Zt, ya no tendrá esa tendencia. En este caso se dice que Xt es una serie temporal
homogénea de primer orden o integrada de primer orden y se denota por I(1).
La eliminación de una tendencia cuadrática puede conseguirse mediante
doble diferenciación. Esta operación se realiza en dos etapas, primero se obtiene Wt
= Xt - Xt-1 y, si sigue existiendo tendencia, se obtiene Zt = Wt - Wt-1. Si Zt ya no
incorpora tendencia (es estacionaria), se dice que Xt es una serie temporal
homogénea de segundo orden I(2). Análogamente una tendencia de orden p puede
eliminarse llevando a cabo una diferenciación de orden p dando lugar a una serie
homogénea o integrada I(p) de orden p.
Si hay duda sobre diferenciar o no, o sobre cuántas veces hay que
diferenciar, se calcula la varianza de la serie original y de la serie sometida a
diferentes diferenciaciones, tomando como diferenciación adecuada aquella para al
que la varianza es mínima. El método es tanto más adecuado cuanto mayor sea la
diferencia entre las varianzas anteriores. La sobrediferenciación suele evitarse
observando si en la parte de medias móviles alguna raíz es próxima a la unidad.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

52 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Si Xt muestra una tendencia exponencial, puede eliminarse la tendencia


hallando primero el logaritmo de la serie, y luego la diferencia primera de la nueva
serie así calculada. La serie Zt = LnXt - LnXt-1 puede tener la tendencia eliminada.
La estacionariedad en varianza suele corregirse aplicando logaritmos o
una transformación más general como la de Box-Cox. La transformación de Box-
Cox consigue estabilizar la varianza de una serie temporal (serie estacionaria en
varianza) y aproximar su distribución a una normal. Si Xt es la serie temporal
inicial, la transformación viene dada por:

 ( X t + l 2 ) l1 − 1
 t
Z = si l1  0 y X t  −l 2
 l1 g l1 −1
Z = gLn( X + l ) si l = 0 y l  0
 t t 2 1 2

donde g es la media geométrica simple de Xt + l2. El primer parámetro l1 gobierna la


fuerza de la transformación. Para l1=1 tenemos la serie original Xt y l2 se elige de forma
que Xt+l2 sea siempre positiva. Por lo tanto l2 será cero si trabajamos con datos positivos
e igual en valor absoluto al valor más negativo observado, en otro caso. La
transformación de Box_Cox es realmente una familia de transformaciones dependiente
del parámetro l1, que incluye como casos particulares la transformación logarítmica
(l1=0), la raíz cuadrada (l1=1/2) y la inversa o recíproca (l1=-1).

Una variante más sencilla de la transformación de Box- Cox es la siguiente:

 X t −1
l
Z t = X t l si l  0 y − 1  l  1 Z t = si l  0
 o también  l
Z t = Ln( X t ) si l = 0 Z = Ln( X ) si l = 0
 t t

Se observa que para l = -1 tenemos la transformación recíproca, para l = -


1/2 tenemos la recíproca de la raíz cuadrada, para l = 0 tenemos la logarítmica, para
l = 1/2 tenemos la raíz cuadrada y para l = 1 tenemos la identidad.

La eliminación de las variaciones estacionales, para inducir la estacionariedad,


suele hacerse casi siempre, mediante la diferenciación estacional. Si los datos son
mensuales, la diferenciación estacional de la serie temporal Xt, consiste en calcular Zt= Xt -
Xt-12. Con datos trimestrales calcularíamos Zt = Xt - Xt-4. Si después de efectuar esta
transformación la serie sigue presentando evidencias de variaciones estacionales, es
posible aplicar de nuevo el procedimiento, es decir, calcular las diferencias de segundo
orden, y así sucesivamente.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 53

Para detectar rápidamente la estacionariedad se puede utilizar directamente el


gráfico de la serie. Se divide el campo de variación total de la serie en varios intervalos
calculándose para cada uno de ellos la media y la varianza. Si existe estacionalidad se
toma como longitud del intervalo la del período estacional. Para ver si la serie es
estacionaria en media basta comprobar que las medias de los intervalos no fluctúen
mucho. Para ver si la serie es estacionaria en varianza basta comprobar que las varianzas
de los intervalos son estables (no cambian bruscamente) y se mantienen en una franja
estrecha. La Figura 3-1 ilustra estos conceptos.

Figura 3-1

Otro criterio para detectar la estacionariedad en varianza es el gráfico rango-


media de Box-Cox (Figura 3-2), consistente en representar los puntos (media, rango)
para todos los intervalos en que se ha dividido la serie. Si los puntos del gráfico son
ajustables a una recta con pendiente positiva no hay estacionariedad en varianza (será
necesario tomar logaritmos en la serie original si  = 0 y elevar la serie a un exponente
fraccionario para otro valor de  distinto de uno). Si el gráfico no tiene tendencia
definida o es ajustable a una recta paralela al eje de abscisas hay estacionariedad en
varianza ( = 1).

Figura 3-2

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

54 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Otro criterio para detectar la estacionariead es el criterio de la función de


autocorrelación estimada. Si los coeficientes de la FAC no decaen rápidamente
hay un indicio claro de falta de estacionariedad en media, lo que nos llevaría a
tomar primeras diferencias en la serie original.

Un criterio formal para detectar la estacionariead son los contrastes de raíces


unitarias (ADF, Phillips Perron, etc), que se estudiarán en capítulos posteriores.

Un proceso puramente aleatorio (ruido blanco), se define por las


condiciones u = E(Xt) = 0, g02 = var(Xt) = , gk = cov[Xt,X t+k] = 0 k = ..., -3,-2,-
1,0,1,2,3,... En este tipo de procesos, puramente aleatorios, el correlograma se reduce a
un segmento de longitud unitaria sobre el eje de ordenadas.

3.2.4 Series temporales estacionales. Detección de la estacionalidad a


partir de las funciones de autocorrelación y autocorrelación parcial
Las funciones de autocorrelación y autocorrelación parcial estimadas
también validan los períodos estacionales de acuerdo a las siguientes
consideraciones:

• Los coeficientes de la FAC para retardos múltiplos del período estacional


de la serie deben ser significativamente distintos de cero.

• Para una cantidad grande de retardos la FAC se configura en forma de


abanico que completa su ciclo girando sobre el eje de abscisas para una
cantidad de retardos igual al período estacional. La FACP debe presentar
estructura de coeficientes significativos para retardos periódicos (largos).

• La FAC y la FACP deben considerase a la vez, pues a veces intercambian


sus papeles en el comportamiento estacional.

3.3 ANÁLISIS DE LA ESTACIONARIEDAD Y


ESTACIONALIDAD CON R
Como ejemplo, consideramos una serie de 100 datos relativos a la demanda
semanal de un manufacturero relativa a contenedores de plástico que utilizan las
compañías farmacéuticas. El manufacturero necesita predecir el número de
contenedores que le serán demandados en las 10 semanas siguientes con vistas a su
producción. Los 100 datos se encuentran en la variable plastic del fichero marima.sav.
Empezaremos garficando la serie
> library(foreign)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 55

> datos=read.spss("K:/CURSOR2017/marima.SAV")
> attach(datos)
> serieplastic=ts(plastic,frequency=1)
> plot(serieplastic)

A simple vista la serie no `parece estacional. Para corroboralo construimos


el `periodograma.

> periodogram=spec.pgram(serieplastic)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

56 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Como el periodograma no tiene picos significativos en sus primeros valores, la


serie no es estacional.

Pero la estacionalidad, así como la estacionariedad también puede detectarse a


través de las funciones de autocorrelación y autocorrelación parcial estimadas (FAC y
FACP respectivamente).

> acf(serieplastic,lag.max=48)

> pacf(serieplastic,lag.max=48)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 57

Se observa que los coeficientes de la FAC no decaen rápidamente, lo que


indica falta de estacionariedad en media. Además ni la FAC ni la FACP presentan
valores muy significativos en múltiplos de ningún valor ni presentan sinusoides de la
misma amplitud. Por lo tanto, la serie no es estacional.

Por lo tanto, diferenciaremos la serie original y graficamos sus funciones de


autocorrelación y autocorrelación parcial estimadas.

> dserieplastic=diff(plastic,lag=1)
> plot(dserieplastic, type="l")

> acf(dserieplastic)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

58 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> pacf(dserieplastic)

Ahora los retardos significativos de la FAC decaen tan rápidamente que


sólo es significativo el primero, luego ya no existen problemas de estacionariedad
en la serie diferenciada, es decir, la serie diferenciada es I(0) y la serie original es
I(1).

3.4 MODELOS AUTOREGRESIVOS AR(P)


Un modelo autorregresivo (AR) describe una clase particular de proceso en el
que las observaciones en un momento dado son predecibles a partir de las observaciones
previas del proceso más un término de error. El caso más simple es el ARIMA(1,0,0), o
AR(1) o de primer orden, cuya expresión matemática es:

Xt = 1 Xt-1 + at
El proceso autorregresivo de orden p, representado por ARIMA(p,0,0), o
simplemente por AR(p) toma la forma:

Xt = 1 Xt-1 + 2 Xt-2 +...+ p Xt-p + at

que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

(1- 1B - 2B2 -...- pBp ) Xt = at Bk(Xt) = Xt-k

Un proceso autorregresivo AR(p) es estacionario si las raíces del polinomio en B dado


por: 1- 1B - 2B2 -...- pBp caen fuera del círculo unidad. Esa condición es equivalente a que

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 59

las raíces de la ecuación: xp-1 x p-1 - 2 x p-2-...-p-1 x-p = 0 sean todas inferiores a uno en
módulo. Un proceso autorregresivo siempre es invertible.

 a2
La varianza de un proceso AR(1) es: g 0 =
1 − 1
La función de autocovarianza de un proceso AR(1) es:
 a2
gk =  k
k 1
1 − 1
1

La función de autocorrelación de un proceso AR(1) es :

hk = 1k k 1

La función de autocorrelación parcial de un proceso AR(1) es:

 para j =1
hkk =  1
0 para j 1

La varianza de un proceso AR(2) es: g 0 =  1 g1 +  2 g 2 +  a2

La función de autocovarianza de un proceso AR(2) es:

g k = 1 g k −1 +  2 g k −2 k 1
La función de autocorrelación de un proceso AR(2) es :

hk = 1hk −1 +  2 hk −2 k 1

La función de autocorrelación parcial de un proceso AR(2) es:


 1
h1 = para j = 1
 1− 2
 h − h 2
hkk =  2 21 =  2 para j = 2
 1 − h1
0 para j  2



La varianza de un proceso AR(p) es:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

60 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

g 0 = 1 g1 +  2 g 2 +  p g p +  a2

La función de autocovarianza de un proceso AR(p) es:

g k = 1 g k −1 +  2 g k −2 +  +  p g k − p k 1

La función de autocorrelación de un proceso AR(p) es:

hk = 1 hk −1 +  2 hk −2 +  +  p hk − p k 1

La función de autocorrelación parcial de un proceso AR(p) es:

h1 para j =1

 h2 − h1
2

para j=2
 1 − h12

 1 h1  h p −2 h1
 h 1  h p −3 h2
 1

    
hkk = 
 h p −1 h p − 2  h1 hp
para j=p
 1 h1  h p −2 h p −1

 h1 1  h p −3 h p −2
    

 h p −1 h p − 2  h1 1

0 para jp

En la Figura 3-13 se observan las funciones de autocorrelación (izquierda)


y autocorrelación parcial (derecha) para procesos AR(1) y AR(2).

3.5 MODELOS DE MEDIAS MÓVILES MA(Q)


Un modelo de medias móviles (MA) también describe una serie temporal
estacionaria. En este modelo el valor actual puede predrecirse a partir de la
componente aleatoria de este momento y, en menor medida, de los impulsos
aleatorios anteriores. El modelo ARIMA(0,0,1), también denotado por MA(1),
viene dado por la expresión:
Xt = at - v1 at-1

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 61

El proceso de medias móviles de orden q, representado por ARIMA(0,0,q),


o también por MA(q), viene dado por la expresión:
Xt = at - v1 at-1 - v2 at-2 - .... - vq at-q
que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:
Xt = (1 - v1B - v2B2 - .... - vqBq) at
Un proceso de medias móviles es siempre estacionario.
Un proceso de medias móviles MA(q) es invertible si las raíces del polinomio
en B definido por: 1 - v1B - v2B2 - .... - vqBq caen fuera del círculo unidad. Esta
condición es equivalente a que las raíces de la ecuación xq-1 x q-1 - 2 x q-2 -...- q-1
x - q = 0 sean todas inferiores a uno en módulo.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

62 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Figura 3-13
La varianza de un proceso MA(1) es: g 0 =  a2 (1 +  12 )

La función de autocovarianza de un proceso M(1) es:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 63

−   2 para k = 1
gk =  1 a
0 para k  1

La función de autocorrelación de un proceso MA(1) es :

 − 1
 para k = 1
hk = 1 +  12
0 para k  1

La función de autocorrelación parcial de un proceso MA(1) es:

−  1k (1 −  12 )
hkk = para k  1
1 −  12( k +1)

La varianza de un proceso MA(2) es: g 0 =  a2 (1 +  12 +  22 )

La función de autocovarianza de un proceso MA(2) es:

− ( 1 +  1 2 ) a2 para k = 1

. g k = −  2 a2 para k = 2
0 para k  2

La función de autocorrelación de un proceso MA(2) es :

 −  1 +  1 2
1 +  2 +  2 para k = 1
 1 2

 − 2
hk =  para k = 2
1 +  1 +  2
2 2

0 para k  2


La función de autocorrelación parcial de un proceso MA(2) es:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

64 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

h1 para k = 1

 h2 − h1
2
para k = 2
 1 − h12
hkk =  3
 h1 − h1 h2 (2 − h2 ) para k = 3
1 − h 2 − 2h 2 (1 − h )
 2 1 2



La varianza de un proceso MA(q) es: g 0 =  a2 (1 +  12 +  22 +  +  q2 )

La función de autocovarianza de un proceso MA(q) es:

(− +  1 k +1 +  +  q − k q ) a2 para k = 1,2,, q


gk =  k
0 para k  q

La función de autocorrelación de un proceso MA(q) es:

 −  k +  1 k +1 +  +  q − k q
 para k = 1,2,, q
hk =  1 +  12 +  +  q2
0 para k  q

La función de autocorrelación parcial de un proceso MA(q) es:

h1 para k = 1

 h2 − h1
2
para k = 2
 1 − h12
hkk =  3
 h1 − h1 h2 (2 − h2 ) + h3 (1 − h1 ) para k = 3
2

 1 − h22 − 2h12 (1 − h2 )



En la Figura 3-14 se observan las funciones de autocorrelación (izquierda)


y autocorrelación parcial (derecha) para procesos MA(1) y MA(2):

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 65

Figura 3-14

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

66 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

3.6 MODELOS ARMA(p,q)


Una extensión natural de los modelos AR(p) y MA(q) es un tipo de modelos
que incluyen tanto términos autorregresivos como de medias móviles y se definen
como ARMA(p,q) o también como ARIMA(p,0,q). Se representan por la ecuación:
Xt = 1 Xt-1 + 2 Xt-2 +...+ p Xt-p + at - v1 at-1 - v2 at-2 - .... - vq at-q
que puede ponerse de la forma:
Xt - 1 Xt-1 - 2 Xt-2 -...- p Xt-p = at - v1 at-1 - v2 at-2 - .... - vq at-q
o sea:
(1- 1B - 2B2 -...- pBp ) Xt = (1 - v1B - v2B2 - .... - vqBq ) at
El proceso ARMA(p,q) es estacionario si lo es su componente autorregresiva,
y es invertible si lo es su componente de medias móviles. Por lo tanto podemos decir
que un modelo ARMA(p,q) es invertible si las raíces del polinomio en B definido
mediante 1 - v1B - v2B2 - .... - vqBq caen fuera del círculo unidad. Esta condición es
equivalente a que las raíces de la ecuación xq-1 x q-1 - 2 x q-2 -...- q-1 x - q = 0 sean
todas inferiores a uno en módulo.
Un modelo ARMA(p,q) es estacionario si las raíces del polinomio definido
por 1- 1B - 2B2 -...- pBp caen fuera del círculo unidad. Esa condición es equivalente
a que las raíces de la ecuación: xp-1 x p-1 - 2 x p-2 -...-p-1 x - p = 0 sean todas
inferiores a uno en módulo.

 a2 (1 +  12 − 21 1 )
La varianza de un proceso ARMA(1,1) es: g 0 =
1 − 12

La función de autocovarianza de un proceso ARMA(1,1) es:

 a2 (1 −  1 1 )( 1 −  1 )
 para k = 1
gk =  1 −  12
 g para k  1
 1 k −1
La función de autocorrelación de un proceso ARMA(1,1) es:

 (1 −  1 1 )( 1 −  1 )
 para k = 1
hk =  1 −  12 − 2 1 1
 h para k  1
 1 k −1

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 67

La función de autocorrelación parcial de un proceso ARMA(p,q) es:

h1 para k = 1

 h2 − h1
2
para k = 2
 1 − h12
hkk =  3
 h1 − h1 h2 (2 − h2 ) + h3 (1 − h1 ) para k = 3
2

 1 − h22 − 2h12 (1 − h2 )


En la Figura 3-15 se observan las funciones de autocorrelación (izquierda)
y autocorrelación parcial (derecha) para procesos ARMA(1,1).

3.7 MODELOS ARIMA(p,d,q)


Un modelo ARIMA(0,d,0) es una serie temporal que se convierte en un
ruido blanco (proceso puramente aleatorio) después de ser diferenciada d veces. El
modelo ARIMA(0,d,0) se expresa mediante: (1 - B)d Xt = at. El modelo general
ARIMA(p,d,q) denominado proceso autorregresivo integrado de medias móviles de
orden p, d, q, toma la siguiente expresión:

(1- 1B - 2B2 -...- pBp)(1-B)d Yt = (1 - v1B - v2B2 - .... vqBq )at
Un modelo ARIMA(p,d,q) permite describir una serie de observaciones
después de que hayan sido diferenciadas d veces, a fin de extraer las posibles
fuentes de no estacionariedad. Esta fórmula general se puede aplicar a cualquier
modelo. Si hay alguna componente p,d,q igual a cero, se elimina el término
correspondiente de la fórmula general.

3.8 LA METODOLOGÍA BOX JENKINS EN MODELOS ARIMA


Box y Jenkins en su desarrollo de modelos estadísticos para series temporales
fijaron distintas fases para su modelado. Básicamente estas fases se resumen en la
identificación del modelo ARIMA adecuado a los datos de la serie (recogida de datos
de la serie, representación gráfica, análisis de la estacionariedad, transformaciones
previas adecuadas para conseguir la estacionariedad, eliminación de la tendencia si es
necesario e identificación efectiva del modelo asociándolo a la estructura ARIMA
adecuada), estimación del modelo previamente identificado (cálculo de los estimadores
del modelo y residuales), validación del modelo (contrastes para ver si el modelo es
adecuado) y predicción (selección de los períodos de predicción y cálculo de
estadísticos para evaluar la capacidad predictiva).

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

68 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

ARMA(1,1)

Figura 3-15

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 69

La metodología para modelos ARIMA contempla las siguientes fases:


1. Recogida de datos de la serie: Es conveniente disponer de 50 o más datos, y en el
caso de series mensuales, es habitual trabajar con entre seis y diez años completos de
información. El mismo criterio se sigue para series con diferentes períodos estacionales.
2. Representación gráfica de la serie: Como primera tarea del proceso de identificación,
para decidir sobre la estacionariedad de la serie es de gran utilidad disponer de un gráfico
de la misma. A veces suelen utilizarse medias y desviaciones típicas por subperíodo para
juzgar sobre la estacionariedad de la serie. Por ello es necesario calcular todo tipo de
estadísticos relativos a la serie y necesarios en el proceso de identificación.
3. Transformación previa de la serie: También dentro del proceso de identificación, la
transformación logarítmica es necesaria en caso de serie no estacionaria en varianza. Sin
embargo, es una transformación muy frecuente, incluso en series con dispersión
relativamente constante en el tiempo. Una posibilidad práctica es ensayar siempre con la
serie original y en logaritmos y comprobar resultados. Puede ser necesario también
utilizar cualquier tipo de transformación Box Cox para estacionarizar la serie, en cuyo
caso se identificarán los parámetros adecuados para la transformación
4. Eliminación de la tendencia: La observación del gráfico de la serie nos indicará
la existencia o no de tendencia. Una tendencia lineal será corregida tomando
primeras diferencias, que será el caso más frecuente (d=1). Una tendencia no lineal
suele llevar en la práctica al uso de dos diferencias como mucho (d=2).
Estacionarizada la serie, habremos identificado el parámetro d.
5. Identificación efectiva del modelo: Consiste en determinar el tipo de modelo más
adecuado para la serie objeto de estudio, es decir, el orden de los procesos
autorregresivos p y de medias móviles q de las componentes regular y estacional.
Técnicamente esta decisión se tomará en base a las funciones de autocorrelación y
autocorrelación parcial. Habitualmente se terminará eligiendo entre los procesos
más simples AR(1), AR(2), MA(1), MA(2) y ARMA(1,1), tanto en la parte regular
como en la estacional. En caso de duda pueden seleccionarse varios modelos
alternativos que serán estimados y contrastados posteriormente, para definir el
modelo definitivamente adoptado.
6. Estimación de los coeficientes del modelo: Decidido el modelo, se procede a la
estimación de sus parámetros. Dado que se trata de un procedimiento iterativo de
cálculo, pueden sugerirse valores iniciales.
7. Contraste de validez del modelo o validación: Utilizaremos diversos
procedimientos para valorar el modelo o modelos inicialmente seleccionados:
contraste de significación de parámetros, covarianzas entre estimadores, coeficiente
de correlación, suma de cuadrados de errores, etc.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

70 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

8. Análisis detallado de los errores: Las diferencias históricas entre valores reales y
estimados por el modelo constituyen una fuente de especial interés para una
valoración final del modelo. Deberá comprobarse un comportamiento no
sistemático de los mismos, así como analizarse la posible existencia de errores
especialmente significativos.
9. Selección del modelo: En base a los resultados de las etapas anteriores, debe
estarse en condiciones de decidir sobre el modelo adoptado.
10. Predicción: El modelo seleccionado servirá como fórmula inicial de predicción.

El diagrama siguiente resume las fases de la metodología ARIMA.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 71

3.8.1 Identificación de modelos ARIMA


Identificar un modelo significa utilizar los datos recogidos, y cualquier información
de cómo se genera la serie temporal objeto de estudio, para sugerir un conjunto reducido de
posibles modelos, que tengan muchas posibilidades de ajustarse a los datos. Ante una serie
temporal empírica, el investigador debe encontrar los valores p, d, q más apropiados.
Si la serie temporal presenta una tendencia, lo primero que se deber hacer es
convertirla en estacionaria mediante una diferenciación de orden d. Una vez
diferenciada la serie, una buena estrategia consiste en comparar los correlogramas de la
función de autocorrelación (FAC) y la función de autocorrelación parcial (FACP). Esto
suele ofrecer una orientación para la formulación del modelo tentativo.
Los procesos autorregresivos presentan función de autocorrelación parcial
con un número finito de valores distinto de cero. Un proceso AR(p) tiene los
primeros p términos de la función de autocorrelación parcial distintos de cero y los
demás son nulos (Figura 3-13). Esta afirmación es muy fuerte, y en la práctica se
considera que una muestra dada proviene de un proceso autorregresivo de orden p si
los términos de la función de autocorrelación parcial son casi cero a partir del que
ocupa el lugar p. Un valor se considera casi cero cuando su módulo es inferior a
2/T. Los programas de ordenador construyen la franja (-2/T, 2/T) y detectan los
valores de la FACP que caen fuera de ella.
Los procesos de medias móviles presentan función de autocorrelación con
un número finito de valores distinto de cero. Un proceso MA(q) tiene los primeros
q términos de la función de autocorrelación distintos de cero y los demás son nulos
(Figura 3-14). Estas propiedades son muy importantes con vistas a la identificación
de un proceso mediante el análisis de las funciones de autocorrelación y
autocorrelación parcial.
Para modelos ARMA(p,q), los primeros valores de la función de
autocorrelación no tienen patrón fijo y van seguidos de una mezcla de oscilaciones
sinusoidales o exponenciales amortiguadas. Asimismo, los primeros valores de la
función de autocorrelación parcial no tienen patrón fijo, aunque suelen decrecer) y
van seguidos de una mezcla de oscilaciones sinusoidales y exponenciales
amortiguadas. La Figura 3-15 muestra estos patrones para distintos procesos
ARIMA(1,1).
Podemos resumir los pasos para la identificación de un modelo de series
temporales de la siguiente forma:
1. Decidir si Xt necesita ser transformada para eliminar la no estacionariedad en
media o la no estacionariedad en varianza (heteroscedasticidad). Puede ser
conveniente usar logaritmos de la serie o aplicar la transformación de Box-Cox.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

72 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

2. Determinación del grado de diferenciación adecuado d. En general la falta


de estacionariedad, se manifiesta en que los coeficientes de la función de
autocorrelación estimada tienden a decrecer muy lentamente. La cuestión
es, sin embargo, ¿cuán lentamente ha de ser el decrecimiento de los
coeficientes de la función de autocorrelación parcial para que el proceso
sea estacionario? En general, sólo ocasionalmente los datos económicos
del correlograma dejarán de decrecer tras las primeras diferencias, y en
este caso serían necesarias segundas diferencias. Una diferenciación
superflua sólo sirve para alterar el esquema de autocorrelación evidente en
una serie estacionaria y complicarlo innecesariamente.

3. Decidir los valores de p y q, y si existe una componente estacional, decidir


los órdenes de los operadores estacionales P y Q. Para este apartado se
utilizan las funciones de autocorrrelación y autocorrelación parcial según
el siguiente cuadro:

Proceso Función de autocorrelación Función de autocorrelación parcial


--------------------------------------------------------------------------------------------------------------------------
MA(q) Sólo los q primeros coeficientes son Decrecimiento rápido exponencial
significativos. El resto se anulan atenuado u ondas sinusoidales
bruscamente (coef. 0 para retardo>q)

AR(p) Decrecimiento rápido exponencial Sólo los p primeros coeficientes son


atenuado u ondas sinusoidales significativos. El resto se anulan
bruscamente (coef. 0 para retardo>p)

ARMA Los coeficientes no se anulan bruscamente Los coeficientes no se anulan bruscamente

ARIMA(p,d,q) Comportamiento irregular en los retardos Decrece (aproximadamente con


(1,...,q) con q picos. Decrecimiento para exponenciales atenuados y ondas
retardos posteriores a q sinusoidales). No cero pronto

3.8.2 Estimación de modelos ARIMA(p,d,q)


El criterio que suele utilizarse es obtener los parámetros de manera que la
suma cuadrática de los errores sea lo menor posible. Si representamos el proceso
ARIMA(p,d,q) de la forma (B) Xt = v(B) at los errores del modelo pueden
expresarse de la forma at =  -1(B) (B) at de forma que el objetivo es encontrar el
vector de parámetros  =  (1,...., p) y v = (v1,....,vp) que minimice la suma de
cuadrados de los errores 
at2 = S (, v) .
t
La estimación es complicada ya que la ecuación es no lineal en los parámetros.
Debemos, pues, utilizar un método iterativo de estimación no lineal, como por ejemplo el
de Marquardt. Para comenzar el algoritmo necesitamos estimaciones preliminares de los
parámetros, que se obtienen mediante el método de los momentos.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 73

3.8.3 Diagnóstico, validación o contraste de modelos ARIMA(p,d,q)


Box y Jenkins sugirieron un número considerable de tests para verificar si el
modelo elegido se ajusta correctamente al conjunto de datos dado. Uno de ellos,
conocido como sobreparametrización, consiste en ajustar un modelo de orden superior
al elegido y comprobar si los parámetros son significativamente distintos de cero.
Por otra parte, si el modelo aproxima satisfactoriamente a la serie observada,
los residuos deben tender a comportarse como ruido blanco, lo cual se comprobaría
mediante las funciones de autocorrelación de los residuos (FAC y FACP). Dichas
funciones de autocorrelación deben ser nulas en todo su recorrido, excepto en cero.
Si el modelo no aproxima satisfactoriamente a la serie observada, los residuos
se comportarán como un ruido autocorrelado, problema análogo al encontrado en los
modelos econométricos con perturbaciones autocorrelacionadas. Por ello, deben
emplearse contrastes como el de Durbin-Watson (para la autocorrelación de primer
orden) o el de Wallis (para la de cuarto orden).
Otros tests, aplicados a los residuos, van encaminados a comprobar si los
residuos obtenidos son consistentes con el supuesto de ruido blanco (aleatorios).
m
Box y Pierce proponen el estadístico Q = r
k =1
k
2
donde rk viene definido por:
n n
rk =  at at − k
t = k +1
a
t =1
2
t con at = residuos estimados y n = número de observaciones.

Bajo el supuesto de que m es suficientemente grande, Box y Pierce


demuestran que el estadístico Q se distribuye como una Chi-cuadrado con m-p-q
grados de libertad. La hipótesis de que los residuos son un ruido blanco se rechaza en
general para valores de Q muy altos. Más concretamente, se halla la región crítica a
nivel , calculando un valor I que cumpla P(Q>I)= . Si el valor del estadístico Q cae
dentro de la región crítica, que es {Q>I}, entonces se rechaza la hipótesis nula de que
los residuos son un ruido blanco. Si cae fuera se acepta la hipótesis nula. El valor de m
es arbitrario, pero conviene tomarlo lo más elevado posible.
Para valores de m no muy grandes, Ljung y Box proponen un estadístico alternativo:
m
Q' = n(n + 2) rk2 (n − k ) , que también se distribuye como una Chi-cuadrado
k =1
con m-p-q grados de libertad.. Se halla la región crítica a nivel , calculando un
valor I que cumpla P(Q'>I)= . Si el valor del estadístico Q' cae dentro de la
región crítica, que es {Q'>I}, entonces se rechaza la hipótesis nula de que los
residuos son un ruido blanco. Si cae fuera se acepta la hipótesis nula.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

74 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Un diagnóstico completo también surge de la inspección del gráfico de los


residuos. Si los residuos provienen de un proceso de ruido blanco, deben ser
incorrelacionados entre sí, lo que les hará alternar en signo, sin ningún criterio obvio.
Por el contrario, rachas de residuos consecutivos de un mismo signo son, en general, un
indicativo de mala especificación del modelo, bien por ser una indicación de
autocorrelación de los residuos o por indicar no estacionariedad de los mismos. Si los
residuos representados contra el índice tiempo t, es decir si el grafo (t,at), tiene una
tendencia conocida, puede haber heteroscedasticidad de los residuos.
Aquí se pueden aplicar todos los contrastes de aleatoriedad, autocorrelación,
heteroscedasticidad, falta de linealidad y no normalidad de los residuos.
El periodograma de los residuos debe presentar amplitudes destacables en casi
toda la gama de frecuencias. El periodograma acumulativo de los residuos debe
producir una curva de amplitudes sobre la recta de reposo sin presentar patrones de
oscilación en ninguna zona de frecuencias.
También existen métodos de otro tipo para contrastar la bondad del modelo
univariante estimado. Conviene estimar el modelo excluyendo algunas observaciones
al final de la muestra. Si esto provoca una variación sensible en los valores estimados
de los parámetros podría indicar una variación reciente de la estructura estocástica
subyacente, lo que desaconsejaría el modelo para fines predictivos.
Por otro lado, los modelos ARMA(p,q) deben cumplir las condiciones de
estacionariedad e invertibilidad. Por tanto, si representamos el proceso ARMA(p,q) de
la forma (B) Xt = v(B)at y alguna de las raíces de las ecuaciones (B) = 0 y v(B)=0
es menor que uno en módulo, el modelo es rechazable.

Si alguna de las raíces de la ecuación (B) = 0 es muy próxima a la unidad, la


serie original puede estar subdiferenciada y precisará alguna diferenciación adicional.
Si alguna de las raíces de la ecuación v(B) = 0 es muy próxima a la unidad, la serie
original puede estar sobrediferenciada. Si coincide una raíz de ambas ecuaciones, se
puede cancelar un orden en el proceso, pasando a un ARMA(p-1,q-1).

3.8.4 Predicción en modelos ARIMA


Los modelos ARIMA proporcionan no solamente una predicción puntual,
sino la distribución de probabilidad completa para los valores futuros de la serie.
Considerando una predicción óptima a aquélla con un error cuadrático medio de
predicción mínimo, trataríamos de elegir nuestra predicción a horizonte l, Zt(l), tal
que E[et2(l)] = E{ [Xt+1-Zt(l)]2 } fuese mínimo. En general se puede demostrar que
dicha predicción viene dada por la esperanza condicionada de Xt+l, es decir:
Zt(l) = E[Xt+l /Xt,Xt-1,...,X1]

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 75

El cálculo real de la predicción Zt(l) puede hacerse de forma recursiva


utilizando el modelo ARIMA estimado, de forma que si escribimos el modelo como

dt = 1 dt-1 +...+ pdt-p + at - v1at-1 - ... - vq at-q


donde dt es la diferencia de orden d de Xt (supuesto Xt no estacionaria y convertible
en estacionaria mediante un proceso de d diferenciaciones consecutivas).
Para calcular la predicción Zt(l), se comienza calculando la estimación de
dt(1) como la esperanza condicionada de dt+1, y posteriormente se calcula la
estimación de dt(2), y así sucesivamente hasta calcular la estimación de dt(l). Una
vez que la serie dt ha sido predicha, podemos obtener una predicción de Xt
sumando dt d veces. Para calcular la predicción Zt(l) utilizamos la siguiente
fórmula:
Zt(l)= ldt + l+1 dt-1 +l+2 dt-2 +...= Zt+l

3.9 MODELOS ARIMA CON R. IDENTIFICACIÓN,


ESTIMACIÓN, DIAGNOSIS Y PREDICCIONES
Como ejemplo, ajustaremos a un modelo ARIMA adecuado una serie de
100 datos relativos a la demanda semanal de un manufacturero relativa a
contenedores de plástico que utilizan las compañías farmacéuticas. El
manufacturero necesita predecir el número de contenedores que le serán
demandados en las 10 semanas siguientes con vistas a su producción. Utilizaremos
la metodología de Box y Jenkins para realizar las predicciones. Los 100 datos se
encuentran en la variable plastic del fichero marima.sav. Esta serie ya había sido
estudiada previamente y sabemos que no es estacional ni estacionaria, pero su
primera diferencia sí es estacionaria, por lo tanto la series es I(1).

> library(foreign)
> datos=read.spss("K:/CURSOR2017/marima.SAV")
> attach(datos)
> serieplastic=ts(plastic,frequency=1)
> plot(serieplastic)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

76 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> periodogram=spec.pgram(serieplastic)

> acf(serieplastic,lag.max=48)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 77

> pacf(serieplastic,lag.max=48)

> dserieplastic=diff(plastic,lag=1)
> plot(dserieplastic, type="l")

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

78 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> acf(dserieplastic)

> pacf(dserieplastic)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 3. MÉTODOS AUTOPROYECTIVOS ESTOCÁSTICOS… 79

> estimacion=arima(serieplastic, order=c(0,1,2))


> estimacion

Call:
arima(x = serieplastic, order = c(0, 1, 2))

Coefficients:
ma1 ma2
0.6524 -0.0826
s.e. 0.1027 0.0936

sigma^2 estimated as 24549: log likelihood = -641.2, aic =


1288.4

> predicciones=predict(estimacion, n.ahead=10)


> predicciones
$pred
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 5542.647 5532.249 5532.249 5532.249 5532.249 5532.249
5532.249 5532.249 5532.249 5532.249

$se
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 156.6797 302.6120 389.9560 461.0395 522.5410 577.5299
627.7201 674.1841 717.6461 758.6222

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

80 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> auto.arima(serieplastic)
Series: serieplastic
ARIMA(0,1,1)

Coefficients:
ma1
0.7264
s.e. 0.0674

sigma^2 estimated as 24981: log likelihood=-641.58


AIC=1287.16 AICc=1287.28 BIC=1292.35

> modelo=auto.arima(serieplastic)
> modelo

Series: serieplastic
ARIMA(0,1,1)

Coefficients:
ma1
0.7264
s.e. 0.0674

sigma^2 estimated as 24981: log likelihood=-641.58


AIC=1287.16 AICc=1287.28 BIC=1292.35

> predict(modelo,n.ahead=10)

$pred
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 5546.469 5546.469 5546.469 5546.469 5546.469 5546.469
5546.469 5546.469 5546.469 5546.469

$se
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 158.0548 315.3302 416.9952 498.3341 568.1449 630.2702
686.7986 739.0157 787.7792 833.6953

La ecuación del modelo ARIMA(0,1,1) estimado será la siguiente:


(1-B)Yt = (1+0,727B)at  Yt – Yt-1 = at + 0,727Bat-1

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

4Capítulo 4

MODELOS ARIMA ESTACIONALES Y


GENERALES. IDENTIFICACIÓN,
ESTIMACIÓN, DIAGNOSIS Y PREDICCIÓN.
METODOLOGÍA BOX JENKINS

4.1 SERIES TEMPORALES ESTACIONALES. DETECCIÓN


DE LA ESTACIONALIDAD
Las series estacionales presentan oscilaciones que se producen con un
período igual o inferior a un año, y que se reproducen de manera reconocible en los
diferentes años. El motivo principal que induce a estudiar la componente estacional
es que en la inmensa mayoría de las series económicas dicha componente provoca
una distorsión de su verdadero movimiento. Para eliminar estas distorsiones y
captar el movimiento real de la serie, es necesario eliminar las oscilaciones
estacionales desestacionalizando la serie.

Cuando se representa una serie temporal mediante yt, se suponen todas las
observaciones ordenadas una detrás de otra tal y como se van produciendo (t = 1, 2, …,
T). Cuando representamos una serie temporal por yik , estamos considerando
explícitamente el año i (i = 1, 2, …, N) y la estación del año k (k = 1, 2, …., m).
Cuando la estación es el año m = 12 , y cuando es el trimestre, m = 4. Siempre se
tiene que T = Nm
Para detectar la estacionalidad en la práctica pueden utilizarse los
siguientes caminos:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

82 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

• El gráfico de la serie da una idea de los posibles períodos estacionales.


• El gráfico de las subseries estacionales identifica gráficamente los
períodos estacionales presentando secciones sucesivas de los mismos.
• El gráfico de las subseries anuales valida gráficamente los períodos
estacionales presentando comportamientos paralelos para cada estación.

• Las funciones de autocorrelación y autocorrelación parcial estimadas


también validan los períodos estacionales de acuerdo a las siguientes
consideraciones:
➢ Los coeficientes de la FAC para retardos múltiplos del período
estacional de la serie deben ser significativamente distintos de cero.
➢ Para una cantidad grande de retardos la FAC se configura en forma de
abanico que completa su ciclo girando sobre el eje de abscisas para una
cantidad de retardos igual al período estacional. La FACP debe
presentar estructura de coeficientes significativos para retardos
periódicos (largos).
➢ La FAC y la FACP deben considerase a la vez, pues a veces
intercambian sus papeles en el comportamiento estacional.

• El periodograma, que es una figura que transforma la serie temporal de su


dominio natural (que es el tiempo) al dominio de las frecuencias (a los valores
de la serie se les aplican transformaciones de Fourier). Se representan
frecuencias en el eje X y amplitudes en el eje Y. Respecto del periodograma
tendremos en cuenta lo siguiente:
➢ Si no hay picos destacables en el periodograma no hay estacionalidad.

➢ Cada pico destacable identifica un período que incluso puede ser un ciclo.

➢ A cada amplitud destacable le corresponde una frecuencia cuya inversa


es el período estacional o el ciclo, con lo que el periodograma
identifica la longitud del período estacional y en su caso el ciclo.

➢ Las amplitudes más fuertes, correspondientes a valores más bajos de las


frecuencias suelen corresponder a ciclos y las menos fuertes
(correspondientes a valores no tan bajos de las frecuencias) suelen
corresponder a estaciones. Si hay dudas entre ciclos y estaciones
podemos apoyarnos en las funciones de autocorrelación para
discriminar.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 83

• El periodograma acumulativo, que representa en el eje de abscisas las


frecuencias y en el de ordenadas las amplitudes acumuladas. Respecto del
periodograma acumulativo tendremos en cuenta lo siguiente:
➢ Para una serie aleatoria coincide con la diagonal del primer cuadrante.
➢ Desvíos bruscos de la diagonal provocan presencia de ciclos o
estaciones para las respectivas frecuencias, que serán ciclos cuando las
frecuencias sean bajas.
La desestacionalización es una tarea no trivial que ha dado lugar a multitud
de estudios y algoritmos, entre los que destacan los programas X11 y X12 del
Bureau of the Census de Estados Unidos. A nivel trivial, existen varios métodos de
desestacionalización. Los más sencillos son el método de la tendencia, el método
de las medias móviles, el método de las diferencias estacionales y el método de las
variables ficticias.
El método de desestacionalización de las diferencias estacionales permite
eliminar la mayor parte del efecto estacional de una serie, y consiste en obtener la
serie de diferencias de orden m (período estacional), definida como zt = yt – yt − m.
De todos modos, es conveniente recordar que en cada diferenciación de
orden m perdemos m observaciones de la serie original. La decisión de diferenciar
estacionalmente la serie se basa en la FAC con el mismo criterio que para la
diferenciación estacionaria pero considerando sólo los retardos referidos a períodos
estacionales (m y sus múltiplos). Si los coeficientes de la FAC no decaen
rápidamente en los retardos múltiplos del período estacional m hay que diferenciar
estacionalmente la serie original.
La eliminación de las variaciones estacionales, para inducir la
estacionariedad, suele hacerse casi siempre, mediante la diferenciación estacional.
Si los datos son mensuales, la diferenciación estacional de la serie temporal Xt,
consiste en calcular Zt = Xt - Xt-12. Con datos trimestrales calcularíamos Zt = Xt - Xt--
4. Si después de efectuar esta transformación la serie sigue presentando evidencias
de variaciones estacionales, es posible aplicar de nuevo el procedimiento, es decir,
calcular las diferencias de segundo orden, y así sucesivamente.

4.2 MODELOS ESTACIONALES PUROS


Un modelo estacional de período s se denomina puro si sólo existe relación entre
las observaciones que distan entre sí s períodos o múltiplos de s. En la práctica no serán
estos los modelos estacionales más habituales, sino que es común una estructura
multiplicativa que mezcla la parte estacional con la parte regular estudiada en el capítulo
anterior. De esta forma, tenemos los modelos ARIMA generales.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

84 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

4.2.1 Modelos autoregresivos estacionales AR(P)s


Un modelo autorregresivo (AR) estacional describe una clase particular de proceso en el
que las observaciones en un momento dado son predecibles a partir de las observaciones en los
período estacionales previos del proceso más un término de error. El caso más simple es el AR
(1,0,0)s, o AR(1)s o estacional de primer orden, cuya expresión matemática es:

Xt = 1 Xt-s + at

El proceso autorregresivo estacional de orden p, representado por ARIMA(P,0,0)s, o


simplemente por AR(P)s toma la forma:

Xt = 1 Xt-s + 2 Xt-2s +...+ PXt-Ps + at

que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

(1- 1Bs - 2B2s -...- PBPs) Xt = at Bk(Xt) = Xt-k

Un proceso autorregresivo estacional AR(P)s es estacionario si las raíces del polinomio


en B dado por: 1- 1Bs - 2B2s -...- PBPs caen fuera del círculo unidad.

 a2
La varianza de un proceso AR(1)s es: g 0 =
1 − 1

La función de autocovarianza de un proceso AR(1)s es:

 a2
g k = 1k k 1
1 − 1

La función de autocorrelación de un proceso AR(1)s es :

hk = 1k k 1

La función de autocorrelación parcial de un proceso AR(1)s es:

 para j=s
hkk =  1
0 para js

La varianza de un proceso AR(2) es: g 0 = 1 g s +  2 g 2 s +  a2

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 85

La función de autocovarianza de un proceso AR(2)s es:

g k = 1 g ( k −1) s +  2 g ( k − 2) s k 1

La función de autocorrelación de un proceso AR(2)s es :

hk = 1 h( k −1) s +  2 h( k −2) s k 1

La función de autocorrelación parcial de un proceso AR(2)s es:

 1
h1 = para j = s
 1 −  2
 h − h 2
hkk =  2 21 =  2 para j = 2s
 1 − h1
0 para j  s y 2s



4.2.2 Modelos de medias móviles estacionales MA(Q)s


En un modelo MA(Q)s el valor actual puede predrecirse a partir de la
componente aleatoria de este momento y, en menor medida, de los impulsos
aleatorios anteriores en los períodos múltiplos del período estacional. El modelo
ARIMA(0,0,1)s, también denotado por MA(1)s, viene dado por la expresión:

Xt = at - 1 at-s
El proceso de medias móviles de orden Q, representado por
ARIMA(0,0,Q)s, o también por MA(Q)s, viene dado por la expresión:

Xt = at - 1 at-s - 2 at-2s - .... - Q at-Qs


que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

Xt = (1 - 1Bs - 2B2s - .... - QBQs) at


Un proceso de medias móviles es siempre estacionario.
Un proceso de medias móviles MA(q) es invertible si las raíces del polinomio en
B definido por: 1 - 1Bs - 2B2s - .... - QBQs caen fuera del círculo unidad.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

86 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

La varianza de un proceso MA(1)s es: g 0 =  a2 (1 + 12 )

La función de autocovarianza de un proceso MA(1)s es:

− 1 a2 para k = s
gk = 
0 para k  s

La función de autocorrelación de un proceso MA(1)s es :

 − 1
 para k = s
hk = 1 + 12
0 para k  s

La función de autocorrelación parcial de un proceso MA(1)s es:

− 1k (1 − 12 )
hkk = para k  1
1 − 12( k +1)

La varianza de un proceso MA(2)s es: g 0 =  a2 (1 + 12 +  22 )

La función de autocovarianza de un proceso MA(2)s es:

− (1 + 1 2 ) a2 para k = s



. g k = −  2 a2 para k = 2s
0 para k  2 y 2s

La función de autocorrelación de un proceso MA(2)s es:

 − 1 + 1 2
 1 +  2 +  2 para k = 1
 1 2

 − 2
hk =  para k = 2
1 +  2
1 +  2
2
0 para k  2

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 87

La función de autocorrelación parcial de un proceso MA(2)s es:

 hs para k = s

 h2 s − hs
2
para k = 2s
 1 − hs2
hkk =  3
 hs − hs h2 s (2 − h2 s ) para k = 3s
1 − h 2 − 2h 2 (1 − h )
 2s 1s 2s



4.2.3 Modelos estacionales ARMA(P,Q)s


Una extensión natural de los modelos AR(P)s y MA(Q)s es un tipo de
modelos que incluyen tanto términos autorregresivos estacionales como de medias
móviles y se definen como ARMA(P,Q)s o también como ARIMA(P,0,Q)s. Se
representan por la ecuación:

Xt = 1 Xt-s + 2 Xt-2s +...+ p Xt-Ps + at - 1 at-s - 2 at-2s - .... - Q at-Qs

que puede ponerse de la forma:

Xt - 1 Xt-s - 2 Xt-2s -...- p Xt-Ps = at - 1 at-s - 2 at-2s - .... - Q at-Qs

o sea:

(1- 1Bs - 2B2s -...- PBPs ) Xt = (1 - 1Bs - 2B2s - .... - QBQs ) at

El proceso ARMA(P,Q)s es estacionario si lo es su componente


autorregresiva, y es invertible si lo es su componente de medias móviles. Por lo tanto,
podemos decir que un modelo ARMA(P,Q)s es invertible si las raíces del polinomio
en B definido mediante 1 - 1Bs - 2B2s - .... - QBQs caen fuera del círculo unidad.

Un modelo ARMA(P,Q)s es estacionario si las raíces del polinomio definido


por 1- 1Bs - 2B2s -...- PBPs caen fuera del círculo unidad.

 a2 (1 + 12 − 211 )
La varianza de un proceso ARMA(1,1)s es: g 0 =
1 − 12

La función de autocovarianza de un proceso ARMA(1,1)s es:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

88 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

 a2 (1 − 11 )(1 − 1 )
 para k = 1
gk =  1 − 12
 g para k  1
 1 ( k −1) s

La función de autocorrelación de un proceso ARMA(1,1) es:

 (1 − 11 )(1 − 1 )
 para k = 1
hk =  1 − 12 − 211
 h para k  1
 1 ( k −1) s

La función de autocorrelación parcial de un proceso ARMA(p,q) es:

 hs para k = s

 h2 s − hs
2
para k = 2s
 1 − h12
hkk =  3
 hs − hs h2 s (2 − h2 s ) + h3s (1 − hs ) para k = 3s
2

 1 − h22s − 2hs2 (1 − h2 s )



4.2.4 Modelos ARIMA(P,D,Q)s estacionales puros


Un modelo ARIMA(0,D,0)s estacional puro es una serie temporal que se
convierte en un ruido blanco (proceso puramente aleatorio) después de ser
diferenciada D veces estacionalmente. El modelo general ARIMA(P,D,Q)s
denominado proceso autorregresivo integrado de medias móviles de orden P, D, Q,
toma la siguiente expresión:

(1- 1Bs - 2B2s -...- PBPs)(1-Bs)D Yt = (1 - 1Bs - 2B2s - .... QBQs )at

Un modelo ARIMA(P,D,Q)s estacional puro permite describir una serie de


observaciones después de que hayan sido diferenciadas D veces, a fin de extraer las
posibles fuentes de no estacionariedad. Esta fórmula general se puede aplicar a
cualquier modelo. Si hay alguna componente P,D,Q igual a cero, se elimina el
término correspondiente de la fórmula general.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 89

4.2.5 Identificación de modelos estacionales puros


Para identificar modelos estacionales puros se siguen las mismas reglas que
en los no estacionales, teniendo presente ahora que las gráficas de la funciones de
autocorrelación y autocorrelación parcial son similares al caso no estacional pero
para retardos múltiples del período estacional. Por ejemplo, en la Figura 5-1 se
muestran las funciones de autocorrelación de un modelo AR(1) y de un modelo
AR(1)s con estacionalidad trimestral. Se observa que las estructuras de las dos
funciones de autocorrelación son semejantes considerando los retardos múltiples
del período estacional en el caso de la serie estacional pura.

Figura 5-1

Para identificar un modelo AR(2)s basta observar que su función de


autocorrelación se comporta como la de un AR(2) no estacional, pero considerando los
retardos múltiplos del periodo estacional. La primera línea de dos gráficos de la Figura
5-2, o sea, Figuras a) y b), muestran funciones de autocorrelación de modelos AR(2)s.

Este mismo criterio se sigue para identificar las estructuras MA(1)s, MA(2)s y
ARMA(1,1)s. Las dos gráficas de la segunda línea de la Figura 5-2, o sea, Figuras c) y
d), identifican modelos estacionales puros de medias móviles de orden 1 MA(1)s.

Las dos gráficas de la tercera línea de la Figura 5-2, o sea, Figuras e) y f),
identifican modelos estacionales puros de medias móviles de orden 2 MA(2)s.

Las dos gráficas de la última línea de la Figura 5-2, o sea, Figuras g) y h),
identifican modelos estacionales puros de ARMA(1,1)s.

Se observa claramente que las estructuras de las funciones de autocorrelación


son semejantes al caso no estacional considerando solamente los retardos de la función
de autocorrelación relativos a los múltiplos del período estacional.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

90 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Figura 5-2

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 91

4.3 MODELOS ESTACIONALES GENERALES


En los modelos estacionales frecuentementemente no están solamente
relacionadas las observaciones que distan entre sí múltiplos del período estacional,
sino que lo habitual es que dentro de períodos no estacionales también existan
relaciones. Los modelos que mezclan estos dos tipos de interrelaciones entre las
observaciones son los modelos estacionales generales, también denominados
modelos estacionales multiplicativos.

Un modelo estacional general será de la forma ARIMA(p,d,q)(P,D,Q)s


donde p, d y q son los parámetros de la parte regular y P,D y Q son los parámetros
de la parte estacional. Su ecuación general podría expresarse en términos del
operador diferencias B de la siguiente forma:

(1-1Bs - 2B2s -...- PBPs) (1- 1B - 2B2 -...- pBs)(1-Bs)D (1-B)dXt =
(1 - 1Bs - 2B2s - .... - QBQs) (1- 1B - 2B2 -...- qBq)at

4.3.1 Modelos estacionales generales con parte regular


autorregresiva. Identificación
Consideraremos los casos más sencillos y más habituales en la práctica.

Para un modelo ARIMA(1,0,0)(1,0,0)12 la expresión será :

(1-1B12) (1- 1B) Xt = at

La características más importantes de su función de autocorrelación son :

1) Al ser la parte regular AR, las autocorrelaciones nunca se anulan.


2) Para retardos pequeños el comportamiento es el propio de la parte regular
AR(1) siendo todos los coeficientes positivos si 1>0 y alternativos si
1<0.
3) En cuanto a los retardos estacionales, dado que la parte estacional es AR,
las autocorrelaciones para estos retardos tampoco se anulan, siendo el
comportamiento de la función de autocorrelación para ellos la propia de un
proceso estacional de orden 1.
4) Las interdependencias entre las partes regular y estacional, finalmente se
manifiestan claramente en los retardos próximos a los períodos
estacionales.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

92 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

La Figura 5-3 muestra distintas formas de las funciones de autocorrelación


y autocorrelación parcial de un modelo ARIMA(1,0,0)(1,0,0)12

Figura 5-3
Para un modelo ARIMA(1,0,0)(0,0,1)12 la expresión será :

(1- 1B) Xt = (1-1B12) at


En este tipo de modelos estacionales multiplicativos los comentarios son
similares al caso anterior matizando que, como la parte estacional es ahora MA(1),
sólo el coeficiente de autocorrelación estacional correspondiente al primer período
estacional será claramente distinto de cero.
Por tanto la representación de la Figura 5-3 sigue siendo válida para modelos
ARIMA(1,0,0)(0,0,1)12 con la salvedad de que sólo el coeficiente de autocorrelación
estacional correspondiente al primer período estacional será claramente distinto de cero.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 93

Para un modelo ARIMA(2,0,0)(1,0,0)12 la expresión será :

(1-1B12) (1- 1B - 2B2) Xt = at

La características más importantes de sus funciones de autocorrelación y


autocorrelación parcial son:

1) La función de autocorrelación se amortigua lentamente siguiendo patrones


de abanico con ciclo completo en el retardo 12 y sus múltiplos. La forma
del patrón depende de los coeficientes del modelo.
2) La función de autocorrelación parcial tiene también un patrón estacional
con salto en el retardo 12, correspondiente a la duración del período
estacional en el modelo, y significación en los dos primeros retardos. Este
comportamiento recuerda al de un AR(2) considerando los patrones de
estacionalidad.

Las Figuras 5-4 y 5-5 muestran distintas formas de las funciones de


autocorrelación y autocorrelación parcial de un modelo ARIMA(2,0,0)(1,0,0)12

Figura 5-4

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

94 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Figura 5-5

4.3.2 Modelos estacionales generales con parte regular de


media móvil. Identificación
Para un modelo ARIMA(0,0,1)(0,0,1)12 , también denominado modelo
líneas aéreas, la expresión será :

Xt = (1-1B12) (1- 1B) at

Respecto de la función de autocorrelación tendremos en cuenta las


siguientes características :

1) Dado que la parte estacional es MA(1)12, las autocorrelaciones


correspondientes a períodos estacionales sólo serán distintas de cero para el
primer retardo estacional.

2) Dado que la parte regular del modelo es MA(1), el único valor del
coeficiente de autocorrelación distinto de cero para retardos pequeños será el
1.

3) Las interdependencias entre las partes regular y estacional del modelo sólo
afectarán a un período alrededor del retardo estacional distinto de cero,
como consecuencia de que la parte regular del modelo es MA(1).

La Figura 5-6 muestra distintas formas de las funciones de autocorrelación


(izquierda) y autocorrelación parcial (derecha) de un modelo ARIMA(0,0,1)(0,0,1)12

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 95

Figura 5-6

Para un modelo ARIMA(0,0,2)(0,0,1)12 la expresión será :

Xt = (1-1B12) (1- 1B- 2B2) at

Respecto de la función de autocorrelación tendremos en cuenta las


siguientes características :

1) Las consideraciones para la parte estacional son las mismas del caso anterior,
ya que nuevamente estamos ante un MA(1)12.

2) Dado que la parte regular del modelo es MA(2), los valores del coeficiente
de autocorrelación distintos de cero para retardos pequeños serán 2.

3) Las interdependencias entre las partes regular y estacional del modelo afectan
a dos períodos alrededor del retardo estacional distinto de cero, como
consecuencia de que la parte regular del modelo es MA(2).

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

96 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

La Figura 5-7 muestra distintas formas de las funciones de autocorrelación


(izquierda) y autocorrelación parcial (derecha) de un modelo
ARIMA(0,0,2)(0,0,1)12

Figura 5-7

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 97

Para un modelo ARIMA(0,0,1)(1,0,0)12 la expresión será :

(1-1B12) Xt = (1- 1B) at

Respecto de la función de autocorrelación tendremos en cuenta las


siguientes características :

1) Dado que la parte estacional es AR(1), para los retardos estacionales múltiplos
del período estacional, las autocorrelaciones no se anulan, si bien irán
decreciendo progresivamente.

2) Dado que la parte regular del modelo es MA(1), los valores del coeficiente de
autocorrelación distintos de cero para retardos pequeños serán únicamente el 1.

3) Las interdependencias entre las partes regular y estacional del modelo se


concretan en que aparecerá un coeficinte de autocorrelación distinto de
cero alrededor del retardo estacional, como consecuencia de que la parte
regular del modelo es MA(1).

Las Figuras 5-8 y 5-9 muestran distintas formas de las funciones de


autocorrelación de un modelo ARIMA(0,0,1)(1,0,0)12 :

Figura 5-8 Figura 5-9

Para un modelo ARIMA(0,0,2)(1,0,0)12 la expresión será :

(1-1B12) Xt = (1- 1B- 2B2) at

Respecto de la función de autocorrelación tendremos en cuenta las


siguientes características :

1) Las consideraciones para la parte estacional serán las mismas que en el caso
anterior porque estamos nuevamente ante un AR(1)12.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

98 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

2) Dado que la parte regular del modelo es MA(2), los valores del coeficiente
de autocorrelación distintos de cero para retardos pequeños serán 2.
3) Las interdependencias entre las partes regular y estacional del modelo afectan a
dos períodos alrededor del retardo estacional distinto de cero, como
consecuencia de que la parte regular del modelo es MA(2). Aparecerán dos
coeficientes de autocorelación distintos de cero alrededor del retardo estacional.
Las Figuras 5-10 a 5-13 muestran distintas formas de las funciones de
autocorrelación de un modelo ARIMA(0,0,2)(1,0,0)12

Figura 5-10 Figura 5-11

Figura 5-12 Figura 5-13

4.3.3 Identificación de modelos estacionales


ARIMA(p,d,q)(P,D,Q)s
La primera tarea es siempre realizar diferenciaciones adecuadas estacionales y
regulares que transformen la serie en estacionaria, es decir, identificar D y d para que las
partes regular y estacional sean estacionarias. Para ver la estacionariedad de la parte
estacional, el método es el ya conocido para la parte regular pero considerando sólo
retardos múltiples del período estacional, lo que exige bastantes valores en la serie. A
continuación se analizarán las formas de las funciones FAC y FACP para adecuarlas a
un determinado modelo ARMA. Par ello, el cuadro siguiente muestra pautas.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 99

Modelo ARIMA Coeficientes de la FAC Coeficientes de la FACP


ARIMA(p,0,0)(P,00)s Patrón estacional en s. Pierden significación en
(gráficos g) y h) en 3-14) Amortiguamiento lento el retardo p+1
ARIMA(0,0,q)(0,0,Q)s Pierden significación en Patrón estacional en s-1.
(gráficos a) y b) en 3-14) el retardo q+1 Amortiguamiento lento
ARIMA(p,0,q)(P,0,Q)s Patrón estacional para la Patrón estacional para la
zona del retardo s. zona del retardo s.
Amortiguamiento lento Amortiguamiento lento

La Figura 5-14 muestra las FAC de varios modelos estacionales generales. Los
gráficos a) y b) se ajustan a un modelo de líneas aéreas ARIMA(0,0,1)(0,0,1)s. Los
gráficos c) y d) se ajustan a un modelo ARIMA(0,0,2)(0,0,1)s. Los gráficos e) y f) se
ajustan a un modelo ARIMA(0,0,1)(1,0,0)s. Los gráficos g) y h) se ajustan a un modelo
ARIMA(1,0,0)(1,0,0)s.

Figura 5-14

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

100 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

4.3.4 Estimación de modelos ARIMA(p,d,q)(P,D,Q)s


Considerando que un modelo ARMA(p,q)(P,Q)s puede escribirse siempre
en su forma extendida como un modelo ARMA(Ps+p,Qs+q), el análisis de la
estimación en los modelos ARMA regulares puede ser válido para extenderlo a los
modelos ARMA estacionales generales.
Partiendo del modelo ARIMA(p,d,q) siguiente :

(1- 1B - 2B2 -...- pBs) (1-B)dXt = +(1- 1B - 2B2 -...- qBq)at
y considerando wt = (1-B)dXt tenemos:

wt = 1 wt-1 - 2 wt-2 -...- p wt-p+ + at - 1 at-1 - 2 at-2 -...- qat-q


En el proceso de estimación se trata de obtener los mejores estimadores
posibles para los parámetros del modelo ’ = (,1 , 2 ,...p ) y a2.
Los dos métodos de estimación más utilizados son el de mínimos cuadrados y
el de máxima verosimilitud (que es el más recomendable). El método de máxima
verosimilitud exige que los at sean normales idénticamente distribuidos at→ NID(0,
a2) y que wt sea un proceso estacionario e invertible.

Si aplicamos el criterio de mínimos cuadrados, el problema consiste en


obtener  que minimice la función objetivo:
T T

[at ( / w)]2 =  aˆt2


t =1 t =1

La solución de este problema exige el conocimiento de valores iniciales:


w0’=(w0, w-1, …, w1-p) u0’ =(u0, u-1,…,u1-q)
Además, cuando el modelo tiene términos de medias móviles, no será lineal en
los parámetros, por lo que deberán aplicarse métodos de estimación no lineales.
Conocidos los valores iniciales, podemos aplicar el enfoque condicional de
estimación mediante el método de máxima verosimilitud (se llama enfoque condicional
de estimación porque utilizada valores iniciales previamente conocidos). La función de
verosimilitud condicional a los valores iniciales mencionados es:

 1 
( )
T

[a ( / w, w
−T / 2
L(  ,  a2 / w, w 0 , u 0 ) = 2 a2 exp− 0
, u 0 )]2 
 2 a
2 t
t =1 

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 101

 1 
( )
T

 aˆ
−T / 2
L(  ,  a2 / w, w 0 , u 0 ) = 2 a2 exp− 2

 2 a
2 t
t =1 
En el proceso de estimación se trata de obtener los mejores estimadores
posibles para los parámetros del modelo  y a2.
Otra alternativa es el enfoque no condicional de estimación en el que no
se asume el conocimiento de valores iniciales y que parte de la función de
verosimilitud exacta:
 1 
( )
T

[ E (a )] 
−T / 2
L(  ,  a2 / w, w 0 , u 0 ) = 2 a2 exp− 2

 2 a
2 c t
t =1− p − q 
donde Ec (at ) es la esperanza condicional de at a los valores muestrales de la serie
w y de los parámetros  y a2.
Los estimadores máximo verosímiles exactos serán, por tanto, los valores
de  y a2 que maximicen la función de verosimilitud exacta.

4.3.5 Validación de modelos ARIMA(p,d,q)(P,D,Q)s y predicción


Las tareas de validación de un modelo estacional general son equivalentes a
las ya expresadas en el capítulo anterior para un modelo ARIMA. Pueden
considerarse las siguientes fases :

Análisis de los coeficientes estimados: Estudio de la significatividad individual y


conjunta de los coeficientes estimados.

Análisis de los residuos: Los residuos deben tener media cero, varianza constante,
estar incorrelados y distribuirse normalmente. Su comportamiento ha de acercarse al de
un ruido blanco. Los contrastes para estas tareas ya se vieron en el capítulo anterior.

Análisis de la estabilidad: Se trata de realizar contrastes para asegurar la validez


del modelo en el futuro. Para ello se aplican los contrastes típicos de estabilidad
estructural. Una prueba sencilla de estabilidad es tomar dos períodos muestrales
distintos y estimar los parámetros para cada período. El modelo será estable si
ambas estimaciones no son muy diferentes.
Una vez validado el modelo será útil para predecir. Las tareas de
predicción son similares a las expuestas en el capítulo anterior. También podemos
evaluar su capacidad predictiva mediante los contrastes adecuados.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

102 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

4.4 R Y LA IDENTIFICACIÓN DE MODELOS


ARIMA(P,D,Q)(P,D,Q)S
> library(foreign)
> datos=read.spss("H:/CURSOR2017/estacional.SAV")
> attach(datos)
> serieX=ts(X,start=c(1968,1),frequency=12)
> plot(serieX)

Gráficamente se observa estacionalidad, pero para certificarlo construimos


el periodograma.

> periodogram=spec.pgram(serieX)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 103

Como el periodograma presenta un segundo pico muy significativo en la


frecuencia 0,08, la series es estacional con período 1/0,08=12, es decir, la serie es
estacional mensual.

> acfserieX=acf(serieX, calc.ci=TRUE,level=95, lag.max=48)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

104 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Como se trata de una serie con estacionalidad, para suavizarla y realizar


predicciones con ella, utilizaremos el método de suavizado estacional de Winters.

> dserieX=diff(serieX,lag=1)
> plot(dserieX)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 105

> acfserieX=acf(dserieX, calc.ci=TRUE,level=95, lag.max=48)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

106 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> ddsserieX=diff(dserieX, lag=12)


> acfddsserieX=acf(ddsserieX, calc.ci=TRUE,level=95,
lag.max=48)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 107

> pacfddsserieX=pacf(ddsserieX, calc.ci=TRUE,level=95,


lag.max=48)

ARIMA(0,1,2)(0,1,1)12
ARIMA(1,1,0)(2,1,0)12

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

108 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

> estimacion=arima(serieX, order=c(0,1,2),


seasonal=list(order=c(0,1,1),period=12))
> estimacion

Call:
arima(x = serieX, order = c(0, 1, 2), seasonal = list(order =
c(0, 1, 1), period = 12))

Coefficients:
ma1 ma2 sma1
-0.1979 0.0825 -0.7871
s.e. 0.0820 0.0898 0.0950

sigma^2 estimated as 193.6: log likelihood = -625.74, aic =


1259.48

> predicciones=predict(estimacion, n.ahead=12)


> predicciones

$pred
Jan Feb Mar Apr May Jun
Jul Aug Sep
1981
1982 11.30572 14.90605 56.10717 71.77998 76.96183 79.63436
69.94474 69.93116 64.26847
Oct Nov Dec
1981 54.04990 28.70516
1982 71.21056

$se
Jan Feb Mar Apr May Jun
Jul Aug Sep
1981
1982 21.68004 24.93216 27.80649 30.41035 32.80819 35.04234
37.14235 39.12982 41.02110
Oct Nov Dec
1981 13.91889 17.84357
1982 42.82895

> estimacion1=arima(serieX, order=c(1,1,0),


seasonal=list(order=c(2,1,0),period=12))
> estimacion1

Call:
arima(x = serieX, order = c(1, 1, 0), seasonal = list(order =
c(2, 1, 0), period = 12))

Coefficients:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 4. MODELOS ESTACIONALES Y GENERALES… 109

ar1 sar1 sar2


-0.1978 -0.4467 -0.1532
s.e. 0.0828 0.0827 0.0899

sigma^2 estimated as 229.4: log likelihood = -634.18, aic =


1276.37
> predicciones1=predict(estimacion1, n.ahead=12)
> predicciones1
$pred
Jan Feb Mar Apr May
Jun Jul
1981
1982 6.0153478 0.4573056 32.3312242 45.2395202 40.9765525
46.3700396 39.9620641
Aug Sep Oct Nov Dec
1981 46.2031033 22.4731176
1982 36.2476171 36.7606789 42.6838745

$se
Jan Feb Mar Apr May Jun
Jul Aug Sep
1981
1982 23.22359 26.43323 29.30328 31.91446 34.32792 36.58244
38.70588 40.71872 42.63665
Oct Nov Dec
1981 15.14527 19.41599
1982 44.47194

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

Capítulo 5

ANÁLISIS DE LA INTERVENCIÓN Y MODELOS


DE LA FUNCIÓN DE TRANSFERENCIA.

5.1 MODELOS DE INTERVENCIÓN

La técnica del análisis de la intervención consiste en evaluar el efecto de


determinadas intervenciones en el comportamiento de una serie temporal. Estas
intervenciones se derivan del hecho de que las series reales se ven con frecuencia
afectadas (intervenidas) por sucesos puntuales conocidos como huelgas, años bisiestos,
cambios legales, accidentes, cambios en una festividad. Si realizamos una
modelización de estos efectos en la serie podemos mejorar la precisión de la estimación
de los parámetros y de las previsiones.
La primera idea para la incorporación de una intervención sería considerar una
variable ficticia con valor uno en el período de la intervención y con valor cero en los
restantes períodos, aunque la solución será un poco más compleja.
Box y Tiao (1975) denominaron análisis de intervención a la inclusión en un
modelo de series temporales de variables ficticias para representar sucesos que
producen efectos deterministas. Las variables ficticias más utilizadas para representar
sucesos cualitativos que afectan a la serie son de dos tipos: variables impulso y
variables escalón. Las variables impulso representan sucesos que ocurren únicamente
en un instante, por ejemplo, un accidente, un error de medida o una huelga. Las
variables escalón representan acontecimientos que comienzan en un instante conocido
y se mantienen a partir de ese instante, por ejemplo, una subida de precios, un cambio
legal, un cambio de base en un índice, etc.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

112 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

En el análisis de la intervención el período de ocurrencia del suceso es


conocido, pero desconocemos el período de comienzo de los mismos, aunque su
existencia puede detectarse al observar datos atípicos en la serie (outliers).
Habitualmente, cuando el tiempo y la ocurrencia de los sucesos externos de la
intervención se desconoce, se dice que estamos trabajando con outliers.

5.2 VALORES ATÍPICOS (OUTLIERS)


Cuando se desconoce el tiempo y la causa de los factores extremos creadores
de observaciones atípicas en una serie temporal, estamos ante el análisis de outliers. Es
habitual que ocurran con mucha frecuencia en las series reales hechos puntuales
que desconocemos, como por ejemplo que la serie puede haber estado sometida a
cambios de base o que haya habido errores de medición, etc. Las observaciones
afectadas por estas intervenciones pueden presentar una estructura distinta de las
demás y aparecer como datos atípicos, es decir, datos que aparentemente no han
sido generados igual que las demás.

Es fundamental identificar estas situaciones desconocidas y separarlas de la


dinámica habitual de la serie porque si sus efectos son grandes, pueden sesgar la
estimación de los parámetros, lo que producirá malas predicciones futuras. Además, si
el suceso ha ocurrido en la última parte de la serie y alguna observación afectada se
utiliza para generar predicciones estas no serán buenas, incluso aunque los parámetros
estén bien estimados. Por otro lado, si estos sucesos atípicos pueden volver a aparecer
en el futuro y los identificamos y estimamos sus efectos, podemos incorporar esta
información en las predicciones y obtener intervalos de predicción mejores.

5.2.1 Tipos de outliers


Un modelo ARIMA(p,d,q)(P,D,Q) puede expresarse como sigue:

( B s ) ( B)
zt = ut
( B s ) ( B)(1 − B s ) D (1 − B) d
 (B) = 1 − 1 B −  −  p B p
 (B) = 1 − 1 B −  −  q B q
(B) = 1 − 1 B s −  −  Q B Qs
(B ) = 1 − 1 B −  −  P B Ps

En el caso particular de una ARMA(p,q) tendríamos:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 5. ANÁLISIS DE LA INTERVENCION … 113

 ( B)
zt = ut
 ( B)

que es el modelo que consideraremos en lo que sigue.

5.2.2 Outliers aditivos (AO)


Un outlier aditivo es un suceso que afecta a la serie en un solo instante
temporal t=t0. Por lo tanto podrá expresarse como:

0 si t  t 0
yt = z t + I tt0 donde I tt0 = 
1 si t = t 0

I tt0 es la variable que representa la presencia del outlier en el período t=t0 y


 es el efecto del citado outlier.

Para modelos ARMA(p,q) la presencia de un outlier aditivo se modeliza


como:

 ( B)
yt = ut + I tt 0

 ( B)

5.2.3 Outliers innovacionales (IO)


Un outlier innovacional es un suceso cuyo efecto se propaga en conformidad
con el modelo ARIMA del proceso, afectando a todos los valores observados después
de la ocurrencia. Se puede representar como sigue:

 ( B) t 0 si t  t 0
yt = z t + I t 0
donde I t 0 = 
t

 ( B) 1 si t = t 0
Esta expresión también puede escribirse como:

 ( B)  ( B ) t  ( B)
yt = ut + I t = (ut + I tt ) 0 0

 ( B)  ( B)  ( B)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

114 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

5.2.4 Outliers de cambio en nivel (LS)


Un cambio en nivel es un suceso que afecta a la serie en un periodo dado y
cuyo efecto es permanente. Se puede representar como sigue:

1 0 si t  t 0
yt = z t + I tt0 donde I tt0 = 
1− B 1 si t = t 0

Esta expresión también puede escribirse como:

 ( B)  t  ( B)
yt = ut + It = (ut + I tt )
0 0

 ( B) 1− B  ( B)

También podemos escribir:

0 si t  t 0
y t = z t + S tt0 donde S tt0 = 
1 si t  t 0

Podemos decir entonces que el modelo de un outlier aditivo AO y el de un


cambio en nivel LS es el mismo pero dependiendo el outlier AO de una variable
impulso, mientras que el outlier LS depende de una variable escalón.

5.2.5 Outliers de cambio temporal (TC)


Un cambio temporal es un suceso que tiene un impacto inicial y cuyo efecto
decae exponencialmente en conformidad con un factor de amortiguación . Se puede
representar como sigue:

1 0 si t  t 0
yt = z t + I tt0 donde I tt0 =  0<<1
1 − B 1 si t = t 0

Esta expresión también puede escribirse como:

 ( B)  t  ( B)
yt = ut + It =
0
(ut + I tt ) 0
0<<1
 ( B) 1 − B  ( B)

Como una serie temporal puede tener varios outliers de diferentes tipos, un
modelo general de serie con outliers podría expresarse como sigue:

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 5. ANÁLISIS DE LA INTERVENCION … 115

k
y t =   j j ( B) I jt + z t
j =1

1 para AO
 ( B )
 para IO
 ( B)
 ( B) 
zt = ut  j ( B) =  1
 ( B)  para LS
1 − B
 1
1 − B para TC

Los efectos de los outliers son independientes de la estructura ARIMA de


las series salvo en el caso IO. Los outliers AO y LS son casos límite de TC que se
obtienen para  = 0 y  = 1 respectivamente. El outlier AO causa un efecto
inmediato y único en la serie observada en t = t0 de magnitud . El outlier TC
produce un efecto inicial  en t=t0 de modo que este efecto decae gradualmente en
el tiempo con un factor de amortiguación . El outlier LS introduce un cambio
brusco y permanece en la serie observada de tipo escalón. El outlier IO depende de
la estructura ARIMA de la serie y es el más complicado.

Para detectar outliers existen procedimientos iterativos como el de Chang y


Tiao (1983) y el de Tsay (1986) que detectan el outlier, lo asocian a un modelo de
intervención de acuerdo con su tipo y finalmente estiman dicho modelo.

Más recientemente Chen y Liu (1990) han diseñado un procedimiento


consistente en la detección de los outliers y la estimación conjunta de los parámetros
del modelo y los efectos de los outliers.

5.3 MODELO UNIVARIANTE DE LA FUNCIÓN DE


TRANSFERENCIA O MODELO ARX
En el enfoque propuesto por Box y Jenkins sobre modelos estocásticos de
series temporales se suelen diferenciar cinco clases de modelos con un grado creciente
de complejidad son modelos univariantes, modelos de intervención, modelos de
funciones de transferencia, modelos estocásticos multivariantes y modelos de
funciones de transferencia multivariantes. Podríamos añadir también los modelos
vectoriales autorregresivos VAR.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

116 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Dada una variable zt el modelo univariante puede plantearse como:


 (B )z t =  (B )at

 (B) = 1 − 1 B −  −  p B p = operador polinomial de retardos indicativo de un


proceso autorregresivo de orden p sobre la variable zt considerada.

 (B) = 1 − 1 B −  −  q B q = operador polinomial de retardos para un proceso de


medias móviles de orden q definido sobre un término de error at que cumple las hipótesis
tradicionales de media nula, varianza constante y ausencia de autocorrelación.
Al despejar zt el modelo univariante puede expresarse como:

 (B )
zt = at
 (B )
Puede interpretarse como zt como el output o salida producidos por un
filtro lineal cuyo input o entrada es una variable aleatoria de error o ruido at con
media nula, varianza constante y ausencia de autocorrelación (un ruido blanco).
La función de transferencia del filtro es entonces el cociente de los dos
polinomiales de retardos definidos  (B ) /  (B ) .

Cuando estemos interesados en relacionar varias series temporales ya no


son de aplicación los métodos estudiados hasta ahora para modelos univariantes.
Será necesario construir un modelo multivariante de series temporales.
Supongamos que la variable de output yt queda explicada por la unión de
*
dos componentes, uno de error o de ruido et, y otro, y t , que puede ser explicado
exactamente en términos de una variable explicativa xt, esto es, yt = yt + et
*

cumpliéndose:
 (B )
y t* = xt
 (B )

 (B ) = 1 −  1 B −  −  r B r

 (B ) =  − 1 B −  −  s B s

 (B )
et = at
 (B )

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 5. ANÁLISIS DE LA INTERVENCION … 117

 (B) = 1 − 1 B −  −  p B p
 (B) = 1 − 1 B −  −  q B q

Entonces puede definirse el modelo de función de transferencia simple,


con ruido, como:
 (B )  (B )
yt = yt* + et  yt = xt + at
 (B )  (B )

donde yt puede interpretarse, a su vez, como la salida de dos filtros lineales, uno
sobre la variable de input xt y otro sobre la componente de ruido.

La generalización al caso de más de una variable explicativa es inmediata,


con k cocientes distintos de polinomiales de retardos, uno por cada input:

k  j (B )  (B )
yt =  x jt + at
j =1  j (B )  (B )

En el caso particular de que las variables xht sean ficticias (en el sentido
econométrico de variables con valores sólo cero y uno) el modelo de función de
transferencia resulta ser un modelo de intervención. Por lo tanto, el modelo de
intervención es un caso particular de modelo de la función de transferencia.

En el caso de que todos los polinomiales de retardos sean de orden cero, el


modelo de la función de transferencia coincide con el modelo básico de regresión:

k
y t =   j x jt + at
j =1

Si fijamos un proceso autorregresivo cualquiera de orden p para el término


de error y mantenemos los demás polinomiales en el orden cero, el modelo de la
función de transferencia pasa a ser el modelo de regresión generalizado AR(p):
k
y t =   j x jt + et con et = 1et −1 +  +  p et − p + at
j =1

En el caso de que el polinomio autorregresivo  (B ) sea de orden 1 y


coincida con el correspondiente al término de error,  (B ) =  (B ) , y los demás

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

118 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

polinomios sean nulos, estaremos ante un modelo de regresión con una estructura
de retardos de Koyck que se estudiará en un capítulo posterior:
k
y t =  1 y t −1 +   j x jt + (et −  1et −1 )
j =1

Resumiendo, podemos decir que un modelo de la función de transferencia es


un modelo multivariante de series temporales donde adicionalmente a la componente
de ruido at existen múltiples inputs xjt que tratan de explicar el comportamiento de
la serie que se quiere obtener yt mediante la ecuación:

k  j (B )  (B )
yt =  x jt + at
j =1  j (B )  (B )

5.3.1 Modelos de la función de transferencia estacionales

En el caso de que trabajemos con series estacionales, una expresión general


del modelo de función de transferencia es la siguiente:

( y ) k w j (B ) j (B s ) dX j DX j (xj )  (B )(B s )
  Yt
dY DY
=   X +
j =1  j (B ) j (B )  (B )(B s )
s
at

aunque, a efectos de aplicación práctica, es habitual que el anterior modelo se


reduzca a la variante donde sólo el término de ruido es estacional, es decir:

( y ) k w j (B ) dX j (xj )
 dY Yt =  X + nt
j =1  j (B )

con:

 (B )(B s )
  nt =
dn Dn

 (B )(B s )
at

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 5. ANÁLISIS DE LA INTERVENCION … 119

5.4 R Y LOS MODELOS DE FUNCIÓN DE TRANSFERENCIA


E INTERVENCIÓN
El comando de R que permite trabajar con modelos de la función de
transferencia y análisis de la intervención es el comando Arima, cuya sintaxis se
muestra a acontinuación:
Arima(y, order = c(0, 0, 0), seasonal = c(0, 0, 0), xreg =
NULL, include.mean = TRUE, include.drift = FALSE,
include.constant, lambda = model$lambda, biasadj = FALSE,
method = c("CSS-ML", "ML", "CSS"), model = NULL,...)

y Serie temporal univariaante a predecir.


order Identificación de la parte no estacional del modelo
ARIMA.: las tres componentes (p, d, q).
seasonal Identificación de la parte estacional del modelo ARIMA.:
las tres componentes (P, D, Q).
xreg Vector o matriz de regresores externos que deben tener el
mismo número de filas que y.
include.mean Especifica si el modelo ARIMA debe incluir un término de
media. El valor predeterminado es TRUE para series no
diferenciadas y FALSE para diferencias (donde una media
no afectará el ajuste ni las predicciones).
include.drift ¿Debería el modelo ARIMA incluir un término de deriva
lineal? (es decir, se ajusta una regresión lineal con errores
ARIMA.) El valor predeterminado es FALSO.
include.constant Si es TRUE, entonces include.mean se establece en
TRUE para series no diferenciadas e include.drift se
establece en TRUE para series diferenciadas. Tenga en
cuenta que si se toma más de una diferencia, no se
incluye ninguna constante, independientemente del valor
de este argumento..
method Método de ajuste: máxima verosimilitud o minimizar la
suma de cuadrados condicional. El valor predeterminado
(a menos que haya valores faltantes) es usar suma de
cuadrados condicional para encontrar los valores iniciales.
model Salida de una llamada previa a Arima. Si se pasa el
modelo, este mismo modelo se ajusta sin volver a estimar
ningún parámetro.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

120 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Modelo de la transferencia con un regresor


> library(haven)
> taxes_1110 <- read_sav("G:/CURSOR2016/taxes_1110.sav")
> View(taxes_1110)
> attach(taxes_1110)
> serieIRPF=ts(IRPF,start=c(2002,1),frequency=12)
> serieINNO=ts(INNO,start=c(2002,1),frequency=12)
> auto.arima(serieIRPF)
Series: serieIRPF
ARIMA(0,1,2)(0,1,1)[12]

Coefficients:
ma1 ma2 sma1
-1.0741 0.3604 -0.1854
s.e. 0.1039 0.1030 0.1175

sigma^2 estimated as 365268: log likelihood=-734.69


AIC=1477.37 AICc=1477.82 BIC=1487.55
> modelo=Arima(serieIRPF,order=c(0,1,2), seasonal=c(0,1,1),
xreg=serieINNO)
> modelo
Series: serieIRPF
Regression with ARIMA(0,1,2)(0,1,1)[12] errors

Coefficients:
ma1 ma2 sma1 serieINNO
-1.1631 0.3706 -0.1781 0.0826
s.e. 0.1139 0.1050 0.1102 0.0296

sigma^2 estimated as 340408: log likelihood=-730.99


AIC=1471.99 AICc=1472.67 BIC=1484.71

Modelo de la transferencia con dos regresores

> serieITRI=ts(ITRI,start=c(2002,1),frequency=12)

> modelo=Arima(serieIRPF,order=c(0,1,2), seasonal=c(0,1,1),


xreg=cbind(serieINNO,serieITRI))
>
> modelo
Series: serieIRPF
Regression with ARIMA(0,1,2)(0,1,1)[12] errors

Coefficients:
ma1 ma2 sma1 serieINNO serieITRI
-1.2234 0.3781 -0.1889 0.0213 0.1445
s.e. 0.1141 0.1045 0.1149 0.0335 0.0443

sigma^2 estimated as 306984: log likelihood=-725.78

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

CAPÍTULO 5. ANÁLISIS DE LA INTERVENCION … 121

AIC=1463.57 AICc=1464.53 BIC=1478.83

El análisis de la intervención es muy importante en el cálculo de las


predicciones de ingresos por impuestos. Estos ingresos suelen venir habitualmente
afectados por eventos como las reformas impositivas, las crisis económicas y otras
situaciones que afectan puntualmente a la recaudación. Estos eventos pueden tratarse
como intervenciones formales e incorporarse a los modelos de predicción de ingresos
por impuestos.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

5.4.1 Capítulo 6

CONJUNTOS DE DATOS

En este capítulo se relacionan los datos de los archivos utilizados durante el


desarrollo del libro.

TENDENCIA.SAV

ESTACIONAL.SAV

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

124 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

ÍNDICE ALFABÉTICO 125

TURISMO.SAV

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

126 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

POBLACION.SAV

SUAVIZADO.SAV

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

ÍNDICE ALFABÉTICO 127

MARIMA.SAV

TAXES1110.SAV

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

128 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

ÍNDICE ALFABÉTICO 129

Sintaxis general del comando auto.arima

auto.arima(y, d = NA, D = NA, max.p = 5, max.q = 5, max.P = 2,


max.Q = 2, max.order = 5, max.d = 2, max.D = 1, start.p = 2,
start.q = 2, start.P = 1, start.Q = 1, stationary = FALSE,
seasonal = TRUE, ic = c("aicc", "aic", "bic"), stepwise = TRUE,
trace = FALSE, approximation = (length(x) > 150 | frequency(x) > 12),
truncate = NULL, xreg = NULL, test = c("kpss", "adf", "pp"),
seasonal.test = c("seas", "ocsb", "hegy", "ch"), allowdrift = TRUE,
allowmean = TRUE, lambda = NULL, biasadj = FALSE, parallel = FALSE,
num.cores = 2, x = y, ...)

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

130 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

y a univariate time series

d Order of first-differencing. If missing, will choose a value based


on KPSS test.
D Order of seasonal-differencing. If missing, will choose a value
based on OCSB test.
max.p Maximum value of p

max.q Maximum value of q

max.P Maximum value of P

max.Q Maximum value of Q

max.order Maximum value of p+q+P+Q if model selection is not stepwise.

max.d Maximum number of non-seasonal differences

max.D Maximum number of seasonal differences

start.p Starting value of p in stepwise procedure.

start.q Starting value of q in stepwise procedure.

start.P Starting value of P in stepwise procedure.

start.Q Starting value of Q in stepwise procedure.

stationary If TRUE, restricts search to stationary models.

seasonal If FALSE, restricts search to non-seasonal models.

ic Information criterion to be used in model selection.

stepwise If TRUE, will do stepwise selection (faster). Otherwise, it


searches over all models. Non-stepwise selection can be very
slow, especially for seasonal models.
trace If TRUE, the list of ARIMA models considered will be reported.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

ÍNDICE ALFABÉTICO 131

approximation If TRUE, estimation is via conditional sums of squares and the


information criteria used for model selection are approximated.
The final model is still computed using maximum likelihood
estimation. Approximation should be used for long time series
or a high seasonal period to avoid excessive computation
times.
truncate An integer value indicating how many observations to use in
model selection. The lasttruncate values of the series are
used to select a model when truncate is
not NULLand approximation=TRUE. All observations are
used if either truncate=NULL orapproximation=FALSE.
xreg Optionally, a vector or matrix of external regressors, which
must have the same number of rows as y.
test Type of unit root test to use. See ndiffs for details.

seasonal.test This determines which seasonal unit root test is used.


See nsdiffs for details.
allowdrift If TRUE, models with drift terms are considered.

allowmean If TRUE, models with a non-zero mean are considered.

lambda Box-Cox transformation parameter. If lambda="auto", then a


transformation is automatically selected
using BoxCox.lambda. The transformation is ignored if NULL.
Otherwise, data transformed before model is estimated.
biasadj Use adjusted back-transformed mean for Box-Cox
transformations. If transformed data is used to produce
forecasts and fitted values, a regular back transformation will
result in median forecasts. If biasadj is TRUE, an adjustment
will be made to produce mean forecasts and fitted values.
parallel If TRUE and stepwise = FALSE, then the specification
search is done in parallel. This can give a significant speedup
on mutlicore machines.
num.cores Allows the user to specify the amount of parallel processes to
be used if parallel = TRUE and stepwise = FALSE.
If NULL, then the number of logical cores is automatically
detected and all available cores are used.
x Deprecated. Included for backwards compatibility.

Descargado por Adrian Delgado Torres ([email protected])


lOMoARcPSD|40821386

132 ECONOMETRÍA DE LAS SERIES TEMPORALES. EJERCICIOS RESUELTOS CON R.

... Additional arguments to be passed to arima.

Descargado por Adrian Delgado Torres ([email protected])

También podría gustarte