Econometria de Las Series Temporales R Perez 2019
Econometria de Las Series Temporales R Perez 2019
Econometria de Las Series Temporales R Perez 2019
ECONOMETRIA DE LAS
SERIES TEMPORALES.
EJERCICIOS RESUELTOS
CON R
ÍNDICE
ÍNDICE 5
1Capítulo 1
Figura 1-1
Tendencia lineal: Una línea de tendencia lineal es una línea recta Z(t) = a + bt
que se ajusta correctamente a los datos. Una línea de tendencia lineal
normalmente muestra que algo aumenta o disminuye a un ritmo constante. En el
ejemplo de la Figura 1-2, el ajuste de tendencia lineal muestra que las inversión
Figura 1-2
Tendencia logarítmica: Una línea de tendencia logarítmica Z(t) = klog(a+bt)+c es
una línea curva muy útil cuando el índice de cambios de los datos aumenta o
disminuye rápidamente y, después, se estabiliza. Esta línea de tendencia
logarítmica puede utilizar valores positivos o negativos. En el siguiente ejemplo
(Figura 1-3), se utiliza una línea de tendencia logarítmica para mostrar el
crecimiento previsto de la inversión. Observe que el valor R2 es 0,7884, lo que
indica un ajuste relativamente bueno de la línea respecto a los datos.
Figura 1-3
Tendencia polinómica: Una línea de tendencia polinómica Z(t) = a + bt + ct2
+…+ ctn es una línea curva que se utiliza cuando los datos fluctúan según la
ecuación de un polinomio. Es útil, por ejemplo, para analizar las pérdidas y
ganancias de un conjunto de datos grande. Una línea de tendencia polinómica de
orden 2 suele tener sólo un máximo o un mínimo. Una de orden 3 normalmente
tiene uno o dos máximos o mínimos. El orden 4 tiene más de tres. En el siguiente
ejemplo (Figura 1-4) se muestra una línea de tendencia polinómica de orden 5.
Observe que el valor R2 es 0,9366, que produce un buen ajuste de la línea respecto
a los datos.
Figura 1-4
Tendencia potencial: Una línea de tendencia de potencia es una línea curva Z(t) =
atb que se utiliza con conjuntos de datos que comparan medidas que aumentan a un
ritmo concreto; por ejemplo, la aceleración de un automóvil de carreras a intervalos
de un segundo. No es posible crear una línea de tendencia de potencia si los datos
contienen valores cero o negativos. En el siguiente ejemplo (Figura 1-5) se muestra
el ajuste a una tendencia potencial de la evolución de una inversión.
Figura 1-5
Figura 1-6
Tendencia de media móvil: Una línea de tendencia de media móvil atenúa las
fluctuaciones en los datos para mostrar con mayor claridad la trama o la tendencia.
Una media móvil tiene un determinado Período u Orden. Por ejemplo, si el valor
de Período está establecido en 2, el promedio de los dos primeros puntos de datos
se utiliza como el primer punto en la línea de tendencia de media móvil. El
promedio de los puntos de los datos segundo y tercero se utiliza como el segundo
punto de la línea de tendencia, etc. En la Figura 1-7 se muestran la líneas de
tendencia de medias móviles de períodos 4 y 5 para una serie con datos de
inversiones.
Figura 1-7
y1 + y 2 + y p y 2 + y3 + y p +1 y3 + y3 + y p + 2
y p +1 = , y p +3 = , y p +5 = ,
2
p 2
p 2
p
Una vez obtenida la serie de medias móviles, la tendencia será la línea que las
une.
> library(foreign)
> tendencia=read.spss("C:/CURSOS/CURSOR/TENDENCIA.SAV")
> attach(tendencia)
> lineal=lm(Z~t)
> summary(lineal)
Call:
lm(formula = Z ~ t)
Residuals:
Min 1Q Median 3Q Max
-1.986 -1.260 -0.210 1.091 2.617
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 46.6427 0.7069 65.98 < 2e-16 ***
t 0.7887 0.0563 14.01 1.82e-11 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1
> durbinWatsonTest(lineal)
lag Autocorrelation D-W Statistic p-value
1 0.8392503 0.2792645 0
Alternative hypothesis: rho != 0
El estadístico de Durbin Watson vale 0,839 que está muy alejado del valor
óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste lineal no es válida.
Call:
lm(formula = Z ~ log(t))
Residuals:
Min 1Q Median 3Q Max
-3.1198 -1.2791 0.1188 1.3621 4.4825
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 42.7475 1.2341 34.64 < 2e-16 ***
log(t) 5.8171 0.5358 10.86 1.38e-09 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1
> durbinWatsonTest(logaritmico)
lag Autocorrelation D-W Statistic p-value
1 0.6449312 0.4091078 0
Alternative hypothesis: rho != 0
Pero el estadístico de Durbin Watson vale 0,409 que está muy alejado del
valor óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste logarítmico no es válida.
> cuadratico=lm(Z~t+I(t^2))
> summary(cuadratico)
Call:
lm(formula = Z ~ t + I(t^2))
Residuals:
Min 1Q Median 3Q Max
-1.6166 -0.8232 -0.1919 1.1595 1.9788
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 44.037579 0.850669 51.768 < 2e-16 ***
t 1.468263 0.178107 8.244 1.59e-07 ***
I(t^2) -0.030890 0.007863 -3.929 0.000984 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1
> durbinWatsonTest(cuadratico)
lag Autocorrelation D-W Statistic p-value
1 0.6627711 0.5379783 0
Alternative hypothesis: rho != 0
Pero el estadístico de Durbin Watson vale 0,537 que está muy alejado del
valor óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste cuadrático no es válida.
> cubico=lm(Z~t+I(t^2)+I(t^3))
> summary(cubico)
Call:
lm(formula = Z ~ t + I(t^2) + I(t^3))
Residuals:
Min 1Q Median 3Q Max
-1.9071 -0.8736 -0.1139 0.6743 1.7696
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 46.164620 1.065092 43.343 <2e-16 ***
t 0.427162 0.409550 1.043 0.3116
I(t^2) 0.084710 0.042733 1.982 0.0638 .
I(t^3) -0.003503 0.001279 -2.739 0.0140 *
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1
> durbinWatsonTest(cubico)
lag Autocorrelation D-W Statistic p-value
1 0.5121171 0.7770272 0
Alternative hypothesis: rho != 0
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 3.849041 0.013475 285.64 < 2e-16 ***
t 0.014532 0.001073 13.54 3.28e-11 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' '
1
> durbinWatsonTest(exponencial)
lag Autocorrelation D-W Statistic p-value
1 0.8495733 0.2431753 0
Alternative hypothesis: rho != 0
o lo que es lo mismo:
Cuando se representa una serie temporal mediante yt, se suponen todas las
observaciones ordenadas una detrás de otra tal y como se van produciendo (t = 1, 2,
…, T). Cuando representamos una serie temporal por yik , estamos considerando
explícitamente el año i (i = 1, 2, …, N) y la estación del año k (k = 1, 2, …., m).
Cuando la estación es el año, m = 12 , y cuando es el trimestre, m = 4. Siempre se
tiene que T = Nm
y
1
los datos observados yi. = ik .
m k =1
N
y
1
• Calcular las medias mensuales en los diferentes años y.k = ik k = 1, 2,
N i =1
…, m.
• Dada la serie cronológica por meses, estaciones, etc., en varios años, se halla la
tendencia mediante el método de las medias móviles tomando un año de período.
• Se dividen los valores de la serie original por los índices de variación estacional
correspondienes, obteniéndose la serie temporal desestacionalizada.
s/2
x t+ j
j = − ( s / 2 ) +1 s s s
Para medias móviles de s puntos xt*+0,5 = t = , + 1, , n −
s 2 2 2
1 en el trimestrei
Dit = i = 1,,4
0 en el resto
Se observa que en el modelo se omite la constante para evitar la
colinealidad perfecta. Para que el efecto estacional esté presente, los parámetros
estimados del modelo anterior han de ser significativamente distintos de cero
individualmente.
> estacional=read.spss("C:/CURSOS/CURSOR/ESTACIONAL.SAV")
> attach(estacional)
> summary(estacional)
Length Class Mode
X 166 -none- numeric
YEAR_ 166 -none- numeric
MONTH_ 166 -none- numeric
DATE_ 166 -none- character
>
> serieX=ts(X,start=1968,frequency=12)
> plot(serieX)
200
150
serieX
100
50
Time
> descomposicion=decompose(serieX)
> summary(descomposicion)
Length Class Mode
x 166 ts numeric
seasonal 166 ts numeric
trend 166 ts numeric
random 166 ts numeric
figure 12 -none- numeric
type 1 -none- character
> plot(descomposicion)
Time
> seasonal
Jan Feb Mar Apr May Jun
1968 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1969 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1970 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1971 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1972 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1973 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1974 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1975 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1976 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1977 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1978 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1979 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1980 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
1981 -47.523066 -42.780117 1.571165 19.336229 28.082917 27.383959
Jul Aug Sep Oct Nov Dec
1968 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1969 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1970 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1971 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1972 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1973 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1974 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1975 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1976 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1977 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1978 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1979 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1980 17.274691 18.987191 8.472768 14.973409 -10.848386 -34.930758
1981 17.274691 18.987191 8.472768 14.973409
> plot(seasonal)
> trend
Jan Feb Mar Apr May Jun Jul
1968 NA NA NA NA NA NA 126.50000
1969 129.41667 128.32083 127.62500 126.69167 124.61250 122.74583 120.77083
1970 111.10833 111.91667 112.14167 112.93750 115.01250 117.91250 121.30833
1971 149.20417 154.59167 159.53750 162.94167 166.50833 169.73750 172.62083
1972 187.49167 189.00417 191.22500 193.97500 196.00833 196.44167 196.27083
1973 192.92083 191.45000 187.86667 182.70000 177.62500 172.93750 167.84583
1974 138.00833 131.25417 125.57917 121.39167 116.86667 112.97083 110.31667
1975 89.54583 89.50000 90.32500 92.01250 94.04167 95.82500 97.38333
1976 114.48750 116.40000 119.25417 121.95000 124.24167 126.80417 128.47500
1977 149.35833 153.57917 156.66250 159.60417 162.62083 164.68333 165.89583
1978 168.85833 168.82917 168.81667 168.89167 169.00833 168.76250 168.34167
1979 157.27500 155.25000 153.69167 152.02917 149.40417 146.57917 144.78750
1980 116.48750 112.96667 110.22500 108.48750 107.56667 107.50417 108.15833
1981 111.88333 109.22500 105.17083 100.16250 NA NA NA
Aug Sep Oct Nov Dec
1968 127.60417 128.05417 128.15000 128.63333 129.63333
1969 118.65000 117.27500 115.28333 112.73750 110.96250
1970 124.31250 127.69167 132.93750 139.02917 144.53333
1971 176.30833 179.89167 181.82917 183.40417 185.76250
1972 195.57500 194.82083 194.38333 194.45000 193.93750
1973 164.06667 159.74167 154.72500 149.30000 143.46667
1974 106.85417 102.71667 98.27917 94.32917 91.40417
1975 99.53333 102.59167 105.82083 108.78333 111.93750
1976 129.78333 133.02500 137.20000 141.30000 145.33333
1977 165.73333 165.20417 165.77917 166.82083 167.99167
1978 167.62500 166.12500 163.80417 161.37083 159.45000
1979 143.96667 140.95000 135.42500 128.66667 121.46667
1980 108.30000 108.91250 110.97500 112.85000 113.16667
1981 NA NA NA
> plot(trend)
200
180
160
trend
140
120
100
Time
> random
Jan Feb Mar Apr May
1968 NA NA NA NA NA
1969 19.60639913 4.55928374 2.70383502 12.97210426 2.80458289
1970 2.81473246 5.16345041 0.98716836 -3.87372908 -18.09541711
1971 8.91889913 -9.61154959 6.79133502 18.82210426 3.90874955
1972 9.13139913 5.97595041 11.10383502 -1.71122908 1.70874955
1973 1.20223246 -10.66988292 10.56216836 2.96377092 28.29208289
1974 -5.98526754 20.92595041 -2.35033164 19.07210426 4.05041622
1975 14.07723246 7.98011708 -11.69616498 -13.44872908 -6.02458378
1976 5.53556579 16.28011708 -2.42533164 -4.08622908 -4.42458378
1977 -20.53526754 1.70095041 15.36633502 3.25960426 10.59624955
1978 -32.73526754 -24.74904959 1.71216836 9.27210426 13.90874955
1979 -21.55193421 -27.96988292 -2.36283164 -10.36539574 11.61291622
1980 4.13556579 9.71345041 -26.69616498 -31.62372908 -43.94958378
1981 20.13973246 5.45511708 1.05800169 3.50127092 NA
Jun Jul Aug Sep Oct
1968 NA -3.97469062 -9.99135728 -2.22693421 -2.32340856
1969 -2.82979211 -12.84552395 -12.73719062 3.55223246 -6.85674190
1970 -10.09645878 2.21697605 -14.59969062 -5.26443421 -7.01090856
1971 -3.32145878 4.40447605 9.20447605 -14.56443421 -17.10257523
1972 -0.72562545 -7.04552395 14.03780938 -0.29360087 7.14325810
1973 2.27854122 17.47947605 14.14614272 -19.81443421 -22.59840856
1974 7.24520789 -0.99135728 -14.74135728 -12.88943421 -16.55257523
1975 -12.90895878 4.64197605 -1.22052395 0.83556579 2.80575810
1976 0.01187455 -9.14969062 -2.87052395 10.30223246 -3.77340856
1977 5.53270789 6.62947605 9.27947605 4.02306579 12.34742477
1978 19.85354122 6.58364272 4.28780938 5.90223246 13.32242477
1979 17.83687455 2.13780938 7.34614272 14.27723246 18.60159144
1980 -18.48812545 -5.33302395 2.61280938 20.91473246 26.75159144
1981 NA NA NA NA NA
Nov Dec
1968 9.31505297 1.69742477
1969 -7.28911369 8.06825810
1970 -1.28078036 11.79742477
1971 1.14421964 1.26825810
1972 2.09838631 -8.50674190
1973 -5.15161369 -18.13590856
1974 -8.38078036 -1.37340856
1975 -1.03494703 -0.90674190
1976 -3.35161369 -3.00257523
1977 -1.17244703 -3.86090856
1978 8.07755297 -5.01924190
1979 0.88171964 5.06409144
1980 10.89838631 17.66409144
1981
> plot(random)
20
0
random
-20
-40
Time
Figura 1-28
1ª oscilación x1 x2 xp
2ª oscilación x p +1 x p+2 x2 p
q ª oscilación x ( q −1) p +1 x ( q −1) p + 2 x qp
Medias x1 x2 xp
Figura 1-29
Series: X
Raw Periodogram
10000
1000
spectrum
100
10
1
frequency
bandwidth = 0.0016
> library(foreign)
> turistas=read.spss("C:/CURSOS/CURSOR/TURISMO.SAV")
> attach(turistas)
> summary(turistas)
Length Class Mode
T 28 -none- numeric
Turistas 28 -none- numeric
YEAR_ 28 -none- numeric
QUARTER_ 28 -none- numeric
DATE_ 28 -none- character
ERR_1 28 -none- numeric
SAS_1 28 -none- numeric
SAF_1 28 -none- numeric
STC_1 28 -none- numeric
> windows()
> serieturistas=ts(Turistas,start=c(1978,5),frequency=4)
> descomposicion=decompose(serieturistas)
> summary(descomposicion)
Length Class Mode
x 28 ts numeric
seasonal 28 ts numeric
trend 28 ts numeric
random 28 ts numeric
figure 4 -none- numeric
type 1 -none- character
> plot(descomposicion)
Time
> periodogram=spec.pgram(serieturistas)
> library(foreign)
> poblacion=read.spss("C:/CURSOS/CURSOR/POBLACION.SAV")
> attach(poblacion)
> summary(poblacion)
> exponencial=lm(log(Población)~Década)
> summary(exponencial)
Call:
lm(formula = log(Población) ~ Década)
Residuals:
Min 1Q Median 3Q Max
-0.3260 -0.1619 0.0280 0.1742 0.2217
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 1.639580 0.088453 18.54 3.08e-12 ***
Década 0.227696 0.008882 25.63 2.02e-14 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’
1
Pero el estadístico de Durbin Watson vale 0,773 que está muy alejado del
valor óptimo 2. Además el p-valor es muy pequeño, lo que certifca la presencia de
autocorrelación. Por lo tanto la ecuación de ajuste de la población futura mediante
el modelo exponencial no es óptima.
2Capítulo 2
MÉTODOS AUTOPROYECTIVOS
DETERMINISTAS DE PREDICCIÓN
serie. Se trata de modelos de naturaleza más descriptiva en los que tiene menos
interés la teoría de la probabilidad, la inferencia estadística y la formalización
de los modelos econométricos.
Ts = (Xs−2+Xs−1+Xs+Xs+1+Xs+2)/5 s = 3, 4, …, T − 2
La serie temporal Ts es una versión suavizada de la Xt.
Si se elige bien el orden de la media móvil, Ts no contiene la componente
estacional, y será una representación correcta de las componentes a medio y largo plazo
(ciclo-tendencia). El método es equivalente a ajustar una tendencia lineal a cada cinco
puntos consecutivos de la serie inicial y tomar en cada ajuste solamente el punto central
de la recta ajustada para alisar la serie original. Habitualmente, las medias móviles de
orden 4 o 5 suelen suavizar la serie lo suficiente como para intuir su tendencia y poder
hacer predicciones. Existen muchos tipos de medias móviles, algunos muy sofisticados,
que, como veremos, suelen estar implementados en el software.
Será necesario, una vez fijado a, dar un valor inicial a St' cuando t = 1. Este
valor se establece siguiendo algún criterio ajeno al método. Se puede hacer, por
ejemplo, S1' = X1. También se puede igualar S1' a un promedio de los primeros
valores de X. También habrá que dar un valor inicial a S1", que también puede ser
X1. También se toma at = 2 S’t - S’’t y bt = a(S’t - S’’t )/(1-a). Como valor fijado
para a se suele tomar un número entre 0,1 y 0,3.
N = Número de observaciones
xt = Observación t de la serie de tiempo en estudio
St = Observación t de la serie alisada
Ft(l) = Predicción en el instante t a horizonte l
bt = Valor del parámetro estimado del modelo en el instante t
a = Primera constante de alisado (relacionado con la componente aleatoria)
b = Segunda constante de alisado (relacionado con la tendencia)
Argumentos:
> library(foreign)
> datos=read.spss("K:/CURSOR2017/suavizado.SAV")
> attach(datos)
> seriecantidad=ts(cantidad,start=c(1968,1),frequency=12)
> plot(seriecantidad)
Figura 2-1
> periodogram=spec.pgram(seriecantidad)
Figura 2-2
Call:
HoltWinters(x = seriecantidad, alpha = NULL, beta = NULL,
gamma = FALSE)
Smoothing parameters:
alpha: 0.8531394
beta : 0.0494463
gamma: FALSE
Coefficients:
[,1]
a 1025.9132834
b 0.8863679
> library(foreign)
> datos=read.spss("H:/CURSOR2017/estacional.SAV")
> attach(datos)
> serieX=ts(X,start=c(1968,1),frequency=12)
> plot(serieX)
> periodogram=spec.pgram(serieX)
Call:
HoltWinters(x = serieX, alpha = NULL, beta = NULL, gamma =
NULL)
Smoothing parameters:
alpha: 0.8362429
beta : 0
gamma: 0.5566653
Coefficients:
[,1]
a 78.3290423
b -0.2850962
s1 -16.2457168
s2 -35.4526893
s3 -43.5409396
s4 -35.5208367
s5 6.1897464
s6 24.5063593
s7 32.0221227
s8 29.7651202
s9 14.8067063
s10 11.9259070
s11 2.6771832
s12 8.1092548
> library("forecast")
> predicciones=forecast.HoltWinters(estimacion,12)
> predicciones
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
Nov 1981 61.79823 43.029929 80.56653 33.094591 90.50187
Dec 1981 42.30616 17.840314 66.77201 4.888878 79.72344
Jan 1982 33.93281 4.865544 63.00008 -10.521739 78.38737
Feb 1982 41.66782 8.633979 74.70166 -8.853081 92.18872
Mar 1982 83.09331 46.520596 119.66602 27.160172 139.02644
Apr 1982 101.12482 61.326687 140.92296 40.258825 161.99082
May 1982 108.35549 65.574417 151.13657 42.927485 173.78350
Jun 1982 105.81339 60.244227 151.38256 36.121368 175.50542
Jul 1982 90.56988 42.373645 138.76612 16.860097 164.27967
Aug 1982 87.40399 36.716653 138.09132 9.884398 164.92358
Sep 1982 77.87017 24.808557 130.93178 -3.280562 159.02090
Oct 1982 83.01714 27.683040 138.35125 -1.609066 167.64335
3Capítulo 3
MÉTODOS AUTOPROYECTIVOS
ESTOCÁSTICOS DE PREDICCIÓN.
METODLOGÍA DE BOX-JENKINS
Sin embargo, para muchos fines prácticos, los procesos se suelen describir
mediante sus momentos. La media del proceso estocástico se define por ut = E(Xt) y
generalmente es una función del tiempo. La función de autocovarianza se define como:
T
Xt
X =
t =1 T
Análogamente, la función de autocorrelación, hk, se estima mediante la función
de autocorrelación muestral o función de autocorrelación estimada, que se define por:
T
(X t − X )( X t − k − X )
rk = t =1
T
k = 1, 2, ...
(X
t =1
t − X) 2
( X t + l 2 ) l1 − 1
t
Z = si l1 0 y X t −l 2
l1 g l1 −1
Z = gLn( X + l ) si l = 0 y l 0
t t 2 1 2
X t −1
l
Z t = X t l si l 0 y − 1 l 1 Z t = si l 0
o también l
Z t = Ln( X t ) si l = 0 Z = Ln( X ) si l = 0
t t
Figura 3-1
Figura 3-2
> datos=read.spss("K:/CURSOR2017/marima.SAV")
> attach(datos)
> serieplastic=ts(plastic,frequency=1)
> plot(serieplastic)
> periodogram=spec.pgram(serieplastic)
> acf(serieplastic,lag.max=48)
> pacf(serieplastic,lag.max=48)
> dserieplastic=diff(plastic,lag=1)
> plot(dserieplastic, type="l")
> acf(dserieplastic)
> pacf(dserieplastic)
Xt = 1 Xt-1 + at
El proceso autorregresivo de orden p, representado por ARIMA(p,0,0), o
simplemente por AR(p) toma la forma:
las raíces de la ecuación: xp-1 x p-1 - 2 x p-2-...-p-1 x-p = 0 sean todas inferiores a uno en
módulo. Un proceso autorregresivo siempre es invertible.
a2
La varianza de un proceso AR(1) es: g 0 =
1 − 1
La función de autocovarianza de un proceso AR(1) es:
a2
gk = k
k 1
1 − 1
1
hk = 1k k 1
para j =1
hkk = 1
0 para j 1
g k = 1 g k −1 + 2 g k −2 k 1
La función de autocorrelación de un proceso AR(2) es :
hk = 1hk −1 + 2 hk −2 k 1
g 0 = 1 g1 + 2 g 2 + p g p + a2
g k = 1 g k −1 + 2 g k −2 + + p g k − p k 1
hk = 1 hk −1 + 2 hk −2 + + p hk − p k 1
h1 para j =1
h2 − h1
2
para j=2
1 − h12
1 h1 h p −2 h1
h 1 h p −3 h2
1
hkk =
h p −1 h p − 2 h1 hp
para j=p
1 h1 h p −2 h p −1
h1 1 h p −3 h p −2
h p −1 h p − 2 h1 1
0 para jp
Figura 3-13
La varianza de un proceso MA(1) es: g 0 = a2 (1 + 12 )
− 2 para k = 1
gk = 1 a
0 para k 1
− 1
para k = 1
hk = 1 + 12
0 para k 1
− 1k (1 − 12 )
hkk = para k 1
1 − 12( k +1)
− ( 1 + 1 2 ) a2 para k = 1
. g k = − 2 a2 para k = 2
0 para k 2
− 1 + 1 2
1 + 2 + 2 para k = 1
1 2
− 2
hk = para k = 2
1 + 1 + 2
2 2
0 para k 2
La función de autocorrelación parcial de un proceso MA(2) es:
h1 para k = 1
h2 − h1
2
para k = 2
1 − h12
hkk = 3
h1 − h1 h2 (2 − h2 ) para k = 3
1 − h 2 − 2h 2 (1 − h )
2 1 2
− k + 1 k +1 + + q − k q
para k = 1,2,, q
hk = 1 + 12 + + q2
0 para k q
h1 para k = 1
h2 − h1
2
para k = 2
1 − h12
hkk = 3
h1 − h1 h2 (2 − h2 ) + h3 (1 − h1 ) para k = 3
2
1 − h22 − 2h12 (1 − h2 )
Figura 3-14
a2 (1 + 12 − 21 1 )
La varianza de un proceso ARMA(1,1) es: g 0 =
1 − 12
a2 (1 − 1 1 )( 1 − 1 )
para k = 1
gk = 1 − 12
g para k 1
1 k −1
La función de autocorrelación de un proceso ARMA(1,1) es:
(1 − 1 1 )( 1 − 1 )
para k = 1
hk = 1 − 12 − 2 1 1
h para k 1
1 k −1
h1 para k = 1
h2 − h1
2
para k = 2
1 − h12
hkk = 3
h1 − h1 h2 (2 − h2 ) + h3 (1 − h1 ) para k = 3
2
1 − h22 − 2h12 (1 − h2 )
En la Figura 3-15 se observan las funciones de autocorrelación (izquierda)
y autocorrelación parcial (derecha) para procesos ARMA(1,1).
(1- 1B - 2B2 -...- pBp)(1-B)d Yt = (1 - v1B - v2B2 - .... vqBq )at
Un modelo ARIMA(p,d,q) permite describir una serie de observaciones
después de que hayan sido diferenciadas d veces, a fin de extraer las posibles
fuentes de no estacionariedad. Esta fórmula general se puede aplicar a cualquier
modelo. Si hay alguna componente p,d,q igual a cero, se elimina el término
correspondiente de la fórmula general.
ARMA(1,1)
Figura 3-15
8. Análisis detallado de los errores: Las diferencias históricas entre valores reales y
estimados por el modelo constituyen una fuente de especial interés para una
valoración final del modelo. Deberá comprobarse un comportamiento no
sistemático de los mismos, así como analizarse la posible existencia de errores
especialmente significativos.
9. Selección del modelo: En base a los resultados de las etapas anteriores, debe
estarse en condiciones de decidir sobre el modelo adoptado.
10. Predicción: El modelo seleccionado servirá como fórmula inicial de predicción.
> library(foreign)
> datos=read.spss("K:/CURSOR2017/marima.SAV")
> attach(datos)
> serieplastic=ts(plastic,frequency=1)
> plot(serieplastic)
> periodogram=spec.pgram(serieplastic)
> acf(serieplastic,lag.max=48)
> pacf(serieplastic,lag.max=48)
> dserieplastic=diff(plastic,lag=1)
> plot(dserieplastic, type="l")
> acf(dserieplastic)
> pacf(dserieplastic)
Call:
arima(x = serieplastic, order = c(0, 1, 2))
Coefficients:
ma1 ma2
0.6524 -0.0826
s.e. 0.1027 0.0936
$se
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 156.6797 302.6120 389.9560 461.0395 522.5410 577.5299
627.7201 674.1841 717.6461 758.6222
> auto.arima(serieplastic)
Series: serieplastic
ARIMA(0,1,1)
Coefficients:
ma1
0.7264
s.e. 0.0674
> modelo=auto.arima(serieplastic)
> modelo
Series: serieplastic
ARIMA(0,1,1)
Coefficients:
ma1
0.7264
s.e. 0.0674
> predict(modelo,n.ahead=10)
$pred
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 5546.469 5546.469 5546.469 5546.469 5546.469 5546.469
5546.469 5546.469 5546.469 5546.469
$se
Time Series:
Start = 101
End = 110
Frequency = 1
[1] 158.0548 315.3302 416.9952 498.3341 568.1449 630.2702
686.7986 739.0157 787.7792 833.6953
4Capítulo 4
Cuando se representa una serie temporal mediante yt, se suponen todas las
observaciones ordenadas una detrás de otra tal y como se van produciendo (t = 1, 2, …,
T). Cuando representamos una serie temporal por yik , estamos considerando
explícitamente el año i (i = 1, 2, …, N) y la estación del año k (k = 1, 2, …., m).
Cuando la estación es el año m = 12 , y cuando es el trimestre, m = 4. Siempre se
tiene que T = Nm
Para detectar la estacionalidad en la práctica pueden utilizarse los
siguientes caminos:
➢ Cada pico destacable identifica un período que incluso puede ser un ciclo.
Xt = 1 Xt-s + at
a2
La varianza de un proceso AR(1)s es: g 0 =
1 − 1
a2
g k = 1k k 1
1 − 1
hk = 1k k 1
para j=s
hkk = 1
0 para js
g k = 1 g ( k −1) s + 2 g ( k − 2) s k 1
hk = 1 h( k −1) s + 2 h( k −2) s k 1
1
h1 = para j = s
1 − 2
h − h 2
hkk = 2 21 = 2 para j = 2s
1 − h1
0 para j s y 2s
Xt = at - 1 at-s
El proceso de medias móviles de orden Q, representado por
ARIMA(0,0,Q)s, o también por MA(Q)s, viene dado por la expresión:
− 1 a2 para k = s
gk =
0 para k s
− 1
para k = s
hk = 1 + 12
0 para k s
− 1k (1 − 12 )
hkk = para k 1
1 − 12( k +1)
− 1 + 1 2
1 + 2 + 2 para k = 1
1 2
− 2
hk = para k = 2
1 + 2
1 + 2
2
0 para k 2
hs para k = s
h2 s − hs
2
para k = 2s
1 − hs2
hkk = 3
hs − hs h2 s (2 − h2 s ) para k = 3s
1 − h 2 − 2h 2 (1 − h )
2s 1s 2s
o sea:
a2 (1 + 12 − 211 )
La varianza de un proceso ARMA(1,1)s es: g 0 =
1 − 12
a2 (1 − 11 )(1 − 1 )
para k = 1
gk = 1 − 12
g para k 1
1 ( k −1) s
(1 − 11 )(1 − 1 )
para k = 1
hk = 1 − 12 − 211
h para k 1
1 ( k −1) s
hs para k = s
h2 s − hs
2
para k = 2s
1 − h12
hkk = 3
hs − hs h2 s (2 − h2 s ) + h3s (1 − hs ) para k = 3s
2
1 − h22s − 2hs2 (1 − h2 s )
(1- 1Bs - 2B2s -...- PBPs)(1-Bs)D Yt = (1 - 1Bs - 2B2s - .... QBQs )at
Figura 5-1
Este mismo criterio se sigue para identificar las estructuras MA(1)s, MA(2)s y
ARMA(1,1)s. Las dos gráficas de la segunda línea de la Figura 5-2, o sea, Figuras c) y
d), identifican modelos estacionales puros de medias móviles de orden 1 MA(1)s.
Las dos gráficas de la tercera línea de la Figura 5-2, o sea, Figuras e) y f),
identifican modelos estacionales puros de medias móviles de orden 2 MA(2)s.
Las dos gráficas de la última línea de la Figura 5-2, o sea, Figuras g) y h),
identifican modelos estacionales puros de ARMA(1,1)s.
Figura 5-2
(1-1Bs - 2B2s -...- PBPs) (1- 1B - 2B2 -...- pBs)(1-Bs)D (1-B)dXt =
(1 - 1Bs - 2B2s - .... - QBQs) (1- 1B - 2B2 -...- qBq)at
Figura 5-3
Para un modelo ARIMA(1,0,0)(0,0,1)12 la expresión será :
Figura 5-4
Figura 5-5
2) Dado que la parte regular del modelo es MA(1), el único valor del
coeficiente de autocorrelación distinto de cero para retardos pequeños será el
1.
3) Las interdependencias entre las partes regular y estacional del modelo sólo
afectarán a un período alrededor del retardo estacional distinto de cero,
como consecuencia de que la parte regular del modelo es MA(1).
Figura 5-6
1) Las consideraciones para la parte estacional son las mismas del caso anterior,
ya que nuevamente estamos ante un MA(1)12.
2) Dado que la parte regular del modelo es MA(2), los valores del coeficiente
de autocorrelación distintos de cero para retardos pequeños serán 2.
3) Las interdependencias entre las partes regular y estacional del modelo afectan
a dos períodos alrededor del retardo estacional distinto de cero, como
consecuencia de que la parte regular del modelo es MA(2).
Figura 5-7
1) Dado que la parte estacional es AR(1), para los retardos estacionales múltiplos
del período estacional, las autocorrelaciones no se anulan, si bien irán
decreciendo progresivamente.
2) Dado que la parte regular del modelo es MA(1), los valores del coeficiente de
autocorrelación distintos de cero para retardos pequeños serán únicamente el 1.
1) Las consideraciones para la parte estacional serán las mismas que en el caso
anterior porque estamos nuevamente ante un AR(1)12.
2) Dado que la parte regular del modelo es MA(2), los valores del coeficiente
de autocorrelación distintos de cero para retardos pequeños serán 2.
3) Las interdependencias entre las partes regular y estacional del modelo afectan a
dos períodos alrededor del retardo estacional distinto de cero, como
consecuencia de que la parte regular del modelo es MA(2). Aparecerán dos
coeficientes de autocorelación distintos de cero alrededor del retardo estacional.
Las Figuras 5-10 a 5-13 muestran distintas formas de las funciones de
autocorrelación de un modelo ARIMA(0,0,2)(1,0,0)12
La Figura 5-14 muestra las FAC de varios modelos estacionales generales. Los
gráficos a) y b) se ajustan a un modelo de líneas aéreas ARIMA(0,0,1)(0,0,1)s. Los
gráficos c) y d) se ajustan a un modelo ARIMA(0,0,2)(0,0,1)s. Los gráficos e) y f) se
ajustan a un modelo ARIMA(0,0,1)(1,0,0)s. Los gráficos g) y h) se ajustan a un modelo
ARIMA(1,0,0)(1,0,0)s.
Figura 5-14
(1- 1B - 2B2 -...- pBs) (1-B)dXt = +(1- 1B - 2B2 -...- qBq)at
y considerando wt = (1-B)dXt tenemos:
1
( )
T
[a ( / w, w
−T / 2
L( , a2 / w, w 0 , u 0 ) = 2 a2 exp− 0
, u 0 )]2
2 a
2 t
t =1
1
( )
T
aˆ
−T / 2
L( , a2 / w, w 0 , u 0 ) = 2 a2 exp− 2
2 a
2 t
t =1
En el proceso de estimación se trata de obtener los mejores estimadores
posibles para los parámetros del modelo y a2.
Otra alternativa es el enfoque no condicional de estimación en el que no
se asume el conocimiento de valores iniciales y que parte de la función de
verosimilitud exacta:
1
( )
T
[ E (a )]
−T / 2
L( , a2 / w, w 0 , u 0 ) = 2 a2 exp− 2
2 a
2 c t
t =1− p − q
donde Ec (at ) es la esperanza condicional de at a los valores muestrales de la serie
w y de los parámetros y a2.
Los estimadores máximo verosímiles exactos serán, por tanto, los valores
de y a2 que maximicen la función de verosimilitud exacta.
Análisis de los residuos: Los residuos deben tener media cero, varianza constante,
estar incorrelados y distribuirse normalmente. Su comportamiento ha de acercarse al de
un ruido blanco. Los contrastes para estas tareas ya se vieron en el capítulo anterior.
> periodogram=spec.pgram(serieX)
> dserieX=diff(serieX,lag=1)
> plot(dserieX)
ARIMA(0,1,2)(0,1,1)12
ARIMA(1,1,0)(2,1,0)12
Call:
arima(x = serieX, order = c(0, 1, 2), seasonal = list(order =
c(0, 1, 1), period = 12))
Coefficients:
ma1 ma2 sma1
-0.1979 0.0825 -0.7871
s.e. 0.0820 0.0898 0.0950
$pred
Jan Feb Mar Apr May Jun
Jul Aug Sep
1981
1982 11.30572 14.90605 56.10717 71.77998 76.96183 79.63436
69.94474 69.93116 64.26847
Oct Nov Dec
1981 54.04990 28.70516
1982 71.21056
$se
Jan Feb Mar Apr May Jun
Jul Aug Sep
1981
1982 21.68004 24.93216 27.80649 30.41035 32.80819 35.04234
37.14235 39.12982 41.02110
Oct Nov Dec
1981 13.91889 17.84357
1982 42.82895
Call:
arima(x = serieX, order = c(1, 1, 0), seasonal = list(order =
c(2, 1, 0), period = 12))
Coefficients:
$se
Jan Feb Mar Apr May Jun
Jul Aug Sep
1981
1982 23.22359 26.43323 29.30328 31.91446 34.32792 36.58244
38.70588 40.71872 42.63665
Oct Nov Dec
1981 15.14527 19.41599
1982 44.47194
Capítulo 5
( B s ) ( B)
zt = ut
( B s ) ( B)(1 − B s ) D (1 − B) d
(B) = 1 − 1 B − − p B p
(B) = 1 − 1 B − − q B q
(B) = 1 − 1 B s − − Q B Qs
(B ) = 1 − 1 B − − P B Ps
( B)
zt = ut
( B)
0 si t t 0
yt = z t + I tt0 donde I tt0 =
1 si t = t 0
( B)
yt = ut + I tt 0
( B)
( B) t 0 si t t 0
yt = z t + I t 0
donde I t 0 =
t
( B) 1 si t = t 0
Esta expresión también puede escribirse como:
( B) ( B ) t ( B)
yt = ut + I t = (ut + I tt ) 0 0
( B) ( B) ( B)
1 0 si t t 0
yt = z t + I tt0 donde I tt0 =
1− B 1 si t = t 0
( B) t ( B)
yt = ut + It = (ut + I tt )
0 0
( B) 1− B ( B)
0 si t t 0
y t = z t + S tt0 donde S tt0 =
1 si t t 0
1 0 si t t 0
yt = z t + I tt0 donde I tt0 = 0<<1
1 − B 1 si t = t 0
( B) t ( B)
yt = ut + It =
0
(ut + I tt ) 0
0<<1
( B) 1 − B ( B)
Como una serie temporal puede tener varios outliers de diferentes tipos, un
modelo general de serie con outliers podría expresarse como sigue:
k
y t = j j ( B) I jt + z t
j =1
1 para AO
( B )
para IO
( B)
( B)
zt = ut j ( B) = 1
( B) para LS
1 − B
1
1 − B para TC
(B )
zt = at
(B )
Puede interpretarse como zt como el output o salida producidos por un
filtro lineal cuyo input o entrada es una variable aleatoria de error o ruido at con
media nula, varianza constante y ausencia de autocorrelación (un ruido blanco).
La función de transferencia del filtro es entonces el cociente de los dos
polinomiales de retardos definidos (B ) / (B ) .
cumpliéndose:
(B )
y t* = xt
(B )
(B ) = 1 − 1 B − − r B r
(B ) = − 1 B − − s B s
(B )
et = at
(B )
(B) = 1 − 1 B − − p B p
(B) = 1 − 1 B − − q B q
donde yt puede interpretarse, a su vez, como la salida de dos filtros lineales, uno
sobre la variable de input xt y otro sobre la componente de ruido.
k j (B ) (B )
yt = x jt + at
j =1 j (B ) (B )
En el caso particular de que las variables xht sean ficticias (en el sentido
econométrico de variables con valores sólo cero y uno) el modelo de función de
transferencia resulta ser un modelo de intervención. Por lo tanto, el modelo de
intervención es un caso particular de modelo de la función de transferencia.
k
y t = j x jt + at
j =1
polinomios sean nulos, estaremos ante un modelo de regresión con una estructura
de retardos de Koyck que se estudiará en un capítulo posterior:
k
y t = 1 y t −1 + j x jt + (et − 1et −1 )
j =1
k j (B ) (B )
yt = x jt + at
j =1 j (B ) (B )
( y ) k w j (B ) j (B s ) dX j DX j (xj ) (B )(B s )
Yt
dY DY
= X +
j =1 j (B ) j (B ) (B )(B s )
s
at
( y ) k w j (B ) dX j (xj )
dY Yt = X + nt
j =1 j (B )
con:
(B )(B s )
nt =
dn Dn
(B )(B s )
at
Coefficients:
ma1 ma2 sma1
-1.0741 0.3604 -0.1854
s.e. 0.1039 0.1030 0.1175
Coefficients:
ma1 ma2 sma1 serieINNO
-1.1631 0.3706 -0.1781 0.0826
s.e. 0.1139 0.1050 0.1102 0.0296
> serieITRI=ts(ITRI,start=c(2002,1),frequency=12)
Coefficients:
ma1 ma2 sma1 serieINNO serieITRI
-1.2234 0.3781 -0.1889 0.0213 0.1445
s.e. 0.1141 0.1045 0.1149 0.0335 0.0443
5.4.1 Capítulo 6
CONJUNTOS DE DATOS
TENDENCIA.SAV
ESTACIONAL.SAV
TURISMO.SAV
POBLACION.SAV
SUAVIZADO.SAV
MARIMA.SAV
TAXES1110.SAV