6 Modelos de Series de Tiempo Estacionales y No Estacionarias
6 Modelos de Series de Tiempo Estacionales y No Estacionarias
6 Modelos de Series de Tiempo Estacionales y No Estacionarias
Página 1
6 No Modelos de series
estacionario temporales
y estacional
https://translate.googleusercontent.com/translate_f 1/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 2
valores y elija el modelo ajustado con el valor AICC más pequeño. Otras técnicas, en
en particular los que utilizan las matrices R y S de Gray et al. (1978), se analizan en
la encuesta de identificación de modelos de de Gooijer et al. (1985). Si el modelo ajustado es
satisfactoria, los residuos (ver Sección 5.3) deben parecerse al ruido blanco. Pruebas para esto
se describen en la Sección 5.3 y deben aplicarse al modelo AICC mínimo
para asegurarse de que los residuos son consistentes con su comportamiento esperado bajo
el modelo. Si no lo son, entonces los modelos de la competencia (modelos con valor AICC cerca
al mínimo) debe comprobarse hasta que encontremos uno que pase la bondad de
pruebas de ajuste. En algunos casos, una pequeña diferencia en el valor de AICC (digamos menos de 2) entre
pueden ignorarse dos modelos satisfactorios en aras de la simplicidad del modelo. En Sec-
En la sección 6.3 consideramos el problema de probar una raíz unitaria de cualquiera de los
o polinomio de media móvil. Una raíz unitaria autorregresiva sugiere que los datos
requieren diferenciación, y una raíz unitaria de media móvil sugiere que han sido
sobrediferenciado. La sección 6.4 considera la predicción de procesos ARIMA, que
puede llevarse a cabo utilizando una extensión de las técnicas desarrolladas para la producción de ARMA
ceses en las Secciones 3.3 y 5.4. En la Sección 6.5 examinamos el ajuste y la predicción
de modelos estacionales ARIMA (SARIMA), cuyo análisis, salvo ciertos aspectos
de identificación del modelo, es bastante análogo al de los procesos ARIMA. Finalmente nosotros
Considere el problema de la regresión, permitiendo la dependencia entre sucesivos
residuos de la regresión. Estos modelos se conocen como modelos de regresión con
Residuos de series de tiempo y a menudo ocurren en la práctica como representaciones naturales de datos.
que contiene errores dependientes de la tendencia y en serie.
https://translate.googleusercontent.com/translate_f 2/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 3
útil para representar datos con tendencia (ver secciones 1.5 y 6.2). Se debería notar,
Sin embargo, los procesos ARIMA también pueden ser apropiados para modelar series sin
tendencia. Excepto cuando d 0, la media de { X t } no está determinada por la ecuación (6.1.1),
y en particular puede ser cero (como en el ejemplo 1.3.3). Dado que para d ≥ 1, la ecuación
(6.1.1) determina las propiedades de segundo orden de { ( 1 - B) d X t } pero no las de { X t }
(Problema 6.1), la estimación de φ , θ y σ 2 se basará en las diferencias observadas
( 1 - B) d X t . Se necesitan supuestos adicionales para la predicción (consulte la Sección 6.4).
dónde
∑∞
Yt ( 1 - B) X t φ j Z t-j .
j0
08
6
04
2
0
Figura 6-1
200 observaciones del
Serie ARIMA (1,1,0)
X t del ejemplo 6.1.1. 0 50 100 150 200
https://translate.googleusercontent.com/translate_f 3/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 4
1.0
0,8
0,6
0.4
ACF
0,2
0.0
-0,2
Figura 6-2
La muestra de ACF del 0 10 20 30 40
Por lo tanto, si solo se nos dieran los datos y deseáramos encontrar un modelo apropiado,
Sería natural aplicar el operador ∇ 1 - B repetidamente con la esperanza de que para algunos
j , {∇ j X t } tendrá una función de autocorrelación de muestra que decae rápidamente compatible
con el de un proceso ARMA sin ceros del polinomio autorregresivo cerca del
circulo unitario. Para esta serie de tiempo en particular, una aplicación del operador ∇ produce
la realización que se muestra en la Figura 6.4, cuya muestra ACF y PACF (Figuras 6.5 y
1.0
0,8
0,6
0.4
PACF
0,2
0.0
-0,2
Figura 6-3
El PACF de muestra de 0 10 20 30 40
Página 5
https://translate.googleusercontent.com/translate_f 4/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
{ Z t } ~ WN ( 0 , 0 . 970 ), (6.1.4)
que, aunque estacionario, tiene coeficientes que se asemejan mucho a los de los
proceso estacionario (6.1.3). (Para obtener el modelo (6.1.4), se realizaron dos optimizaciones
realizado utilizando la opción Modelo> Estimación> Máxima verosimilitud de ITSM, la
primero con la configuración predeterminada y el segundo después de configurar el parámetro de precisión en
0.00001.)
A partir de una muestra de longitud finita será extremadamente difícil distinguir entre
un proceso no estacionario como (6.1.3), para el cual φ ∗ ( 1 ) 0, y un proceso como
-2
-4
Figura 6-4
199 observaciones de la
serie Y t ∇X t con -6
{X t } como en la Figura 6.1. 0 50 100 150 200
Página 6
https://translate.googleusercontent.com/translate_f 5/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
1.0
0,8
0,6
0.4
ACF
0,2
0.0
-0,2
Figura 6-5
La muestra de ACF del 0 10 20 30 40
serie {Y t } en la Figura 6.4. Retraso
(6.1.4), que tiene coeficientes muy similares pero para los cuales φ ∗tiene todos sus ceros fuera
el círculo unitario. En cualquier caso, sin embargo, si es posible mediante la diferenciación generar un
serie con ACF de muestra que decae rápidamente, entonces se puede ajustar el conjunto de datos diferenciados
por un proceso ARMA de orden bajo cuyo polinomio autorregresivo φ ∗ tiene ceros que
están cómodamente fuera del círculo unitario. Esto significa que los parámetros ajustados
estar bien lejos del límite del conjunto de parámetros permitido. Esto es deseable
1.0
0,8
0,6
0.4
PACF
0,2
0.0
-0,2
Figura 6-6
El PACF de muestra del 0 10 20 30 40
Página 7
https://translate.googleusercontent.com/translate_f 6/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
para el cálculo
métodos numéricoPor
de estimación. de estimaciones de parámetros
ejemplo, si aplicamos y puede ser
las ecuaciones de bastante crítico
Yule-Walker para
para algunos
ajustar un
Modelo AR (2) a los datos de la Figura 6.1, obtenemos el modelo
( 1 - 1 . 282 B + 0 . 290 B 2 ) X t Z t , { Z t } ~ WN ( 0 , 6 . 435 ), (6 . 1 . 5)
que tiene poco parecido con el modelo de máxima verosimilitud (6.1.4) o el modelo
verdadero modelo (6.1.3). En este caso la matriz R 2 que aparece en (5.1.7) es casi singular.
Una limitación obvia al ajustar un proceso ARIMA ( p, d, q ) { X t } a los datos es que
Se permite que { X t } sea no estacionario solo de una manera muy especial, es decir, al permitir que
polinomio φ ∗ (B) en la representación φ ∗ (B) X t Z t para tener un cero de multiplicidad
d en el punto 1 del círculo unitario. Tales modelos son apropiados cuando la muestra ACF
es una función positiva que decae lentamente como en la Figura 6.2, ya que la autocorrelación de la muestra
las funciones de esta forma están asociadas con modelos φ ∗ (B) X t θ (B) Z t en el que φ ∗
tiene un cero en o cerca de 1.
Autocorrelaciones de muestra con un comportamiento oscilatorio que decae lentamente como en la Figura
6.8 están asociados con modelos φ ∗ (B) X t θ (B) Z t en el que φ ∗ tiene un cero cercano a e iω
para algunos ω ∈ ( - π, π ] distintos de 0. La figura 6.8 es la muestra de ACF de la serie de 200
observaciones en la Figura 6.7, obtenidas de ITSM mediante la simulación del proceso AR (2)
X t - ( 2 r −1 cos ω) X t −1 + r −2 X t −2 Z t , { Z t } ∼ WN ( 0 , 1 ), (6 . 1 . 6)
X t - 0 . 9950 X t −1 + 0 . 9901 X t −2 Z t , { Z t } ∼ WN ( 0 , 1 ).
10
-5
Figura 6-7
200 observaciones de
el proceso AR (2)
definido por (6.1.6) con -10
r 1.005 y ω π / 3. 0 50 100 150 200
Página 8
1.0
https://translate.googleusercontent.com/translate_f 7/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
0,5
ACF 0.0
-0,5
ρ (h) r -h
pecado (hω + ψ), h ≥ 0 ,
(6 . 1 . 8)
pecado ψ
dónde
r2+1
bronceado ψ bronceado ω. (6 . 1 . 9)
r2-1
Página 9
función de autocorrelación en descomposición (véase también la Sección 6.5). Las figuras 6.9 y 6.10 muestran
las funciones de autocorrelación de muestra obtenidas después de aplicar los operadores 1 - B + B 2
y 1 - B 6 , respectivamente, a los datos que se muestran en la Figura 6.7. Para cualquiera de estos dos
series diferenciadas, entonces no es difícil ajustar un modelo ARMA φ (B) X t θ (B) Z t
para lo cual los ceros de φ están fuera del círculo unitario. Técnicas para identificar
y la determinación de tales modelos ARMA ya se han introducido en el Capítulo 5. Para
conveniencia, los recopilaremos juntos en las siguientes secciones con un número
de ejemplos ilustrativos.
https://translate.googleusercontent.com/translate_f 8/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
(a) Transformaciones preliminares. Los métodos de estimación del Capítulo 5 nos permiten
encontrar, para valores dados de p y q , un ARMA ( p, q modelo) para adaptarse a una determinada serie de datos.
Para que este procedimiento sea significativo, debe ser al menos plausible que los datos estén en
hecho una realización de un proceso ARMA y en particular una realización de un estacionario
proceso. Si los datos muestran características que sugieren no estacionariedad (por ejemplo, tendencia y
estacionalidad), entonces puede ser necesario hacer una transformación para producir una
nueva serie que es más compatible con el supuesto de estacionariedad.
Las desviaciones de la estacionariedad pueden ser sugeridas por el gráfico de la propia serie o
por la función de autocorrelación de la muestra o ambas.
La inspección del gráfico de la serie ocasionalmente revelará una fuerte dependencia
de la variabilidad en el nivel de la serie, en cuyo caso los datos deben ser primero
transformado para reducir o eliminar esta dependencia. Por ejemplo, la Figura 1.1 muestra
1.0
0,5
ACF
0.0
Página 10
1.0
0,5
ACF
0.0
https://translate.googleusercontent.com/translate_f 9/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
las ventas mensuales de vino tinto en Australia desde enero de 1980 hasta octubre de 1991,
y la Figura 1.17 muestra cómo se reduce la creciente variabilidad con el nivel de ventas
tomando logaritmos naturales de la serie original. La transformación logarítmica
Vt ln U t usado aquí es de hecho apropiado siempre que { U t } sea una serie cuyo estándar
la desviación aumenta linealmente con la media. Para un relato sistemático de una clase general
de las transformaciones estabilizadoras de la varianza, remitimos al lector a Box y Cox (1964).
La ecuación definitoria para la transformación general de Box-Cox f λ es
{
λ −1 (U λ
f λ (U t ) t - 1 ), U t ≥ 0 , λ> 0 ,
En U t , Ut>0,λ 0,
Página 11
600
400
200
Figura 6-11
-200
El rojo australiano
datos del vino después de tomar
logaritmos naturales y
-400
eliminando una temporada
https://translate.googleusercontent.com/translate_f 10/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
componente
12 del período
y una tendencia lineal. 0 20 40 60 80 100 120
El programa ITSM (en la opción Transformar ) ofrece una opción entre estas tecnologías
niques. Los resultados de aplicar los métodos (i) y (ii) a los datos de vino tinto transformados
Vt ln U t en la figura 1.17 se muestran en las figuras 6.11 y 6.12, respectivamente. Figura
6.11 se obtuvo de ITSM estimando y eliminando de { V t } una tendencia lineal
componente y un componente ( estacional con el período 12. La Figura 6.12 se obtuvo por
aplicando el operador 1 - B 12 ) a { V t } . Ninguna de las dos series resultantes muestra
cualquier desviación aparente de la estacionariedad,
{ ni su función
} de autocorrelación de muestra
ciones. La muestra ACF y PACF de ( 1 - B 12 ) V t se muestran en las Figuras 6.13 y
6.14, respectivamente.
Después de la eliminación de tendencia y estacionalidad, todavía es posible que la muestra
La función de autocorrelación puede parecer la de una función no estacionaria (o casi no estacionaria).
proceso), en cuyo caso puede llevarse a cabo una diferenciación adicional.
En la Sección 1.5 también mencionamos un tercer enfoque posible:
iii. ajustando una suma de armónicos y una tendencia polinomial para generar una secuencia de ruido
que consta de los residuos de la regresión.
En la sección 6.6 discutimos las modificaciones al análisis clásico de regresión de mínimos cuadrados.
sis que permiten la dependencia entre los residuos de la regresión. Estas modificaciones
Las opciones se implementan en la opción ITSM Regresión> Estimación> Generalizada
LS .
(b) Identificación y estimación. Sea { X t } la transformada con corrección media
serie encontrada como se describe en (a). El problema ahora es encontrar el más satisfactorio
Modelo ARMA ( p, q ) para representar { X t } . Si p y q se conocen de antemano, esto
ser una aplicación sencilla de las técnicas de estimación descritas en el Capítulo 5.
Pagina 12
800
600
400
200
El rojo australiano
datos del vino después de tomar
-400
logaritmos naturales y
diferenciar en el retraso 12. 0 20 40 60 80 100 120
Sin embargo, este no suele ser el caso, por lo que también es necesario identificar
https://translate.googleusercontent.com/translate_f 11/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
valores de Priate para p y q .
Podría parecer a primera vista que los más altos los valores elegidos para p y q , la
mejor será el modelo ajustado resultante. Sin embargo, como se señaló en la Sección 5.5,
La estimación de un número demasiado grande de parámetros introduce errores de estimación que
afectar negativamente el uso del modelo ajustado para la predicción, como se ilustra en la Sección 5.4.
Por lo tanto, minimizamos uno de los criterios de selección del modelo discutidos en la Sección 5.5 en
1.0
0,5
ACF
0.0
Página 13
1.0
0,5
PACF
0.0
Para elegir los valores de p y q . Cada uno de estos criterios incluye un término de penalización
para desalentar el ajuste de demasiados parámetros. Tomemos como base nuestra elección de p y
q principalmente en la minimización de la estadística AICC, definida como
https://translate.googleusercontent.com/translate_f 12/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
donde L (φ, θ,( σ 2 ) es la probabilidad de los datos bajo el modelo ARMA gaussiano con
parámetros φ, θ, σ 2 ) , y S (φ, θ) es la suma residual de cuadrados definida en (5.2.11).
Una vez que se ha encontrado un modelo que minimiza el valor AICC, es necesario
para comprobar la bondad del ajuste del modelo (esencialmente comprobando que los residuos son
como ruido blanco) como se discutió en la Sección 5.3.
Para cualquier valores fijos de p y q , las estimaciones de máxima verosimilitud de φ y θ
son los valores que minimizan el AICC. Por lo tanto, el modelo AICC mínimo (sobre cualquier
rango dado de p y q valores) se puede encontrar mediante el cálculo de la máxima probabilidad
estimadores para cada uno fijo p y q y eligiendo entre éstos el de máxima verosimilitud
modelo con el valor más pequeño de AICC. Esto se puede hacer con el programa ITSM
utilizando la opción Modelo> Estimación> Ajuste automático . Cuando se selecciona esta opción y
límites superior e inferior para p y q son especificados, el programa ajusta máxima como-
modelos de vida para cada par (p, q) en el rango especificado y selecciona el modelo con
valor de AICC más pequeño. Si algunas de las estimaciones de los coeficientes son pequeñas en comparación con
sus desviaciones estándar estimadas, modelos de subconjunto de máxima verosimilitud (con los
coeficientes establecidos en cero) también se pueden explorar.
Los pasos en la identificación y estimación del modelo se pueden resumir de la siguiente manera:
Página 14
• Después de transformar los datos (si es necesario) para hacer el ajuste de un ARMA ( p, q )
modelo razonable, examine la muestra de ACF y PACF para tener una idea del potencial
tial p y q valores. Estimación preliminar utilizando la opción ITSM Modelo> Estimación
mation> Preliminary también es útil a este respecto. Algoritmo de Burg con AICC
La minimización ajusta rápidamente las autorregresiones de todos los pedidos hasta 27 y selecciona el
con valor mínimo de AICC. Para la estimación preliminar de modelos con q> 0,
cada par ( p, q ) debe considerarse por separado.
• Seleccione la opción Modelo> Estimación> Ajuste automático de ITSM. Especifique el requerido
límites de p y q , y el programa A continuación, utilizar la estimación de máxima verosimilitud
para encontrar el modelo mínimo AICC con p y q en el rango especificado.
• El examen de los coeficientes ajustados y sus errores estándar puede sugerir que
algunos de ellos se pueden poner a cero. Si este es el caso, entonces un modelo de subconjunto puede
montarse haciendo clic en el botón Restringir la optimización en el máximo
Cuadro de diálogo Estimación de probabilidad y configuración de los coeficientes seleccionados para
cero. La optimización dará entonces el modelo de máxima verosimilitud con la selección
sen coeficientes restringidos a cero. El modelo restringido es evaluado por
comparando su valor AICC con los de los otros modelos candidatos.
• Verifique los modelos candidatos para ver si se ajustan bien como se describe en la Sección 5.3.
Estas pruebas se pueden realizar seleccionando la opción Estadísticas> Residual
Análisis .
Sea { X 1 , ..., X 130 } la serie obtenida de los datos del vino tinto del ejemplo 1.1.1
después de tomar logaritmos naturales, diferenciar en el retraso 12 y restar la media
https://translate.googleusercontent.com/translate_f 13/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
(0.0681) de las diferencias. Los datos antes de la corrección media se muestran en la figura.
ure 6.12. El PACF de muestra de { X t } , que se muestra en la Figura 6.14, sugiere que un AR (12)
El modelo puede ser apropiado para esta serie. Para explorar esta posibilidad usamos el
Opción ITSM Modelo> Estimación> Preliminar con algoritmo de Burg y AICC
minimización. Como se anticipó, los modelos Burg equipados tienen un AICC mínimo
cuando p 12. El modelo ajustado es
(
1 - . 245 B - . 069 B 2 - . 012 B 3 - . 021 B 4 - . 200 B 5 + . 025 B 6 + . 004 B 7
- . 133 B 8 + . 010 B 9 - . 095 B 10 + . 118 B 11 + . 384 B 12 ) Xt Zt,
Página 15
Sea { Y t , t 1 , ..., 99 } denota los datos del lago del ejemplo 1.3.5. Hemos visto todo
listo en el Ejemplo 5.2.5 que la opción ITSM Modelo> Estimación> Ajuste automático da
el modelo mínimo-AICC
X t - 0 . 7446 X t −1 Z t + 0 . 3213 Z t -1 , { Z t } ~ WN ( 0 , 0 . 4750 ),
https://translate.googleusercontent.com/translate_f 14/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
para la serie X t con corrección media Y t - 9 . 0041. El valor AICC correspondiente es
212,77. Dado que el modelo pasa todas las pruebas de bondad de ajuste, lo aceptamos como un
modelo para los datos.
Página 16
el polinomio de promedio móvil indica que los datos estaban sobrediferenciados. En esto
sección, consideramos los procedimientos de inferencia para detectar la presencia de una raíz unitaria en
los polinomios autorregresivos y de media móvil.
https://translate.googleusercontent.com/translate_f 15/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
∑n ( )2
donde S 2 t2
∇Xt-φ* / (n - 3 ) y ¯ X es la media muestral de
0 - φ* 1 X t −1
X 1 , ..., X n −1 . Dickey y Fuller derivaron la distribución límite como n → ∞ de la
t -ratio
( )
̂
Tau mu : φ * SE φ*
1 (6 . 3 . 3)
1/
bajo el supuesto de raíz unitaria φ ∗ 1 0, a partir del cual una prueba de la hipótesis nula
H 0: φ 1 Se puede construir 1. Los cuantiles .01, .05 y .10 de la distribución límite
de tau mu (véase la Tabla 8.5.2 de Fuller, 1976) son - 3 . 43, - 2 . 86 y - 2 . 57, respectivamente.
Página 17
La prueba de Dickey-Fuller aumentada luego rechaza la hipótesis nula de una raíz unitaria,
en la opinión, el nivel .05 si tau mu < - 2 . 86. Observe que el valor de corte para esta estadística de prueba es
mucho menor que el valor de corte estándar de - 1 . 645 obtenido de la normal
aproximación a la distribución t , por lo que es menos probable que la hipótesis de la raíz unitaria
ser rechazado utilizando la distribución de límites correcta.
El procedimiento anterior se puede extender al caso donde { X t } sigue al AR (p)
modelo con media µ dada por
( ) (
Xt-µ φ 1 ( X t −1 - µ ) + ··· + φ p X t-p - µ +Zt, { Z t } ∼ WN 0 , σ2) .
como el estadístico de prueba en (6.3.3). En este caso se aplica la prueba aumentada de Dickey-Fuller
exactamente de la misma manera que para el caso AR (1) utilizando el estadístico de prueba (6.3.5) y
los valores de corte dados anteriormente.
Ejemplo 6.3.1 Considere probar la serie de tiempo del Ejemplo 6.1.1 (ver Figura 6.1) para la presencia
de una raíz unitaria en el operador autorregresivo. El PACF de muestra en la Figura 6.3 sugiere
gestos que se ajustan a un modelo AR (2) o posiblemente un modelo AR (3) a los datos. Regresando ∇ X t en
1 , X t −1 , ∇ X t −1 , ∇ X t −2 para t 4 , ..., 200 usando OLS da
∇Xt . 1503 - . 0041 X t −1 + . 9335 ∇ X t −1 - . 1548 ∇ X t −2 + Z t ,
donde { Z t } ~ WN ( 0 ,. 9639 ) . La estadística de prueba para probar la presencia de una raíz unitaria
es
- . 0041
https://translate.googleusercontent.com/translate_f 16/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
tau mu . 0028 - 1 . 464 .
Desde - 1 . 464 > - 2 . 57, la hipótesis de la raíz unitaria no se rechaza en el nivel .10. En
Por el contrario, si hubiéramos utilizado erróneamente la distribución t con 193 grados de libertad como
una aproximación a tau mu , entonces habría rechazado la hipótesis de raíz unitaria en el
.10 nivel (el valor p es .074). Las razones t para los otros coeficientes, φ ∗
0 , φ ∗2 y φ ∗ 3 , tener
Página 18
una distribución t aproximada con 193 grados de libertad. Según estas relaciones t ,
la intersección debe ser 0, mientras que el coeficiente de ∇ X t −2 es apenas significativo. los
La evidencia es mucho más fuerte a favor de una raíz unitaria si el análisis se repite sin un
término medio. El modelo ajustado sin término medio es
∇Xt . 0012 X t −1 + . 9395 ∇ X t −1 - . 1585 ∇ X t −2 + Z t ,
donde { Z t } ~ WN ( 0 ,. 9677 ) . Los valores de corte de .01, .05 y .10 para el correspondiente
el estadístico de prueba cuando se excluye un término medio del modelo son - 2 . 58, - 1 . 95, y
- 1 . 62 (ver Tabla 8.5.2 de Fuller, 1976). En este ejemplo, la estadística de prueba es
- . 0012
τ - . 667 ,
. 0018
que es sustancialmente mayor que el valor 0,10 de corte de - 1 . 62.
(
Nuevas extensiones de la prueba anterior a los modelos AR con p O n 1 / 3 ) y para
Los modelos ARMA (p, q) se pueden encontrar en Said y Dickey (1984). Sin embargo, como se informó
en Schwert (1987) y Pantula (1991), esta prueba debe usarse con precaución si el
los pedidos del modelo subyacente no se especifican correctamente.
Una raíz unitaria en el polinomio de media móvil puede tener varias interpretaciones
dependiendo de la aplicación de modelado. Por ejemplo, sea { X t } un causal e inverso
ible proceso ARMA ( p, q) que satisface las ecuaciones
(
φ (B) X t θ (B) Z t , { Z t } ∼ WN 0 , σ2) .
y
Xt c 0 + c 1 t + ··· + c k t k + W t ,
https://translate.googleusercontent.com/translate_f 17/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
diferenciar entre los dos modelos utilizando los valores observados de ∇kXt para probar el
presencia de una raíz unitaria de media móvil.
Página 19
Limitamos nuestro análisis de las pruebas de raíz unitaria a modelos de promedio móvil de primer orden,
el caso general es considerablemente más complicado y no está completamente resuelto. Dejar
X 1 , ..., X n sean observaciones del modelo MA (1)
(
Xt Z t + θZ t −1 , { Z t } ∼ IID 0 , σ2) .
L ( - 1 , S ( - 1 ) / n)
λ n : - 2 ln ( ) > c LR , α
L Θ, sigma 2
Ejemplo 6.3.2 Para los datos sobrecortados { X t } del ejemplo 3.2.8, el modelo MA (1) de máxima verosimilitud
para la media de datos corregidos { Y t X t + 4 . 035 } era (consulte el Ejemplo 5.4.1)
Yt Z t - 0 . 818 Z t -1 , { Z t } ~ WN ( 0 , 2040 . 75 ).
(Estas variaciones de error corresponden a las cantidades medidas diarias de combustible en el tanque
y los ajustes medidos diarios debidos a ventas y entregas.) Un valor de θ -1
https://translate.googleusercontent.com/translate_f 18/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 20
indica que no hay un error de medición apreciable debido a las ventas y la entrega
ies (es decir,Vσ 2 0), y por lo tanto, probar una raíz unitaria en este caso es equivalente a
probando que σ 2U 0. Suponiendo que se conoce la media, la hipótesis de raíz unitaria
sis se rechaza en α . 05, desde - . 818 > - 1 + 6 . 80 / 57 - . 881. La prueba
contra H 0 es más fuerte usando el estadístico de razón de verosimilitud. Usando ITSM e ingresando
el modelo MA (1) θ -1yσ2 2203 . 12, nos encontramos con que - 2 ln L ( - 1 , 2203 . 12 )
604 . 584, mientras que - 2 ln L ( θ, σ 2 ) 597 . 267. Comparación de la estadística de razón de verosimilitud
λn 604 . 584 - 597 . 267 7 . 317 con el valor de corte c LR ,. 01 , rechazamos H 0 al nivel
α . 01 y concluir que el error de medición asociado con ventas y entregas
es distinto de cero.
En el ejemplo anterior se asumió que se conocía la media. En la práctica, estos
Las pruebas deben ajustarse por el hecho de que también se está estimando la media.
Tanaka (1990) propuso una prueba insesgada invariante localmente mejor (LBIU) para la unidad
hipótesis raíz. Se encontró que la prueba LBIU tiene una potencia ligeramente mayor que la
- 1 pero
prueba de razón de verosimilitud para alternativas cercanas a θtiene menos poder para las alternativas
más lejos de - 1 (ver Davis et al., 1995). La prueba LBIU se ha ampliado a
cubre modelos más generales de Tanaka (1990) y Tam y Reinsel (1995). Similar
extensiones a las pruebas basadas en el estimador de máxima verosimilitud y la probabilidad
La estadística de razón se ha explorado en Davis, Chen y Dunsmuir (1996).
En esta sección demostramos cómo se pueden adaptar los métodos de las secciones 3.3 y 5.4
para pronosticar los valores futuros de un proceso ARIMA ( p, d, q ) { X t } . (El nu-
Todos los cálculos mericales se pueden realizar utilizando el programa ITSM.)
Si d ≥ 1, el primer y segundo momento EX t y E (X t + h X t ) no están determinados
por las ecuaciones en diferencias (6.1.1). Por tanto, no podemos esperar determinar la mejor
predictores lineales para { X t } sin más supuestos.
Por ejemplo, suponga que { Y t } es un proceso ARMA ( p, q ) causal y que X 0 es
cualquier variable aleatoria. Definir
∑t
Xt X0+ Yj,t 1 , 2 , ....
j1
https://translate.googleusercontent.com/translate_f 19/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 21
de P n , podemos escribir
P n X n +1 P n (X 0 + Y 1 + ··· + Y n +1 ) P n (X n + Y n +1 ) X n + P n Y n +1 .
( 1 - B) d X t Yt,t 1 , 2 , ...,
Es conveniente, al volver a etiquetar el eje del tiempo si es necesario, asumir que observamos
X 1− d , X 2− d , ..., X n . (Los valores observados de { Y t } son entonces Y 1 , ..., Y n .) Como es habitual,
utilizará P n para denotar la mejor predicción lineal en términos de las observaciones hasta el momento n
(en este caso 1 , X 1− d , ..., X n o equivalentemente 1 , X 1− d , ..., X 0 , Y 1 , ..., Y n ).
Nuestro objetivo es calcular los mejores predictores lineales P n X n + h . Esto se puede hacer
aplicando el operador P n a cada lado de (6.4.1) (con t n + h ) y usando la linealidad
de P n para obtener
( )
∑re re
P n X n+h P n Y n+h - ( - 1 ) j P norte X norte + h - j . (6 . 4 . 2)
j1
j
Ahora bien, la suposición de que (X 1− d , ..., X 0 ) no está correlacionada con Y t , t> 0, nos permite
identificar P n Y n + h con el mejor predictor lineal de Y n + h en términos de { 1 , Y 1 , ..., Y n } , y
esto se puede calcular como se describe en la Sección 3.3. Se obtiene el predictor P n X n +1
directamente de (6.4.2) notando que P n X n + 1− j X n + 1− j para cada j ≥ 1. El predictor
P n X n +2 se puede encontrar a partir de (6.4.2) utilizando el valor calculado previamente de
P n X n +1 . Los predictores P n X n +3 , P n X n +4 , ... se pueden calcular de forma recursiva en el mismo
camino.
Para encontrar el error cuadrático medio de la predicción es conveniente expresar P n Y n + h
en términos de { X j } . Para n ≥ 0 denotamos los predictores de un solo paso por Y n 1P n Y n +1 y
X n1 P n X n +1 . Entonces de (6.4.1) y (6.4.2) tenemos
X n1 - X n1 Y n1 - Y n1, n ≥ 1 ,
Página 22
https://translate.googleusercontent.com/translate_f 20/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
( 1 - z) re φ (z)
Configuración φ ∗ (z) 1 - φ∗
1 z - ··· - φ ∗ p+d z p + d , encontramos de (6.4.2) y
(6.4.3) que
∑
p+d
∑q ( )
P n X n+h φ∗ θ n + h −1 , j X n+h-j - X n+h-j , (6 . 4 . 4)
j P norte X norte + h - j +
j1 Jh
que es análoga a la fórmula de predicción del paso h (3.3.12) para un proceso ARMA.
Como en (3.3.13), el error cuadrático medio del predictor de paso h es
( )2
∑
h −1 ∑j
σ2 E (X norte + h - P norte X norte + h ) 2 χ r θ norte + h - r −1 , j - r v n + h - j -1 , (6 . 4 . 5)
n (h)
j0 r0
donde θ n 0 1,
∑∞ ( ) −1
χ (z) χrzr 1 - φ∗ ,
1 z - ··· - φ ∗ p+d zp+d
r0
y
( )2 ( )2
v n + h - j −1 mi X n + h - j - X n + h - j mi Y n + h - j - Y n + h - j .
Los coeficientes χ j se pueden encontrar a partir de las recursiones (3.3.14) con φj ∗reemplazando φ j .
Para n grande podemos aproximar (6.4.5), siempre que θ ( · ) sea invertible, por
∑
h −1
σ2 ψ2 (6 . 4 . 6)
n (h) jσ2,
j0
dónde
∑∞
ψ (z) ψjzj (φ ∗ (z)) −1 θ (z).
j0
La inspección de la ecuación (6.4.4) muestra que para n> m fijo max (p, q) , la h -Step
predictores
g (h) : P n X n + h ,
Página 23
https://translate.googleusercontent.com/translate_f 21/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
The Bartlett Press, Inc. brockwel 8 · i · 2002 1:59 pm Página 201
µh 2 ∑11
g (h) + a 0 + a 1h + c j e ijπ / 6 + b 1 ξ - h + ··· + b p ξ - h
24
1 p ,
j1
h> q - p - 13 . ( 6 . 4 . 11 )
Página 24
https://translate.googleusercontent.com/translate_f 22/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
202 Capítulo 6 Modelos de series temporales estacionales y no estacionarias
Una solución particular de estas ecuaciones es g (h) 0 . 1336 h , por lo que la solución general es
g (h) 0 . 1336 h + a + b (. 4471 ) h , h> - 2 . (6 . 4 . 14)
Sustituyendo g ( - 1 ) D 76
122 yg ( 0 ) D 77 121 . 23 en las ecuaciones con
h -1yh 0, y resolviendo para un y b da
g (h) 0 . 1366 h + 120 . 50 + 0 . 7331 (. 4471 ) h .
Configuración1hy h 2 da
P 77 D 78 120 . 97 y P 77 D 79 120 . 94 .
(Observe que la aproximación (6.4.6) es exacta en este caso.) Los predictores y sus
los errores cuadrados medios se obtienen fácilmente del programa ITSM abriendo el archivo
Página 25
https://translate.googleusercontent.com/translate_f 23/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
datos corregidos
probabilidad con el algoritmo
de encontrar el modelodeAR
Burg,
(1) ydeluego seleccionando
máxima Modelo>
verosimilitud. Estimación>
Los valores Máx.y
predichos
sus errores cuadráticos medios se encuentran entonces usando la opción Pronóstico> ARMA .
Definición 6.5.1 Si d y D son números enteros no negativos, entonces { X t } es un ARIMA estacional (p, d, q) ×
(P, D, Q) s proceso con período s si la serie diferenciada Y t ( 1 - B) d (1 - B s )D X t
es un proceso ARMA causal definido por
(
φ (B) ( B s )Yt θ (B) ( B s ) Z t, { Z t } ∼ WN 0 , σ2) , (6 . 5 . 1)
Página 26
Puede que no sea razonable suponer, como en el modelo de descomposición clásico, que
el componente estacional s t se repite precisamente de la misma manera ciclo tras ciclo.
Los modelos ARIMA estacionales permiten la aleatoriedad en el patrón estacional de uno
pasar al siguiente.
https://translate.googleusercontent.com/translate_f 24/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Ejemplo 6.5.1 Supongamos que tenemos r años de datos mensuales, que tabulamos de la siguiente manera:
Año mes 1 2 ... 12
1 Y1 Y2 ... Y 12
2 Y 13 Y 14 ... Y 24
3 Y 25 Y 26 ... Y 36
... ... ... ...
r Y 1 + 12 (r − 1) Y 2 + 12 (r − 1) ... Y 12 + 12 (r − 1)
Cada columna de esta tabla puede verse en sí misma como una realización de una serie de tiempo. Suponer
que cada una de estas doce series de tiempo es generada por el mismo ARMA ( P, Q )
modelo, o más específicamente, que la serie correspondiente al j- ésimo mes, Y j +12 t , t
0 , ..., r - 1, satisface una ecuación en diferencias de la forma
Y j +12 t
1 Y j +12 (t −1 ) + ··· + P Y j +12 (t - P) + U j +12 t
(6 . 5 . 3)
+ 1 U j +12 (t −1 ) + ··· + Q U j +12 (t - Q) ,
dónde
( )
{ U j +12 t , t ..., - 1 , 0 , 1 , ... } ∼ WN 0 , σ U2 . (6 . 5 . 4)
Entonces, dado que se supone que se aplica el mismo modelo ARMA ( P, Q ) a cada mes, (6.5.3)
sostiene para cada j 1 , ..., 12. (Observe, sin embargo, que E (U t U t + h ) no es necesariamente
cero excepto cuando h es un múltiplo entero de 12.) Por tanto, podemos escribir (6.5.3) en el
forma compacta
( (
B 12 ) Y t B 12 ) U t , (6 . 5 . 5)
Ejemplo 6.5.2 Suponga que P 0, Q 1y1 - 0 . 4 pulgadas (6,5,5). Entonces la serie para cualquier particular
mes es un promedio móvil de orden 1. Si E (U t U t + h ) 0 para todo h , es decir, si el ruido blanco
las secuencias para diferentes meses no están correlacionadas entre sí, entonces las columnas
ellos mismos no están correlacionados. La función de correlación para tal proceso se muestra en
Figura 6.15.
Ejemplo 6.5.3 Suponga que P 1, Q 0y1 0 . 7 pulg. (6,5,5). En este caso la serie 12 (una para
cada mes) son procesos AR (1) que no están correlacionados si las secuencias de ruido blanco
Página 27
1.0
0,5
ACF
https://translate.googleusercontent.com/translate_f 25/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
0.0
Figura 6-15
El ACF del modelo -0,5
Xt U t - 0,4 U t − 12 0 10 20 30 40 50 60
del ejemplo 6.5.2. Retraso
En cada uno de los Ejemplos 6.5.1, 6.5.2 y 6.5.3, las 12 series correspondientes al
los diferentes meses no están correlacionados. Incorporar la dependencia entre estas series
1.0
0,5
ACF
0.0
Figura 6-16
El ACF del modelo -0,5
X t - 0.7X t − 12 Ut 0 10 20 30 40 50 60
del ejemplo 6.5.3. Retraso
Página 28
Este supuesto implica una posible correlación distinta de cero no solo entre
valores de U t , pero también dentro de las doce secuencias { U j +12 t , t ..., - 1 , 0 , 1 , ... } ,
cada uno de los cuales se supuso no correlacionado en los ejemplos anteriores. En esto
el caso (6.5.4) puede que ya no sea válido; sin embargo, los coeficientes en (6.5.6) frecuentemente
tienen valores tales que E (U t U t +12 j ) es pequeño para j ± 1 , ± 2 , .... Combinando los dos
modelos (6.5.5) y (6.5.6) y permitiendo posibles derivaciones de diferenciación directamente a
Definición 6.5.1 del modelo general SARIMA como se indica anteriormente.
Los primeros pasos en la identificación de modelos SARIMA para datos (posiblemente transformados)
conjunto son encontrar d y D para hacer las observaciones diferenciadas
https://translate.googleusercontent.com/translate_f 26/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Yt ( 1 - B) d (1 - B s )D X t
de apariencia estacionaria (véanse las Secciones 6.1 a 6.3). A continuación examinamos la muestra ACF
y PACF de { Y t } en rezagos que son múltiplos de s para una indicación de los órdenes P y
Q en el modelo (6.5.5). Si ρ ( · ) es la ACF muestra de { Y t } , entonces P y Q deben estar
elegido de tal manera que ρ (KS)1, ,k2 , ... , es compatible con el ACF de un ARMA ( P, Q )
proceso. El orden p y q se seleccionan a continuación, tratando de igualar ρ ( 1 ), ..., rho (s - 1 )
con el ACF de un proceso ARMA ( p, q ). En última instancia, el criterio AICC (Sección 5.5)
y las pruebas de bondad de ajuste (Sección 5.3) se utilizan para seleccionar el mejor modelo SARIMA
de alternativas competitivas.
Para valores dados de p , d , q , P , D y Q , los parámetros φ , θ ` ` y σ 2 pueden
encontrar utilizando
( el procedimiento
)D de máxima verosimilitud de la Sección 5.2. Las diferencias
Yt ( 1 - B) d 1 - B s X t constituyen un proceso ARMA ( p + sP, q + sQ ) en el que
algunos de los coeficientes son cero y el resto son funciones de (p + P + q + Q) -
vector dimensional β (φ,, θ,) . Para cualquier β fijo, la probabilidad reducida l (β)
de las diferencias Y t + d + sD , ..., Y n se calcula fácilmente como se describe en la Sección 5.2. los
El estimador de máxima verosimilitud de β es el valor que minimiza l (β) , y el máximo
La estimación de verosimilitud de σ 2 viene dada por (5.2.10). Las estimaciones se pueden encontrar usando
el programa ITSM especificando las relaciones multiplicativas requeridas entre los
coeficientes como se indica en la Observación 2 anterior.
Un enfoque más directo para modelar la serie diferenciada { Y t } es simplemente ajustar
un modelo ARMA de subconjunto de la forma (6.5.2) sin hacer uso del método multiplicativo
forma de φ ∗ ( · ) y θ ∗ ( · ) en (6.5.1).
Página 29
1.0
0,5
ACF
0.0
Figura 6-17
La muestra de ACF del -0,5
diferenciado accidental 0 10 20 30
https://translate.googleusercontent.com/translate_f 27/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
muertes {∇∇ 12 X t }. Retraso
Página 30
σ2 94255 ,
con valor AICC 855.53. El modelo ajustado correspondiente para { X t } es, por tanto, el SARIMA
( 0 , 1 , 1 ) × ( 0 , 1 , 1 ) 12 proceso
(
∇∇ 12 X t 28 . 831 + ( 1 - 0 . 478 B) 1 - 0 . 588 B 12 ) Z t , (6 . 5 . 8)
donde { Z t } ∼ WN ( 0 , 94390 ) .
Si adoptamos el enfoque alternativo de ajustar un modelo ARMA de subconjunto a { Y t }
sin buscar una estructura multiplicativa para los operadores φ ∗ (B) y θ ∗ (B) en (6.5.2),
Comenzamos ajustando un modelo MA (13) preliminar (como sugiere la Figura 6.17) para
la serie { Y t } . Luego ajustamos un modelo de máxima verosimilitud MA (13) y examinamos el
errores estándar de los estimadores de coeficientes. Esto sugiere establecer los coeficientes en
los retrasos 2, 3, 8, 10 y 11 son iguales a cero, ya que todos son menos de un error estándar
desde cero. Para hacer esto, seleccione Modelo> Estimación> Probabilidad máxima y haga clic en el
Botón Restringir la optimización . Luego resalte los coeficientes que se establecerán en cero
y haga clic en el botón Poner a cero . Haga clic en Aceptar para volver a la probabilidad máxima
Cuadro de diálogo de estimación y nuevamente para realizar la optimización restringida. los
https://translate.googleusercontent.com/translate_f 28/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
los coeficientes
será con respectoque se handeestablecido
al resto en Esto
coeficientes. cero da
se mantendrán en ese
un modelo con valor, y la optimización
sustancialmente
AICC más pequeño que el modelo MA sin restricciones (13). Examinando los errores estándar
nuevamente vemos que los coeficientes en los rezagos 4, 5 y 7 son candidatos prometedores para ser
puesto a cero, ya que cada uno de ellos tiene menos de un error estándar desde cero. Configurar estos
coeficientes a cero de la misma manera y la reoptimización da una reducción adicional en
AICC. Establecer el coeficiente en el retardo 9 en cero y volver a optimizarlo da una mayor
reducción en AICC (a 855.61) y el modelo ajustado
El valor de AICC 855.61 está bastante cerca del valor 855.53 para el modelo (6.5.8). los
Los residuos de los dos modelos también son muy similares, las pruebas de aleatoriedad (con el
excepción de la prueba de signo de diferencia) que arroja valores p altos para ambos.
( 1 - B) d (1 - B s )D X t Yt,
Página 31
y ajuste t n + h da el análogo
∑
d + Ds
El primer término de la derecha es simplemente el mejor predictor lineal de la (posiblemente distinta de cero)
media) proceso ARMA { Y t } en términos de { 1 , Y 1 , ..., Y n } , que se puede calcular como
descrito en la Sección 3.3. Los predictores P n X n + h se pueden calcular entonces de forma recursiva
por h 1 , 2 , ... de (6.5.11), si observamos que P n X n + 1− j X n + 1− j para cada j ≥ 1.
Un argumento análogo al que conduce a (6.4.5) da la media de predicción
error al cuadrado como
( )2
∑
h −1
∑j
σ2 E (X norte + h - P norte X norte + h ) 2 χ r θ norte + h - r −1 , j - r v n + h - j -1 , (6 . 5 . 12)
n (h)
j0 r0
Para n grande podemos aproximar (6.5.12), si θ (z) ( z s ) es distinto de cero para todos | z | ≤ 1, por
∑
h −1
σ2 ψ2 (6 . 5 . 13)
n (h) jσ2,
j0
dónde
∑∞ θ (z) ( z s
ψ (z) ψjzj
)
j0
φ (z) ( z s ) ( 1 - z) d (1 - z s ) D ,|z|<1.
Todos los cálculos necesarios se pueden realizar con la ayuda del programa ITSM.
Los errores cuadrados medios se calculan a partir de la aproximación de muestra grande (6.5.13)
si el modelo ajustado es invertible. Si el modelo ajustado no es invertible, ITSM calcula el
errores cuadrados medios al convertir el modelo al equivalente (en términos de Gauss
probabilidad) modelo invertible y luego usando (6.5.13).
Página 32
t 73 74 75 76 77 78
Modelo (6.5.8)
Predictores 8441 7704 8549 8885 9843 10279
σt 308 348 383 415 445 474
Modelo (6.5.9)
Predictores 8345 7619 8356 8742 9795 10179
σt 292 329 366 403 442 486
Valores observados
Xt 7798 7406 8363 8460 9217 9316
Continuando con el ejemplo 6.5.4, a continuación usamos ITSM para predecir seis valores futuros de
la serie Muertes accidentales utilizando los modelos ajustados (6.5.8) y (6.5.9). Primero ajuste el
modelo deseado como se describe en el Ejemplo 6.5.4 o ingrese los datos y el modelo directamente
abriendo el archivo DEATHS.TSM, diferenciando en los rezagos 12 y 1, restando el
media, y luego ingresando los coeficientes MA (13) y la varianza del ruido blanco usando
la opción Modelo> Especificar . Seleccione Pronóstico> ARMA , y verá el ARMA
Cuadro de diálogo de previsión . Ingrese 6 para el número de valores previstos requeridos. Vas a
observe que las opciones predeterminadas en el cuadro de diálogo están configuradas para generar predictores de
la serie original invirtiendo las transformaciones aplicadas a los datos. Si por algunos
motivo por el que desea predecir los datos transformados, estas marcas de verificación se pueden eliminar.
Si desea incluir límites de predicción en el gráfico de los predictores, marque la casilla
https://translate.googleusercontent.com/translate_f 30/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
casilla correspondiente y especifique el coeficiente deseado (por ejemplo, 95%). Haga clic en Aceptar y
verá un gráfico de los datos con los seis valores predichos adjuntos. Para numérico
valores de los predictores y límites de predicción, haga clic con el botón derecho en el gráfico y luego en
Info . Los límites de predicción se calculan bajo el supuesto de que el ruido blanco
La secuencia en el modelo ARMA para los datos transformados es gaussiana. La tabla 6.1 muestra
los predictores y las desviaciones estándar de los errores de predicción en ambos modelos
(6.5.8) y (6.5.9) para la serie Muertes accidentales.
Página 33
muchas aplicaciones del análisis de regresión, sin embargo, este supuesto se viola claramente
como puede verse al examinar los residuos de la regresión ajustada y
sus autocorrelaciones de muestra. A menudo es más apropiado asumir que los errores
son observaciones de un proceso estacionario de segundo orden de media cero. Dado que muchos
Las funciones de correlación pueden aproximarse bien mediante la función de autocorrelación de un
proceso ARMA ( p, q ) adecuadamente elegido , es de particular interés considerar el modelo
Yt Xt β + W t , t 1 , ..., n, (6 . 6 . 1)
o en notación matricial,
Y Xβ + W , (6 . 6 . 2)
donde Y (Y 1 , ..., Y n ) es el vector de observaciones en los tiempos t 1 , ..., n , X
es la matriz de diseño cuya t ésima fila, x t
(x t 1 , ..., x tk ) , consta de los valores de
las variables explicativas en el tiempo t , β (β 1 , ..., β k ) es el vector de regresión
coeficientes y los componentes de W (W 1 , ..., W n ) son valores de un cero causal
proceso ARMA (p, q) medio que satisface
(
φ (B) W t θ (B) Z t , { Z t } ∼ WN 0 , σ2) . (6 . 6 . 3)
El modelo (6.6.1) surge naturalmente en la estimación de tendencias para datos de series de tiempo. por
ejemplo, las variables explicativas x t 1 1 , x t2 t, y x t 3 t 2 se puede utilizar para
estimar una tendencia cuadrática, y las variables x t 1 1 , x t 2 cos (ωt) y x t 3 pecado (ωt)
se puede utilizar para estimar una tendencia sinusoidal con frecuencia ω . Las columnas de X son
no necesariamente funciones simples de t como en estos dos ejemplos. Cualquier columna especificada
de variables relevantes, por ejemplo, temperaturas en los tiempos1 , ..., tn , se puede incluir en el
diseño de la matriz X , en cuyo caso la regresión está condicionada a los valores observados
de las variables incluidas en la matriz.
El mínimos cuadrados ordinarios (OLS) estimador de β es el valor, beta OLS , que
minimiza la suma de cuadrados
∑norte( ) 2.
( Y - Xβ) ( Y - Xβ) Yt-x
t β
t1
https://translate.googleusercontent.com/translate_f 31/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Igualar a cero las derivadas parciales con respecto a cada componente de β y
asumiendo (como haremos) que XX no es singular, encontramos que
β OLS (XX) -1 X Y . (6 . 6 . 4)
(Si XX es singular, beta OLS no se determina de forma única pero todavía satisface (6.6.4) con
(XX) −1 cualquier inverso generalizado de XX .) La estimación de MCO también maximiza la
probabilidad de las observaciones cuando los errores W 1 , ..., W n son iid y gaussianos. Si
la matriz de diseño X no es aleatoria, incluso cuando los errores
( no) son gaussianos y
β OLS β ) y su covarianza
dependiente, el estimador MCO es insesgado (es decir, E
matriz es
( ) −1 ( ) −1
Cov ( β OLS ) XX XnX XX , (6 . 6 . 5)
Página 34
( )
donde n mi WW es la matriz de covarianza de W .
Se puede demostrar que el estimador GLS es el mejor estimador lineal insesgado de β , es decir,
para cualquier k -dimensional vector c y por cualquier estimador insesgado β de β que es un linear
función de las (observaciones
)
Y 1 , ..., Y n ,
( )
Var c β GLS ≤ Var cβ .
En este sentido, el estimador GLS es, por tanto, superior al estimador OLS. Sin embargo,
sólo se puede calcular si se conocen φ y θ .
Sea V (φ, θ) la matriz σ −2 n y sea T (φ, θ) cualquier raíz cuadrada de V −1
(es decir, una matriz tal que TT V −1 ). Entonces podemos multiplicar cada lado de (6.6.2) por T
para obtener
TY T Xβ + T W , (6 . 6 . 9)
una ecuación de regresión con vector de coeficiente β , vector de datos T Y , matriz de diseño TX ,
y el vector de error T W . Dado que este último tiene componentes de media cero no correlacionados, cada
con varianza σ 2 , el mejor estimador lineal de β en términos de T Y (que es claramente el
mismo que el mejor estimador lineal de β en términos de Y , es decir, β GLS ) pueden obtenerse por
aplicando la estimación de MCO a la ecuación de regresión transformada (6.6.9). Esto da
( ) −1
β GLS XTTX XTT Y , (6 . 6 . 10)
que es claramente lo mismo que (6.6.7). Cochrane y Orcutt (1949) señalaron que si
{ W t } es un proceso AR ( p ) que satisface
https://translate.googleusercontent.com/translate_f 32/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
φ (B) W t Z t , { Z t } ∼ WN (
0 , σ2) ,
luego la aplicación de φ (B) a cada lado de las ecuaciones de regresión (6.6.1) transforma
en ecuaciones de regresión con errores no correlacionados, de media cero y de varianza constante.
rors, de modo que los mínimos cuadrados ordinarios se pueden usar nuevamente para calcular el mejor lineal insesgado
estimaciones de los componentes de β en términos de Y ∗ t φ (B) Y t , t p + 1 , ..., n .
Este enfoque elimina la necesidad de calcular la matriz T pero adolece de la
∗
inconveniente que Y no contiene toda la información de Y . Cochrane y Orcutt
Página 35
Cov (T W ) TnT σ 2 I,
Por lo tanto, la estimación GLS de β se puede realizar multiplicando cada lado de (6.6.2)
por T y aplicando mínimos cuadrados ordinarios al modelo de regresión transformado. Eso
solo queda calcular T Y y TX .
Cualquier vector de datos(dd1 , ..., d n ) se puede multiplicar por la izquierda por T simplemente leyendo
en ITSM, ingresando el modelo (6.6.3), y presionando el botón verde etiquetado RES ,
que traza los residuos. (Los cálculos se realizan utilizando las innovaciones
algoritmo como se describe en la Sección 3.3). El GLS estimador β GLS se calcula como
sigue. El vector de datos Y se multiplica a la izquierda por T para generar los datos transformados
∗
vector Y , y cada columna de la matriz de diseño X se multiplica a la izquierda por T para generar
la columna correspondiente de la matriz de diseño transformada X ∗ . Luego
( ) −1
β GLS X ∗X ∗ X ∗ Y∗. (6 . 6 . 11)
∗
Los cálculos de Y , X ∗ , Y por lo tanto de beta GLS , son todos llevado a cabo por el programa de
ITSM en la opción Regresión> Estimación> LS generalizada .
6.6.2 Estimación de ML
Si (como suele ser el caso) los parámetros del modelo ARMA ( p, q ) para los errores
son desconocidos, se pueden estimar junto con los coeficientes de regresión por
maximizar la probabilidad gaussiana
{ }
( 1( ) −1
( )
L β, φ, θ, σ 2 ) ( 2 π) - n / 2 ( det n ) −1 / 2 exp - Y - Xβ norte Y - Xβ ,
2
(
donde n φ, θ, σ 2 ) es la matriz de covarianza de W Y - Xβ . Dado que { W t } es un
(
https://translate.googleusercontent.com/translate_f 33/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Proceso
Β , phi , ARMA ( p, q ) con(como
y θ se encuentran parámetros φ, 5.2)
en la sección ) , los estimadores de máxima verosimilitud
θ, σ 2minimizando
( ) ∑norte
l (β, φ, θ) en n −1 S (β, φ, θ) + n −1 En r t −1 , (6 . 6 . 12)
t1
Página 36
dónde
∑norte( )2
S (β, φ, θ) Wt-Wt / r t −1 ,
t1
https://translate.googleusercontent.com/translate_f 34/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
(Los procesos de FARIMA se definen en la Sección 10.5).
Página 37
En los Ejemplos 5.2.4 y 5.5.2 encontramos ARMA de máxima verosimilitud (1,1) y AR (2)
modelos para los datos del lago con corrección media. Ahora consideremos ajustar una tendencia lineal
a los datos con ruido AR (2). La elección de un modelo AR (2) fue sugerida por un
https://translate.googleusercontent.com/translate_f 35/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 38
0 0 −4,035
1 −.818 −4,745
2 −.848 −4,780
3 −.848 −4,780
análisis de los residuos obtenidos después de eliminar una tendencia lineal de los datos utilizando
OLS. Nuestro modelo ahora toma la forma
Yt β 0 + β 1t + W t ,
Del Ejemplo 1.3.5, nos encontramos con que los MCO estimación de β es beta ( 10 MCO
. 202 , - . 0242 ) .
Si ignoramos la estructura de correlación del ruido, la matriz de covarianza estimada n
de W es γ ( 0 ) I (donde I es la matriz de identidad). La covarianza estimada correspondiente
matriz de beta OLS es (a partir de (6.6.5))
−1
∑norte
norte t [ ]
( ) −1 t1 . 07203 - . 00110
Γ Y ( 0 ) XX ΓY(0) . (6 . 6 . 14)
∑norte ∑ norte
- . 00110 . 00002
t t2
t1 t1
Sin embargo, el modelo estimado para el proceso de ruido, encontrado al ajustar un modelo AR (2)
a los residuos Y t - β OLS x t , es
Wt 1 . 008 W t −1 - . 295 W t -2 + Z t , { Z t } ~ WN ( 0 ,. 4571 ).
Suponiendo que este es el modelo verdadero para { W t } , se encuentra que la estimación GLS es
( 10 . 091 , - . 0216 ) , en estrecho acuerdo con los MCO estiman. La covariable estimada
Las matrices de compatibilidad para las estimaciones de OLS y GLS están dadas por
( ) [ ]
β OLS . 22177 - . 00335
Cov - . 00335 . 00007
y
( ) [ ]
β GLS . 21392 - . 00321
Cov .
- . 00321 . 00006
Observe cómo las varianzas estimadas de los estimadores MCO y GLS son casi tres
multiplicado por la magnitud de las estimaciones de varianza correspondientes del MCO calculado
https://translate.googleusercontent.com/translate_f 36/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Página 39
bajo el supuesto de independencia (ver (6.6.8)). Límites de confianza estimados del 95%
para la pendiente β 1 usando la estimación GLS son - . 0216 ± 1 . 96 (. 00 006 ) 1 / 2 - . 0216 ±
. 0048, lo que indica una tendencia decreciente significativa en el nivel del lago Huron durante el
años 1875-1972.
El procedimiento iterativo descrito anteriormente se utilizó para producir la máxima similitud
estimaciones de vida de los parámetros. Los cálculos que utilizan ITSM son análogos a
los del ejemplo 6.6.1. Los resultados de cada iteración se resumen en la Tabla 6.3.
Como en el ejemplo 6.6.1, la convergencia de las estimaciones es muy rápida.
0 0 0 10,20 −.0242
Página 40
https://translate.googleusercontent.com/translate_f 37/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
estimaciones de los residuos { W t } .) Los gráficos de los datos y la muestra ACF sugieren claramente
gesta un fuerte componente estacional con el período 12. Para transformar el modelo
(6.6.15) en uno con residuos estacionarios, por lo tanto, consideramos los datos diferenciados
Xt Y t - Y t −12 , que satisfacen
Xt - 346 . 92 g t + N t , (6 . 6 . 17)
2.2
2.0
1.8
1,6
(miles)
1.4
Página 41
https://translate.googleusercontent.com/translate_f 38/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
Problemas 219
actualizado a
Xt - 328 . 45 g t + N t , (6 . 6 . 18)
con el modelo MA (12) ajustado para los residuos también mostrados. Después de varias iteraciones
(cada iteración se realiza presionando el botón MLE) llegamos al modelo
Xt - 328 . 45 g t + N t , (6 . 6 . 19)
con
Nt Z t + . 219 Z t −1 + . 098 Z t −2 + . 031 Z t −3 + . 064 Z t −4 + . 069 Z t −5 + . 111 Z t −6
Problemas
200
-200
Figura 6-19
Las muertes diferenciadas y -400
Página 42
https://translate.googleusercontent.com/translate_f 39/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
6.3. Pruebe los datos del ejemplo 6.3.1 para detectar la presencia de una raíz unitaria en un modelo AR (2)
utilizando la prueba Dickey-Fuller aumentada.
6.4. Aplicar la prueba Dickey-Fuller aumentada a los niveles de los datos del lago Huron
(LAGO.TSM). Realice dos análisis asumiendo modelos AR (1) y AR (2).
6.5. Si { Y t } es un proceso ARMA causal (con media cero) y si X 0 es una variable aleatoria
con segundo momento finito tal que X 0 no está correlacionado con Y t para cada t
1 , 2 , ... , muestran que el mejor predictor lineal de Y n +1 en términos de 1 , X 0 , Y 1 , ..., Y n
es el mismo que el mejor predictor lineal de Y n +1 en términos de 1 , Y 1 , ..., Y n .
6.6. Sea { X t } el proceso ARIMA (2,1,0) que satisface
(
1 - 0 . 8 B + 0 . 25 B 2 ) ∇ X t Z t , { Z t } ∼ WN ( 0 , 1 ).
6.7. Utilice un editor de texto para crear un nuevo conjunto de datos ASHORT.TSM que consta de
datos en AIRPASS.TSM con los últimos doce valores eliminados. Utilice ITSM para encontrar un
Modelo ARIMA para los logaritmos de los datos en ASHORT.TSM. Tu analisis
Debería incluir
a. una explicación lógica de los pasos dados para encontrar el modelo elegido,
segundo. límites aproximados del 95% para los componentes de φ y θ ,
C. un examen de los residuos para comprobar la blancura como se describe en la Sección
ción 1.6,
re. un gráfico de la serie ASHORT.TSM que muestra los pronósticos de los siguientes 12 valores
y límites de predicción del 95% para los pronósticos,
mi. valores numéricos para el pronóstico de 12 pasos adelante y el 95% correspondiente
límites de predicción,
F. una tabla de los errores de pronóstico reales, es decir, el valor real (eliminado de AIR-
PASS.TSM) menos el valor de pronóstico, para cada uno de los doce pronósticos.
¿El último valor de AIRPASS.TSM se encuentra dentro del correspondiente 95%
límites de dicción?
6.8. Repita el problema 6.7, pero en lugar de diferenciar, aplique la descomposicin clsica
método de conversión a los logaritmos de los datos en ASHORT.TSM desestacionalizando,
restar una tendencia cuadrática y luego encontrar un modelo ARMA apropiado
para los residuos. Compare los doce errores de pronóstico encontrados con este enfoque
con los encontrados en el problema 6.7.
Página 43
Problemas 221
6,9. Repita el problema 6.7 para la serie BEER.TSM, eliminando los últimos doce valores
para crear un archivo llamado BSHORT.TSM.
https://translate.googleusercontent.com/translate_f 40/41
2/10/2020 6 Modelos de series de tiempo estacionales y no estacionarias
6.10. Repita el problema 6.8 para la serie BEER.TSM y la serie abreviada.
BSHORT.TSM.
6.11. Una serie de tiempo { X t } se diferencia en el retraso 12, luego en el retraso 1 para producir una media cero
serie { Y t } con el siguiente ACF de muestra:
Ρ ( 12 j) ≈ (. 8 ) j , j 0 , ± 1 , ± 2 , ...,
Ρ ( 12 j ± 1 ) ≈ (. 4 ) (. 8 ) j , j 0 , ± 1 , ± 2 , ...,
Ρ (h) ≈ 0 , de lo contrario ,
yγ(0) 25 .
a. Sugiera un modelo SARIMA para { X t } especificando todos los parámetros.
segundo. Para n grande , exprese los predictores lineales de uno y doce pasos P n X n +1 y
P n X n +12 en términos de X t , t - 12 , - 11 , ..., n , y Y t - Y t , t 1 , ..., n .
C. Encuentre los errores cuadrados medios de los predictores en (b).
6.12. Utilice ITSM para verificar los cálculos de los ejemplos 6.6.1, 6.6.2 y 6.6.3.
https://translate.googleusercontent.com/translate_f 41/41