Modelo Arima (2 Files Merged)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 91

 

4M odelación ARIMA

A finales del siglo XX diversos investigadores comenzaron a desarrollar y aplicar nuevas propuestas
para la modelación de series de tiempo, las cuales lograron probar su eficacia, ya que son capaces de
tratar con cualquier patrón de datos y producir pronósticos precisos en base a la descripción de
patrones históricos en los datos (Aguirre 1994). Las nuevas propuestas de análisis de series de tiempo
se empezaron a implementar en un principio a problemas de contaminación, en la economía, a
enfermedades epidemiológicas y en la actualidad a fenómenos físicos e inclusive fenómenos sociales.

Específicamente los modelos desarrollados en las últimas décadas son los llamados autorregresivos
(AR), de medias móviles (MA), integrados (I), así como las posibles combinaciones entre estos
(ARMA y ARIMA).

La principal diferencia entre estos modelos y los clásicos es el enfoque estocástico que se le da a las
series de tiempo, en vez de tratarlas de forma determinística. Bajo este enfoque se concibe a la serie de
tiempo como un conjunto de valores de tipo aleatorio, generados a partir de un proceso totalmente
desconocido, es decir, se concibe a la serie como un proceso estocástico.

Así mismo, derivado del desconocimiento del proceso generador de los datos, el objetivo de este
enfoque es tratar de identificar el modelo probabilístico que represente las características principales
del comportamiento de la serie (Aguirre 1994).

El desarrollo y aplicación de este tipo de modelos de series de tiempo en un principio estuvieron


gravemente limitados, fundamentalmente debido a razones de cómputo. Actualmente con la amplia
disponibilidad de las computadoras, el uso de los modelos ARIMA se ha tornado posible. En el
presente texto se hace imprescindible el uso de paquetes informáticos especializados en la modelación
ARIMA. En especial se hacen necesarios debido a la frecuencia con que se manejan grandes
volúmenes de información. De otra forma, utilizar métodos tradicionales haría que la tarea de modelar
bajo este enfoque fuera casi imposible de realizar.

41|Página
 
Modelación ARIMA [4] 
 
 
4.1 Enfoque y procesos estocásticos
En general las series de interés llevan asociados fenómenos aleatorios. Por este motivo el estudio de su
comportamiento pasado sólo permite acercarse a la estructura o modelo probabilístico para la
predicción del futuro. La teoría de los procesos estocásticos se centra en el estudio y modelización de
sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas leyes no
determinísticas, esto es, de carácter aleatorio y probabilístico.

Para aclarar esta idea definimos un proceso estocástico como una familia de variables aleatorias
asociadas a un conjunto índice de números reales, de tal forma que a cada elemento del conjunto le
corresponda una y sólo una variable aleatoria que evoluciona con el tiempo:

Con 1,2,3, … ,

Bajo este enfoque, una serie de tiempo se define como una observación particular sobre el estado
dinámico de una variable de un proceso de naturaleza aleatoria. Simultáneamente se presupone que los
procesos de series de tiempo siguen un comportamiento aleatorio y debido a la propia dinámica de
dicho proceso, tales impulsos pueden generar un conjunto de datos serialmente dependientes.

Así, mediante la identificación de la estructura de dependencia latente existe entre las observaciones, se
puede modelar la serie.

Una de las principales ventajas de este enfoque aplicado a las series de tiempo, es la gran flexibilidad
que se logra para representar un buen número fenómenos reales mediante una sola clase general de
modelos. Otra ventaja es la facilidad y precisión para realizar pronósticos.

4.2 Modelos AR, MA y mixtos


La estructura existente de dependencia entre los datos en un proceso estocástico, puede ajustarse a seis
modelos que pueden describir una gran variedad de fenómenos reales. La principal característica de
dichos modelos es que no involucran a las variables independientes en su construcción, es decir, a la
variable del tiempo , como se hace en el análisis clásico. En cambio, emplean la información que se
encuentra en la serie misma para generar los pronósticos (Makridakis y Wheelwright 2000).

Los modelos son los que se describen a continuación (Arnau 2001):

Proceso de ruido blanco – (at): Es un proceso formado por una secuencia de variables aleatorias
mutuamente independientes e idénticamente distribuidas.

Modelo no estacionario de corrido aleatorio - (I): Correspondiente a aquellas situaciones en las que
los impulsos aleatorios tienden a sumarse o a integrase en el tiempo. La integración refleja la presencia
de un componente de tendencia.

      42|Página 
Modelación ARIMA [4] 
 
 
Modelo autorregresivo de orden p - AR(p): Se trata de un modelo en el que una determinada
observación es predecible a partir de la observación inmediatamente anterior (modelo autorregresivo
de primer orden) o a partir de las dos observaciones que le preceden (modelo autorregresivo de
segundo orden). En este caso, la observación actual se define como la suma ponderada de una cantidad
finita de observaciones precedentes más un impulso aleatorio independiente.

Matemáticamente, un modelo autorregresivo tiene la forma siguiente:

En donde es la variable dependiente y , ,…, son las variables independientes.

En este caso, las variables independientes son valores de la misma variable (de aquí el nombre de
auto), pero de periodos anteriores 1, 2, 3, … , . Por último, es el error, o término
residual, que representa perturbaciones aleatorias que no pueden ser explicadas por el modelo.

El modelo se llama autorregresivo porque se asemeja a la ecuación de regresión:

Las variables independientes son simplemente valores rezagados de la variable dependiente con
rezagos de tiempo 1, 2, 3,…, periodos.

Modelo de Medias Móviles de orden q - MA(q): En este modelo, una determinada observación está
condicionada por los “impulsos aleatorios” de las observaciones anteriores. De esta forma la
observación actual se define como la suma del impulso actual y de los impulsos aleatorios anteriores
con un determinado peso.

El modelo de medias móviles tiene la siguiente forma:

Donde es el residuo o error en el periodo y , , ,…, son los valores anteriores


del error. La ecuación es semejante a la anterior, con la excepción de que implica que la variable
dependiente depende de valores previos del término residual más que de la variable misma.

Modelo autorregresivo de medias móviles de orden p,q - ARMA(p,q): Este modelo es la


combinación de las estructuras anteriores: modelo autorregresivo y modelo de medias móviles. Así,
una observación está determinada tanto por observaciones anteriores así como por “impulsos
aleatorios” o también llamados “errores” de observaciones pasadas.

La forma general de un modelo autorregresivo de medias móviles es:

      43|Página 
Modelación ARIMA [4] 
 
 
Se observa que la ecuación es sencillamente una combinación de las ecuaciones del modelo AR y MA.

En la ecuación anterior simboliza los valores tomados por la variable durante los periodos
anteriores 1, 2, 3, … , . El grado de influencia de cada valor anterior sobre el valor
considerado de la variable viene dado pr el parámetro correspondiente , ,…, . Por su parte
representa los errores o residuos de la variable durante los momentos anteriores 1, 2,
3, … , . El grado de influencia de cada uno de ellos viene ponderado por el parámetro
correspondiente , ,…, .

Un modelo ARMA puede ajustarse a cualquier patrón de datos. Sin embargo, los valores de y se
deben de especificar.

Por ejemplo si 1 0, el modelo ARMA es:

El modelo derivado de esta ecuación es llamado modelo AR de primer orden y se escribe como AR(1)
o ARMA(1,0).

Si 2 0, el modelo correspondiente es un AR(2) o un modelo ARMA(2,0) de la forma:

La ecuación es un proceso AR de segundo orden.

Cuando 0 1, se trata de un modelo MA de primer orden y se escribe como MA(1) o


ARMA(0,1):

Cuando 0 2, el modelo es un MA(2) o ARMA(0,2) de la forma:

Por último y pueden cada una ser diferentes de 0, en cuyo caso existe un modelo ARMA mixto.
Por ejemplo, cuando 1 1, el modelo es un modelo ARMA(1,1) y es de la forma:

Es interesante darse cuenta que esta ecuación es no lineal y por lo tanto suficientemente general para
describir una amplia variedad de patrones de datos.

Obviamente y pueden adoptar muchos otros valores, aun cuando raramente son mayores que 2.

Modelo autorregresivo integrado de medias móviles de orden p,d,q - ARIMA(p,d,q): Al igual que
un modelo ARMA, es la combinación de los modelos autorregresivo y el de medias móviles, con la
particularidad de incluir un proceso de restablecimiento (el cual se denomina integración) de

      44|Página 
Modelación ARIMA [4] 
 
 
inestabilidad original presente en una serie de tiempo. La idea de inestabilidad es una característica que
se presenta más adelante en la sección 4.3.1

La forma general de un modelo ARIMA es semejante al de un modelo ARMA:

′ ′ ′ ′ ′ …

Donde:

′:

En ocasiones es apropiado incluir un término constante a los modelos AR, MA y ARIMA. En un


modelo que contiene sólo parámetros de media móvil, el valor de la constante es la media de los
valores de la serie . Mientras tanto en un modelo autorregresivo 1
(Arnau 2001). La inclusión del término depende de la serie en estudio. Concretamente, depende
del valor de la media. Si la media de todas las observaciones es cero o muy cercana, no se incluye
término constante. Si la media es significativamente distinta de cero, se incluye el término.

Un rápido indicador, es conocer si la serie ha sido diferenciada (este concepto se estudia


posteriormente). Si la serie ha sido diferenciada, la constante es eliminada, se puede probar que en una
serie diferenciada 0. Por el otro lado si la serie no es diferenciada, se debe verificar el valor de
(Arnau 2001).

4.3 Metodología Box-Jenkins No estacional


Existen distintas metodologías que ayudan a elegir el modelo que mejor se represente a la serie de
tiempo de entre los diversos modelos existentes. La metodología más usada y difundida es la que
propusieron los profesores G.E.P Box y G.M Jenkins en la década de los años 1970, en la cual lograron
grandes avances en identificar, ajustar y verificar los modelos ARIMA adecuados (Hanke y Wichern
2006). Comúnmente se le conoce como Metodología Box-Jenkins. Se especifica en esta metodología
únicamente el uso de los modelos ARIMA ya que los modelos autorregresivos (AR) y los de medias
móviles (MA) se dicen que son las formas particulares de la clase general de modelos ARMA y este a
su vez del modelo ARIMA.

Esta metodología se basa en tratar de determinar cuál es el modelo probabilístico que rige el
comportamiento del proceso a lo largo del tiempo. Cabe apuntar en este momento la diferencia entre
proceso y modelo. Se puede decir que un proceso es lo real, es decir, el fenómeno en sí, del cual se
desconoce su mecanismo generador. Por el otro lado un modelo es solo la imitación o representación
del proceso (Pankratz 1983).

En esta sección se estudiará el caso particular de la aplicación de modelos ARIMA para datos no
estacionales, es decir, datos que no presentan fluctuaciones periódicas a lo largo del tiempo. Además
en cuanto al tipo de datos que son aptos para someterse al análisis mediante la modelación ARIMA, se
puede decir debido a la experiencia, que la mayoría de las series de tiempo se pueden modelar
mediante estos métodos. Por ese motivo esta metodología es ampliamente utilizada.

      45|Página 
Modelación ARIMA [4] 
 
 
Sólo se destacan en seguida algunas consideraciones importantes acerca de la naturaleza de los datos
en la modelación ARIMA (Pankratz 1983):

• Los modelos ARIMA aplican tanto para datos discretos o continuos. Los datos discretos son
aquellos que son medidos solamente en números enteros, nunca con cifras decimales. Mientras
tanto los datos continuos son medidos en intervalos fraccionarios, es decir, con cifras
decimales.
• Aunque la metodología ARIMA trata tanto con datos discretos y continuos, sólo se puede
aplicar a datos espaciados equidistantemente en el tiempo, en intervalos discretos de tiempo.
Los datos medidos en intervalos discretos de tiempo pueden clasificarse en dos tipos: 1) datos
que son producto de la acumulación durante un periodo de tiempo, por ejemplo los ahorros de
una persona en un mes. 2) datos que son producto de la medición instantánea periódicamente,
por ejemplo la medición de la presión en una tubería en intervalos de una hora.
• Para elaborar un modelo ARIMA se requiere una cierta cantidad de datos mínimo. Los
profesores Box y Jenkins sugieren un mínimo de 50 observaciones. Un modelo ARIMA se
puede aplicar a una serie con menor tamaño, realizando con especial cautela su interpretación.
Para series con patrones estacionales se aconseja una serie con gran número de muestras
observadas.
• Los modelos ARIMA son especialmente útiles en el tratamiento de series que presentan
patrones estacionales.
• Los métodos Box-Jenkins aplican a series estacionarias y no estacionarias. Una serie
estacionaria es aquella cuya media, varianza y función de autocorrelación permanecen
constantes en el tiempo.
• Se asume que las perturbaciones aleatorias presentes en la serie, son independientes entre
sí. No existe correlación entre ellas, por lo tanto ningún patrón modelable.

Una vez hechas estas anotaciones, se puede entrar de lleno a la metodología. La Figura 4.1 muestra las
etapas esenciales en la aplicación de esta metodología (Aguirre 1994). De la figura se destacan en
especial 5 etapas principales:

1. Estacionariedad
2. Identificación
3. Estimación
4. Evaluación
5. Pronóstico

Cada una de estas etapas se desarrolla en las siguientes secciones.

      46|Página 
Modelación ARIMA [4] 
 
 

¿Es la serie estacionaria?

No
1. Estacionariedad
Inducir estacionariedad

Identificar modelos 
posibles
2. Identificación

Estimar los parámetros 
de los modelos  3. Estimación
tentativos

¿Son adecuados los 
modelos estimados 
No
sobre la serie 
4. Evaluación
estacionaria?

Restablecer no‐
estacionaridad

5. Pronósticos
No ¿Son adecuados los 
pronósticos?

Establecer modelos

Figura 4.1 Metodología Box – Jenkins

4.3.1 Estacionariedad
Los procesos estocásticos se clasifican en estacionarios y no estacionarios. La idea de estacionariedad
está relacionada con la estabilidad de la serie. Un proceso estacionario se describe como una secuencia
de datos o valores que no presentan cambio sistemático en la media, ni cambio sistemático alguno en la
varianza, se dice entonces que la serie es estable. De forma parecida, un proceso no estacionario es
aquel que presenta cambios sistemáticos en la media y/o varianza; la serie de datos es inestable en el
tiempo.

Aplicado dicho concepto a una secuencia cronológica y explicado en forma intuitiva, una serie de
tiempo es estacionaria si sus propiedades estadísticas (media, varianza) son esencialmente constantes a
través del tiempo. Una serie cuya media y/o varianza cambian a través del tiempo es una serie no
estacionaria (Bowerman, O’Conell, Koehler 2007).

A partir de la definición previa, se puede advertir que una serie cuyos valores fluctúan respecto de una
media constante, es decir, sin tendencia, es una serie estacionaria.

      47|Página 
Modelación ARIMA [4] 
 
 
La Figura 4.2 muestra la gráfica de una serie de tiempo, en ella se observa que los valores de una serie
de tiempo fluctúan respecto de una media constante, entonces es razonable pensar que la serie temporal
es estacionaria. Si los valores no fluctúan respecto de una media constante o fluctúan con variación
constante, entonces es razonable pensar que la serie de tiempo es no estacionaria, como se observa en
la Figura 4.3.

Este concepto es importante ya que el primer paso en la metodología Box-Jenkins es determinar si la


serie de tiempo es estacionaria. En caso de que la serie de datos no sea estable a lo largo del tiempo, es
necesario aplicar una transformación a la serie para inducirla a ello. Este paso es indispensable para
poder aplicar las demás etapas de esta metodología.

Existen dos formas de conocer si una serie es estacionaria: por medio del gráfico de la serie y mediante
la exploración de función de autocorrelación simple.

1. Por medio de inspección gráfica

Visualmente se puede advertir si la serie es estacionaria si se detectan elevaciones o inclinaciones en


los datos. Cualquier patrón de este tipo expresa que la serie es inestable. Por ejemplo la Figura 4.2
previamente analizada, muestra una serie de datos estable, se observa que los valores giran alrededor
de una media constante, sin incrementos o decrementos. Por otro lado la Figura 4.3 muestra una serie
con una fuerte tendencia ascendente, indicador inmediato de inestabilidad.
Yt
Yt

Tiempo Tiempo

Figura 4.2 Serie de tiempo estacionaria Figura 4.3 Serie de tiempo no estacionaria

2. Por medio de las funciones de autocorrelación

Cuando visualmente no es factible determinar si la serie es estacionaria, usualmente se recurre a la


función de autocorrelación simple (FAS), en especial en aquellas series con tendencia poco remarcada.
El reconocimiento de la estabilidad se logra a partir de la variedad de comportamientos que esta
función que puede mostrar (Bowerman, O’Conell, Koehler 2007).

      48|Página 
Modelación ARIMA [4] 
 
 
En primer lugar, la función de autocorrelación simple se puede cortar ó truncar. Para explicar este
término, se dice que existe una espiga en el desfasamiento en la FAS si es estadísticamente
grande.

Se considera que existe una espiga en la función si el valor absoluto de:

es mayor que 2. La función de autocorrelación se trunca después del desfasamiento si no hay espigas
en los desfasamientos mayores que k en la función. Por ejemplo, si

3.671

2.873

0.517

Entonces la función de autocorrelación simple se trunca o se corta después del desfasamiento 2. Esto se
ilustra en la siguiente figura (Figura 4.4).

1
Autocorrelación

‐1
0 2 4 6 8 10
Retraso

Figura 4.4 La función de autocorrelación se trunca

La salida de MINITAB muestra automáticamente el valor de asociado a cada coeficiente y además


muestra en la gráfica (Figura 4.5) un par de bandas que representan el valor de dos desviaciones
estándar 2 . Si un coeficiente sobrepasa estas bandas ya sea en la parte de arriba como en la de
abajo, significa que el valor de es mayor que 2.

      49|Página 
Modelación ARIMA [4] 
 
 

Autocorrelation Function for Yt


(with 5% significance limits for the autocorrelations)

1.0
0.8
0.6
0.4
Autocorrelation

0.2
0.0
-0.2
-0.4
-0.6
-0.8
-1.0

1 2 3 4 5 6 7
Lag

Figura 4.5 Salida MINITAB función de autocorrelación simple

Segundo, la función de autocorrelación simple decae ó se extingue si esta no se corta o muere sino que
decrece en una forma permanente. Puede extinguirse de tres maneras:

• En forma exponencial (Figura 4.6)


• En seno amortiguada (Figura 4.7)
• En combinación de 1 y 2 (Figura 4.8)

Además puede cortarse con gran rapidez como se muestra en la Figura 4.9 o puede extinguirse con
lentitud extrema como se muestra en la Figura 4.10.

1
Autocorrelación

‐1
0 2 4 6 8 10
Retraso

Figura 4.6 Se extingue en forma exponencial

      50|Página 
Modelación ARIMA [4] 
 
 

Autocorrelación
0

‐1
0 2 4 6 8 10
Retraso

Figura 4.7 Se extingue en forma de seno amortiguada

1
Autocorrelación

‐1
0 2 4 6 8 10
Retraso

Figura 4.8 Se extingue en forma en forma combinada

1
Autocorrelación

‐1
0 5 10 15 20
Retraso

Figura 4.9 Se extingue con gran rapidez

      51|Página 
Modelación ARIMA [4] 
 
 
1

Autocorrelación
0

‐1
0 5 10 15 20
Retraso

Figura 4.10 Se extingue con lentitud extrema

En general, se puede demostrar que:

Si la función de autocorrelación simple de los valores , , de la serie de tiempo se corta


claramente con rapidez o si se corta rápidamente, entonces se deben considerar que los valores de la
serie temporal son estacionarios.

Si la función de autocorrelación simple de los valores , , de la serie de tiempo se corta con


lentitud extrema, entonces se deben considerar que los valores de la serie de tiempo son no
estacionarios

Cabe aclarar que los términos “claramente con rapidez” y con “lentitud extrema” es algo arbitrario, y
se puede determinar mejor a través de la experiencia. Además, la experiencia indica que en lo que se
refiere a datos no estacionales, si la función de autocorrelación simple se trunca claramente con
rapidez, casi siempre sucede así, después de un desfasamiento que es menor o igual a 2 (Bowerman,
O’Conell, Koehler 2007).

De esta simple forma se determina por medio de la FAS si la serie es estacionaria.

Ahora bien, la realidad es que las series de tiempo normalmente no se comportan establemente, es
decir, no son procesos estocásticos estacionarios. Cuando se presenta esa situación entonces es preciso
aplicar una transformación a los valores de la serie para tener una serie temporal estacionaria.

Existen distintas maneras de inducir la estacionariedad en una serie de tiempo, la más usada es el
método llamado de construcción de diferencias. Este método consiste, como su nombre lo dice, en
obtener diferencias entre los mismos valores de la serie, para remover cualquier patrón de tendencia.

Las primeras diferencias de los valores de la serie de tiempo , ,…, son:

2,3, … ,

      52|Página 
Modelación ARIMA [4] 
 
 
La Tabla 4.1 muestra cómo se hace la diferenciación y cómo los datos con una tendencia lineal se
convierten en estacionarios (horizontales) después de diferenciar. Gráficamente se puede observar esta
transformación en la Figura 4.11

Serie de datos Primeras diferencias Nueva serie

2 4-2 = 2 2
4 6-4 = 2 2
6 8-6 = 2 2
8 10-8 = 2 2
10 12-10 = 2 2
12 14-12 = 2 2
14 -

Tabla 4.1 Obtención de las primeras diferencias en una serie

16
Serie original con
tendencia
12
Nueva serie
Yt

0
Tiempo

Figura 4.11 Transformación de la serie de tiempo mediante las primeras diferencias

En ocasiones es necesario realizar más de una diferenciación para generar valores de series de tiempo
estacionarias. Si los valores originales no son estacionarios y las primeras diferencias de los valores
originales de la serie de tiempo tampoco son estacionarios, entonces podemos obtenerlas segundas
diferencias de los valores originales de la serie de tiempo.

Las segundas diferencias de los valores de la serie de tiempo son:

′ 2

3,4, … ,

      53|Página 
Modelación ARIMA [4] 
 
 
La Tabla 4.2 muestra cómo se obtienen las segundas diferencias a una serie de tiempo, se puede
apreciar que las primeras diferencias siguen siendo no estacionarias, al aplicar una nueva
diferenciación se obtiene una serie estacionaria. Cabe aclarar que la notación ′ tan sólo se usa para
indicar que la serie se transformó, ya sea mediante las primeras o las segundas diferencias.

En la gráfica de la Figura 4.12 se observa ambas transformaciones a la serie original.

Serie de datos Primeras diferencias Nueva serie Segundas diferencias Nueva serie

5.6 15.5 - 5.6 = 9.9 9.9 13.5 - 9.9 = 3.6 3.6


15.5 29 - 15.5= 13.5 13.5 17.1 -13.5 = 3.6 3.6
29.0 46 - 29 = 17 17.1 20.7 - 17.1 = 3.6 3.6
46.0 66.7 - 46 = 20.7 20.7 24.3 - 20.7 = 36 3.6
66.7 91 -66.7 = 24.3 24.3 27.9 - 24.3 = 3.6 3.6
91.0 118.9 - 91 = 27.9 27.9 -
118.9 - -

Tabla 4.2 Obtención de las segundas diferencias de una serie

160 Serie original

Serie primeras
diferencias
120
Series segundas
diferencias
Yt

80

40

0
Tiempo

Figura 4.12 Transformación de la serie mediante primeras y segundas diferencias

La experiencia indica que si los valores de la serie de tiempo original son no estacionarios y no
estacionales, entonces si se aplica la primera transformación por diferencias o la segunda
transformación por diferencias por lo general se producen valores estacionarios de la serie de tiempo.

Una vez introducido el tema de estabilidad en una serie de tiempo, es turno de hacer un pequeño
paréntesis en el curso de la metodología Box-Jenkins, a fin esclarecer la diferencia entre un modelo
ARMA y un modelo ARIMA. La diferencia se halla en que un modelo ARMA(p,q) es capaz de operar
únicamente sobre series estacionarias, mientras que un modelo ARIMA(p,d,q) es capaz de operar tanto
sobre series de tiempo no estacionarias, como en series estacionarias.

      54|Página 
Modelación ARIMA [4] 
 
 
El modelo ARIMA(p,d,q) es capaz de operar sobre cualquier ya que se incluye el proceso de
estabilización de la serie, por medio del parámetro , que simboliza el grado de diferenciación
aplicado a la serie de tiempo. Por ejemplo si 1 , significa que se esta trabajando con las primeras
diferencias de la serie; si 2, se trabaja con las segundas diferencias y así sucesivamente.

4.3.2 Identificación
Una vez que se asegura que la serie es estable en el tiempo. El siguiente paso en la metodología Box-
Jenkins es la identificación del modelo probable que rige el proceso de la serie de tiempo.

Las ideas básicas de esta fase son las siguientes:

• La serie de tiempo que se encuentre en proceso de estudio cuenta con sus respectivas funciones
de autocorrelación simple y parcial (FAS y FAP), que se denominan prácticas o calculadas.
• Por otra parte, cada una de las distintas configuraciones ARMA posee su FAS y FAP teóricas
asociadas al modelo.
• Si la FAS y FAP calculadas de la serie a la que deseamos ajustar un modelo se asemeja a
alguna o varias FAS y FAP teóricas, entonces podemos decir que el modelo ARMA teórico es
un modelo tentativo para la serie.

Queda claro entonces que la identificación del modelo probable se realiza por medio de la comparación
de las funciones de autocorrelación calculadas contra las teóricas (tanto simples como parciales).

Las funciones de autocorrelación calculadas sólo se usan como guías para escoger uno o varios
modelos ARMA que parezcan apropiados, ya que tan sólo brindan una aproximación a la estructura
más adecuada que debe considerarse.

Las funciones de autocorrelación teóricas por su parte se derivan de una familia de modelos ARMA
propuestos por Box y Jenkins. Cabe aclarar que aunque existen una infinidad de posibles procesos
dentro de estos modelos ARMA, la mayoría de los procesos que ocurren normalmente en la práctica
caben dentro de un número reducido de modelos. Es por esto que los modelos más comunes en la
práctica, suelen ser precisamente los propuestos y desarrollados por estos profesores (Pankratz 1983)

De esta manera entonces los profesores Box y Jenkins sugirieron una completa familia de modelos
teóricos de los cuales se puede escoger: AR(1), AR(2), MA(1), MA(2), ARMA(1,1).

Las principales características que se observan de las funciones de autocorrelación teóricas son:

Modelo FAS FAP


Se trunca o se corta
AR Decae a cero
(después del retraso p)
Se trunca o se corta
MA Decae a cero
(después del retraso q)

ARMA Decae a cero Decae a cero

Tabla 4.3 Características FAS y FAP Teóricas (Pankratz)

      55|Página 
Modelación ARIMA [4] 
 
 
A partir de la tabla anterior se describe en seguida a detalle las características de cada uno de los
posibles modelos ARMA (Pankratz 1983).

Modelo AR: Las funciones de autocorrelación simples de los procesos autorregresivos decaen a cero.
Es común que se usen también las expresiones: “se extingue” o “se muere”. La forma en que se
extingue la FAS puede ser de forma exponencial, en forma de seno amortiguado, etc. Ahora bien, las
funciones de autocorrelación parcial contienen espigas significativas hasta el retraso , después del
cual la función “se corta”. El número de espigas indica por tanto, el orden del proceso autorregresivo.
Usualmente no sobrepasa el valor de 2 o 3.

La Figura 4.13 (Aguirre 1994) muestra dos configuraciones posibles para un modelo AR(1) o bien
ARMA(1,0). De esta figura se puede destacar que la FAS de un proceso autorregresivo de primer
orden decae exponencialmente hacia cero, mientras que existe una espiga significativa en la FAP en el
primer retraso. Además si 0, La FAS decae positivamente hacia cero y la espiga en la FAP es
positiva también. Si 0, la FAS decae hacia cero alternando signos, mientras que la espiga
significativa en la FAP es negativa.

a) 0

FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

b) 0
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

Figura 4.13 Funciones de autocorrelación simple y parcial teóricas para el modelo AR(1)

      56|Página 
Modelación ARIMA [4] 
 
 
Para un modelo AR(2) o ARMA (2,0) existen una mayor variedad de patrones posibles que para un
modelo AR(1). En general un proceso autorregresivo de segundo orden cuenta con una FAS que decae
a cero tanto de forma exponencial como de seno amortiguado ó bien una mezcla de ambos. La FAP se
caracteriza por tener espigas en los retrasos 1 y 2. El patrón exacto depende en las posibles
combinación de signos para . En la Figura 4.14a y 4.14b se muestran cuatro posibles
combinaciones.

a)
FAS FAP
1 1
Autocorrelación

Autocorrelación
0 0

‐1 ‐1
Retraso Retraso

b)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

c)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

Figura 4.14a Funciones de autocorrelación simple y parcial teóricas para el modelo AR(2)

      57|Página 
Modelación ARIMA [4] 
 
 
d)
FAS FAP
1 1

Autocorrelación
Autocorrelación

0 0

‐1 -1
Retraso Retraso

Figura 4.14b Funciones de autocorrelación simple y parcial teóricas para el modelo AR(2)

Modelo MA: En general la FAS de un proceso de medias móviles cuenta con espigas significativas
hasta el retraso , después del cual se corta la función. La FAP por su lado decae de forma
exponencial o en forma de seno amortiguado. Normalmente el valor de no es mayor que 2 o 3.

La Figura 4.15 muestra las configuraciones de un modelo MA(1). Se ilustra como si 0 en la FAS
se presenta una espiga positiva mientras que la FAP decae exponencialmente a cero alternando signos.
Si 0 la espiga en la FAS es negativa, la FAP decae exponencialmente a cero con signo negativo.

a) 0
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

b) 0
FAS FAP
1 1
Autocorrelación
Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

Figura 4.15 Funciones de autocorrelación simples y parcial teóricas para el modelo MA(1)

      58|Página 
Modelación ARIMA [4] 
 
 
Para un modelo MA(2) la Figura 4.16a y 4.16b muestra algunas formas que pueden tomar las
funciones de autocorrelación. Se muestra que existen espigas en la FAS hasta el retraso , en este caso
hasta 2 y después de este retraso la función de corta o se extingue. La FAP decae a cero con
distintas configuraciones.

a)
FAS FAP
1 1

Autocorrelación
Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

b)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

‐1 ‐1
Retraso Retraso

c)
FAS FAP
1 1
Autocorrelación
Autocorrelación

0 0

‐1 -1
Retraso Retraso

Figura 4.16a Funciones de autocorrelación simples y parcial teóricas para el modelo MA(2)

      59|Página 
Modelación ARIMA [4] 
 
 
d)
FAS FAP
1 1

Autocorrelación
Autocorrelación

0 0

-1 -1
Retraso Retraso

Figura 4.16b Funciones de autocorrelación simple y parcial teóricas para el modelo MA(2)

Modelos ARMA: Las funciones de autocorrelación combinan las características que se presentan en
los modelos AR y los MA. En general la FAS decae a cero tanto exponencialmente como en forma de
seno amortiguado después del retraso de tiempo . La FAP teórica también decae a cero después
del retraso . Se muestran en la Figura 4.17a y 4.17b seis posibles combinaciones para el modelo
teórico ARMA(1,1)

a)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

-1 -1
Retraso Retraso

b)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

-1 -1
Retraso Retraso

Figura 4.17a Funciones de autocorrelación simple y parcial teóricas para el modelo ARMA(1,1)

      60|Página 
Modelación ARIMA [4] 
 
 
c)
FAS FAP
1 1
Autocorrelación

Autocorrelación
0 0

-1 -1
Retraso Retraso

d)
FAS FAP
1 1
Autocorrelación

Autocorrelación
0 0

-1 -1
Retraso Retraso

e)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

-1 -1
Retraso Retraso

f)
FAS FAP
1 1
Autocorrelación

Autocorrelación

0 0

-1 -1
Retraso Retraso

Figura 4.17b Funciones de autocorrelación simple y parcial teóricas para el modelo ARMA(1,1)

      61|Página 
Modelación ARIMA [4] 
 
 
Es probable que exista cierta ambigüedad al determinar un modelo ARIMA apropiado a partir de los
patrones que provienen de las FAS y FAP parciales de la muestra. Cualquier modelo que se escoja, se
considera simplemente tentativo: sólo es un candidato para ser considerado como el modelo ideal. Si
no fuera el caso, se deberá intentar con un modelo alterno.

4.3.3 Estimación
En esta etapa se estiman los coeficientes del modelo escogido tentativamente en el paso anterior,
existen distintos criterios para dicho propósito. Usualmente se realiza por medio de paquetes
informáticos. Además en esta etapa se puede pre-visualizar la adecuación del modelo a la serie de
tiempo. Particularmente si los coeficientes no satisfacen ciertas condiciones matemáticas, el modelo es
rechazado.

El principal criterio para el cálculo de los parámetros es el llamado Estimación de máxima


verosimilitud ó Maximum Likelihood (ML por sus siglas en ingles). Se ha demostrado que los
parámetros estimados a través de este criterio reflejan con gran exactitud las características presentes
en los datos de la serie de tiempo. Sin embargo éste método se ve limitado debido al gran tiempo que
conlleva realizar la estimación, aún con el uso de la computadora (Pankratz 1983).

Por esta razón la mayoría de la literatura existente sugiere el uso del criterio de mínimos cuadrados o
least squares (LS por sus siglas en ingles). Se ha demostrado que las estimaciones hechas mediante
este criterio son muy cercanas a las del criterio de máxima verosimilitud. La estimación de los
parámetros del modelo ARMA seleccionado, se realiza por medio de minimizar la suma de los
cuadrados de los residuales SSR (sum of squared residuals). En general, estos estimados de los
mínimos cuadrados deben obtenerse mediante un procedimiento no lineal de mínimos cuadrados. Un
procedimiento no lineal de mínimos cuadrados es, sencillamente, un algoritmo que encuentra el
mínimo de la suma de la función de errores cuadrados, mediante un proceso iterativo.

Los residuales de cualquier modelo ARMA se definen como:

Donde:
:

: á

Entonces, la suma de los cuadrados de los residuales se define como:

Esta última función es la que se debe minimizar, a través de la búsqueda de los parámetros del
modelo ARMA que se desea ajustar.

      62|Página 
Modelación ARIMA [4] 
 
 
Finalmente obtenidos los parámetros del modelo ARMA propuesto, deben de cubrir en conjunto
los siguientes requerimientos (Pankratz 1983):

1. El modelo debe tener parsimonia: Box y Jenkins enfatizaron la importancia del principio de
parsimonia. Un modelo con parsimonia ajusta la información disponible sin usar coeficientes
innecesarios. Es decir, se opta siempre por el modelo con el menor número de coeficientes. Este
principio es importante ya que en la práctica un modelo con esta característica produce mejores
predicciones. El objetivo en la modelación ARIMA no es encontrar el modelo exacto que represente al
proceso generador de las observaciones, es más bien encontrar el modelo que se aproxime al verdadero
proceso y que explique el comportamiento de la variable en estudio de forma adecuada y práctica.

2. El modelo debe ser estacionario e inversible: La metodología Box-Jenkins requiere que el modelo
que se utiliza para la descripción y pronóstico de una serie de tiempo sea tanto estacionario como
inversible.

La inversibilidad se refiere a que cualquier modelo ARIMA puede expresar a la serie en función de
las observaciones pasadas, es decir , , , . Esto es obvio para un modelo autorregresivo
de orden :

No es obvio para un modelo de medias móviles de orden :

No obstante, se puede demostrar que un modelo de medias móviles puede expresar a la serie como
una serie infinita de observaciones pasadas. Es decir, un modelo de medias móviles se puede
transformar o invertir en un modelo autorregresivo de orden infinito.

La Tabla 4.4 (Bowerman, O’Conell, Koehler 2007) muestra las condiciones de estacionariedad e
inversibilidad para los modelos ARMA más comunes. Las condiciones para modelos generales son
complicadas por lo que no se estudian en este texto. Sin embargo, se puede decir que si un modelo
utiliza parámetros autorregresivos, una condición de estacionariedad necesaria (pero no suficiente) es
que la suma de los valores de los parámetros autorregresivos es menor que 1. Si un modelo utiliza
parámetros de media móvil, una condición de inversibilidad necesaria (pero no suficiente) es que la
suma de los valores de los parámetros de la media móvil es menor que 1. Además, un modelo que
utiliza sólo parámetros autorregresivos no tiene condiciones de inversibilidad y un modelo que utiliza
sólo parámetros de media móvil no tiene condiciones de estacionariedad.

      63|Página 
Modelación ARIMA [4] 
 
 

Tabla 4.4 Condiciones de estacionariedad e invertibilidad

3. Los coeficientes del modelo deben ser estadísticamente significativos: Se debe determinar si los
coeficientes son importantes en el modelo o se deben excluir del mismo. Se hace uso de los valores del
error estándar y el valor asociado a cada uno de los coeficientes del modelo.

El valor de se define como:

Ambos valores normalmente son calculados automáticamente por los programas estadísticos tales
como MINITAB o SAS.

La exclusión de aquellos coeficientes que no son importantes en el modelo se hace mediante la


hipótesis de que el coeficiente no es significativo, por tanto si se rechaza esta hipótesis, el coeficiente
es significativo y debe permanecer en el modelo. Como regla práctica se dice que es razonable incluir
en el modelo un parámetro cuya estadística absoluta es mayor que 2. Si el valor de absoluto de un
coeficiente es menor a 2, entonces debemos considerar seriamente, excluir el parámetro del modelo.

La Figuras 4.18 y 4.19 muestra la salida de dos ajustes realizados por MINITAB. En la primer figura
se observa que los valores asociados a los coeficientes calculados son menores a dos, por lo que
supone que el modelo propuesto no es apropiado y debe considerarse excluir algún parámetro del
modelo. En la segunda figura se ha excluido un parámetro y el valor en valor absoluto es mayor a
dos, para el coeficiente MA. En este caso el parámetro es importante en el modelo y no debe excluirse.

      64|Página 
Modelación ARIMA [4] 
 
 

Figura 4.18 Ajuste MINITAB – modelo inadecuado

Figura 4.19 Ajuste MINITAB – modelo adecuado

4. El modelo debe proporcionar un adecuado ajuste: Aplicar la modelación ARIMA a una serie de
tiempo no es garantía de que se obtendrá un modelo que ajuste a la perfección, en especial en aquellas
series donde existe gran cantidad de perturbaciones aleatorias que no puedan ser ajustadas al modelo.
Suele suceder que para una misma serie de tiempo, existen varios modelos que cumplen con las

      65|Página 
Modelación ARIMA [4] 
 
 
características de un modelo adecuado y proporcionan resultados similares, sin embargo debe
escogerse aquel que se ajuste mejor a la serie.

Una medida útil que ayuda a conocer el grado de ajuste del modelo a la serie es la RMSE (root-mean-
squared error). Esta medida da a conocer la desviación estándar de los residuales , y se calcula como:

Donde:

: ú

: ú

Generalmente se utiliza el valor de RMSE para compararlo con el de otros modelos estimados para la
misma serie. Se preferirá aquel modelo cuyo RMSE tienda a tener menor valor.

4.3.4 Evaluación del modelo


Una vez estimados los coeficientes del modelo propuesto, la siguiente etapa en la metodología Box-
Jenkins es la evaluación ó verificación del mismo. En este paso se comprueba la eficiencia del modelo
y se decide si es estadísticamente adecuado.

Un modelo estadísticamente adecuado es aquel cuyos residuales son independientes entre sí. Es decir,
si los residuales son completamente aleatorios.

Para comprender mejor el objetivo de esta etapa, es conveniente recordar algunas ideas importantes:

1. La idea básica de la metodología es modelar aquellos datos que estén correlacionados entre sí,
mediante la combinación de términos AR y MA.
2. Los fenómenos reales siempre presentan perturbaciones aleatorias , también llamados
choques aleatorios ó proceso de ruido blanco.
3. La metodología Box-Jenkins asume que las perturbaciones aleatorias pertenecientes a un
proceso son independientes entre sí. No existe correlación alguna entre ellas. Por tanto estas
perturbaciones no se modelan mediante términos AR o MA.

En la práctica las perturbaciones aleatorias no se pueden identificar directamente en una serie de


tiempo. Sin embargo, los residuales del modelo ARIMA, nos proporcionan un cálculo aproximado
de las perturbaciones reales (Pankratz 1983).

Recordemos que los residuales de cualquier modelo ARIMA se definen como:

Donde:
:

      66|Página 
Modelación ARIMA [4] 
 
 
:

: á

Entonces, si los residuales muestran estar correlacionados entre sí, significa que existe un patrón que
aun no ha sido tomado en cuenta por los términos autorregresivos y/o de medias móviles del modelo
propuesto.

Por lo tanto, se concluye que si los residuales están correlacionados de alguna manera, estos no son
ruido blanco y se debe buscar otro modelo cuyos residuales sean completamente aleatorios.

La función de autocorrelación simple de los residuales es el instrumento que se utiliza para


determinar si el modelo es estadísticamente adecuado. El cálculo de los coeficientes de autocorrelación
se realiza por medio de la misma fórmula vista en el capítulo 2 pero aplicada a los residuales del
modelo ajustado (Pankratz 1983):


Donde:

: ó

: ú

Mediante el análisis de esta función se busca que los coeficientes de autocorrelación sean cero o muy
cercanos a él. Específicamente se pretende que los coeficientes no sean significativos. Esto se
determina a través del estadístico asociado a la función de autocorrelación simple de los residuales:

1 2∑

La mayoría de los programas de computadora realiza automáticamente el cálculo del estadístico .


MINITAB por su parte despliega el gráfico de la función de autocorrelación de los residuales, tal como
se observa en la Figura 4.20.

      67|Página 
Modelación ARIMA [4] 
 
 
Por medio del gráfico y de las bandas se puede establecer si el valor de un coeficiente es significativo.
Si uno o varios valores de autocorrelación sobrepasan las bandas de dos desviaciones estándar,
significa que el ó los coeficientes son significativamente distintos de cero y por lo tanto, los residuales
no son independientes entre sí. El modelo no es estadísticamente adecuado. De modo contrario, si los
valor de los coeficientes no sobrepasan la banda de puntos, indica que dichos valores no son
significativo y por tanto se asume que los residuales son independientes entre si y se acepta el modelo.

También una regla común es que para los tres primeros rezagos de tiempo, si el valor del estadístico
calculado es menor que 1.25 y menor que 1.6 para rezagos posteriores, se concluya que las
perturbaciones aleatorias son independientes entre sí (Pankratz 1983).
 
ACF of Residuals for Esf (Yt)
(with 5% significance limits for the autocorrelations)

1.0
0.8
0.6
0.4
Autocorrelation

0.2
0.0
-0.2
-0.4
-0.6
-0.8
-1.0

1 5 10 15 20 25 30 35 40 45 50 55 60 65 70
Lag

Figura 4.20 Función de autocorrelación simple de los residuales mediante MINITAB


Es necesario precisar que el cálculo del estadístico tan sólo es una aproximación del valor real, lo que
podría provocar que se consideren los residuos como aleatorios, cuando en realidad no lo son, o
viceversa. Por esta razón se recomienda el uso del estadístico Ljung-Box, el cual también se enfoca al
análisis de los coeficientes de autocorrelación de los residuales, pero lo hace de manera grupal. Es una
prueba que considera un conjunto de coeficientes de autocorrelación.

El estadístico Ljung-Box se define como:

′ ′ ′
2

Donde:

: ú

: ó

: ú

      68|Página 
Modelación ARIMA [4] 
 
 
El valor de se fija arbitrariamente, la mayoría de los programas de computadora establecen
6,12,18 24.

La forma en que se prueba la eficiencia de un modelo a través de este estadístico sigue el mismo
razonamiento, es decir, se trata de comprobar que los residuos no están correlacionados y, por tanto, las
autocorrelaciones de los residuos deben ser pequeñas. Por consiguiente, debe ser pequeña. Ahora
bien, juzgar que el valor de es un valor pequeño, es sumamente subjetivo. Es por eso que se
utilizan ciertas condiciones para establecer un punto de rechazo de la suficiencia del modelo. Se utiliza
una escala de distribución chi-cuadrado, a la cual se asocia un valor que representa la probabilidad
de juzgar de manera correcta el valor de . Se puede demostrar que si el valor de es pequeño, el
valor de es grande y el modelo no es adecuado y viceversa (Bowerman, O’Conell, Koehler 2007).

De forma práctica, si el valor de es mayor que 0.01 pero menor que 0.05, se considera que el modelo
es inaceptable sin lugar a dudas. Si el valor de es mayor que 0.05 entonces se dice que es razonable
concluir que el modelo es suficiente. No es del alcance de esta tesis demostrar los valores anteriores,
pero se consideran aceptables y válidos debido a la amplia difusión que tienen en la literatura existente.

También cabe destacar que la razón de mencionar el valor de para analizar la suficiencia de un
modelo es que en los paquetes informáticos se incluye con frecuencia este valor. Además es una
manera práctica y rápida de evaluar la suficiencia del modelo. Una manera de comprobar que el
modelo es estadísticamente adecuado.

Para ejemplificar lo enunciado anteriormente, consideremos la salida de MINITAB para dos modelos
propuestos (Figuras 4.21 y 4.22). En primera figura, la tabla se muestra los valores del estadístico
Ljung-Box y el valor . Los valores son menores que 0.05, en este caso, se rechaza la suficiencia del
modelo y debe proponerse un nuevo modelo. En la segunda, los valores de son mayores a 0.05 por lo
que se acepta la suficiencia del modelo y puede procederse a la realización de pronósticos.

Figura 4.21 Salida MINITAB 1 Figura 4.22 Salida MINITAB 2

4.3.5 Pronóstico
La fase final de la metodología Box-Jenkins es pronosticar valores futuros de la serie de tiempo. En
primer lugar se debe comprender cómo realizar predicciones puntuales a partir de un modelo ARIMA
ya estimado. En segundo lugar se debe estudiar cómo estimar límites de probabilidad alrededor de una
estimación puntual, conocidos particularmente como intervalos de confianza. Y por último se debe
conocer y probar la suficiencia de los pronósticos.

      69|Página 
Modelación ARIMA [4] 
 
 
A partir de este punto y con el fin de explicar la generación de pronósticos, se asumirá que se conoce al
modelo ARIMA en su totalidad, es decir, se conoce sus coeficientes y se ha probado que el modelo es
adecuado. Se hace notar que en la práctica, estas consideraciones son verdaderas si se ha identificado y
estimado los parámetros del modelo conforme a la aplicación de las etapas anteriores.

El pronóstico de una serie de tiempo se hace por medio de predicciones ó estimaciones puntuales. Así,
una predicción puntual se define como el valor de la variable en el tiempo , calculado por
medio del modelo ARIMA ajustado a la serie.

La forma más conveniente para empezar a realizar predicciones puntuales es escribir el modelo
incluyendo el restablecimiento de la no estacionariedad. Hay que recordar que en el primer paso de la
metodología, se induce la estacionariedad en la serie de tiempo (sólo en caso que se requiera), por
medio de diferencias. Para restablecer las características originales de la serie, se realiza la operación
inversa, es decir, se integra a la serie. A este proceso inverso se le conoce como integración. Se
advierte la importancia del restablecimiento de condiciones iniciales, ya que es lógico que se requieran
para obtener pronósticos adecuados y apegados a la realidad.

Para ejemplificar cómo se escribe un modelo considerando la integración de la serie, tomemos un


modelo ARIMA(1,1,0) cuya ecuación es:

Donde:

′:

Simplemente se sustituye ′ en la ecuación del modelo:

Despejando :

Ahora bien, para explicar la forma en que se realizan las predicciones puntuales tomemos como
ejemplo el modelo ARIMA(0,1,1) ajustado a la serie que se muestra en la Tabla 4.5 . (Se explicará de
esta forma debido a que es práctico y fácilmente entendible).

      70|Página 
Modelación ARIMA [4] 
 
 
t Yt t Yt t Yt t Yt
1 15.0000 31 10.7752 61 -1.3173 91 10.5502
2 14.4064 32 10.1129 62 -0.6021 92 11.4741
3 14.9383 33 9.9330 63 0.1400 93 11.5568
4 16.0374 34 11.7435 64 1.4030 94 11.7986
5 15.6320 35 12.2590 65 1.9280 95 11.8867
6 14.3975 36 12.5009 66 3.5626 96 11.2951
7 13.8959 37 11.5378 67 1.9615 97 12.7847
8 14.0765 38 9.6649 68 4.8463 98 13.9435
9 16.3750 39 10.1043 69 6.5454 99 13.6859
10 16.5342 40 10.3452 70 8.0141 100 14.1136
11 16.3839 41 9.2835 71 7.9746 101 13.8949
12 14.1006 42 7.7219 72 8.4959 102 14.2853
13 17.7876 43 6.8300 73 8.4539 103 16.3867
14 17.7354 44 8.2046 74 8.7114 104 17.0884
15 17.0010 45 8.5289 75 7.3780 105 15.8861
16 17.7485 46 8.8733 76 8.1905 106 14.8227
17 18.1888 47 8.7948 77 9.9720 107 15.9479
18 18.5997 48 8.1577 78 9.6930 108 15.0982
19 17.5859 49 7.9128 79 9.4506 109 13.8770
20 15.7389 50 8.7978 80 11.2088 110 14.2746
21 13.6971 51 9.0775 81 11.4986 111 15.1682
22 15.0059 52 9.3234 82 13.2778 112 15.3818
23 16.2574 53 10.4739 83 13.5910 113 14.1863
24 14.3506 54 10.6943 84 13.4297 114 13.9996
25 11.9515 55 9.8367 85 13.3125 115 15.2463
26 12.0328 56 8.1803 86 12.7445 116 17.0179
27 11.2142 57 7.2509 87 11.7979 117 17.2929
28 11.7023 58 5.0814 88 11.7319 118 16.6366
29 12.5905 59 1.8313 89 11.6523 119 15.3410
30 12.1991 60 -0.9127 90 11.3718 120 15.6453

Tabla 4.5 Serie de tiempo ejemplo

La ecuación del modelo, considerando la integración de la serie es:

Una predicción puntual para este modelo ARIMA(0,1,1) particular se calcularía a partir de:

Donde:

Al realizar predicciones puntuales (específicamente para este ejemplo) se considera lo siguiente:

• La predicción puntual de de la perturbación futura es cero.


• La predicción puntual de de la perturbación aleatoria pasada es el residuo 1
é si podemos calcular y es cero si no la podemos determinar.

El coeficiente del modelo calculado mediante MINITAB es:

0.3534

      71|Página 
Modelación ARIMA [4] 
 
 
A parir del valor del coeficiente se trata de predecir el valor de la variable en el tiempo 1, la
ecuación queda:

0.2561

Puesto que no hay valor para , no se puede calcular el valor de , ni el primer residuo (
) y este se considera 0.

Luego para intentar predecir a partir del tiempo de origen 1 se tiene:

0.3534

Como 0

15 0 0.3534 0 15

En este caso 15 de la Tabla 4.5

Al usar el valor 14.4064 se puede calcular:

14.4064 15 0.5936

Con este residuo se puede calcular a partir del origen 2 como:

0.3534

14.4064 0 0.3534 0.5936 14.1966

Con este valor se calcula a su vez:

14.9383 14.1966 0.7417

Al continuar con este proceso con cada uno de los siguientes periodos, se obtiene que la predicción
puntual 14.956 . El residuo para el periodo 120 es:

15.6443 14.956 0.6893

Ahora bien, hasta ahora se han predicho valores hasta el periodo 120, a partir del origen inmediato
anterior, es decir, se calculó el valor de a partir del origen 119, el valor a partir del origen
118, y así sucesivamente. Sin embargo como no se cuenta con las observaciones para los periodos
subsecuentes 121, 122, 123, etc., las predicciones puntuales , , , . se obtienen a partir
del origen 120. Entonces el pronóstico puntual para es:

0.3534

15.6453 0.3534 0.6893

15.8889

      72|Página 
Modelación ARIMA [4] 
 
 
Puesto que no se cuenta con la observación , no se puede obtener el valor por lo que se
supone un valor de 0. Entonces la predicción puntual para a partir del origen 120 es:

0.3534

Se asume que el valor es igual al valor de puesto que no existe valor observado en ese tiempo.

15.8889 0 0.3534 0

15.8889

Esta operación se realiza sucesivamente hasta el periodo de tiempo que se desee pronosticar.

Por otra parte cada pronóstico posee un intervalo de confianza asociado a la probabilidad de que el
valor futuro observado se encuentre dentro de dicho intervalo. Normalmente se establece que la
probabilidad sea del 95%. A esta combinación probabilidad-intervalo normalmente se le conoce como
intervalo de confianza del 95%.

Por medio de esta manera se puede conocer si los pronósticos son satisfactorios o no. La generación de
pronósticos es satisfactoria si los valores futuros se encuentran dentro del intervalo de confianza. De
manera inversa serán insatisfactorios si estos se hallan fuera del intervalo.

El cálculo de un intervalo de confianza del 95% para un pronóstico, se realiza por medio de la
ecuación:

1.96

Donde:

: ó

: ó

El cálculo de quedá fuera del alcance de este texto. No obstante, las salidas de los programas
estadísticos contienen los valor correspondientes a cada predicción puntual.

Para el ejemplo anterior donde 15.8889 y 15.8889 se tiene que

1.0394

1.7491

El intervalo de confianza del 95% para es:

15.8889 1.96 1.0394 13.8517 , 17.9261

Para es:

15.8889 1.96 1.7491 12.4608 , 19.3170

      73|Página 
Modelación ARIMA [4] 
 
 
Después de que se ha encontrado un modelo adecuado, se pueden llevar a cabo los pronósticos para un
periodo, o varios, en el futuro.

Si el patrón de la serie parece cambiar con el tiempo, los nuevos datos podrían usarse para volver a
estimar los parámetros del modelo o, de ser necesario, desarrollar un modelo completamente nuevo.

Vigilar los errores de pronóstico es una buena idea. Si las magnitudes de los errores más recientes
tienden a ser considerablemente mayores que los anteriores, quizá sea hora de evaluar nuevamente el
modelo.

4.4 Metodología Box-Jenkins Estacional


La metodología vista hasta ahora, está enfocada a series de tiempo no estacionales. Sin embargo, en la
práctica se presentan frecuentemente series con estacionalidad. Este hecho no se había remarcado
anteriormente debido a que las etapas de la metodología para series estacionales no varían en su
concepto y siguen las mismas pautas.

Las variaciones que deben tenerse en cuenta al aplicar modelos ARIMA a series estacionales consisten
principalmente en tres aspectos: el reconocimiento del periodo estacional, la estabilización de la serie y
la adición de términos autorregresivos y/o de medias móviles referidos a periodos de tiempo
anteriores donde . A continuación se presentan aquellas consideraciones
extras que deben hacerse en cada una de las etapas.

Estacionariedad: Uno de los requisitos para poder iniciar la identificación y estimación del modelo es
que la serie debe ser estacionaria. Recordemos que si la serie presenta algún tipo de patrón ascendente
o descendente, la serie es inestable o no estacionaria, por lo que la serie debe ser transformada para
lograr su estabilización. La Figura 4.23 muestra una serie estacional donde se muestra un aumento en
los valores de la serie.

1050

850
Yt

650

450
0 20 40 60 80 100 120 140 160 180
Tiempo

Figura 4.23 Serie de tiempo no estacionaria

      74|Página 
Modelación ARIMA [4] 
 
 
Para series estacionales, la estabilidad se logra por medio de las transformaciones siguientes:

• Diferenciación regular: Es la el mismo tipo de diferenciación presentado en la sección. Al igual


que en series no estacionales, se puede requerir las primeras o las segundas diferencias de la
serie.

• Diferencias estacionales: Se obtienen a partir de restar el valor de la variable periodos


anteriores.

• Combinación de ambas:

El periodo estacional se obtiene de acuerdo a lo visto en la modelación clásica, con la ayuda de las
funciones de autocorrelación o en su caso con el periodograma.

Para conocer si una serie estacional es estacionaria desde un principio o bien una vez aplicada alguna
de las transformaciones anteriores, se sigue el mismo razonar que el visto en la sección 4.3.1.

Si la función de autocorrelación simple de los valores , , . de la serie de tiempo se corta


claramente con rapidez o si se corta rápidamente para los primeros retrasos (1,2, 3 ) y para los retrasos
de periodos de tiempo ( , 2 , 3 , .), entonces se deben considerar que los valores de la serie
estacional son estacionarios. (Bowerman, O’Conell, Koehler 2007)

Si la función de autocorrelación simple de los valores , , para los primeros retrasos (1,2, 3 ) y
para los retrasos de periodos de tiempo ( , 2 , 3 , .) de la serie de tiempo, se cortan con lentitud
extrema, entonces se deben considerar que los valores de la serie de tiempo son no estacionarios

Además de estas transformaciones, normalmente en series estacionales, se suelen aplicar


transformaciones del tipo:

ó
.

Estas transformaciones se deben a la variabilidad que puede existir entre distintos periodos de tiempo.
La gráfica de la figura anterior (Figura 4.23) muestra el ejemplo de una serie estacional con

      75|Página 
Modelación ARIMA [4] 
 
 
variabilidad estacional, es decir, se tiene un incremento en el rango de valores en cada periodo de
tiempo.

Ahora bien, las Figuras 4.24, 4.25 y 4.26 muestran la transformación de la misma serie, utilizando
. .
, y respectivamente. Se puede observar que la última
transformación quita totalmente la variación estacional presente en la serie, mientras que las otras dos
tan sólo la atenúan ligeramente.

33

29
Yt

25

21
0 20 40 60 80 100 120 140 160 180
Tiempo

Figura 4.24 Raíz cuadrada de

5.8
5.6
5.4
Yt

5.2
5.0
4.8
4.6
0 20 40 60 80 100 120 140 160 180
Tiempo

Figura 4.25 Raíz cuarta de

7.1

6.9

6.7
Yt

6.5

6.3

6.1
0 20 40 60 80 100 120 140 160 180
Tiempo

Figura 4.26 Logaritmo natural de

      76|Página 
Modelación ARIMA [4] 
 
 
Identificación: Para series estacionales, se realiza de la misma forma que para una serie no estacional,
es decir, observando el comportamiento de la FAS y la FAP, tanto para los primeros periodos de
tiempo 1, 2, 3, 4, 5 como para aquellos alejados periodos de tiempo ( ,2 ,3 ,4 .

El modelo propuesto para series estacionales estará conformado tanto por coeficientes autorregresivos
y de media móvil ordinarios, como de coeficientes autorregresivos y medias móviles estacionales de
orden P y Q respectivamente.

Un modelo autorregresivo estacional de orden P sería:

Se puede demostrar que la FAS se extingue en los retrasos , 2 , 3 , … , ., mientras que la FAP tiene
autocorrelaciones significativas (espigas) en los retrasos , 2 , … , .

De forma similar, un modelo de media móvil estacional de orden Q sería:

En este modelo la FAS tiene autocorrelaciones significativas (espigas) en los retrasos , 2 , … , y


autocorrelaciones no significativas en los demás. La FAP se extingue en los retrasos de tiempo
,2 ,3 ,…, (Bowerman, O’Conell, Koehler 2007).

Estimación, Evaluación y Pronóstico: Las tres etapas finales se efectúan de la misma manera que el
visto para series no estacionales. Únicamente en el estadístico Ljung-Box, se calcula ′ mediante la
fórmula:

Donde:

: ó

: ó

4.5 Ventajas y desventajas de la modelación ARIMA


La modelación ARIMA presenta importantes ventajas frente a la modelación clásica. La principal de
ellas es el gran grado de ajuste que proporciona a la mayoría de las series de tiempo. A diferencia de la
modelación clásica en donde se ajusta una serie a un modelo matemático ya establecido, los modelos
ARIMA se ajustan a una serie en particular.

      77|Página 
Modelación ARIMA [4] 
 
 
Utilizando la metáfora, como lenguaje, la modelación ARIMA viene a ser como la confección de un
traje que debe ser ajustado a una serie de tiempo particular. De acuerdo a esta analogía, el analista de
series de tiempo utiliza instrumentos (los modelos estadísticos), materiales (los datos) y planes
(estrategias de construcción del modelo) para la definitiva especificación del modelo.

Otras ventajas de los modelos ARIMA sobre los métodos clásicos de tratamiento de series de tiempo
son:

• Los conceptos que se utilizan para la modelación ARIMA, se derivan de sólidas teorías de la
probabilidad clásica y de la estadística matemática
• Los modelos ARIMA son una familia de modelos, no simplemente un único modelo
• Box y Jenkins desarrollaron una completa estrategia que sirve de guía para escoger un
apropiado modelo dentro de esta gama de modelos
• Un apropiado modelo ARIMA produce óptimas predicciones

Por otro lado, dentro de las dificultades que se pueden presentar en la modelación ARIMA, se
encuentra el problema que supone para el analista, recién iniciado en la teoría y la ejecución de la
metodología Box-Jenkins, la correcta elección de un modelo adecuado en los primeros intentos. Es por
ello que la modelación de un proceso ARIMA ha sido referida por algunos autores como un arte. Quizá
sería preferible utilizar el término habilidad, debido a que las técnicas básicas en la modelación de los
procesos ARIMA son fácilmente accesibles y ajustables tras un aprendizaje relativamente mediano.

Una desventaja más es que, aunque se utilizan programas de cómputo en el cálculo de los coeficientes
de un modelo ARIMA probable, la aplicación de la metodología Box-Jenkins sigue siendo una labor
manual, es decir, requiere ser ejecutada por el analista. Hay que recordar que no cualquier modelo
propuesto proporciona necesariamente el ajuste adecuado.

      78|Página 
SERIES TEMPORALES: MODELO ARIMA
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández

MODELO ARIMA(p, d, q) (P, D, Q)s

Se han analizado las series temporales desde un punto de vista determinista o clásico. A partir de ahora
se estudian desde un punto de vista estocástico o moderno, que utiliza métodos más complejos y su
aplicación requiere series más largas.

Box y Jenkins han desarrollado modelos estadísticos para series temporales que tienen en cuenta la
dependencia existente entre los datos, esto es, cada observación en un momento dado es modelada en
función de los valores anteriores. Los análisis se basan en un modelo explícito. Los modelos se conocen
con el nombre genérico de ARIMA (AutoRegresive Integrated Moving Average), que deriva de sus tres
componentes AR (Autoregresivo), I(Integrado) y MA (Medias Móviles).

El modelo ARIMA permite describir un valor como una función lineal de datos anteriores y errores
debidos al azar, además, puede incluir un componente cíclico o estacional. Es decir, debe contener todos
los elementos necesarios para describir el fenómeno. Box y Jenkins recomiendan como mínimo 50
observaciones en la serie temporal.

La metodología de Box y Jenkins se resume en cuatro fases:

• La primera fase consiste en identificar el posible modelo ARIMA que sigue la serie, lo que requiere:

ƒ Decidir qué transformaciones aplicar para convertir la serie observada en una serie estacionaria.

ƒ Determinar un modelo ARMA para la serie estacionaria, es decir, los órdenes p y q de su
estructura autorregresiva y de media móvil.

• La segunda fase: Seleccionado provisionalmente un modelo para la serie estacionaria, se pasa a la
segunda etapa de estimación, donde los parámetros AR y MA del modelo se estiman por máxima
verosimilitud y se obtienen sus errores estándar y los residuos del modelo.

• La tercera fase es el diagnostico, donde se comprueba que los residuos no tienen estructura de
dependencia y siguen un proceso de ruido blanco. Si los residuos muestran estructura se modifica el
modelo para incorporarla y se repiten las etapas anteriores hasta obtener un modelo adecuado.

• La cuarta fase es la predicción, una vez que se ha obtenido un modelo adecuado se realizan
predicciones con el mismo.

PASOS A SEGUIR PARA EL ANÁLISIS DE DATOS
1. Recogida de datos:  Es conveniente disponer de 50  o más datos, y en el caso de series mensuales,
trabajar entre seis y diez años completos.

1
2. Representación gráfica:  Es de gran utilidad disponer de un gráfico de la serie para decidir sobre la
estacionariedad. En ocasiones, se utilizan medias y desviaciones típicas por subperiodo para juzgar
sobre la estacionariedad de la serie.
3. Transformación previa de la serie:  Cuando la serie no es estacionaria en varianza se requiere una
transformación logarítmica. No obstante, la transformación logarítmica es muy frecuente incluso en
series  con dispersión relativamente constante en el tiempo. Una práctica habitual es ensayar con la
serie original y en logaritmos y comprobar resultados.

4. Eliminación de la tendencia:  La observación del gráfico de la serie indica la existencia o no de
tendencia. Una tendencia lineal será corregida tomando primeras diferencias, que será el caso más
frecuente. Una tendencia no lineal suele llevar en la práctica al uso de dos diferencias como mucho.

5. Identificación del modelo:  Consiste en determinar el tipo de modelo más adecuado, esto es, el
orden de los procesos autorregresivos y de medias móviles de las componentes regular y estacional.
Técnicamente esta decisión se toma en base a las funciones de autocorrelación (FAC) y
autocorrelación parcial (FAC parcial), tanto en la parte regular como estacional. Es habitual terminar
eligiendo entre los procesos más simples AR(1), AR(2), MA(1), MA(2) y ARMA(1,1), tanto en la parte
regular como estacional. En caso de duda pueden seleccionarse varios modelos alternativos que
serán estimados y contrastados posteriormente, para definir finalmente el modelo adoptado.

6. Estimación de los coeficientes del modelo:  Decidido el modelo, se procede a la estimación de sus
parámetros, dado que se trata de un procedimiento iterativo de cálculo, pueden sugerirse valores
iniciales.

7. Contraste de validez del modelo:  Se utilizan distintos procedimientos para valorar el modelo o
modelos inicialmente seleccionados: contraste de significación de parámetros, covarianzas entre
estimadores, coeficiente de correlación, suma de cuadrados de errores, etc.

8. Análisis detallado de los errores:  Se tendrán en cuenta las diferencias históricas entre valores reales
y estimados por el modelo para su valoración final. Hay que verificar un comportamiento no
sistemático de los mismos, así como analizar la posible existencia de errores especialmente
significativos.

9. Selección del modelo:  En base a los resultados de pasos anteriores, se decide sobre el modelo
adoptado.

10. Predicción:  El modelo seleccionado se utilizará como fórmula inicial de predicción.

2
IDENTIFICACIÓN PRÁCTICA DEL MODELO

Identificar un modelo significa utilizar los datos recogidos, así como cualquier información de cómo se
general la serie temporal objeto de estudio, para sugerir un conjunto reducido de posibles modelos, que
tengan muchas posibilidades de ajustarse a los datos. Ante una serie temporal empírica, se deben
encontrar los valores (p, d, q) más apropiados.

ƒ Si la serie temporal presenta una tendencia, lo primero que debe de hacerse es convertirla en
estacionaria mediante una diferenciación de orden d. Una vez diferenciada la serie, una buena
estrategia consiste en comparar los correlogramas de la función de autocorrelación (ACF) y la función
de autocorrelación parcial (ACFP), proceso que suele ofrecer una orientación para la formulación del
modelo orientativo.
♣ Los procesos autorregresivos presentan función de autocorrelación parcial (ACFP) con un número
      finito de valores distinto de cero. Un proceso AR(p) tiene los primeros p términos de la función de
      autocorrelación parcial distintos de cero y los demás son nulos.
 Esta afirmación es muy fuerte, y en la práctica se considera que una muestra dada proviene de un
 proceso autorregresivo de orden p si los términos de la función de autocorrelación parcial son casi
      cero a partir del que ocupa el lugar p.
Un valor se considera casi cero cuando su módulo es inferior a  2 / T . Los programas de ordenador
 constituyen la franja  (− 2 / T , 2 / T )  y detectan los valores de la ACFP que caen fuera de ella.

♣ Los procesos de medias móviles presentan función de autocorrelación con un número finito de
valores distintos de cero. Un proceso MA(q) tiene los primeros q términos de la función de
autocorrelación distintos de cero y los demás son nulos.

Las dos propiedades descritas son muy importantes con vistas a la identificación de un proceso mediante
el análisis de las funciones de autocorrelación y autocorrelación parcial.

El resumen de los pasos de identificación de un modelo de series temporales:

1) Decidir si Xt necesita ser transformada para eliminar la no estacionariedad en media p en la no
estacionariedad en varianza (heteroscedasticidad). Puede ser conveniente utilizar logaritmos de la
serie o aplicar la transformación de Box‐Cox.

2) Determinación del grado d de diferenciación adecuado.
En general, la falta de estacionariedad se manifiesta en que los coeficientes de la función de
autocorrelación estimada tienden a decrecer muy lentamente.
 La pregunta es, ¿cuán lentamente ha de ser el decrecimiento de los coeficientes de la función de
 autocorrelación parcial (ACFP) para que el proceso sea estacionario?.
 En general, solo ocasionalmente los datos económicos del correlograma dejarán de decrecer tras las
primeras diferencias, y en este caso serían necesarias segundas diferencias. Una diferenciación
 superflua solo sirve para alterar el esquema de autocorrelación evidente en una serie estacionaria y
 complicarlo innecesariamente.

3) Decidir los valores de (p, q), y si existe una componente estacional, decidir los órdenes de los
operadores estacionales (P, Q). Para este apartado se utilizan las funciones de autocorrelación (ACF)
y autocorrelación parcial (ACFP) según el siguiente cuadro:

3
Proceso Función de autocorrelación (ACF) Función de autocorrelación parcial  (ACFP)
Solo los q primeros coeficientes son
Decrecimiento rápido exponencial
MA(q) significativos. El resto se anulan
atenuado u ondas sinusoidales.
bruscamente (coef. 0 para retardo >q)

Solo los p primeros coeficientes son
Decrecimiento rápido exponencial
AR(p) significativos. El resto se anulan
atenuado u ondas sinusoidales.
bruscamente (coef. 0 para retardo >q)

Comportamiento irregular en los retardos Decrece (aproximadamente con
ARIMA(p, d, q) (1, ... , q) con q picos. Decrecimiento para exponenciales atenuados y ondas
retardos posteriores a q. sinusoidales). No cero pronto.

DETENCIÓN PRÁCTICA DE LA ESTACIONARIEDAD

ƒ Para detectar rápidamente la estacionariedad (Analizar/Estadísticos descriptivos/ Explorar) se
pueden calcular la sucesión de medias y varianzas por años, si se obtienen variaciones significativas
crecientes y decrecientes a lo largo de los años, indica que no hay estacionariedad. Este resultado
conduce a tomar logaritmos y diferenciar la serie original con el objetivo de atenuar la falta de
estacionariedad en media y varianza.

ƒ Otro método (Analizar/Series temporales/Autocorrelaciones), si los coeficientes de la ACF no
decaen rápidamente hay un indicio claro de falta de estacionariedad en media, lo que llevaría a
tomar primeras diferencias en la serie original.

Si hay duda sobre diferenciar o no, o sobre cuántas veces hay que diferenciar, se calcula la varianza de la
serie original y de la serie sometida a diferentes diferenciaciones, tomando como diferenciación
adecuada aquella para la que la varianza es mínima. El método es tanto más adecuado cuanto mayor se
la diferencia entre las varianzas anteriores. La sobrediferenciación suele evitarse observando si en la
parte de medias móviles alguna raíz es próxima a la unidad.

DETENCIÓN PRÁCTICA DE LA ESTACIONALIDAD: PERIODOGRAMA

Para detectar rápidamente la estacionalidad se puede utilizar directamente el gráfico de la serie
(Analizar/Series temporales/Análisis espectral), así se obtiene el PERIODOGRAMA, que es una figura
que transforma la serie temporal de su dominio natural (el tiempo) al dominio de las frecuencias (a los
valores de la serie se les aplican transformaciones de Fourier), en el eje X se presentan frecuencias y en
el eje Y las amplitudes. Respecto al PERIODOGRAMA hay que establecer las siguientes consideraciones:

ƒ No hay estacionalidad si no hay picos destacables.

ƒ Cada pico destacable identifica un período que incluso puede ser un ciclo.

ƒ A cada amplitud destacable le corresponde una frecuencia cuya inversa es el período estacional o
          el ciclo, con lo que el periodograma identifica la longitud del período estacional y en su caso el ciclo.

4
ƒ Las amplitudes más fuertes (correspondientes a valores más bajos de las frecuencias) suelen
          corresponder a ciclos y las menos fuertes (correspondientes a valores no tan bajos de las
          frecuencias) suelen corresponder a estaciones. En caso de duda entre ciclos y estaciones se puede
          recurrir a las funciones de autocorrelación para discriminar.

ƒ PERIODOGRAMA ACUMULATIVO, representa en el eje de abscisas las frecuencias y en el eje de
ordenadas las amplitudes acumuladas. En esta línea, hay que hacer las consideraciones:

‐  Para una serie aleatoria coincide con la diagonal del primer cuadrante.

‐  Desvíos bruscos de la diagonal provocan presencia de ciclos o estaciones para las respectivas
   frecuencias, que serán ciclos cuando las frecuencias sean bajas.

La estacionalidad, así como la estacionariedad, también puede detectarse a través de las funciones de
autocorrelación (ACF) y autocorrelación parcial estimadas (ACFP) ‐ Analizar/Series
temporales/Autocorrelaciones  (en Opciones para representar ACF con un tramo significativo se eligen
36 retardos) ‐

METODOLOGÍA BOX‐JENKINS

5
MODELOS AUTORREGRESIVOS AR(p)
Un modelo autorregresivo AR describe una clase particular de proceso en que las observaciones en un
momento dado son predecibles a partir de las observaciones previas del proceso más un término de
error. El caso más simple es el ARIMA(1,0,0) o AR(1) o de primer orden, cuya expresión matemática es:

AR(1) ≡ X t = φ1 X t−1 + at

El proceso autorregresivo de orden p, representado por ARIMA(p,0,0) o simplemente por AR(p):

                                                AR(p) ≡ X t = φ1 X t−1 + φ2 X t−2 + " + φp X t−p + at

que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

                                       (1 − φ1 B − φ2 B2 − " − φp Bp ) X t = at                  Bk (X t ) = X t−k

♣ Un proceso autorregresivo AR(p) es estacionario si las raíces del polinomio en B dado por:
     (1 − φ1 B − φ2 B2 − " − φp Bp )  caen fuera del círculo unidad. Esta condición es equivalente a que las
      raíces de la ecuación:  xp − φ1 xp−1 − φ2 xp−2 − " − φp−1 x − φp = 0   sean todas inferiores a uno en módulo.

♣ Un proceso autorregresivo siempre es invertible.

MODELO DE MEDIAS MÓVILES  Ma(q)
Un modelo de medias móviles MA describe una serie temporal estacionaria. En este modelo el valor
actual puede predecirse a partir de la componente aleatoria de este momento y, en menor medida, de
los impulsos aleatorias anteriores. El modelo ARIMA(0,0,1), también denotado por MA(1), viene dado
por la expresión:

X t = at − v1 at−1

El proceso de medias móviles de orden q, representado por ARIMA(0,0,q) o también por Ma(q), viene
dado por la expresión:

X t = at − v1 at−1 − v 2 at−2 − " − v q at−q

que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

X t = (1 − v1 B − v 2 B2 − " − v q Bq ) at

♣ Un proceso de medias móviles es siempre estacionario.

♣ Un proceso de medias móviles Ma(q) es invertible si las raíces del polinomio en B definido por
(1 − v1 B − v 2 B2 − " − v q Bq )  caen fuera del círculo unidad. Esta condición es equivalente a que las
raíces de la ecuación  x q − φ1 x q−1 − φ2 x q−2 − " − φq−1 x − φq = 0  sean todas inferiores a uno en módulo.

6
MODELOS ARMA (p, q)
Una extensión natural de los modelos AR(p) y MA(q) es un tipo de modelos que incluyen tanto términos
autorregresivos como de medias móviles y se definen como ARIMA(p, 0, q). Se representan por la
ecuación:

                   X t = φ1 X t−1 + φ2 X t−2 + " + φp X t−p + at − ν1 at−1 − ν2 at−2 − " − ν q at−q

que puede ponerse de la forma:

                   X t − φ1 X t−1 + φ2 X t−2 + " + φp X t−p = at − ν1 at−1 − ν2 at−2 − " − ν q at−q

es decir,      X t (1 − φ1 B − φ2 B2 − " − φp Bp ) = at ( 1 − ν1 B − ν2 B2 − " − ν q Bq )

El proceso ARMA(p, q) es estacionario si lo es su componente autorregresiva, y es invertible si lo es su
componente de medias móviles.

ƒ Un modelo ARMA(p, q) es estacionario si las raíces del polinomio definido por
(1 − φ1 B − φ2 B2 − " − φp Bp )  caen fuera del circulo unidad. Esta condición es equivalente a que las
raíces de la ecuación:

                x p − φ1 x p−1 − φ2 xp−2 − " − φp−1 x − φp = 0  sean todas inferiores a uno en módulo.

ƒ Un modelo ARMA(p, q) es invertible si las raíces del polinomio en B definido mediante
( 1 − ν1 B − ν 2 B2 − " − ν q Bq )  caen fuera del circulo unidad. Esta condición es equivalente a que
las raíces de la ecuación:

                x q − φ1 x q−1 − φ2 x q−2 − " − φq−1 x − φq = 0  sean todas inferiores a uno en módulo.

MODELOS ARIMA (p, d, q)
Un modelo ARIMA(0, d, 0)  es una serie temporal que se convierte en ruido blanco (proceso puramente
aleatorio) después de ser diferenciada d veces.

El modelo (0, d, 0) se expresa mediante:  (1 − B)d X t = at

El modelo general ARIMA(p, d, q) denominado proceso autorregresivo integrado de medias móviles de
orden p, d, q, toma la expresión:

             (1 − φ1 B − φ2 B2 − " − φp Bp ) (1 − B)d X t = ( 1 − ν1 B − ν2 B2 − " − ν q Bq ) at

Un modelo ARIMA(p, d, q) permite describir una serie de observaciones después de que hayan sido
diferenciadas d veces, a fin de extraer las posibles fuentes de no estacionariedad. Esta fórmula se puede

7
aplicar a cualquier modelo. Si hay alguna componente p, d, q, igual a cero, se elimina el término
correspondiente de la fórmula general.

Los modelos cíclicos o estacionales son aquellos que se caracterizan por oscilaciones cíclicas, también
denominadas variaciones estacionales. Las variaciones cíclicas a veces se superponen a una tendencia
secular.

Las series con tendencia secular y variaciones cíclicas pueden representarse mediante los modelos
ARIMA(p, d, q)(P, D, Q). El primer paréntesis (p, d, q) se refiere a la tendencia secular o parte regular de
la serie y el segundo paréntesis  (P, D, Q) se refiere a las variaciones estacionales, o parte cíclica de la
serie temporal.

En este sentido, se adjuntan algunas expresiones del modelo:

ƒ ARIMA(0, 1, 1)(0,0,1)12:    (1 − B) X t = (1 − ν1 B12 ) (1 − δ12 B12 )

ƒ ARIMA(0, 1, 1)(0,1,1)12:    (1 − B) (1 − B12 ) X t = (1 − ν1 B12 ) (1 − δ12 B12 )

ƒ ARIMA(2, 1, 0)(1,0,0)12:    (1 − φ1 B − φ2 B12 ) (1 − Ω1 B12 ) (1 − B) X t = at

ƒ ARIMA(1, 1, 1)(2,1,1)12:    (1 − φ1 B) (1 − Ω1 B12 − Ω2 B24 ) (1 − B12 ) (1 − B) X t = ( 1 − ν1 B ) ( 1 − δ12 B12 ) at

IDENTIFICACIÓN DE MODELOS ARIMA(p, d, q)
Un proceso estocástico  (X t )t=1, 2 , 3, ...  se define como una colección de variables aleatorias  X t  ordenadas
de acuerdo con el parámetro t  tiempo.

Los modelos estocásticos de series temporales contemplan una serie temporal  X t  como una colección
de observaciones muéstrales, cada una correspondiente a una variable del proceso.

Las leyes de probabilidad que rigen cualquier proceso estocástico se describen exhaustivamente
mediante las funciones de distribución de probabilidad conjunta de todos y cada uno de los vectores de
variables aleatorias que se pueden formar con las variables que constituyen el proceso. No obstante, con
finalidad práctica, los procesos estocásticos se suelen describir mediante sus momentos.

La media del proceso estocástico se define por  ut = E (X t ) y generalmente es una función del tiempo. La
función de autocovarianza se define como:

              g(t, t + k) = Cov(X t , X t+k ) = E ( [ X t − E(X t )][ X t+k − E(X t+k )] )     t = " − 3, − 2, − 1, 0, 1, 2, 3, "

A partir de la función de autocovarianza se obtienen dos resultados útiles:

ƒ Función de varianza del proceso:   g(t, t) = Var X t

g(t, t + k)
ƒ Función de autocorrelación:   h(t, t + k) =
g(t, t) g(t + k , t + k)

8
ESTACIONARIEDAD

Un proceso estocástico es estacionario en sentido estricto si los vectores  [ X t1 , X t2 , " , X tn ] y


[ X t1+s , X t2+s , ", X tn+s ]  tienen la misma función de distribución de probabilidad, independientemente de
s, para cualquier n dado. Esta definición de estacionariedad implica que las características del proceso
estocástico no sufren alteración en tiempos históricamente diferentes, condición quizá demasiado fuerte
para imponer en la práctica.

Un proceso es estacionario en sentido amplio (o estacionario de segundo orden, o de covarianza
estacionaria, o débilmente estacionario) cuando se verifica que  ut = u < ∞  y   g(t, t + k) = gk < ∞ , es decir,
la media del proceso es constante (no depende del tiempo) y la autocovarianza es solo función del lapso
temporal considerado, y no del tiempo histórico. Los momentos de orden superior pueden variar con el
tiempo.

En el caso de procesos con función de distribución de probabilidad normal, la estacionariedad en sentido
amplio implica la estacionariedad en sentido estricto.

FUNCIÓN DE AUTOCORRELACIÓN

En procesos estacionarios, la función de autocorrelación es:

gk Cov(X t , X t+k )
                           hk = =             k = " , − 2, − 1, 0, 1, 2, "
g0 Var(X t )

 Para procesos reales se verifica además que  g 0 > 0 ,  gk = g −k ,  hk = h−k ,  h0 = 1  y  hk ≤ 1

Se denomina correlograma del proceso a la representación gráfica con  hk  en ordenadas y k en abscisas.

La función de autocorrelación de las series estacionarias disminuye sensiblemente a medida que
aumenta el desfase temporal k. Esta característica no suele suceder en las series no estacionarias.

FUNCIÓN DE AUTOCORRELACIÓN ESTIMADA

En aplicaciones prácticas, en las que se dispone de ciertas observaciones,  (X t )t=1, 2 , 3, ..., T , relativas a un


T
Xt
proceso estocástico que se supone estacionario, la media del proceso se estima mediante:   X = ∑
t =1 T

Análogamente, la función de autocorrelación  hk  se estima mediante la función de autocorrelación
T
∑ (X t − X) (X t−k − X)
t =1
muestral, que se define por  rk = T
∑ (X t − X) 2
t =1

9
Se denomina correlograma muestral a la representación gráfica de  rk , instrumento de gran interés
práctico del análisis de series temporales.

Para obtener correlogramas debe partirse en la práctica de muestras de tamaño suficientemente grande
(al menos 50 observaciones).
La función de autocorrelación muestral no se puede calcular cuando  (k > T + 1) , y en la práctica no debe
calcularse para  (T > T / 4)

RUIDO BLANCO

Es un proceso puramente aleatorio, se define por las condiciones:

                 u = E(X t ) = 0 ,  g 20 = var(X t ) ,  gk = cov(X t , X t+k ) = 0    k = " , − 2, − 1, 0, 1, 2, "

En este tipo de procesos puramente aleatorios el correlograma se reduce a un segmento de longitud
unitaria sobre el eje de ordenadas.

ESTACIONARIEDAD Y ELIMINACIÓN DE LA TENDENCIA

Muy pocas series temporales reales del mundo económico son estacionarias. La mayoría presentan
tendencia, varianza no constante y  variaciones estacionales.

La presencia de variaciones estacionales se traduce en una variabilidad de la media del proceso, lo que
es contrario a la hipótesis de estacionariedad.

Normalmente, es posible transformar muchas series económicas reales no estacionarias en otras
aproximadamente estacionarias, sometiéndolas a operaciones algebraicas adecuadas.

A las series no estacionarias que presentan una tendencia lineal se les somete a la transformación
Z t = X t − X t−1 para convertirlas en estacionarias. Si  X t  muestra una tendencia lineal, la primera diferencia
de la serie  Z t  ya no tendrá esa tendencia. En este caso se dice que  X t  es una serie temporal homogénea
de primer orden o integrada de primer orden y se denota por I(1).

La eliminación de una tendencia cuadrática puede conseguirse mediante una doble diferenciación. Esta
operación se realiza en dos etapas, primero se obtiene  Wt = X t − X t−1  y, si sigue existiendo tendencia, se
obtiene  Z t = Wt − Wt−1 .  Si   Z t  ya no incorpora tendencia (es estacionaria) se dice que  X t  es una serie
temporal homogénea de segundo orden I(2).

Análogamente, una tendencia de orden p  puede eliminarse llevando a cabo una diferenciación de orden
p dando lugar a una serie homogénea o integrada I(p) de orden p.

10
TRANSFORMACIÓN LOGARÍTMICA

En general, se denomina proceso homogéneo de orden h, o integrado de orden h, denotado por I(h), a un
proceso no estacionario que se convierte en estacionario después de h operaciones de diferencias y no
antes.

Si  X t  muestra una tendencia exponencial, puede eliminarse la tendencia hallando primero el logaritmo
de la serie, y luego la diferencia primera de la nueva serie así calculada. La serie   Z t = Ln X t − Ln X t−1
puede tener la tendencia eliminada.

TRANSFORMACIÓN DE Box‐Cox

Permite estabilizar la varianza de una serie temporal  (serie estacionaria en varianza) y aproximar su
distribución a una normal.

⎧ ( X + l ) l1 −1
Si  X t  es la serie temporal inicial, la ⎪ Z t = t l2−1 si l1 ≠ 0 y X t > − l2
⎨ l1 g 1
transformación viene dada por: ⎪ Z = g Ln( X + l ) si l = 0 y l < 0
⎩ t t 2 1 2

donde g es la media geométrica simple de  X t + l2 , el primer parámetro  l1  gobierna la fuerza de la


transformación. Para  l1 = 1  se tiene la serie original  X t   y   l2  se elige de forma que  X t + l2  sea siempre
positiva. En consecuencia,  l2  será cero si se trabaja con datos positivos e igual en valor absoluto al valor
más negativo observado, en otro caso.

La transformación de Box‐Cox es una familia de transformaciones dependiente del parámetro  l1 , que
incluye como casos particulares la transformación logarítmica, la raíz cuadrada y la inversa.

La eliminación de las variaciones estacionales, para inducir la estacionariedad, suele hacerse casi
siempre, mediante la diferenciación estacional.

Si los datos son mensuales, la diferenciación estacional de la serie temporal  X t  consiste en calcular
Z t = X t − X t−12 . Con datos trimestrales se calcula  Z t = X t − X t−4 . Si después de efectuar esta
transformación la serie sigue presentando evidencias de variaciones estacionales, es posible aplicar de
nuevo el procedimiento, es decir, calcular las diferencias de segundo orden, y así sucesivamente.

FUNCIÓN DE AUTOCORRELACIÓN PARCIAL ESTIMADA

Un concepto muy útil en el análisis de series temporales es la función de autocorrelación parcial.

El primer término de la función de autocorrelación parcial se denota por  φ11 , puede estimarse


transformando la serie  X t  en desviaciones respecto a su media muestral  Yt = X t − X  y a continuación
estimando una regresión de  Yt  sobre  Yt−1 .

El modelo de regresión:  Yt = φ11 Yt−1 + ut ,  la pendiente estimada de esta regresión es  φ11 .

11
Además, el primer valor de la función de autocorrelación parcial  φ11  es igual al primer valor de la función
de autocorrelación, propiedad de las funciones de autocorrelación de todo proceso estocástico
estacionario.

ƒ El segundo valor de la función de autocorrelación parcial  φ22  se estima mediante una regresión de  Yt


sobre  Yt−1  e   Yt−2 . El modelo de regresión:   Yt = φ21 Yt−1 + φ22 Yt−2 + ut .

ƒ El tercer valor de la función de autocorrelación parcial  φ33  se estima mediante una regresión de  Yt


sobre  Yt−1 ,  Yt−2  e  Yt−3 . El modelo de regresión:  Yt = φ31 Yt−1 + φ32 Yt−2 + φ33 Yt−3 + ut .

La función de autocorrelación parcial puede estimarse mediante una serie de regresiones, cada una de
las cuales contiene como variable explicativa un retardo más que la anterior, y en cada caso se eligen los
coeficientes estimados en los retardos más altos  ( φ11 , φ22 , φ33 , " ) , que son así los valores estimados de
la función de autocorrelación parcial.

Otra manera de obtener la función de autocorrelación parcial estimada es mediante fórmulas recursivas,
utilizando la función de autocorrelación previamente estimada y utilizando las ecuaciones de
Yule‐Walker. A veces se suele denominar correlograma a la representación gráfica de las funciones de
autocorrelación y autocorrelación parcial.

IDENTIFICACIÓN DEL TÉRMINO INDEPENDIENTE

Para ajustar la serie temporal a veces conviene introducir un término independiente en el modelo
ARIMA.
Para contrastar la hipótesis nula de que el modelo se ajusta con una constante, se utiliza el estadístico:

X
ƒ Si     X t  es ruido blanco (proceso aleatorio), el estadístico:   tN−1 =    (t‐Student)
S2X /(N − 1)

ƒ Si  X t  está autocorrelacionada, siendo significativos los primeros k coeficientes de autocorrelación
X
(r1 , r2 , " , rk ) , el estadístico a utilizar es:  tN−1 =
S2X (1 + 2 r1 + 2 r2 + " + 2 rk ) / N

ESTIMACIÓN DE MODELOS ARIMA(p, d, q)

Los parámetros se suelen obtener de manera que la suma cuadrática de los errores sea la menor posible.
Representando el proceso ARIMA(p, d, q) de la forma  φ(B) X t = ν(B) at , los errores del modelo pueden
expresarse de la forma   at = φ−1 (B) φ(B) at .

El objetivo es encontrar el vector de parámetros  φ = φ (φ1 , ", φp )  y  ν = (ν1 , " , νp )  que minimice la suma


de cuadrados de los errores  ∑ a2t = S (φ, ν) .
t

12
La estimación es complicada ya que la ecuación es no lineal en los parámetros. Se debe recurrir a un
método iterativo de estimación no lineal (Marquardt). Para comenzar el algoritmo se necesitan
estimaciones preliminares de los parámetros, que se obtienen mediante el método de los momentos.

DIAGNÓSTICO, VALIDACIÓN O CONTRSTE DE MODELOS ARIMA(p, d, q)

Box y Jenkins sugirieron un número considerable de tests para verificar si el modelo elegido se ajusta
correctamente al conjunto de datos dado. Uno de ellos, conocido como sobreparametrización, consiste
en ajustar un modelo de orden superior al elegido y comprobar si los parámetros son significativamente
distintos de cero.

ƒ De otro lado, si el modelo se aproxima satisfactoriamente a la serie observada, los residuos deben
tender a comportarse como ruido blanco, lo que se comprobaría mediante las funciones de
autocorrelación de los residuos (ACF, ACFP). Dichas funciones de autocorrelación deben de ser nulas
en todo su recorrido, excepto en el cero.

ƒ Si el modelo no se aproxima satisfactoriamente a la serie observada, los residuos se comportarían
como un ruido autocorrelado. Por ello, deben emplearse contrastes como el de Durbin‐Watson (para
la autocorrelación de primer orden) o el de Wallis (para la de cuarto orden).

Otros tests aplicados a los residuos van encaminados a comprobar si los residuos obtenidos son
consistentes con el supuesto de ruido blanco (aleatorios):

m ∑ at at−k
♦ Box y Pierce proponen el estadístico  Q = ∑ rk2   donde  rk = t =k +1
n
 , siendo  at ≡  residuos
k =1
∑ a2t
t =1
estimados y n el número de observaciones. Bajo el supuesto de que m es suficientemente grande,
Box y Pierce demuestran que el estadístico Q se distribuye como una Chi‐cuadrado con  (m − p − q)
grados de libertad. Rechazándose la hipótesis de que los residuos son un ruido blanco para valores
de Q muy altos. Más concretamente, se halla la región crítica para un nivel de significación  α ,
calculando un valor I que cumpla  P( Q > I) = α . Cuando el valor de Q cae dentro de la región crítica se
rechaza la hipótesis nula de que los residuos son un ruido blanco. Si cae fuera de la región crítica se
acepta la hipótesis nula. El valor de m es arbitrario, aunque conviene tomarlo lo más elevado posible.

       Para valores de m no muy grandes, Ljung y Box proponen un estadístico alternativo:
m
n (n + 2) ∑ rk2
k =1
                                             Q' = ≈ χm
2
−p −q
(n − k)

       Se halla la región crítica para un nivel de significación  α , calculando un valor I que cumpla
        P( Q ' > I) = α . Cuando el valor de Q' cae dentro de la región crítica se rechaza la hipótesis nula de que
       los residuos son un ruido blanco. Si cae fuera de la región crítica se acepta la hipótesis nula.

13
♦ Un diagnóstico completo surge de la inspección del gráfico de los residuos. Si los residuos provienen
de un proceso de ruido blanco, deben de ser incorrelacionados entre sí, lo que les hará alternar en
signo, sin ningún criterio obvio. Por el contrario, rachas de residuos consecutivos de un mismo signo
son, en general, un indicativo de mala especificación del modelo, bien por ser una indicación de
autocorrelación de los residuos o por indicar no estacionariedad en los mismos. Si el gráfico
(t, at ) tiene una tendencia conocida, puede haber heteroscedasticidad de los residuos.

PREDICCIÓN EN MODELOS ARIMA

Los modelos ARIMA proporcionan, además de una predicción puntual, la distribución de probabilidad
completa para los futuros valores de la serie.

Considerando como predicción óptima la que tiene un error cuadrático medio de predicción mínimo,  se
[ ]
trata de elegir una predicción a horizonte l,  Z t (l) , tal que   E e2t (I) = E[ X t+1 − Z t (l) ]2  fuese mínimo.

En general, se demuestra que dicha predicción viene dada por la esperanza condicionada de  X t+1 :

                                                Z t (l) = E [ X t+1 / X t , X t−1 , " , X1 ]

El cálculo real de la predicción  Z t (l)  puede hacerse de forma recursiva utilizando el modelo ARIMA


estimado, de forma que si el modelo se expresa como:

                            dt = φ1 dt−1 + φ2 dt−2 + " + φp dt−p + at − ν1 at−1 − ν 2 at−2 − " − ν q at−q

donde  dt ≡ diferencia de orden d de  X t (supuesto  X t  no estacionaria y convertible en estacionaria


mediante un proceso de d diferenciaciones consecutivas).

Para calcular la predicción  Z t (l)  se comienza calculando la estimación de  dt (1)  como la esperanza


condicionada de  dt+1 , y posteriormente se calcula la estimación de  dt (2) , y así sucesivamente hasta
calcular la estimación de  dt (l) . Una vez que la serie  dt  ha sido predicha, se pude obtener una predicción
de  X t  sumando  dt  d‐veces. Para calcular la predicción   Z t (l)  se utiliza la fórmula:

                                                Z t (l) = φl dt + φl+1 dt−1 + φl+2 dt−2 + " = Z t+l

14
IDENTIFICACIÓN DE MODELOS ARIMA(p,d,q)(P,D,Q)s

El archivo ratios.sav muestra una serie de ratios mensuales de enero de 1993 a febrero de 2011.

La fase de identificación comienza realizando una representación gráfica de la variable [Analizar/Series
temporales/Gráficos de secuencia] con objeto de observar la estacionalidad.

15
La serie muestra muchos picos, muchos de los cuales parecen estar espaciados uniformemente,
sugiriendo la presencia de un componente periódico en la serie.

Para observar mejor la estacionalidad, se representa el PERIODOGRAMA por frecuencia de la serie
mediante [Analizar/Series temporales/Análisis espectral].

16
El pico señalado corresponde a la frecuencia 0,08, es decir, la estación es 1/0,08 = 12 meses.

La estacionalidad, así como la estacionariedad, pueden detectarse también mediante las funciones de
autocorrelación y autocorrelación parcial estimadas (ACF y ACFP respectivamente). Para ello se elige
Analizar/Series temporales/Autocorrelaciones. En el botón Opciones se escribe 36, número máximo de
retardos para representar a la función de autocorrelación ACF con un tramo significativo.

17
•  Se observa que las funciones de
autocorrelación (ACF) y
autocorrelación parcial (ACFP)
estimadas también validan los
periodos estacionales porque los
coeficientes de la ACF para retardos
múltiplos del período estacional de la
serie son significativamente distintos
de cero.

•   Además, para una cantidad grande
de retardos la ACF se configura en
forma de abanico que completa su
ciclo girando sobre el eje de abscisas
para una cantidad de retardos igual
al período estacional. Por otro lado,
la ACFP presenta estructura de
coeficientes significativos para
retardos periódicos largos. La ACF y
ACFP  deben considerarse a la vez,
puesto que a veces intercambian sus
papeles en el comportamiento
estacional.

•    Los coeficientes de la ACF no
decaen rápidamente, indicando falta
de estacionariedad en media.

Para certificar la falta de estacionariedad en varianza se recurre a Analizar/Informes/Informes
estadísticos en columnas

18
Años Media Varianza
1993 1,23 0,01
1994 1,24 0,02
1995 1,29 0,02
1996 1,33 0,01
1997 1,39 0,01
1998 1,43 0,01 Se obtiene una sucesión de medias y varianzas por años
1999 1,31 0,01 con variaciones significativas crecientes y decrecientes a lo
2000 1,19 0,01 largo de los años, indicando que no hay estacionariedad ni
2001 1,31 0 en media ni en varianza en la serie original.
2002 1,3 0,01
2003 1,19 0,01 Para atenuar la falta de estacionariedad en media y en
2004 1,24 0,01 varianza se toman logaritmos y se diferencia la serie
2005 1,21 0,01 original.
2006 1,26 0,01
2007 1,29 0,01
2008 1,28 0,02
2009 1,25 0,02
2010 1,25 0,02
2011 1,1 0,01

Para ello, Analizar/Series temporales/Autocorrelaciones

19
Aplicando logaritmos, como la serie es estacional, el problema consiste en identificar si se diferencia la
parte regular o la parte estacional de la serie. Para ello se representan las funciones de autocorrelación
estimada y autocorrelación parcial estimada bajo los supuestos de diferenciación en la parte regular  o
en la parte estacional (Diferenciar ciclo: 1).

20
DIFERENCIACIÓN PARTE REGULAR

Al diferenciar solo la parte regular, las funciones de autocorrelación (ACF) y autocorrelación parcial
estimadas (ACFP) no superan el problema de la falta de estacionariedad, pues la ACF no decae
rápidamente.

21
Al diferenciar solo una vez la parte estacional, las funciones de autocorrelación (ACF)) y autocorrelación
parcial estimadas (ACFP) superan el problema de la no estacionariedad.

PARTE ESTACIONAL

22
Las dos funciones (ACF, ACFP) cumplen las condiciones para que exista estacionalidad, dado que los
coeficientes de las ACF para retardos múltiplos del período estacional (12, 24, 36) de la serie son
significativamente distintos de cero.

Además, para una cantidad de retardos igual al periodo estacional, la ACF se configura en forma de
abanico que completa su ciclo girando sobre el eje de abscisas.

El problema de estacionalidad y estacionariedad en media y en varianza se resuelve tomando logaritmos,
diferenciando una vez la parte estacional y no diferenciando la parte regular.
En consecuencia, la parte regular de la serie en logaritmos es integrada de orden cero I(0) y la parte
estacional es integrada de orden uno I(1).

Para identificar la parte autorregresiva AR  y  la parte de medias móviles  MA se utiliza la ACF y ACFP con
lo que se ha obtenido la estacionariedad y la estacionalidad.
Observando estas dos funciones se distingue como sus coeficientes no se anulan bruscamente con
periodicidades y que sus estructuras se ajustan a un modelo ARMA(1,1)(0,1)12

ƒ La parte AR(1) de la parte regular proviene del decrecimiento rápido inicial y las ondas sinusoidales
de la ACF añadido a que la ACFP presenta solo un coeficiente significativo en la mayoría de los
periodos (salvo en el primero), anulándose bruscamente el resto de los coeficientes.

ƒ La parte MA(1) de la parte regular proviene de que la ACF presenta un solo retardo significativo  en
la mayoría de los periodos (salvo en el primero).

La única duda posible sería considerar también AR(1) la parte estacional.

Identificada la serie inicial como un modelo ARIMA(1,0,1)(0,1,1)12 queda realizado el trabajo más
importante en la modelización de la serie temporal mediante la metodología de Box‐Jenkins.
.
Para estimar el modelo se ejecuta: Analizar/Series temporales/ARIMA

23
Desactivar <Incluir constante
en el modelo>  si no se desea
Incluir constante.

Se elige Guardar para crear nuevas
variables que contengan valores
pronosticados (FIT_1), residuos
(ERR_1), intervalos de confianza
(LCL_1 , UCL_1) , errores estándar
para las predicciones (SEP_1). Todas
las variables se añaden al Editor de
datos como nuevas columnas.

En Opciones se seleccionan los criterios de
convergencia, establecer valores iniciales
para el modelo y elegir cómo mostrar los
parámetros en los resultados.

24
Al pulsar Aceptar se obtiene el ajuste a un modelo de Box‐Jenkins ARIMA(1,0,1)(0,1,1)12:

25
⎛ AR1 MA1 SMA1 ⎞ ⎛ AR1 MA1 SMA1 ⎞
⎜ ⎟ ⎜ ⎟
⎜ AR1 0 ,02 0,02 0 ⎟ ⎜ AR1 1 0 ,693 0,118 ⎟
Matriz covarianzas: ⎜ Matriz correlaciones: ⎜
MA1 0,02 0,07 0 ⎟ MA1 0,693 1 − 0,09 ⎟
⎜ ⎟ ⎜ ⎟
⎜ SMA1 0 0 0,05 ⎟⎠ ⎜ SMA1 0,118 − 0,09 1 ⎟⎠
⎝ ⎝

Excepto la constante, el resto de los parámetros son significativos, lo que conduce a estimar el modelo
sin constante.

26
El nuevo ajuste sin contraste:

El nuevo ajuste es bueno con una significación muy alta de sus parámetros (p‐valor nulos para sus
parámetros).

27
En el Editor de datos:

La variable FIT_1 he generado las predicciones hasta febrero de 2014, la variable ERR_1 ha generado las
estimaciones del término de error del modelo, las variables LCL_1 , UCL_1 han generado limites
inferiores y superiores de los intervalos de confianza al 95% de fiabilidad, la variable SEP_1 contiene los
errores estándar para las predicciones.

Para obtener la representación de la serie original y la serie de predicciones FIT_1 se recurre a
Analizar/Series temporales/Gráfico de secuencia

28
Análogamente, con la instrucción Analizar/Series temporales/Gráfico de secuencia se obtiene la
representación de los errores del modelo estimado, que presenta una estructura aleatoria, hecho
favorable como verificación del diagnóstico de la modelización ARIMA realizada.

29
30
Fichero:  ratios.sav

1993 1994 1995 1996 1997 1998 1999


Enero 1,46 1,46 1,42 1,5 1,44 1,54 1,52
Febrero 1,34 1,33 1,42 1,45 1,41 1,52 1,43
Marzo 1,23 1,26 1,47 1,27 1,4 1,46 1,4
Abril 1,17 1,34 1,23 1,26 1,38 1,44 1,35
Mayo 1,19 1,2 1,2 1,4 1,34 1,5 1,32
Junio 1,09 1 1,17 1,14 1,25 1,28 1,22
Julio 1,17 1,12 1,22 1,34 1,31 1,34 1,27
Agosto 1,12 1,14 1,11 1,19 1,26 1,33 1,18
Septiembre 1,25 1,16 1,14 1,33 1,43 1,43 1,31
Octubre 1,19 1,17 1,19 1,35 1,41 1,35 1,23
Noviembre 1,23 1,22 1,48 1,3 1,47 1,47 1,25
Diciembre 1,29 1,42 1,48 1,47 1,6 1,54 1,29

2000 2001 2002 2003 2004 2005 2006


Enero 1,23 1,37 1,45 1,14 1,2 1,27 1,21
Febrero 1,16 1,36 1,37 1,15 1,26 1,26 1,32
Marzo 1,15 1,24 1,45 1,2 1,32 1,3 1,23
Abril 1,18 1,35 1,4 1,26 1,21 1,21 1,3
Mayo 1,12 1,34 1,28 1,14 1,2 1,18 1,25
Junio 1,07 1,15 1,13 1,1 1,08 1,07 1,08
Julio 1,11 1,32 1,21 1,17 1,12 1,13 1,18
Agosto 1,11 1,26 1,13 1,13 1,24 1,12 1,18
Septiembre 1,25 1,35 1,36 1,36 1,4 1,36 1,55
Octubre 1,24 1,34 1,24 1,13 1,3 1,2 1,33
Noviembre 1,23 1,28 1,17 1,21 1,25 1,2 1,21
Diciembre 1,36 1,36 1,36 1,29 1,36 1,26 1,34

2007 2008 2009 2010 2011


Enero 1,39 1,34 1,23 1,22 1,02
Febrero 1,34 1,35 1,29 1,28 1,18
Marzo 1,25 1,38 1,28 1,34
Abril 1,31 1,3 1,29 1,02
Mayo 1,28 1,23 1,15 1,18
Junio 1,06 1,02 1,03 1,04
Julio 1,22 1,21 1,16 1,18
Agosto 1,16 1,13 1,12 1,22
Septiembre 1,49 1,56 1,53 1,55
Octubre 1,31 1,28 1,24 1,37
Noviembre 1,28 1,22 1,25 1,26
Diciembre 1,34 1,33 1,37 1,34

31
EJERCICIO 2.‐  El archivo trafico‐ariama.sav muestra los datos relativos al tráfico mensual en el puente
Golden Gate de enero de 1980 a diciembre de 1993.

La fase de identificación comienza realizando una representación gráfica de la variable [Analizar/Series
temporales/Gráficos de secuencia] con objeto de observar la estacionalidad.

32
Para observar mejor la estacionalidad, se representa el PERIODOGRAMA por frecuencia de la serie
mediante [Analizar/Series temporales/Análisis espectral].

El pico señalado corresponde a la frecuencia 0,08, es decir, la estación es 1/0,08 = 12 meses.

33
La estacionalidad, así como la estacionariedad, pueden detectarse también mediante las funciones de
autocorrelación y autocorrelación parcial estimadas (ACF y ACFP respectivamente). Para ello se elige
Analizar/Series temporales/Autocorrelaciones. En el botón Opciones se escribe 36, número máximo de
retardos para representar a la función de autocorrelación ACF con un tramo significativo.

ƒ Se observa que las funciones de autocorrelación (ACF) y autocorrelación parcial (ACFP) estimadas
también validan los periodos estacionales porque los coeficientes de la ACF para retardos múltiplos
del período estacional de la serie son significativamente distintos de cero.

ƒ Además, para una cantidad grande de retardos la ACF se configura en forma de abanico que
completa su ciclo girando sobre el eje de abscisas para una cantidad de retardos igual al período

34
estacional. Por otro lado, la ACFP presenta estructura de coeficientes significativos para retardos
periódicos largos. La ACF y ACFP  deben considerarse a la vez, puesto que a veces intercambian sus
papeles en el comportamiento estacional.

ƒ Los coeficientes de la ACF no decaen rápidamente, indicando falta de estacionariedad en media.
Para certificar la falta de estacionariedad en varianza se recurre a Analizar/Informes/Informes
estadísticos en columnas

Con la finalidad de calcular varianzas por estaciones (años), obteniendo variaciones significativas
crecientes y decrecientes a lo largo de los años, lo que indica que no hay estacionariedad ni en media ni
en varianza en la serie original.

Con el objetivo de atenuar la falta de estacionariedad en media y en varianza se toman logaritmos y se
diferencia la serie original. Para ello, Analizar/Series temporales/Autocorrelaciones

35
Aplicados los logaritmos, como la serie es estacional, el problema es identificar si se diferencia la parte
regular de la serie o en la parte estacional. Bajo los supuestos de diferenciación en la parte regular o en
la parte estacional (Diferenciar ciclo: 1).

DIFERENCIACIÓN PARTE REGULAR

Al diferenciar solo la parte regular, las funciones de autocorrelación (ACF) y autocorrelación parcial
estimadas (ACFP) no superan el problema de la falta de estacionariedad, pues la ACF no decae
rápidamente.

36
Al diferenciar solo una vez la parte estacional, , las funciones de autocorrelación (ACF) y autocorrelación
parcial estimadas (ACFP) no superan el problema de la falta de estacionariedad, pues la ACF no decae
rápidamente.

DIFERENCIANDO PARTE ESTACIONAL

37
Dado que no se cumplen las
condiciones de estacionariedad en
media, se aplican logaritmos
diferenciando una vez la parte
estacional y la parte regular.

En Opciones se indica que el
número máximo de retardos es
36.

38
DIFERENCIANDO PARTE REGULAR Y PARTE  ESTACIONAL

Se observa que la ACF no presenta claramente retardos significativos a lo largo de los períodos y la ACFP
presenta como mucho un retardo significativo a lo largo de la ACF y ambas funciones tienen estructura
sinusoidal, lo que conduce a pensar en una estructura ARIMA(1,1,0) para la parte regular y la misma
estructura para la para la parte estacional. La estructura final para la serie será
ARIMA(1, 1, 0)(1, 1, 0) 12

El problema de la estacionalidad y la estacionariedad en media y en varianza se resuelve aplicando
logaritmos, diferenciando una vez la parte estacional y  la parte regular. Con lo cual, la parte regular de la
serie en logaritmos es integrada de orden uno I(1) y la parte estacional es integrada de orden uno I(1).

El orden de la parte autorregresiva AR  y la parte de medias móviles MA  se realiza observando que los
coeficientes de las últimas ACF y ACFP no se anulan bruscamente con periodicidades y que sus
estructuras se ajustan claramente a un modelo ARMA(1,0)(1,0)12.

La parte MA(0) de la parte regular proviene de que la ACF no presenta un solo retardo significativo,
mientras que la parte AR(1) de la ACF proviene de las ondas sinusoidales.

39
Para estimar el modelo se ejecuta: Analizar/Series temporales/ARIMA

40
Se elige Guardar para crear nuevas variables que contengan valores pronosticados (FIT_1), residuos
(ERR_1) , intervalos de confianza (LCL_1 , UCL_1) , errores estándar para las predicciones (SEP_1). Todas
las variables se añaden al Editor de datos como nuevas columnas:

Se obtiene el ajuste a un modelo de Box‐Jenkins ARIMA(1,1,0):

41
⎛ AR1 SAR1 ⎞ ⎛ AR1 SAR1 ⎞
⎜ ⎟ ⎜ ⎟
Matriz covarianzas: ⎜ AR1 0,06 0 ⎟ Matriz correlaciones: ⎜ AR1 1 0,02 ⎟
⎜ SAR1 0 0,05 ⎟⎠ ⎜ SAR1 0,02 1 ⎟⎠
⎝ ⎝

El ajuste ha resultado muy bueno con una significatividad del parámetro MA altísima (p‐valor nulo), el
diagnóstico del modelo es correcto.

Analizar/Series temporales/Gráfico de secuencia para obtener la representación de la serie original  Xt y
la serie de las predicciones FIT_1

42
Análogamente, con la instrucción Analizar/Series temporales/Gráfico de secuencia se obtiene la
representación de los errores del modelo estimado, que presenta una estructura aleatoria, hecho
favorable como verificación del diagnóstico de la modelización ARIMA realizada.

43
DATOS (en miles) trafico‐ariama.sav

1980 1981 1982 1983 1984 1985 1986


 Enero 73637 75225 79245 85169 86141 84883 81714
 Febrero 77136 79418 85536 87973 89156 89476 81222
 Marzo 81481 84813 89313 88696 93795 93191 74295
 Abril 84127 85691 88785 92686 93422 96919 87121
 Mayo 84562 87490 91307 91807 94277 95869 89099
 Junio 91959 92995 96394 98593 99927 100272 93743
 Julio 94174 95375 99864 100677 102451 102103 96741
 Agosto 96087 98396 100744 103084 105003 104381 99366
 Septiembre 88952 92791 96009 97644 98477 97779 95184
 Octubre 83479 88018 89428 92648 93219 94369 90407
 Noviembre 80814 86899 85518 89486 90413 88432 88968
 Diciembre 77466 83636 84603 88593 87763 84314 86765

1987 1988 1989 1990 1991 1992 1993


 Enero 83674 87656 89609 88047 92926 87958 90707
 Febrero 84265 87534 92934 92172 96196 89159 94949
 Marzo 88551 92763 95272 98050 99117 94853 94970
 Abril 89998 97427 96791 97874 97932 95799 100286
 Mayo 93421 99845 96478 101700 89270 98193 101497
 Junio 98109 103349 101938 105794 98836 103468 106352
 Julio 100235 102438 105094 108016 102335 104989 107415
 Agosto 102866 104467 108158 111475 106912 108179 109385
 Septiembre 96903 99744 101625 104945 102047 103084 103266
 Octubre 92426 96101 97255 100496 97428 99781 99432
 Noviembre 91024 93858 95378 97555 95025 96403 93965
 Diciembre 91072 93265 92997 95556 91530 95072 94385

44
Ejercicio 3.‐  El archivo farma.sav recoge cien datos relativos a la demanda mensual de contenedores de
plástico que utilizan las compañías farmacéuticas desde enero de 2002.
El objetivo es predecir el número  de contenedores que serán demandados en los próximos diez
primeros meses con vistas a la producción.

ƒ  Utilizando la metodología de Box‐Jenkins

La fase de identificación comienza realizando una representación gráfica de la variable [Analizar/Series
temporales/Gráficos de secuencia] con objeto de observar la estacionalidad.

45
La estructura de la serie temporal es no estacional.
Para observar mejor la estacionalidad, se representa el PERIODOGRAMA por frecuencia de la serie
mediante [Analizar/Series temporales/Análisis espectral].

Tiene puntos máximos para valores de la frecuencia muy pequeños, cuyos inversos producen unos
posibles períodos estacionales más elevados incluso que la longitud de la serie. Circunstancia que
indica que no hay estacionalidad, hecho que se extraía de la representación gráfica anterior.

La estacionalidad, así como la estacionariedad, pueden detectarse también mediante las funciones de
autocorrelación y autocorrelación parcial estimadas (ACF y ACFP respectivamente).

Para ello se elige Analizar/Series temporales/Autocorrelaciones. En el botón Opciones se deja 16, valor
por defecto para representar la función de autocorrelación ACF con un tramo significativo.

46
Se observa que los coeficientes de la función de autocorrelación ACF no decaen rápidamente, indicando
falta de estacionariedad en media. En consecuencia, se diferencia la serie original.

47
ƒ Los retardos de la función de autocorrelación ACF decaen tan rápidamente que sólo el primero es
significativo, con lo que no existen problemas de estacionariedad en la serie diferenciada. En
concreto, la serie diferenciada es I(0) y la serie original es I(1).

ƒ Respecto a la identificación de la parte de la media móvil de la serie, solo el primer retardo de la ACF
es significativo y el decrecimiento de los retardos de la ACFP es muy rápido. En consecuencia, la parte
de media móvil se modeliza como un proceso MA(1).

ƒ Para la identificación de la parte autorregresiva se observa que aunque hay tres retardos de la ACF
estimada ninguno de ellos es claramente significativo,  decreciendo rápido los coeficientes
significativos de la ACF. La parte autorregresiva se modeliza como un proceso AR(0).

ƒ Considerando las dos funciones de autocorrelación en conjunto, se observa que sus retardos no se
anulan demasiado bruscamente.  Por tanto, es una estructura ARMA(0, 1) para la serie diferenciada,
concluyendo que la serie original se ajusta a un modelo ARIMA(0, 1, 1).

48
 Para estimar el modelo ARIMA(0,1, 1) se ejecuta el procedimiento ARIMA (Modelo Autorregresivo
Integrado de Media Móvil) mediante la instrucción Analizar/Series temporales/ARIMA

Para estimar el modelo se ejecuta: Analizar/Series temporales/ARIMA

En el campo Pronosticar hasta se
incluyen 110 observaciones como
se deseaba.

Se elige Guardar para crear nuevas variables que contengan valores pronosticados (FIT_1), residuos
(ERR_1), intervalos de confianza (LCL_1 , UCL_1) , errores estándar para las predicciones (SEP_1). Todas
las variables se añaden al Editor de datos como nuevas columnas.

Al pulsar Aceptar se obtiene el ajuste a un modelo de Box‐Jenkins ARIMA(0,1,1):

49
El parámetro MA tiene una significación muy alta (p‐valor asociado aproximadamente de cero), en
consecuencia la diagnosis del modelo es correcto.

La ecuación del modelo ARIMA(0, 1, 1) estimada será:

                                       (1 − B) Yt = (1 + 0,727) a t ⇒ Yt − Yt−1 = a t + 0,727 B a t−1

50
En el Editor de datos:

La variable FIT_1 he generado las predicciones hasta febrero de 2011.
La variable ERR_1 ha generado las estimaciones del término de error del modelo, las variables LCL_1 ,
UCL_1 han generado limites inferiores y superiores de los intervalos de confianza al 95% de fiabilidad, la
variable SEP_1 contiene los errores estándar para las predicciones.

Para obtener la representación de la serie original y la serie de predicciones FIT_1 se recurre a
Analizar/Series temporales/Gráfico de secuencia

51
Análogamente, con la instrucción Analizar/Series temporales/Gráfico de secuencia se obtiene la
representación de los errores del modelo estimado, que presenta una estructura aleatoria, hecho
favorable como verificación del diagnóstico de la modelización ARIMA realizada.

52
Fichero: farma.sav

2002 2003 2004 2005 2006 2007


 Enero 5000 5039 5550 7367 5818 5572
 Febrero 4965 5054 5657 6934 5982 5744
 Marzo 4496 4940 6010 6506 6132 6005
 Abril 4491 4913 6109 6374 6111 6239
 Mayo 4566 4871 6052 6066 5948 6523
 Junio 4585 4901 6391 6102 6056 6652
 Julio 4724 4864 6798 6204 6342 6585
 Agosto 4951 4750 6740 6138 6626 6622
 Septiembre 4917 4856 6778 5938 6591 6754
 Octubre 4888 4959 7005 5781 6302 6712
 Noviembre 5087 5004 7045 5813 6132 6675
 Diciembre 5082 5415 7279 5811 5837 6882

2008 2009 2010


 Enero 7011 6954 5627
 Febrero 7140 6551 5679
 Marzo 7197 6022 5455
 Abril 7411 5974 5443
 Mayo 7233 6052
 Junio 6958 6033
 Julio 6960 6030
 Agosto 6927 5944
 Septiembre 6814 5543
 Octubre 6757 5416
 Noviembre 6765 5571
 Diciembre 6870 5571

53

También podría gustarte