9caso Práctico #1

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 14

SERIES DE TIEMPO

CASO PRÁCTICO
A-81 8 ACTUARÍA

Dr. EDUARDO ROSAS


Manuel Eduardo Martínez Palma 1927926

Pronóstico de las Remesas Familiares de México. Modelos ARIMA y


Alisado Exponencial.
Resumen

Pronosticar el valor futuro de una serie de tiempo econó mica-financiera es una de las cuestiones
má s importantes en el campo de los negocios y en la investigació n. En añ os recientes, el
desarrollo de software estadístico ha permitido implementar de manera sencilla, rápida y
eficaz la programación de metodologías complejas y laboriosas para la construcción de
pronósticos precisos. Entre los métodos má s populares se encuentra: la Metodología Box-
Jenkins (Modelos ARIMA), y los Modelos de Alisado Exponencial. A continuació n, se presenta
la secuencia que rige cada uno de los métodos, para posteriormente desarrollar sus
correspondientes etapas con el objetivo de identificar cuá l de los métodos proporciona un
pronó stico de mayor precisió n para las Remesas de México.

INTRODUCCIÓN

Para que la proyecció n de los datos sea ó ptima, se debe determinar el proceso estocá stico
adecuado para que el modelo capture apropiadamente el comportamiento de la variable. Las
metodologías má s populares para desarrollar pronó sticos de series temporales se basan en el
alisado exponencial y en los modelos ARIMA.

En las ú ltimas décadas se ha desarrollado una basta propuesta de softwares estadísticos que
buscan facilitar la elaboració n de pronó sticos. La disponibilidad de datos en la actualidad junto
con computadoras cada vez má s potentes, han guiado a las grandes compañ ías e instituciones
tanto publicas como privadas en el desarrollo de algoritmos que sean capaces de identificar,
estimar, diagnosticar y generar proyecciones cada vez más precisas. Se presenta la
aplicació n empírica para las Remesas de México para el periodo de enero de 1995 a febrero
de 2017, con lo cuá l se busca prospectar los pró ximos 6 meses del añ o.

METODOLOGÍA: Modelos ARIMA y Alisado Exponencial


Box y Jenkins (1970) propusieron un enfoque coherente y versá til que identifica el ciclo iterativo
de tres etapas: identificació n, estimació n y comprobació n del diagnó stico. Cuando se combina un
proceso de medias mó viles con una ecuació n en diferencias lineal para obtener un modelo
autorregresivo y de medias mó viles (ARMA). Se obtiene lo siguiente:

1
(1)

Si las raíces características de la ecuació n (1) se encuentran todas dentro del circulo unitario,
se conoce como modelo ARMA para . En un modelo ARMA es perfectamente permisible que p
y/o q sean infinitos. Si una o má s de las raíces características de (1) es mayor o igual que la
unidad, la secuencia se conoce como proceso integrado, y en este caso, el modelo es llamado
Autorregresivo integrado de medias mó viles (ARIMA) (Enders, 2015:50). Este tipo de proceso
también se conoce como “no estacionarios”. Y debe aplicarse alguna transformación
algebraica que los convierta en estacionarios 1. Los procesos ARIMA son una clase muy rica de
posibles modelos, y es usualmente plausible encontrar un proceso que proporcione una
descripció n adecuada de los datos (Hyndman, 2008).

La metodología ARIMA involucra un proceso iterativo que se basa en dos grandes principios: El
principio de parsimonia, que consiste en elegir siempre el modelo má s sencillo que sea
suficientemente representativo de los datos. Y el principio del mejoramiento iterativo, que
consiste en partir de un modelo sencillo y factible, al cual se hará n mejoramientos sucesivos,
hasta llegar a un modelo satisfactorio.

La metodología ARIMA consiste en las siguientes etapas:

i) Análisis de Estacionariedad y Estacionalidad. Se debe verificar que la serie sea


estacionaria e intentar eliminar la variació n estacional, si es el caso.
ii) Identificación del Modelo Tentativo. Se utilizan los correlogramas simple y parcial,
con lo que se busca determinar un patró n de las diferentes autocorrelaciones. De igual
forma se utiliza el correlograma para evaluar si existe algú n tipo de variació n
estacional, no eliminada por las diferencias estacionales.
iii) Estimación de Parámetros del Modelo. Para cada modelo tentativo se deberá n
estimar los pará metros. Esto se puede realizar mediante el método de mínimos
cuadrados ordinarios, la ecuació n de Yule-Walker o el método de má xima
verosimilitud.
iv) Verificación del Modelo. Se deben calcular los estadísticos clá sicos para medir el
ajuste de los datos utilizando medidas de error y/o criterios de informació n (AIC o
BIC), la significancia estadística de los coeficientes estimados, pruebas de raíz unitaria
sobre los residuos del modelo, también se debe verificar que no exista autocorrelació n.
v) Pronóstico. Los pronó sticos será n construidos utilizando el método de iteració n
adelantada. Es importante señ alar que la calidad del pronó stico declina a medida que
éste se prolonga.

1
Se dice que una serie de tiempo es estacionaria en sentido amplio o débil , si y só lo sí satisface tres condiciones:
 Su media es constante en el tiempo. .
 La varianza es conastante en el tiempo. .
 La funció n de autocorrelació n es independiente del tiempo. Esta mide la posible dependencia entre un valor
observado y otro que está separado por un intervalo de longitud .

2
vi) Validación del pronóstico. Se debe efectuar una prueba Diebold-Mariano 2 (1995), en
esta prueba se busca una funció n objetivo que no sea cuadrá tica.

Modelos de Alisado Exponencial

La metodología de Alisado Exponencial comenzó en la década de 1950, son procedimientos para


ajustar una curva apropiada a datos históricos de una determinada serie de tiempo.
Existen diversos tipos, como el suavizado exponencial simple, el método lineal de Holt y el
método de Holt-Winters, así como sus variaciones (Gujarati, 2011:774). Hasta hace
relativamente poco tiempo aun no se desarrollaba un procedimiento que incorporara una
estructura de modelació n. Los métodos de suavizado exponencial se clasifican, de acuerdo con la
taxonomía de Taylor (2003), en un total de 15 métodos:
Tabla 1. Métodos de Alisado Exponencial
Componente Estacional
Componente de Tendencia N (Ninguna) A (Aditivo) M (Multiplicativo)
N (Ninguna) (N,N) (N,A) (N,M)
A (Aditivo) (A,N) (A,A) (A,M)
Ad (Aditivo amortiguado) (Ad,N) (Ad,A) (Ad,M)
M (Multiplicativo) (M,N) (M,A) (M,M)
Md (Multiplicativo amortiguado) (Md,N) (Md,A) (Md,M)
Fuente: Hyndman (2008)
Algunos de estos métodos son mejor conocidos bajo otros nombres. Por ejemplo, el modelo
correspondiente a la celda (N,N) describe el método de alisado exponencial simple, la celda
(Ad, N) describe el método de tendencia amortiguada, la celda (A,A) corresponde al método
aditivo de Holt-Winters aditivo, mientras que la celda (A,M) representa el método de Holt-
Winters multiplicativo.

Para cada método de Alisado Exponencial Hyndman et al, (2008) se describen dos posibles
modelos de innovaciones de estado espacial, uno correspondiente a modelos con errores aditivos
y otro para errores multiplicativos 3. Una vez que el modelo es especificado, se puede estudiar su
funció n de distribució n de probabilidad de los valores futuros de la serie, y encontrar la media
condicional de una observació n futura, dado el conocimiento de su pasado. La metodología que se
utiliza para estimar los pronó sticos de cada modelo tentativo es máxima verosimilitud. La
medida de ajuste del pronó stico que se utiliza comú nmente es la media de los errores
cuadráticos (MSE, por sus siglas en inglés) o alguna otra medida de error4.

El procedimiento que usualmente se sigue para el calculo de los pronó sticos mediante la
metodología de Alisado Exponencial comprende los siguientes pasos:

2
La hipótesis nula es que los dos métodos tienen la misma precisión en el pronóstico, mientras que la hipótesis alternativa
es que el método 2 es más preciso que el método 1. (En R-Project: alternative=”greater”).
3
Los modelos de error multiplicativo son útiles cuando los datos son estrictamente positivos, pero no son numéricamente
estables, cuando los datos contienen ceros o valores negativos.
4
También se pueden utilizar las siguientes medidas: ME= (Mean Error) Error Medio; RMSE= (Root Mean Squared Error)
Raíz Cuadrada del Error Cuadrático medio; MAE=(Mean Absolute Error) Error Absoluto Medio; MPE= (Mean Percentage
Error) Error Medio Porcentual; MAPE=(Mean Absolute Percentage Error) Error Absoluto Medio Porcentual.

3
i) Para cada serie de tiempo, aplicar todos los modelos que sean apropiados,
optimizando los pará metros (nivel, crecimiento y estacionalidad) del modelo en
cada caso.
ii) Seleccionar el mejor modelo de acuerdo con las medidas de error o con base en el
logaritmo de verosimilitud, utilizar los criterios de información de Akaike y de
Schwarz5 (AIC y BIC, respectivamente) y posteriormente estimar sus pará metros.
iii) Construir el pronóstico puntual utilizando para ello el mejor modelo (con
parámetros óptimos).
iv) Obtener los intervalos del pronóstico para el mejor modelo, utilizando para ello el
pronó stico puntual como centro.

A continuació n, se desarrollan las dos metodologías previamente explicadas para identificar,


estimar, verificar y pronosticar el modelo adecuado para las remesas en nuestro país. Su
importancia radica en que han mantenido un crecimiento sostenido y que en varios periodos
han sobrepasado los niveles de la Inversión Extranjera, con lo que han ganado terreno en
el diseño de las políticas gubernamentales.

Gráfica 1. Remesas de México (Enero de 1995 a Diciembre de 2017)

Fuente: Elaboració n propia con R 3.3.3

Se observa en la grá fica 1 que la entrada de divisas por concepto de Remesas ha crecido de
manera sostenida, no obstante, se identifican periodos en los que el crecimiento ha sido má s
vigoroso, otros en los que ha sido moderado y otros má s en los que se ha mantenido estable.

Resultados y Discusión

Donde n=número de parámetros estimados (p + q + termino constante) y T=número de observaciones utilizadas.

4
A continuació n, se analiza si la serie de tiempo de las Remesas presenta un comportamiento
estacional, para ello se filtra en sus componentes: estacionalidad, tendencia y ruido. De la grá fica
2 se identifica un comportamiento claramente estacional, ademá s de la existencia de una
tendencia bien definida.

Gráfica 2. Descomposición de la Serie de Tiempo de las Remesas.

Fuente: Elaboració n propia con R 3.3.3


Dada la presencia de una raíz unitaria, se procede a transformar algebraicamente la serie de
tiempo, para ello se aplican diferencias logarítmicas. Posteriormente se grafica su
correlograma simple y parcial, y queda de manifiesto que existe un comportamiento
estacional, el cual debe ser incluido en el modelo (Grá fica 3). Respecto a la prueba de raíz
unitaria, se desarrolla una prueba Dickey-Fuller Aumentada (DFA) con sus respectivas
condicionantes, los estadísticos Tau revelan que la variable a nivel (sin aplicar transformaciones
algebraicas) es no estacionaria, mientras que, cuando es transformada claramente se comprueba
que es estacionaria. Lo anterior establece que se podrían utilizar tanto la metodología de Alisado
Exponencial como la metodología de modelos ARIMA.
Gráfica 3. Diferencia logarítmica de las Remesas.

Fuente: Elaboració n propia con R 3.3.3

Se procede a utilizar la librería “forecast” que cuenta con las funció n “auto.arima” y “ets”. La
primera permite definir los pará metros considerando diferentes criterios de informació n
como son AIC o BIC. La funció n indica que se trata de un modelo SARIMA(2,0,0)x(2,0,0)12. Lo
anterior corrobora lo establecido en la primera etapa, respecto a la fuerte presencia del

5
componente estacional. Por su parte, la segunda indica que pará metros para el componente de
error , tendencia y estacional que debe ser calibrado corresponde a un modelo
ETS(M,A,M), es decir, a un modelo Holt-Winters con errores multiplicativos.

Se debe hacer notar que los criterios de informació n de AIC y BIC se utilizarían en caso de querer
comparar con otros modelos ARIMA o de Alisado exponencial. También es importante señ alar
que el modelo no presenta un coeficiente de intersecció n, esto se debe a que al incluir dicho
coeficiente resulta no estadísticamente significativo. En la siguiente etapa se procede a
diagnosticar los residuos del modelo seleccionado y sus funciones de autocorrelació n
correspondientes para garantizar que se trata de un proceso estacionario. Lo anterior también se
puede constatar con la prueba de raíz unitaria de Dickey y Fuller Aumentada (Tabla 5), estos
estadísticos “tau” indica que los residuos del modelo ó ptimo, tanto para la metodología ARIMA
como para la metodología de alisado exponencial, se distribuyen de forma estacionaria, es decir,
no presentan raíz unitaria.

Tabla 5. Prueba DFA para perturbaciones del Modelo (1) y (2)

(Modelo1)

(Modelo 2)

6
Fuente: Elaboració n propia con R 3.3.3

Una vez verificados todos los criterios del diagnostico es posible calibrar el pronó stico de los
valores de la secuencia que seguirá n las Remesas de México en lo que resta de este añ o (10
meses). Para esto se construye un pronó stico puntual utilizando ambas metodologías, mediante
la técnica de iteració n adelantada.

Figura 5. Pronóstico a 6 meses SARIMA


Figura 6. Pronóstico a 6 meses ETS

Fuente: Elaboració n propia con R-Project


Fuente: Elaboració n propia con R-Project.

La capacidad de predicció n de un modelo seleccionado es crucial no solo por la calidad en el


pronó stico sino para la correcta aplicació n de políticas basadas en el mismo. Una forma de
corroborar cuál de los modelos seleccionados posee el mejor desempeño para pronosticar

7
es la prueba Diebold-Mariano6 (DM) (1995), que ofrece una herramienta de evaluación
cuantitativa de la exactitud del pronó stico para las Remesas de México.
Tabla 5. Prueba Diebold-Mariano
Prueba DM basada en Prueba DM basada en
Modelo (1) y Modelo Modelo (2) y Modelo
(2) (1)
Estadístico D-M -0.54762 0.54762
p-values 0.7078 0.2922
Nota: La prueba estadística se basa en los Errores Absolutos Cuadrá ticos. Fuente: Elaboració n propia con el
programa R 3.3.3

La prueba DM para la comparación de los modelos (1) y (2) establece que la hipótesis nula
al nivel de significancia del 5% no puede ser rechaza, lo cual demuestra que las diferencias
observadas entre los pronó sticos desarrollados no son significativas, evidenciando que la
precisión de ambos pronósticos es similar. A continuació n, se presenta el pronó stico puntual
de los restantes 6 meses de 2018.
Tabla 6. Pronóstico Remesas de México (Millones de Dólares)
Mes/Año Modelo (1) Modelo (2) Valores Reales
Enero de 2018 2565.294 2430.523 2267.615
Febrero de 2018 2544.222 2488.608 2244.425
Marzo de 2018 2880.168 2900.646 2674.849
Abril de 2018 2767.374 2881.786 2760.945
Mayo de 2018 3034.828 3257.526 3155.947
Junio de 2018 2894.036 3050.734 3140.693

Fuente: Elaboració n propia con el programa R 3.3.3

De acuerdo con los resultados pronosticados por el modelo de Alisamiento Exponencial las
Remesas de nuestro país alcanzará n un nuevo tope histó rico en mayo de 2018, cifrado para el
modelo ARIMA en 3,034.828 millones de dó lares, mientras que para el modelo ETS de 3,257.526.
Los motivos prevenció n ante las posibles restricciones al envío de remesas a México, junto a una
política de apreciació n cambiaria son variables clave para el impulso de una cantidad adicional
de dinero a nuestro país. A pesar del panorama complicado que se advierte para los migrantes, a
raíz de las medidas proteccionistas anunciadas por Donald Trump, presidente de Estado Unidos,
el incremento de las remesas a México se verá impulsado por el dinamismo observado en la
economía estadounidense y la baja tasa de desempleo registrado en los meses recientes.

Conclusiones

La metodología ARIMA es una de las técnicas má s versá tiles en el pronó stico de series de tiempo
estacionales de modelos lineales. La variedad de modelos ARIMA es amplia, y puede representar
diferentes tipos de series de tiempo estocá sticas estacionales y no estacionales. A través de un
proceso iterativo se puede identificar el modelo tentativo, posteriormente estimar sus

6
La hipótesis nula es que los dos métodos tienen la misma precisión en el pronóstico, mientras que la hipótesis alternativa
es que el método 2 es más preciso que el método 1. (En R-Project: Hipótesis alternative=”greater”).

8
pará metros, realizar un diagnostico de verificació n, y finalmente, construir un pronó stico que
pueda ser validado. Por su parte, los métodos de alisado exponencial se han utilizado con éxito
para generar pronó sticos confiables para una amplia gama de series de tiempo desde la década
de 1950. En estos métodos, los pronó sticos se calculan utilizando promedios ponderados en los
que las ponderaciones disminuyen de forma exponencial a medida que las observaciones vienen
del pasado lejano, a medida que las ponderaciones son má s pequeñ os está s se encuentran
asociadas con las observaciones má s antiguas. La representació n má s comú n de estos métodos es
mediante sus componentes de nivel, tendencia y estacionalidad.

Una diferencia fundamental entre estos dos enfoques es que los modelos ARIMA estará n bien
especificados siempre y cuando el proceso sea lineal, y el polinomio característico no tenga raíces
unitarias, lo que implica que el proceso sea estacionario; mientras que los modelos ETS no se
encuentran limitados por la linealidad o la estacionariedad. A pesar de los esfuerzos en la
investigació n, los estudios existentes sobre la construcció n de pronó sticos ó ptimos aún no han
llevado a un consenso sobre la supremacía de un enfoque respecto al otro. Lo que se tiene
son mecanismos (prueba DM) para identificar la precisión de los pronósticos de cada
enfoque. Sin embargo, el desafío para la investigació n futura es establecer una base para elegir
entre estos y otros enfoques para la predicció n ó ptima de series de tiempo. La evidencia empírica
desarrollada demuestra que el modelo ETS proporciona una mayor exactitud en la construcció n
del pronó stico para las Remesas de México.

Referencias
1. Box, G., E., P, & G., M. Jenkins., (1970), Time series analysis: Forecasting and control, San
Francisco: Holden-Day.
2. Diebold, F.X. & R. Mariano (1995). Comparing predictive accuracy. J. Bus. Econ. Stat., 13,
253–265.
3. Enders, W. (2015). Applied Econometric Time Series. New York, NY:Wiley.
4. Gujarati, D., N., & D.C. Porter (2011), Econometria bá sica-5, McGraw Hill, New York.
5. Hyndman R., J, Koehler A., B, Ord JK, Snyder R., D, (2008). Forecasting with
Exponential Smoothing: The State Space Approach. Springer-Verlag.
6. Taylor J,. W, (2003). “Exponential Smoothing with a Damped Multiplicative Trend”
International Journal of Forecasting, 19, 715-725.

9
10
ANEXOS

############## Martínez Palma Manuel Eduardo N°Cuenta: 1927926 ################


#Fecha: 25/04/2023 Grupo: A-81 Semestre: 8° Carrera: Actuaría
#Nombre del Profesor: Dr. Eduardo Rosas Rojas
#Universidad Autónoma del Estado de México Centro Universitario Valle de México

attach(REM)
rem <- ts(REM[,2], start = c(1995,1), end = c(2017,12), frequency = 12)

#------------------------------------------------------------------------------#
# Paso 1 : Análisis de Estacionariedad y Estacionalidad
#------------------------------------------------------------------------------#

plot(rem, col="steelblue")
abline(v = 1999)
abline(v = 2003)
abline(v = 2006)
abline(v = 2009)
abline(v = 2014)

# Descomposición de la serie en sus componentes


plot(stl(rem, s.window = 4, t.window = 12),
main = "Descomposición de la Serie de tiempo de las Remesas")

# Correlograma simple y correlogramas parcial


library(forecast)
tsdisplay(rem, lag.max = 60, main =" Correlograma Remesas")

# Prueba de Raíz Unitaria


library(aTSA)
adf.test(rem)
# Serie no estacionaria, para corregirla se hacer diferencias logaritmicas

lrem <- log(rem)


dlrem <- diff(lrem)
plot(stl(dlrem, s.window = 4, t.window = 12))
tsdisplay(dlrem, lag.max = 60, main =" Correlograma Diff-Log de Remesas")
adf.test(dlrem)

# Los correlogramas nos indican que se trata de una serie con estacionalidad

#------------------------------------------------------------------------------#
# Paso 2: Identificación del proceso ARIMA y del Alisado Exponencial
#------------------------------------------------------------------------------#

# R Cuenta con la función "auto.arima()" "ets()" del paquete "forecast la cual


# seleccionar el modelo optimo para cada metodología

arima_rem <- auto.arima(dlrem, max.p = 12, max.q = 12, max.P = 12, max.Q = 12,
max.d = 1, max.D = 1, start.p = 2, start.q = 2,
start.P = 1, start.Q = 1, stationary = FALSE,
seasonal = TRUE, ic = c("bic"), stepwise = T,

Pá gina 11 de 14
test = c("kpss"), seasonal.test = c("ocsb"))
arima_rem

# Modelo autorregresivo de Orden 2, el otro resultado indica un modelo


# estacional
# El 12 indica datos Mensuales
# Indica que encontró un proceso SARIMA (2,0,0)X(2,0,0)[12]

rem.ets <- ets(rem, model = "ZZZ", damped = NULL, alpha = NULL, beta = NULL,
gamma = NULL, phi = NULL, additive.only = FALSE, lambda = NULL,
biasadj = FALSE ,lower = c(rep(0.0001,3), 0.8),
upper = c(rep(0.9999,3),0.98),
opt.crit = c("lik", "amse", "mse", "sigma","mae"), nmse=3,
bounds = c("both", "usual", "admissible"),
ic = c("aicc", "aic", "bic"), restrict = TRUE,
allow.multiplicative.trend = FALSE, use.initial.values = FALSE)
rem.ets

# El comando "ets" indica que se trata de un modelo ETS(M,A,M)

#------------------------------------------------------------------------------#
# Paso 3: Estimación de los modelos
#------------------------------------------------------------------------------#

model1 <- summary(rem.arima <- Arima(dlrem, order = c(2,0,0),


seasonal = c(2,0,0), include.mean = T,
include.drift = F, include.constant = F,
method = c("ML")))
model1

model2 <- summary(rem.ets <- ets(rem, model = "ZZZ", damped = NULL,


alpha = NULL, beta = NULL, gamma = NULL, phi = NULL,
additive.only = FALSE, lambda = NULL, biasadj = FALSE,
lower = c(rep(0.0001,3), 0.8),
upper = c(rep(0.9999,3),0.98),
opt.crit = c("lik", "amse", "mse", "sigma","mae"), nmse=3,
bounds = c("both", "usual", "admissible"),
ic = c("aicc", "aic", "bic"), restrict = TRUE,
allow.multiplicative.trend = FALSE,
use.initial.values = FALSE))
model2

#------------------------------------------------------------------------------#
# Paso 4: Verificación de los modelos
#------------------------------------------------------------------------------#

# Algoritmo del modelo ARIMA


# Se grafican lso residuos del modelo óptimo, sus correlogramas Simple y Parcial
# Se aplica una prueba de Raíz Unitaria, y otra prueba de No Autocorrelación

u <- arima_rem$residuals
u1 <- rem.ets$residuals

library(forecast)
tsdisplay(u)
tsdisplay(u1)

Pá gina 12 de 14
adf.test(u)
adf.test(u1)

#------------------------------------------------------------------------------#
# Paso 5: Pronóstico
#------------------------------------------------------------------------------#

# ARIMA
# Pronosticamos 6 meses (método recursivo) con intercalos al 95% de confianza.
# Se grafican

# modelo ARIMA

remarimaf6 <- forecast( arima_rem, h = 6, level = c(95))


par(mfrow=c(1,1))
remarimaf6
plot(remarimaf6, ylab = "REMESAS (Diff-Log)", xlab = "Año",
main = "SARIMA (2,0,0)X(2,0,0=[4]", flwd = 1, fcol = "RED")

# modelo ALISADO EXPONENCIAL

# Último valor del logaritmo7.923185685

rem.ets <- ets(rem, model = "ZZZ", damped = NULL,


alpha = NULL, beta = NULL, gamma = NULL, phi = NULL,
additive.only = FALSE, lambda = NULL, biasadj = FALSE,
lower = c(rep(0.0001,3), 0.8),
upper = c(rep(0.9999,3),0.98),
opt.crit = c("lik", "amse", "mse", "sigma","mae"), nmse=3,
bounds = c("both", "usual", "admissible"),
ic = c("aicc", "aic", "bic"), restrict = TRUE,
allow.multiplicative.trend = FALSE,
use.initial.values = FALSE)
remetsf6<- forecast(rem.ets, h=6)
remetsf6
plot(remetsf6, ylab = "REMESAS (MDD)", xlab = "Año", main = "ETS(M,A,M",
flwd = 1)

#------------------------------------------------------------------------------#
# Paso 6: Validación del Pronóstico
#------------------------------------------------------------------------------#

f1 <- arima_rem <- auto.arima(dlrem, max.p = 12, max.q = 12, max.P = 12,
max.Q = 12, max.d = 1, max.D = 1, start.p = 2, start.q = 2,
start.P = 1, start.Q = 1, stationary = FALSE,
seasonal = TRUE, ic = c("bic"), stepwise = T,
test = c("kpss"), seasonal.test = c("ocsb"))
f1p <- forecast(f1, h =6, level <- c(95))

f2 <- rem.ets <- ets(rem, model = "ZZZ", damped = NULL,


alpha = NULL, beta = NULL, gamma = NULL, phi = NULL,
additive.only = FALSE, lambda = NULL, biasadj = FALSE,
lower = c(rep(0.0001,3), 0.8),
upper = c(rep(0.9999,3),0.98),
opt.crit = c("lik", "amse", "mse", "sigma","mae"), nmse=3,

Pá gina 13 de 14
bounds = c("both", "usual", "admissible"),
ic = c("aicc", "aic", "bic"), restrict = TRUE,
allow.multiplicative.trend = FALSE,
use.initial.values = FALSE)

f2p <- forecast(f2, h = 6, level = c(95))

# Con los siguientes comandos, se elige el más pequeño o el más negativo

accuracy(f1p)
accuracy(f2p)

# Prueba Mariano - Dievol

# Ho: Ambos modelos son iguales

# Comprobar si f1p es más eficiente que f2p


dm.test(residuals(f2p), residuals(f1p), h=6,
alternative = c("greater"), power = 2)

# Comprobar si f2p es más eficiente que f1p


dm.test(residuals(f1p), residuals(f2p), h=6,
alternative = c("greater"), power = 2)

# Tanto como el primer y el segundo modelo son buenos

Pá gina 14 de 14

También podría gustarte