0% encontró este documento útil (0 votos)
58 vistas101 páginas

Ucema - Maf-Estadistica: Alberto Landro

El documento presenta conceptos básicos de estadística como variables aleatorias, momentos, esperanza matemática y varianza. Define variables aleatorias discretas y continuas de una y múltiples dimensiones, y describe sus funciones de probabilidad, distribución y densidad. También explica los diferentes tipos de momentos y sus propiedades.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
0% encontró este documento útil (0 votos)
58 vistas101 páginas

Ucema - Maf-Estadistica: Alberto Landro

El documento presenta conceptos básicos de estadística como variables aleatorias, momentos, esperanza matemática y varianza. Define variables aleatorias discretas y continuas de una y múltiples dimensiones, y describe sus funciones de probabilidad, distribución y densidad. También explica los diferentes tipos de momentos y sus propiedades.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 101

UCEMA – MAF- ESTADISTICA Alberto Landro

𝑌(𝑡)

𝑡 𝑒𝑠 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜 𝑛𝑜 − 𝑡𝑟𝑎𝑛𝑠𝑐𝑢𝑟𝑟𝑖𝑑𝑜

𝐸𝑆𝑇𝑅𝑈𝐶𝑇𝑈𝑅𝐴 𝐶𝐴𝑈𝑆𝐴𝐿

Ω(𝑌(𝑡)) = {𝑌(𝑡 − 𝑗), 𝑋1 (𝑡 − ℎ1 ), 𝑋2 (𝑡 − ℎ2 ), … }

(𝑡 ≥ 0, 𝑗 > 0, ℎ𝑖 ≥ 0, 𝑖 = 1,2,3, … )

𝑌(𝑡)
𝑟(𝑡) = 𝑙𝑛 = 𝑙𝑛[𝑌(𝑡)] − 𝑙𝑛[𝑌(𝑡 − 1)]
𝑌(𝑡 − 1)

𝐶𝑂𝑁𝐽𝑈𝑁𝑇𝑂 𝐷𝐸 𝐼𝑁𝐹𝑂𝑅𝑀𝐴𝐶𝐼Ó𝑁 𝐷𝐸𝐿 𝑂𝐵𝑆𝐸𝑅𝑉𝐴𝐷𝑂𝑅

𝜔(𝑌(𝑡)) = {𝑌(𝑡 − 𝑗), 𝑋1 (𝑡 − ℎ1 ), 𝑋2 (𝑡 − ℎ2 ), … , 𝑋𝑘 (𝑡 − ℎ𝑘 )}

𝜔(𝑌(𝑡)) ⊂ Ω(𝑌(𝑡))

1
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑆𝑖 𝜔(𝑌(𝑡)) = Ω(𝑌(𝑡)) ⇒ 𝑌(𝑡) 𝑒𝑠 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛í𝑠𝑡𝑖𝑐𝑜 𝑝𝑢𝑟𝑜

𝑆𝑖 𝜔(𝑌(𝑡)) = ∅ ⇒ 𝑌(𝑡) 𝑒𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑜 𝑝𝑢𝑟𝑜

𝑓[𝜔(𝑌(𝑡))]

𝑌(𝑡) = 𝑓[𝜔(𝑌(𝑡))] + 𝜀(𝑡)

𝜀(𝑡) 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎

2
UCEMA – MAF- ESTADISTICA Alberto Landro

Variable aleatoria

Definición estricta

(𝑌; Ω(𝑌) = {𝑌1 , 𝑌2 , … , 𝑌𝑛 }; 𝑝(𝑌𝑖 ) = 𝑝𝑖 (𝑖 = 1,2, … , 𝑛))

Condición de unicidad

Función de probabilidades:

𝑝(𝑌 = 𝑌𝑖 ) = 𝑝𝑖 ≥ 0 (𝑖 = 1,2, … , 𝑛)

𝑝(𝑌 ∈ Ω(𝑌)) = 𝑝1 + 𝑝2 + ⋯ + 𝑝𝑛 = 1

Función de distribución:
𝑘

𝐹𝑌 (𝑌𝑘 ) = 𝑝(𝑌 ≤ 𝑌𝑘 ) = ∑ 𝑝𝑖 (𝑘 = 1,2, … , 𝑛)


𝑖=1

Función de supervivencia:

𝑆𝑌 (𝑌𝑘 ) = 1 − 𝐹𝑌 (𝑌𝑘 ) = 𝑝(𝑌 > 𝑌𝑘 ) (𝑘 = 1,2, … , 𝑛)

Una clasificación de acuerdo con las características de su dominio:

𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎: Ω(𝑌) 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑛𝑢𝑚𝑒𝑟𝑎𝑏𝑙𝑒

𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎: Ω(𝑌) 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑛𝑜 − 𝑛𝑢𝑚𝑒𝑟𝑎𝑏𝑙𝑒

3
UCEMA – MAF- ESTADISTICA Alberto Landro

Variable continua:

𝑌; Ω(𝑌) = [𝑎, 𝑏]
𝑦

𝐹𝑌 (𝑦) = ∫ 𝑓𝑌 (𝑢)𝑑𝑢 (𝑦𝜖[𝑎, 𝑏])


𝑎

𝑓𝑌 (𝑦) ≥ 0: 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑑𝑒𝑛𝑠𝑖𝑑𝑎𝑑


𝑑
𝑓𝑌 (𝑦) = 𝐹 (𝑦)
𝑑𝑦 𝑌

𝑑𝐹𝑌 (𝑦) = 𝑓𝑌 (𝑦)𝑑𝑦


𝑏

𝐹𝑌 (𝑏) = ∫ 𝑓𝑌 (𝑦)𝑑𝑦 = ∫ 𝑓𝑌 (𝑦)𝑑𝑦 = ∫ 𝑑𝐹𝑌 (𝑦) = 1


Ω(𝑌) Ω(𝑌)
𝑎

Otra clasificación de acuerdo con las características de su dominio:

Unidimensional

Multidimensional

4
UCEMA – MAF- ESTADISTICA Alberto Landro

Definición débil o definición por los momentos

Variable discreta:
𝑛

𝑚𝑠 (𝑌) = ∑[𝜑(𝑌𝑖 )]𝑠 𝑝𝑖 (𝑠 = 0,1,2, … )


𝑖=1

Variable continua:

𝑚𝑠 (𝑌) = ∫ [𝜑(𝑦)]𝑠 𝑓𝑌 (𝑦)𝑑𝑦 = ∫ [𝜑(𝑦)]𝑠 𝑑𝐹𝑌 (𝑦) (𝑠 = 0,1,2, … )


Ω(𝑌) Ω(𝑌)

En general:

𝑚0 (𝑌) = 1

Si 𝜑 es una transformación idéntica ⇒ momentos naturales


𝑛

𝑚𝑠 (𝑌) = ∑ 𝑌𝑖𝑠 𝑝(𝑌𝑖 ) (𝑠 = 1,2, … )


𝑖=1

𝑚𝑠 (𝑌) = ∫ 𝑦 𝑠 𝑓𝑌 (𝑦)𝑑𝑦 (𝑠 = 1,2, … )


Ω(𝑌)

Para 𝑠 = 1:
𝑛

𝑚(𝑌) = ∑ 𝑌𝑖 𝑝(𝑌𝑖 ) = 𝐸(𝑌)


𝑖=1

5
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑚(𝑌) = ∫ 𝑦𝑓𝑌 (𝑦)𝑑𝑦 = 𝐸(𝑌)


Ω(𝑌)

En general:

𝑚𝑠 (𝑦) = 𝐸(𝑌 𝑠 ) (𝑠 = 1,2, … )

En general:

𝑚𝑠 (𝑌) = 𝐸{[𝜑(𝑌)]𝑠 } (𝑠 = 1,2, … )

Si la transformación 𝜑 consiste en centrar la variable 𝑌 ⇒ momentos


centrados

𝜇𝑠 (𝑌) = 𝐸{[𝑌 − 𝐸(𝑌)]𝑠 } (𝑠 = 1,2, … )

𝜇(𝑌) = 𝐸[𝑌 − 𝐸(𝑌)] = 0

𝜇2 (𝑌) = 𝐸{[𝑌 − 𝐸(𝑌)]2 } ≡ 𝜎 2 (𝑌)

𝜇3 (𝑌) = 𝐸{[𝑌 − 𝐸(𝑌)]3 }

……………………

𝜎 2 (𝑌) = 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 = 𝑑𝑒𝑠𝑣í𝑜 𝑚𝑒𝑑𝑖𝑜 𝑐𝑢𝑎𝑑𝑟á𝑡𝑖𝑐𝑜

𝜎(𝑌) = +√𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑑𝑖𝑠𝑝𝑒𝑟𝑠𝑖ó𝑛 = 𝑑𝑒𝑠𝑣í𝑜 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟

Asimetría:
3
𝑌 − 𝐸(𝑌) 𝜇3 (𝑌)
𝜇3 (𝑌) 𝐴𝑠(𝑌) = 𝐸 {[ ] }= 3
𝜎(𝑌) 𝜎 (𝑌)

Kurtosis:

2) 4
𝑌−𝑚 4 𝜇4 (𝑌)
𝑆𝑖 𝑌: 𝑁(𝑚, 𝜎 ⇒ 𝜇4 (𝑌) = 3𝜎 ⇒ 𝐸 {[ ] }= =3
𝜎 𝜎4

6
UCEMA – MAF- ESTADISTICA Alberto Landro

Si la transformación 𝜑 consiste en tomar el valor absoluto de la variable 𝑌 ⇒

⇒ momentos naturales absolutos

𝑚|𝑠| (𝑌) = 𝐸{|𝑌|𝑠 } (𝑠 = 1,2, … )

Si la transformación 𝜑 consiste en tomar el valor absoluto de la variable


centrada 𝑌 − 𝐸(𝑌) ⇒

⇒ momentos centrados absolutos

𝜇|𝑠| (𝑌) = 𝐸{|𝑌 − 𝐸(𝑌)|𝑠 } = 𝐸{|𝑌 − 𝑚(𝑌)|𝑠 } (𝑠 = 1,2, … )

Si la transformación 𝜑 consiste en estandarizar la variable 𝑌 ⇒

⇒ momentos estandarizados
𝑠 𝑠
𝑌 − 𝐸(𝑌) 𝑌 − 𝑚(𝑌)
𝜇𝑠∗ (𝑌) = 𝐸 {[ ] } = 𝐸 {[ ] } (𝑠 = 1,2, … )
𝜎(𝑌) 𝜎(𝑌)

Nota: Estandarización
𝐸(𝑌) = 𝑚 𝑌−𝑚 𝐸(𝑢) = 0
Dada una variable 𝑌 { 2 2 ⇒𝑢= { 2
𝜎 (𝑌) = 𝜎 𝜎 𝜎 (𝑢) = 1

7
UCEMA – MAF- ESTADISTICA Alberto Landro

Esperanza matemática (valor esperado) y varianza

Propiedades

1) Sea una constante 𝑐 y sea una variable {𝑌, 𝛺(𝑌) = {𝑐}, 𝑝(𝑌 = 𝑐) = 1} ⇒

𝐸(𝑌) = 𝐸(𝑐) = 𝑐

𝜎 2 (𝑦) = 𝜎 2 (𝑎) = 0

2) Sea una constante 𝑐 y sea una variable {𝑌, 𝛺(𝑌), 𝑝(𝑌)} y sea la variable
Z=cY ⇒

𝐸(𝑍) = 𝐸(𝑐𝑌) = 𝑐𝐸(𝑌)

𝜎 2 (𝑍) = 𝜎 2 (𝑐𝑌) = 𝑐 2 𝜎 2 (𝑌)

Variables aleatorias multidimensionales continuas

Sea {𝑌1 (𝜔), 𝑌2 (𝜔), … , 𝑌𝑛 (𝜔)} un conjunto de variables aleatorias continuas.

La combinación de estas variables marginales permite definir una variable


continua 𝑛-dimensional, con función de distribución de probabilidades
conjunta:

𝐹𝑌1,𝑌2 ,…,𝑌𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) = 𝑝[(𝑌1 ≤ 𝑦1 ) ∩ (𝑌2 ≤ 𝑦2 ) ∩ … ∩ (𝑌𝑛 ≤ 𝑦𝑛 )]

y función de densidad conjunta:

𝑓𝑌1 ,𝑌2,…,𝑌𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 )𝑑𝑦1 𝑑𝑦2 … 𝑑𝑦𝑛

tal que:

𝑓𝑌1,𝑌2,…,𝑌𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) ≥ 0

∫ 𝑓𝑌1,𝑌2,…,𝑌𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) 𝑑𝑦1 𝑑𝑦2 … 𝑑𝑦𝑛 = 1


Ω(𝑌)

donde Ω(𝑌) = Ω(𝑌1 ) × Ω(𝑌2 ) × … × Ω(𝑌𝑛 )

8
UCEMA – MAF- ESTADISTICA Alberto Landro

Variables aleatorias multidimensionales discretas

Sea una variable aleatoria 𝑘-dimensional 𝑍 = (𝑌1 , 𝑌2 , … , 𝑌𝑘 ) formada por la


combinación de las variables marginales discretas 𝑌1 , 𝑌2 , … , 𝑌𝑘 , con función
de probabilidades conjunta:

𝑝(𝑍1,2,…,𝑘 ) = 𝑝1,2,…,𝑘 = 𝑝[(𝑌1 = 𝑦1 ) ∩ (𝑌2 = 𝑦2 ) ∩ … ∩ (𝑌𝑘 = 𝑦𝑘 )]

En particular, sea una variable aleatoria bidimensional 𝑍 = (𝑋, 𝑌), formada


por la combinación de las variables marginales 𝑋 e 𝑌. Su función de
probabilidades conjunta:

𝑝(𝑍𝑖𝑗 ) = 𝑝𝑖𝑗 = 𝑝[(𝑋 = 𝑋𝑖 ) ∩ (𝑌 = 𝑌𝑗 )] (𝑖, 𝑗 = 1,2, … )

es tal que:

𝑝𝑖𝑗 ≥ 0

∑ ∑ 𝑝𝑖𝑗 = 1
𝑖 𝑗

Independencia estocástica

𝐹𝑌1,𝑌2 ,…,𝑌𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) = 𝐹𝑌1 (𝑦1 )𝐹𝑌2 (𝑦2 ) … 𝐹𝑌𝑘 (𝑦𝑘 )

Probabilidad condicionada:

𝑝[(𝑌 ∈ 𝐴) ∕ 𝜔(𝑌)]

𝜔(𝑌) ∩ 𝑋 ⇒ 𝜔(𝑌, 𝑋)

𝑝[(𝑌 ∈ 𝐴)⁄𝜔(𝑌, 𝑋)] = 𝑝[(𝑌 ∈ 𝐴)⁄𝜔(𝑌)] ⇒ 𝑌⊥𝑋

𝑝[(𝑌 ∈ 𝐴)⁄𝜔(𝑌, 𝑋)] ≠ 𝑝[(𝑌 ∈ 𝐴)⁄𝜔(𝑌)]

9
UCEMA – MAF- ESTADISTICA Alberto Landro

Momentos de variables aleatorias bidimensionales

Sean las variables marginales {𝑋, 𝛺(𝑋), 𝑝(𝑋)} y {𝑌, 𝛺(𝑌), 𝑝(𝑌)} y sea la
variable bidimensional 𝑍 = 𝑋 ± 𝑌:

𝐸(𝑍) = 𝐸(𝑋 ± 𝑌) = 𝐸(𝑋) ± 𝐸(𝑌)

𝜎 2 (𝑍) = 𝜎 2 (𝑋 ± 𝑌) = 𝜎 2 (𝑋) + 𝜎 2 (𝑌) ± 2𝛾(𝑋, 𝑌)

Medidas de relación

Momentos mixtos naturales:

𝑚𝑠1 ,𝑠2 (𝑋, 𝑌) = 𝐸(𝑋 𝑠1 𝑦 𝑠2 ) (𝑠1 , 𝑠2 = 0,1,2, … )

Momentos mixtos centrados:

𝜇𝑠1 ,𝑠2 (𝑋, 𝑌) = 𝐸{[𝑋 − 𝐸(𝑋)]𝑠1 [𝑌 − 𝐸(𝑌)]𝑠2 } =

= 𝐸{[𝑋 − 𝑚(𝑋)]𝑠1 [𝑌 − 𝑚(𝑌)]𝑠2 } (𝑠1 , 𝑠2 = 0,1,2, … )

Momento centrado mixto de primer orden=covarianza

𝛾(𝑋, 𝑌) = 𝜇(𝑋, 𝑌) = 𝐸{[𝑋 − 𝐸(𝑋)][𝑌 − 𝐸(𝑌)]}

Momento estandarizado mixto de primer orden=coeficiente de correlación

𝑋 − 𝐸(𝑋) 𝑌 − 𝐸(𝑌) 𝐸{[𝑋 − 𝐸(𝑋)][𝑌 − 𝐸(𝑌)]}


𝜇∗ (𝑋, 𝑌) = 𝐸 {[ ][ ]} = =
𝜎(𝑋) 𝜎(𝑌) 𝜎(𝑋)𝜎(𝑌)

𝜇(𝑋, 𝑌)
= = 𝜌(𝑋, 𝑌)
𝜎(𝑋)𝜎(𝑌)
|𝛾(𝑋, 𝑌)| ≤ 𝜎(𝑋)𝜎(𝑌)

|𝜌(𝑋, 𝑌)| ≤ 1

𝜌(𝑋, 𝑌) = 0 ⇒ 𝑖𝑛𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛

10
UCEMA – MAF- ESTADISTICA Alberto Landro

Convergencia estocástica

Convergencia casi con certeza

Convergencia en distribución

Convergencia en probabilidad

Convergencia en los momentos

Convergencia completa

Convergencia en distribución

Sea 𝑌1 , 𝑌2 , … , 𝑌𝑛 una sucesión de variables aleatorias con funciones de


distribución de probabilidades 𝐹𝑌1 (𝑌), 𝐹𝑌2 (𝑌), … , 𝐹𝑌𝑛 (𝑌), respectivamente. Y
sea una variable aleatoria 𝑌 con función de distribución de probabilidades
𝐹𝑌 (𝑦).
𝑑
{𝑌𝑛 } → 𝑌 𝑠𝑖 lim 𝐹𝑌𝑛 (𝑦)= 𝐹𝑌 (𝑦)
𝑛→∞

Teorema central del límite – Teorema de de Moivre:

Sea un conjunto de variables aleatorias 𝑋𝑖 : 𝑏(1, 𝑝) (𝑖 = 1,2, … , 𝑛) tales que


𝑋𝑖 ⊥ 𝑋𝑗 (𝑖 ≠ 𝑗).

Sea la sucesión

𝑌1 = 𝑋1 : 𝑏(1, 𝑝)

𝑌2 = 𝑋1 + 𝑋2 : 𝑏(2, 𝑝)

… … … … … … … … ….

𝑌𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 : 𝑏(𝑛, 𝑝)
𝑛
𝑝(𝑌𝑛 ) = (𝑌 ) 𝑝𝑌𝑛 𝑞 𝑛−𝑌𝑛 (𝑛 = 1,2, … ; 𝑞 = 1 − 𝑝)
𝑛

𝐸(𝑌𝑛 ) = 𝑛𝑝 𝜎 2 (𝑌𝑛 ) = 𝑛𝑝𝑞

11
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑌𝑛 − 𝑛𝑝 𝐸(𝑢 ) = 0
= 𝑢𝑛 { 2 𝑛
√𝑛𝑝𝑞 𝜎 (𝑢𝑛 ) = 1

𝑑
𝑢𝑛 → 𝑁(0,1)

Convergencia en probabilidad

Sea 𝑌1 , 𝑌2 , … , 𝑌𝑛 una sucesión de variables aleatorias y sea una variable


aleatoria 𝑌
𝑝
𝑌𝑛 → 𝑌 𝑠𝑖 lim 𝑝(|𝑌𝑛 − 𝑌| ≤ 𝜀)= 1 (𝜀 > 0)
𝑛→∞

𝑝 𝑙𝑖𝑚 (𝑌𝑛 ) = 𝑌
𝑛→∞

Ley de los grandes números – Problema de Bernoulli


3𝑏 𝑏
[ ] [ ] {𝑏, 𝑏, 𝑛, 𝑏, 𝑛, 𝑛, 𝑛, … }
2𝑛 𝑛
3
𝑝(𝐸 ∕ 𝐶) = 𝑝(𝑏) =
5
𝑝(𝐸 ∕ 𝐶) → 𝑝(𝐶 ∕ 𝐸) (𝑎𝑏𝑑𝑢𝑐𝑐𝑖ó𝑛)
𝑛
𝑝(𝑌𝑛 ) = (𝑌 ) 𝑝𝑌𝑛 𝑞 𝑛−𝑌𝑛 (𝑛 = 1,2, … ; 𝑞 = 1 − 𝑝)
𝑛

𝐸(𝑌𝑛 ) = 𝑛𝑝 𝜎 2 (𝑌𝑛 ) = 𝑛𝑝𝑞


𝑌𝑛
𝑌𝑛 𝐸 ( ) = 𝐸(𝑓𝑛 ) = 𝑝
𝑓𝑛 = { 𝑛
𝑛 𝑌𝑛 𝑝𝑞
𝜎 2 ( ) = 𝜎 2 (𝑓𝑛 ) =
𝑛 𝑛
𝑝 =?

Primera ley de los grandes números

12
UCEMA – MAF- ESTADISTICA Alberto Landro

lim 𝑝(|𝑓𝑛 − 𝑝| ≤ 𝜀) = 1
𝑛→∞

Versión inversa del teorema de Bernoulli

Convergencia en los momentos

Sea 𝑌1 , 𝑌2 , … , 𝑌𝑛 una sucesión de variables aleatorias y sea una variable


aleatoria 𝑌, tales que:

𝐸(|𝑌𝑛 |𝑠 ) < ∞ (𝑛 = 1,2, … ; 𝑠 = 1,2, … )

𝐸(|𝑌|𝑠 ) < ∞ (𝑠 = 1,2, … )


𝑚𝑠
{𝑌𝑛 } → 𝑌 𝑠𝑖 lim 𝐸(|𝑌𝑛 − 𝑌|𝑠 ) = 0
𝑛→∞

Convergencia en valor medio cuadrático

lim 𝐸(|𝑌𝑛 − 𝑌|2 ) = 0


𝑛→∞

𝑚𝑠 𝑝 𝑑
→ ⇒ → ⇒ →

13
UCEMA – MAF- ESTADISTICA Alberto Landro

La explicación del comportamiento de los fenómenos dinámicos

𝑌𝑡 = 𝑓[𝜔(𝑌𝑡 )] + 𝜀𝑡 (𝑡 = 1,2, … )

𝜔(𝑌𝑡 ) = {𝑌𝑡−𝑗 , 𝑋1,𝑡−ℎ1 , … , 𝑋𝑘,𝑡−ℎ𝑘 }

(𝑡 = 1,2, … ; 𝑗 = 1,2, … ; 𝑡 − 𝑗 > 0; ℎ𝑖 ≥ 0; 𝑖 = 1,2, … 𝑘; 𝑡 − ℎ𝑖 ≥ 0)

Explicaciones estáticas

Explicaciones dinámicas

Inferencia clásica

𝜔(𝑌𝑡 ) = ∅ (𝑑𝑒𝑑𝑢𝑐𝑡𝑖𝑣𝑎𝑚𝑒𝑛𝑡𝑒 𝑣𝑎𝑐í𝑜)

𝜃 =?

𝑌1 , 𝑌2 , 𝑌3 , … : 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎𝑠 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑏𝑙𝑒𝑠 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛

𝑌𝑖 ⊥ 𝑌𝑗 (𝑖, 𝑗 = 1,2, … ; 𝑖 ≠ 𝑗)

𝑚𝑢𝑒𝑠𝑡𝑟𝑎 ∶ {𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 }

14
UCEMA – MAF- ESTADISTICA Alberto Landro

Estimación puntual

𝑓(𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 ) = 𝜃̂ = 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙 = 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎

𝜃 = 𝜃̂ ∶ 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝑝𝑢𝑛𝑡𝑢𝑎𝑙

Si 𝜃̂ es una variable aleatoria ⇒ ⏞ ∕ 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 )


𝐸 (𝜃

𝜎 2 (𝜃̂ ∕ 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 )

𝑓(𝜃̂ ∕ 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 )

Propiedades

i) Insesgado : 𝐸(𝜃̂ ∕ 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 ) =

𝜃 = 𝜃̂ + 𝜀 𝐸(𝜃) = 𝜃 = 𝐸(𝜃̂) + 𝐸(𝜀) = 𝐸(𝜃̂)

ii) Eficiente: 𝜎 2 (𝜃̂1 ∕ 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 ) < 𝜎 2 (𝜃̂2 ∕ 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌𝑛 )

iii) Consistente: 𝑙𝑖𝑚 σ2 (𝜃̂ ∕ Y1 , Y2 , Y3 , … , Yn ) = 0


𝑛→∞

Proceso de estimación

i) Selección del estimador

ii) Definición del valor esperado del estimador

iii) Definición de la varianza del estimador

iv) Si fuera posible, definición de la distribución de probabilidades del


estimador

15
UCEMA – MAF- ESTADISTICA Alberto Landro

Estimación por intervalo

𝜃 = 𝜃̂ + 𝜀

𝑝(𝜃̂ − 𝑎 ≤ 𝜃 ≤ 𝜃̂ + 𝑎) = 1 − 𝛼

𝐸(𝜃̂) = 𝜃 𝜃̂ − 𝜃
𝜃̂ = { 2 ∶ 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑖𝑧𝑎𝑑𝑎
𝜎 (𝜃̂) 𝜎(𝜃̂)

Intervalo de confiabilidad:

𝜃̂ − 𝜃
𝑝 (−𝑧𝛼∕2 ≤ ≤ 𝑧𝛼∕2 ) = 1 − 𝛼
𝜎(𝜃̂)

𝜃̂ − 𝜃
𝑓( )
𝜎(𝜃̂)

𝑝 (𝜃̂ − 𝑧𝛼/2 𝜎(𝜃̂) ≤ 𝜃 ≤ 𝜃̂ + 𝑧𝛼/2 𝜎(𝜃̂)) = 1 − 𝛼

Confiabilidad de la estimación = longitud del intervalo=2𝑧𝛼/2 𝜎(𝜃̂)

Dado el coeficiente de riesgo, 𝛼 ⇒ confiabilidad=𝑓 (𝜎(𝜃̂))

16
UCEMA – MAF- ESTADISTICA Alberto Landro

Estimación por intervalo del valor medio

1) Con varianza poblacional conocida

𝑌𝑖 : 𝑁(𝑚, 𝜎 2 ) (𝑖 = 1,2, … ; 𝑌𝑖 ⊥ 𝑌𝑗 , 𝑖 ≠ 𝑗)

𝑚 =?

Selección del estimador


1
𝑌̅ = (𝑌 + 𝑌2 + ⋯ + 𝑌𝑛 )
𝑛 1
Definición del valor esperado
1 1
𝐸(𝑌̅) = 𝐸 [ (𝑌1 + 𝑌2 + ⋯ + 𝑌𝑛 )] = [𝐸(𝑌1 ) + 𝐸(𝑌2 ) + ⋯ + 𝐸(𝑌𝑛 )] =
𝑛 𝑛
1 1
= [𝑚(𝑌1 ) + 𝑚(𝑌2 ) + ⋯ + 𝑚(𝑌𝑛 )] = [𝑚 + 𝑚 + ⋯ + 𝑚] = 𝑚
𝑛 𝑛
Definición de la varianza
1 1
𝜎 2 (𝑌̅) = 𝜎 2 [ (𝑌1 + 𝑌2 + ⋯ + 𝑌𝑛 )] = 2 [𝜎 2 (𝑌1 ) + ⋯ + 𝜎 2 (𝑌𝑛 )] =
𝑛 𝑛
1 2 2 2
𝜎2
= 2 [𝜎 + 𝜎 + ⋯ + 𝜎 ] =
𝑛 𝑛
Definición de la distribución de probabilidades

𝑌̅ ∶ 𝑐𝑜𝑚𝑏𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑁𝑜𝑟𝑚𝑎𝑙𝑒𝑠 ⇒

𝜎2 𝑌̅ − 𝑚
⇒ 𝑌̅: 𝑁 (𝑚, ) ⇒ ∶ 𝑁(0,1)
𝑛 𝜎/√𝑛

17
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑌̅ − 𝑚
𝑝 (−𝑧𝛼/2 ≤ ≤ 𝑧𝛼/2 ) = 1 − 𝛼
𝜎/√𝑛

Intervalo de confiabilidad para el valor medio con varianza poblacional


conocida
𝜎 𝜎
𝑝 (𝑌̅ − 𝑧𝛼/2 ≤ 𝑚 ≤ 𝑌̅ + 𝑧𝛼/2 )=1−𝛼
√𝑛 √𝑛

18
UCEMA – MAF- ESTADISTICA Alberto Landro

2) Con varianza poblacional desconocida

𝑌𝑖 : 𝑁(𝑚, 𝜎 2 ) (𝑖 = 1,2, … ; 𝑌𝑖 ⊥ 𝑌𝑗 , 𝑖 ≠ 𝑗)

𝑚 =? 𝜎 2 =?

Estimador insesgado de la varianza:


1
𝑆2 = [(𝑌1 − 𝑌̅)2 + (𝑌2 − 𝑌̅)2 + ⋯ + (𝑌𝑛 − 𝑌̅)2 ]
𝑛−1
𝑛 2
(𝑛 − 1)𝑆 2 𝑌𝑖 − 𝑌̅ 2
2
= ∑( ) : 𝜒(𝑛−1)
𝜎 𝜎
𝑖=1

Teorema de Fisher-Student:

𝑌̅ − 𝑚
𝑁(0,1) 𝜎/√𝑛 𝑌̅ − 𝑚
= = ∶ 𝑡(𝑛−1)
2 (𝑛 − 1)𝑆 2 𝑆/√𝑛

√𝜒(𝑛−1) (𝑛 − 1)𝜎 2
𝑛−1

19
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑌̅ − 𝑚
𝑝 (−𝑡(𝑛−1) ≤ ≤ 𝑡(𝑛−1) ) = 1 − 𝛼
𝑆/√𝑛

Intervalo de confiabilidad para el valor medio, con varianza poblacional


desconocida
𝑆 𝑆
𝑝 (𝑌̅ − 𝑡(𝑛−1) ≤ 𝑚 ≤ 𝑌̅ + 𝑡(𝑛−1) )=1−𝛼
√𝑛 √𝑛

Estimación por intervalo de la varianza

𝑌𝑖 : 𝑁(𝑚, 𝜎 2 ) (𝑖 = 1,2, … ; 𝑌𝑖 ⊥ 𝑌𝑗 , 𝑖 ≠ 𝑗)

𝑚 =? 𝜎 2 =?

Estimador insesgado de la varianza:


𝑛
1
𝑆2 = ∑(𝑌𝑖 − 𝑌̅)2
𝑛−1
𝑖=1
𝑛 2
(𝑛 − 1)𝑆 2 𝑌𝑖 − 𝑌̅ 2
2
= ∑ ( ) : 𝜒(𝑛−1)
𝜎 𝜎
𝑖=1

20
UCEMA – MAF- ESTADISTICA Alberto Landro

(𝑛 − 1)𝑆 2
𝑝 (𝜒𝐼2 ≤ ≤ 𝜒𝑆2 ) = 1 − 𝛼
𝜎2

1 𝜎2 1
𝑝( 2 ≤ ≤ )=1−𝛼
𝜒𝑆 (𝑛 − 1)𝑆 2 𝜒𝐼2

Intervalo de confiabilidad para la varianza

(𝑛 − 1)𝑆 2 2
(𝑛 − 1)𝑆 2
𝑝( ≤𝜎 ≤ )=1−𝛼
𝜒𝑆2 𝜒𝐼2

21
UCEMA – MAF- ESTADISTICA Alberto Landro

Test de hipótesis

1) Sobre el valor medio

𝑌𝑖 : 𝑁(𝑚, 𝜎 2 ) (𝑖 = 1,2, … ; 𝑌𝑖 ⊥ 𝑌𝑗 , 𝑖 ≠ 𝑗)

𝑚 =? 𝜎 2 =?

𝐻0 : 𝑚 = 𝑚0 𝐻1 : 𝑚 ≠ 𝑚0
𝑛
1
𝑌̅ = ∑ 𝑌𝑖
𝑛
𝑖=1

Por ejemplo:
̅
𝑚 = 100 {𝑌 = 105
𝑌̅ = 327
≃0
|𝑌̅ − 𝑚0 | {
≄0
Error al asumir una decisión en condiciones de incertidumbre:

i) Error de tipo 1: rechazar 𝐻0 cuando es verdadera.

ii) Error de tipo 2: aceptar 𝐻0 cuando la hipótesis nula es distinta de 𝑚 =


𝑚0 .

𝑌̅ − 𝑚
∶ 𝑡(𝑛−1) 𝑠𝑖 𝑠𝑒 𝑠𝑢𝑝𝑜𝑛𝑒 𝑞𝑢𝑒 𝐻0 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 ⇒
𝑆 ⁄ √𝑛

𝑌̅ − 𝑚
⇒𝑇= ∶ 𝑡(𝑛−1)
𝑆 ⁄ √𝑛

22
UCEMA – MAF- ESTADISTICA Alberto Landro

Si |𝑇| < 𝑡(𝑛−1),𝛼∕2 ⇒ no existen razones suficientes para rechazar 𝐻0 .

Si |𝑇| > 𝑡(𝑛−1),𝛼∕2 ⇒ existen razones suficientes para rechazar 𝐻0 .

0,10
𝛼 = {0,05 = medida del error de tipo 1
0,01

𝐻0 : 𝑚 ≤ 𝑚0 𝐻1 : 𝑚 > 𝑚0

23
UCEMA – MAF- ESTADISTICA Alberto Landro

𝐻0 : 𝑚 ≥ 𝑚0 𝐻1 : 𝑚 < 𝑚0

2) Sobre la varianza

𝑌𝑖 : 𝑁(𝑚, 𝜎 2 ) (𝑖 = 1,2, … ; 𝑌𝑖 ⊥ 𝑌𝑗 , 𝑖 ≠ 𝑗)

𝑚 =? 𝜎 2 =?
𝑛
1
𝑆2 = ∑(𝑌𝑖 − 𝑌̅)2
𝑛−1
𝑖=1

(𝑛 − 1)𝑆 2 2
∶ 𝜒(𝑛−1)
𝜎2
𝐻0 ∶ 𝜎 2 = 𝜎02 𝐻0 ∶ 𝜎 2 ≠ 𝜎02

Por ejemplo:
≅1
𝜎2 {
≄1
(𝑛 − 1)𝑆 2 2
(𝑛 − 1)𝑆 2
2 2
∶ 𝜒(𝑛−1) ⇒ 𝑋 = 2 ∶ 𝜒(𝑛−1)
𝜎2 𝜎0
≅𝑛−1
𝑋2 {
≄𝑛−1
24
UCEMA – MAF- ESTADISTICA Alberto Landro

Si 𝜒𝐼2 < 𝑋 2 < 𝜒𝑆2 no existen razones suficientes para rechazar 𝐻0 .

Si 𝑋 2 < 𝜒𝐼2 ó Si 𝑋 2 > 𝜒𝑆2 existen razones suficientes para rechazar 𝐻0 .

25
UCEMA – MAF- ESTADISTICA Alberto Landro

El modelo lineal

Explicación estática

𝑌𝑡 = 𝑓[𝜔(𝑌𝑡 )] + 𝜀𝑡

𝜔(𝑌𝑡 ) = {𝑌𝑡−𝑗 , 𝑋1,𝑡−ℎ1 , … , 𝑋𝑘,𝑡−ℎ𝑘 }

(𝑡 = 1,2, … ; 𝑗 = 1,2, … ; 𝑡 − 𝑗 > 0; ℎ𝑖 > 0; 𝑖 = 1,2, … )

𝜔(𝑌𝑡 ) = {𝑋𝑡 }
𝐶𝑎𝑠𝑜𝑠 𝑑𝑒 𝑐𝑜𝑟𝑡𝑒 𝑡𝑟𝑎𝑛𝑠𝑣𝑒𝑟𝑠𝑎𝑙
Aplicaciones {
𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑒𝑠𝑡á𝑡𝑖𝑐𝑎 𝑑𝑒 𝑓𝑒𝑛ó𝑚𝑒𝑛𝑜𝑠 𝑑𝑖𝑛á𝑚𝑖𝑐𝑜𝑠

1) Corte transversal

𝑋𝑖 (𝑖 = 1,2, … ): variables predeterminadas (exógenas, no-estocásticas)


𝑌𝑖 (𝑖 = 1,2, … ): 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑖𝑑

26
UCEMA – MAF- ESTADISTICA Alberto Landro

2) Fenómenos dinámicos

𝑋𝑡 (𝑡 = 1,2, … ): variables predeterminadas

𝑌𝑡 (𝑡 = 1,2, … ): 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 iid

𝑌𝑡 = 𝑓(𝑋𝑡 ) + 𝜀𝑡 (𝑡 = 1,2, … )

𝑋𝑡 : regresor no-estocástico (variable o vector de variables)

𝑓(𝑋𝑡 ): función de regresión; representa la relación entre las variables 𝑋𝑡

tomadas en conjunto e 𝑌𝑡 ; puede ser lineal o no-lineal

𝜀𝑡 : perturbaciones aleatorias (aleatoriedad pura) iid; representan la


influencia que ejercen sobre 𝑌𝑡 todos los factores de su estructura causal
(𝛺(𝑌𝑡 )) que no son 𝑋𝑡 .

27
UCEMA – MAF- ESTADISTICA Alberto Landro

Axiomática: condiciones de Gauss-Markov

1) 𝐸(𝜀𝑡 ) = 0 ⇒ Aleatoriedad pura=distribución de probabilidades


uniforme

Distribución triangular de Simpson (simétrica con respecto a cero)

28
UCEMA – MAF- ESTADISTICA Alberto Landro

Distribuciones exponenciales:

Teorema central del límite: 𝜀𝑡 = agregación de infinitas variables aleatorias

independientes (con varianza finita) ⇒

⇒ 𝜀𝑡 : Normal con varianza 𝜎𝜀2

2) 𝜎𝜀2 constante (condición de homocedasticidad)

3) 𝜀𝑡 ∶ 𝑁(0, 𝜎𝜀2 ) (𝑡 = 1,2, … )

4) Las variables 𝜀𝑡 (𝑡 = 1,2, … ) son id y, en principio incorrelacionadas;

Es decir, que sus autocovarianzas son todas nulas:

𝛾(𝜀𝑡−𝑗 , 𝜀𝑡 ) = 𝐸(𝜀𝑡−𝑗 𝜀𝑡 ) = 0 (𝑡 = 1,2, … ; 𝑗 = 1,2, … )

Suponiendo que 𝛾(𝜀𝑡−𝑗 , 𝜀𝑡 ) ≠ 0 ⇒ sería posible explicar parcialmente 𝜀𝑡 de


la forma:

𝜀𝑡 = 𝑔(𝜀𝑡−𝑗 ) + 𝜀𝑡∗

Lo cual estaría en contradicción con el supuesto de aleatoriedad pura.

29
UCEMA – MAF- ESTADISTICA Alberto Landro

Si a la autocorrelación se le agrega la Normalidad ⇒ se puede asegurar que


las variables 𝜀𝑡 son independientes entre sí:

𝑖𝑛𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 + 𝑁𝑜𝑟𝑚𝑎𝑙𝑖𝑑𝑎𝑑 = 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑐𝑖𝑎

Luego, será:

𝑌𝑡 = 𝑓[𝜔(𝑌𝑡 )] + 𝜀𝑡 = 𝑓(𝑋𝑡 ) + 𝜀𝑡

Antes de encarar el problema de la estimación de 𝑓(𝑋𝑡 ) habría que:

i) decidir si 𝑋𝑡 puede ser considerada una variable explicativa (es decir, un

regresor) de 𝑌𝑡 ;

ii) En el caso que sí lo fuera, decidir si la relación entre 𝑋𝑡 e 𝑌𝑡 es o no lineal

(es decir, si 𝑓(𝑋𝑡 ) puede ser representada por una función lineal)

La única forma de aceptar la hipótesis que 𝑋𝑡 está relacionada con 𝑌𝑡 y que


esa relación es lineal, es si se comprueba que 𝜌(𝑋𝑡 , 𝑌𝑡 ) ≠ 0.

Como 𝜌(𝑋𝑡 , 𝑌𝑡 ) ≠?, es necesario recurrir a su estimador muestral:

∑𝑛𝑡=1(𝑋𝑡 − 𝑋̅)(𝑌𝑡 − 𝑌̅) ∑𝑛𝑡=1 𝑥𝑡 𝑦𝑡


𝜌̂(𝑋𝑡 , 𝑌𝑡 ) = =
√∑𝑛𝑡=1(𝑋𝑡 − 𝑋̅)2 ∑𝑛𝑡=1(𝑌𝑡 − 𝑌̅)2 √∑𝑛𝑡=1 𝑥𝑡2 ∑𝑛𝑡=1 𝑦𝑡2

y construir un test de hipótesis:

𝐻0 : 𝜌(𝑋𝑡 , 𝑌𝑡 ) = 0 𝐻1 : 𝜌(𝑋𝑡 , 𝑌𝑡 ) ≠ 0

Se puede utilizar el estimador insesgado de Fisher:


1 1 + 𝜌̂(𝑋𝑡 , 𝑌𝑡 )
𝑅 = 𝑙𝑛
2 1 − 𝜌̂(𝑋𝑡 , 𝑌𝑡 )
1 1 + 𝜌(𝑋𝑡 , 𝑌𝑡 ) 1
𝐸(𝑅) = 𝑙𝑛 𝜎 2 (𝑅) =
2 1 − 𝜌(𝑋𝑡 , 𝑌𝑡 ) 𝑛−3

30
UCEMA – MAF- ESTADISTICA Alberto Landro

Bajo el supuesto que 𝐻0 es verdadera, queda definido el estadístico del test:

1 1 + 𝜌̂(𝑋𝑡 , 𝑌𝑡 )
𝑙𝑛 √𝑛 − 3 1 + 𝜌̂(𝑋𝑡 , 𝑌𝑡 ) 𝑑
2 1 − 𝜌̂(𝑋𝑡 , 𝑌𝑡 )
𝑍= = 𝑙𝑛 → 𝑁(0,1)
1 ∕ √𝑛 − 3 2 1 − 𝜌̂(𝑋𝑡 , 𝑌𝑡 )

Supóngase que existan razones suficientes para rechazar 𝐻0 ⇒ se puede


considerar que entre 𝑋𝑡 e 𝑌𝑡 existe una relación lineal y que, por lo tanto, se
puede escribir:

𝑌𝑡 = 𝑎0 + 𝑎1 𝑋𝑡 + 𝜀𝑡

De modo que la representación de la relación de 𝑋𝑡 con 𝑌𝑡 , será:

𝐸(𝑌𝑡 ∕ 𝑋𝑡 ) = 𝑎0 + 𝑎1 𝑋𝑡 + 𝐸(𝜀𝑡 ) = 𝑎0 + 𝑎1 𝑋𝑡

𝜎 2 (𝑌𝑡 ∕ 𝑋𝑡 ) = 𝜎 2 (𝜀𝑡 ) = 𝜎𝜀2

Luego, dado que 𝜀𝑡 : 𝑁(0, 𝜎𝜀2 ) ⇒ 𝑌𝑡 : 𝑁(𝑎0 + 𝑎1 𝑋𝑡 , 𝜎𝜀2 ).

El problema a resolver es:

𝐸(𝑌𝑡 ∕ 𝑋𝑡 ) = 𝑚(𝑌𝑡 ∕ 𝑋𝑡 ) = 𝑎0 + 𝑎1 𝑋𝑡 =?

Estimador:

𝑌̂𝑡 = 𝑎̂0 + 𝑎̂1 𝑋𝑡

define el modelo de la representación 𝐸(𝑌𝑡 ∕ 𝑋𝑡 ).

31
UCEMA – MAF- ESTADISTICA Alberto Landro

𝜀̂𝑡 = 𝑌𝑡 − 𝑌̂𝑡 (𝑡 = 1,2, … , 𝑛): residuos del comportamiento de 𝑌𝑡 no

explicados por el modelo

𝑌𝑡 = 𝑌̂𝑡 + 𝜀̂𝑡

Los residuos 𝜀̂𝑡 son los estimadores de las perturbaciones no-observables 𝜀𝑡 .

De las infinitas rectas 𝑌̂𝑡 posibles, se debe seleccionar la recta óptima.

El criterio de optimización debe minimizar el total de los residuos:


𝑛 𝑛 𝑛

∑ 𝜀̂𝑡 = 0 ∑|𝜀̂𝑡 | ∑ 𝜀̂𝑡2


𝑡=1 𝑡=1 𝑡=1

Criterio de los cuadrados mínimos:


𝑛 𝑛 𝑛
2
𝑓(𝑎̂0 , 𝑎̂1 ) = ∑ 𝜀̂𝑡2 = ∑(𝑌𝑡 − 𝑌̂𝑡 ) = ∑(𝑌𝑡 − 𝑎̂0 − 𝑎̂1 𝑋𝑡 )2 = 𝑚𝑖𝑛
𝑡=1 𝑡=1 𝑡=1

32
UCEMA – MAF- ESTADISTICA Alberto Landro

𝜕𝑓 𝜕𝑓
=0 =0
𝜕𝑎̂0 𝜕𝑎̂1

𝑎̂0 𝑛 + 𝑎̂1 ∑ 𝑋𝑡 = ∑ 𝑌𝑡
𝑡 𝑡

𝑎̂0 ∑ 𝑋𝑡 + 𝑎̂1 ∑ 𝑋𝑡2 = ∑ 𝑋𝑡 𝑌𝑡


{ 𝑡 𝑡 𝑡

Utilizando variables centradas

𝑥𝑡 = 𝑋𝑡 − 𝑋̅ 𝑦𝑡 = 𝑌𝑡 − 𝑌̅

Se obtienen los siguientes resultados:

∑ 𝑥𝑡 𝑦𝑡 ∑ 𝑥𝑡 𝑦𝑡 ∑ 𝑦𝑡2 ∑ 𝑦𝑡2
𝑎̂1 = = √ 2 = 𝜌(𝑋𝑡 , 𝑌𝑡 )√ 2
∑ 𝑥𝑡2 √∑ 𝑥𝑡2 ∑ 𝑦𝑡2 ∑ 𝑥𝑡 ∑ 𝑥𝑡

𝑎̂0 = 𝑌̅ − 𝑎̂1 𝑋̅

𝑎̂0 y 𝑎̂1 : estimadores muestrales mínimo-cuadráticos ⇒ variables aleatorias

∑ 𝑋𝑡2 2
𝐸(𝑎̂0 ) = 𝑎0 𝜎 2 (𝑎̂0 ) = 𝜎
𝑛 ∑ 𝑥𝑡2 𝜀

𝜎𝜀2
𝐸(𝑎̂1 ) = 𝑎1 𝜎 2 (𝑎̂1 ) =
∑ 𝑥𝑡2

𝑎̂0 y 𝑎̂1 pueden ser expresados como combinaciones lineales de las variables
𝜀𝑡 : 𝑁(0, 𝜎𝜀2 ) ⇒

∑ 𝑋𝑡2 2
𝑎̂0 : 𝑁 (𝑎0 , 𝜎 )
𝑛 ∑ 𝑥𝑡2 𝜀

𝜎𝜀2
𝑎̂1 : 𝑁 (𝑎1 , )
∑ 𝑥𝑡2

33
UCEMA – MAF- ESTADISTICA Alberto Landro

En la representación

𝐸(𝑌𝑡 ∕ 𝑋𝑡 ) = 𝑚(𝑌𝑡 ∕ 𝑋𝑡 ) = 𝑎0 + 𝑎1 𝑋𝑡

𝑎1 representa el coeficiente de regresión.

Esta representación es válida sólo si se puede considerar que 𝑎1 ≠ 0 ⇒ test


de hipótesis:

𝐻0 : 𝑎1 = 0 𝐻0 : 𝑎1 ≠ 0

Estimador:

𝜎𝜀2 𝑎̂1 − 𝑎1
𝑎̂1 : 𝑁 (𝑎1 , ) ⇒ ∶ 𝑁(0,1)
∑ 𝑥𝑡2 𝜎𝜀 ∕ √∑ 𝑥𝑡2

Bajo el supuesto que 𝐻0 es verdadera ⇒ Estadístico:


𝑎̂1
𝑍= ∶ 𝑁(0,1)
𝜎𝜀 ∕ √∑ 𝑥𝑡2
𝑛
2 2
1 2
(𝑛 − 2)𝜎̂𝜀2 2
𝜎𝜀 =? ⇒ 𝜎̂𝜀 = ∑ 𝜀̂𝑡 ⇒ : 𝜒(𝑛−2)
𝑛−2 𝜎𝜀2
𝑡=1

De acuerdo con el teorema de Fisher-Student:


𝑎̂1
𝑇= ∶ 𝑡(𝑛−2)
𝜎̂𝜀 ∕ √∑ 𝑥𝑡2

34
UCEMA – MAF- ESTADISTICA Alberto Landro

La representación

𝐸(𝑌𝑡 ∕ 𝑋𝑡 ) = 𝑎0 + 𝑎1 𝑋𝑡

Sólo se puede aceptar (con un riesgo del 𝛼%) si es posible rechazar 𝐻0 .

La medida de la capacidad explicativa de un modelo

∑ 𝑦𝑡2 = ∑ 𝑦̂𝑡2 + ∑ 𝜀̂𝑡2


𝑡 𝑡 𝑡

Coeficiente de determinación:

2
∑𝑡 𝑦̂𝑡2 ∑𝑡 𝜀̂𝑡2
𝑅𝑌∕𝑋 = = 1−
∑𝑡 𝑦𝑡2 ∑𝑡 𝑦𝑡2
2
0 ≤ 𝑅𝑌∕𝑋 ≤1

Dados los modelos:

𝑌̂𝑡 = 𝑎̂0 + 𝑎̂1 𝑋𝑡 2


(𝑅𝑌∕𝑋 )

𝑌̂𝑡∗ = 𝑏̂0 + 𝑏̂1 𝑍𝑡 2


(𝑅𝑌∕𝑍 )

Debe seleccionarse aquél al que le corresponde el mayor 𝑅2 .

35
UCEMA – MAF- ESTADISTICA Alberto Landro

Dados los modelos:

𝑌̂𝑡 = 𝑎̂0 + 𝑎̂1 𝑋𝑡 2


(𝑅𝑌∕𝑋 )

𝑌̂𝑡∗ = 𝑏̂0 + 𝑏̂1 𝑋𝑡 + 𝑏̂2 𝑍𝑡 (𝑅𝑌2⁄𝑋,𝑍 )

De acuerdo con el criterio de los cuadrados mínimos:

𝑅𝑌2⁄𝑋,𝑍 ≥ 𝑅𝑌2⁄𝑋

El agregado de un nuevo regresor puede contradecir la condición de


parsimonia ⇒ medidas con término de penalización:

1) 𝑅2 − 𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜
1
∑𝑡 𝜀̂𝑡2 𝑛−1
𝑅̅𝑌∕𝑋
2
=1− 𝑛 − 2 = 1− 2
(1 − 𝑅𝑌∕𝑋 )
1 2 𝑛 − 2
∑ 𝑦
𝑛−1 𝑡 𝑡
𝑛−1
𝑅̅𝑌2⁄𝑋,𝑍 = 1 − (1 − 𝑅𝑌2⁄𝑋,𝑍 )
𝑛−3
En general:

𝑅̅𝑌2⁄𝑋1,𝑋2,…,𝑋𝑘 = 𝑅𝑌2⁄𝑋1,𝑋2,…,𝑋𝑘 − 𝑓(𝑘)

Entre todos los modelos candidatos debe seleccionarse aquél al que le


corresponda el mayor 𝑅̅2 .

2) Criterios de información

i) Criterio eficiente de Akaike:


2𝑘
𝐴𝐼𝐶(𝑘) = 𝑙𝑛(𝜎̂𝜀2 ) +
𝑛
ii) Criterio consistente de Schwarz:

𝑘 𝑙𝑛(𝑛)
𝑆𝐵𝐶(𝑘) = 𝑙𝑛(𝜎̂𝜀2 ) +
𝑛
36
UCEMA – MAF- ESTADISTICA Alberto Landro

Se debe seleccionar aquel modelo al que le corresponde el menor criterio de


información.

Comprobación del cumplimiento de las condiciones de Gauss-Markov

𝐸(𝜀) = 𝑚(𝜀) = 0 (𝑡 = 1,2, … )

𝜌(𝜀𝑡−𝑗 , 𝜀𝑡 ) = 0 (𝑡 = 1,2, … ; 𝑗 = 1,2, … )

𝜎 2 (𝜀𝑡 ) = 𝜎𝜀2 (𝑡 = 1,2, … )

𝜀𝑡 : 𝑁(0, 𝜎𝜀2 ) (𝑡 = 1,2, … )

i) Test para comprobar la nulidad del valor esperado:

𝐻0 : 𝑚(𝜀) = 0 𝐻1 : 𝑚(𝜀) ≠ 0

Si se cumplen las demás condiciones, es un test con distribución Normal,


usando 𝜀̅ como estimador.

ii) Test de Normalidad (test de Jarque-Bera)

𝐻0 : 𝜀: 𝑁𝑜𝑟𝑚𝑎𝑙

Se basa en la comparación de la asimetría y la kurtosis de la distribución de


los 𝜀̂𝑡 con las medidas de la distribución Normal:

Estimadores:
1
∑ 𝜀̂ 3 𝑑 6
̂ (𝜀̂) =
𝐴𝑠 𝑛 𝑡 → 𝑁 (0, )
3 𝑛
1
(√𝑛 ∑ 𝜀̂𝑡2 )

1
∑ 𝜀̂𝑡4 𝑑 24
̂ (𝜀̂) =
𝐾 𝑛 → 𝑁 (3, )
2 𝑛
1 2
(𝑛 ∑ 𝜀̂𝑡 )

37
UCEMA – MAF- ESTADISTICA Alberto Landro

̂ (𝜀̂)
𝐴𝑠 𝑛 𝑑
̂ (𝜀̂) → 𝑁(0,1)
= √ 𝐴𝑠
6
√6
𝑛
̂ (𝜀̂) − 3
𝐾 𝑛 𝑑
=√ ̂ (𝜀̂) − 3] → 𝑁(0,1)
[𝐾
24
√24
𝑛
𝑛 2 𝑑 𝑛 𝑑
̂ (𝜀̂) → 𝜒(1)
𝐴𝑠 2 ̂ (𝜀̂) − 3]2 → 𝜒(1)
[𝐾 2
6 24

Bajo el supuesto que 𝐻0 es verdadera ⇒ estadístico:


𝑛 1 𝑑
𝐽𝐵 = {𝐴𝑠 ̂ (𝜀̂) − 3]2 } → 𝜒(2)
̂ 2 (𝜀̂) + [𝐾 2
6 4

Si se rechaza 𝐻0 es necesario aplicar algún tipo de transformación para


aproximar a la Normalidad.

38
UCEMA – MAF- ESTADISTICA Alberto Landro

iii) Test para decidir acerca de la existencia de autocorrelaciones entre las 𝜀𝑡

Autocorrelaciones de primer orden – test de Durbin-Watson

Autocovarianza de orden 𝑗:

𝛾(𝜀𝑡−𝑗 , 𝜀𝑡 ) = 𝛾𝑗 (𝜀) = 𝐸(𝜀𝑡−𝑗 𝜀𝑡 ) (𝑗 = 0,1,2, … )

1 𝑛
𝛾̂𝑗 (𝜀̂) = ∑ 𝜀̂𝑡−𝑗 𝜀̂𝑡
𝑛 𝑡=𝑗+1

Autocorrelación de orden 𝑗:

𝛾𝑗 (𝜀)
𝜌(𝜀𝑡−𝑗 , 𝜀𝑡 ) = 𝜌𝑗 (𝜀) = (𝑗 = 0,1,2, … )
𝛾0 (𝜀)

Estimador de la autocorrelación de orden 𝑗:

𝛾̂𝑗 (𝜀) ∑𝑛𝑡=𝑗+1 𝜀̂𝑡−𝑗 𝜀̂𝑡


𝜌̂𝑗 (𝜀) = =
𝛾̂0 (𝜀) ∑𝑛𝑡=1 𝜀̂𝑡2

𝐻0 : 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑑𝑒 𝑝𝑟𝑖𝑚𝑒𝑟 𝑜𝑟𝑑𝑒𝑛 𝑙𝑜𝑠 𝜀𝑡 𝑠𝑢𝑝𝑜𝑛𝑖𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 𝑙𝑎𝑠 𝜀𝑡

𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑁𝑜𝑟𝑚𝑎𝑙


𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 > 0 𝑑𝑒 𝑝𝑟𝑖𝑚𝑒𝑟 𝑜𝑟𝑑𝑒𝑛
𝐻1 : {
𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 < 0 𝑑𝑒 𝑝𝑟𝑖𝑚𝑒𝑟 𝑜𝑟𝑑𝑒𝑛

Estadístico de Durbin-Watson (aproximación de King)

∑𝑛𝑡=2(𝜀̂𝑡 − 𝜀̂𝑡−1 )2 ∑𝑛𝑡=1 𝜀̂𝑡2 + ∑𝑛𝑡=2 𝜀̂𝑡−1


2
− 2 ∑𝑛𝑡=2 𝜀̂𝑡−1 𝜀̂𝑡
𝐷𝑊 = = ≅
∑𝑛𝑡=1 𝜀̂𝑡2 ∑𝑛𝑡=1 𝜀̂𝑡2

2 ∑𝑛𝑡=1 𝜀̂𝑡2 − 2 ∑𝑛𝑡=2 𝜀̂𝑡−1 𝜀̂𝑡


≅ = 2[1 − 𝜌̂1 (𝜀̂)]
∑𝑛𝑡=1 𝜀̂𝑡2

Si

𝜌̂1 (𝜀̂) = 0 ⇒ 𝐷𝑊 = 2

39
UCEMA – MAF- ESTADISTICA Alberto Landro

𝜌̂1 (𝜀̂) = 1 ⇒ 𝐷𝑊 = 0

𝜌̂1 (𝜀̂) = −1 ⇒ 𝐷𝑊 = 4

Si 𝐷𝑊 < 2

Si

𝑑𝑈 < 𝐷𝑊 < 2 ⇒ 𝐻0

0 < 𝐷𝑊 < 𝑑𝐿 ⇒ 𝑠𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝐻0 − 𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 > 0

𝑑𝐿 < 𝐷𝑊 < 𝑑𝑈 ⇒ 𝑒𝑙 𝑡𝑒𝑠𝑡 𝑞𝑢𝑒𝑑𝑎 𝑖𝑛𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑜

Si 𝐷𝑊 > 2

40
UCEMA – MAF- ESTADISTICA Alberto Landro

Si

2 < 𝐷𝑊 < 4𝑑𝑈 ⇒ 𝐻0

4 − 𝑑𝐿 < 𝐷𝑊 < 4 ⇒ 𝑆𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝐻0 − 𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 < 0

4 − 𝑑𝑈 < 𝐷𝑊 < 4 − 𝑑𝐿 ⇒ 𝑒𝑙 𝑡𝑒𝑠𝑡 𝑞𝑢𝑒𝑑𝑎 𝑖𝑛𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑜

Para evitar la indeterminación ⇒ test de DW reducido

Restricciones:

a) La representación debe poseer término independiente significativo


(𝑎0 ≠ 0) Farebrother.

b) En el segundo miembro de la representación no deben figurar regresores


estocásticos. No debe aparecer la variable a explicar rezagada.

Sea la expresión

𝑌𝑡 = 𝑎0 + 𝑎1 𝑋𝑡 + 𝜀𝑡

Si se rechaza el test de Durbin-Watson ⇒ 𝜌1 (𝜀) = 𝜌(𝜀𝑡−1 , 𝜀𝑡 ) ≠ 0. Pero, si


𝜌1 (𝜀) ≠ 0 es porque:

𝜌1 (𝑌) = 𝜌(𝑌𝑡−1 , 𝑌𝑡 ) ≠ 0

Lo cual implica que la expresión anterior debió ser:

𝑌𝑡 = 𝑎0 + 𝑏1 𝑌𝑡−1 + 𝑏2 𝑋𝑡 + 𝜀𝑡

que es una explicación dinámica.

41
UCEMA – MAF- ESTADISTICA Alberto Landro

iv) Test para decidir acerca de la homocedasticidad (𝜎 2 (𝜀𝑡 ) = 𝜎𝜀2 )

En aplicaciones económicas

𝑋 𝜎2
𝜎 2 (𝜀𝑡 ) = { 𝑡2 𝜀2
𝑋𝑡 𝜎𝜀

Test de White

𝑌̂𝑡 = 𝑎̂0 + 𝑎̂1 𝑋𝑡 + 𝑎̂2 𝑍𝑡 (𝑅𝑌2⁄𝑋,𝑍 , 𝜀𝑡 )

𝜀̂𝑡2 = 𝑏̂0 + 𝑏̂1 𝑋𝑡 + 𝑏̂2 𝑋𝑡2 + 𝑏̂3 𝑍𝑡 + 𝑏̂4 𝑍𝑡2 + 𝑏̂5 𝑋𝑡 𝑍𝑡 (𝑅𝜀2∗ , 𝜀𝑡∗ )

𝐻0 : 𝑅𝜀2∗ = 0 𝐻1 : 𝑅𝜀2∗ > 0

Estadístico:
𝑑
𝑛𝑅𝜀2∗ → 𝜒(𝑘
2
∗) (𝑘 ∗ = 5)

Otra modalidad del test de White: Test de significatividad conjunta de los


coeficientes 𝑏𝑗 (𝑗 = 1,2, … , 𝑘 ∗ ):

𝐻0 : 𝑏1 = 𝑏2 = ⋯ = 𝑏𝑘 ∗ = 0

Estadístico:

𝑛 − (𝑘 ∗ + 1) 𝑅𝜀2∗ 𝑑
𝐹= → ℱ𝑘 ∗ ,𝑛−𝑘 ∗−1
𝑘∗ 1 − 𝑅𝜀2∗

42
UCEMA – MAF- ESTADISTICA Alberto Landro

Modelos lineales múltiples

𝑌𝑡 = 𝑓[𝜔(𝑌𝑡 )] + 𝜀𝑡

𝜔(𝑌𝑡 ) = {𝑌𝑡−𝑗 , 𝑋1,𝑡−ℎ1 , … , 𝑋𝑘,𝑡−ℎ𝑘 }

(𝑡 = 1,2, … ; 𝑗 = 1,2, … ; 𝑡 − 𝑗 > 0; ℎ𝑖 > 0; 𝑖 = 1,2, … , 𝑘)

𝜔(𝑌𝑡 ) = {𝑋𝑡1 , 𝑋𝑡2 , … , 𝑋𝑡𝑘 } (𝑡 = 1,2, … , 𝑛)

𝑌 = 𝑋𝑎 + 𝜀
𝑌1 𝑎0 𝜀1
𝑌 = […] 𝑎 = […] 𝜀 = […]
𝑌𝑛 𝑎𝑘 𝜀𝑛

1 𝑋11 … 𝑋1𝑘
𝑋 = [… … … … ]
1 𝑋𝑛1 … 𝑋𝑛𝑘

𝜚(𝑋) = 𝑘 + 1 < 𝑛. Si 𝜚(𝑋) < 𝑘 + 1, dado que 𝑋′𝑋 es simétrica ⇒ (𝑋′𝑋)−1


no existe.

Axiomática de Gauss-Markov:

𝐸(𝜀1 )
𝐸(𝜀) = [ … ] = 0
𝐸(𝜀𝑛 )

𝜎 2 (𝜀1 ) 𝛾(𝜀1 , 𝜀2 ) … 𝛾(𝜀1 , 𝜀𝑛 )


𝛤(𝜀) = 𝐸(𝜀𝜀′) = [ … … … … ]=
2 (𝜀 )
𝛾(𝜀1 , 𝜀𝑛 ) … … 𝜎 𝑛

𝜎 2 (𝜀1 ) 0 … 0
=[ … … … … ] = 𝜎𝜀2 𝐼𝑛
2 (𝜀 )
0 0 … 𝜎 𝑛
𝜀: 𝑁(0, 𝜎𝜀2 𝐼𝑛 )

𝐸(𝑌⁄𝑋) = 𝑋𝑎 =?

𝑌̂ = 𝑋𝑎̂

43
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑎̂ = (𝑋′𝑋)−1 𝑋′𝑌

𝐸(𝑎̂) = 𝑎
{ Γ(𝑎̂) = (𝑋′𝑋)−1 𝜎𝜀2
𝑎̂: 𝑁(𝑎, (𝑋′𝑋)−1 𝜎𝜀2 )

44
UCEMA – MAF- ESTADISTICA Alberto Landro

La explicación del comportamiento de los fenómenos dinámicos

Las explicaciones dinámicas

𝑌𝑡 = 𝑓[𝜔(𝑌𝑡 )] + 𝜀𝑡

𝜔(𝑌𝑡 ) = {𝑌𝑡−𝑗 , 𝑋1,𝑡−ℎ1 , … , 𝑋𝑘,𝑡−ℎ𝑘 }

(𝑡 = 1,2, … ; 𝑗 = 1,2, … ; 𝑡 − 𝑗 > 0, ℎ𝑖 = 1,2, … ; 𝑖 = 1,2, … , 𝑘)

Explicaciones autorregresivas

𝜔(𝑌𝑡 ) = {𝑌𝑡−1 , 𝑌𝑡−2 , 𝑌𝑡−3 , … }

Procesos estocásticos

Teoría general

Fenómeno dinámico=sucesión de variables aleatorias ordenadas en el tiempo

{𝑌(𝑡, 𝜔), 𝑡 ∈ 𝑇, 𝜔 = 𝛺(𝑌)}


𝑑𝑜𝑚𝑖𝑛𝑖𝑜 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜
𝑌(𝑡, 𝜔):evoluciona en un ámbito espacio-temporal {
𝑑𝑜𝑚𝑖𝑛𝑖𝑜 𝑑𝑒 𝑙𝑜𝑠 𝑒𝑠𝑡𝑎𝑑𝑜𝑠

45
UCEMA – MAF- ESTADISTICA Alberto Landro

Clasificación:

i) De acuerdo con las características del dominio de los estados (o de las


variables):

𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑜𝑠: 𝑠𝑖 𝛺(𝑌) 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑛𝑢𝑚𝑒𝑟𝑎𝑏𝑙𝑒


{
𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑜𝑠: 𝑠𝑖 𝛺(𝑌) 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑛𝑜 − 𝑛𝑢𝑚𝑒𝑟𝑎𝑏𝑙𝑒

Ejemplo de proceso discreto: el dado, 𝛺(𝑌) = {1,2,3,4,5,6}

Ejemplo de proceso continuo: la rentabilidad de un activo, 𝛺(𝑌) = {𝑦 ∈ ℝ}


𝑢𝑛𝑖𝑑𝑖𝑚𝑒𝑛𝑠𝑑𝑖𝑜𝑛𝑎𝑙𝑒𝑠
{
𝑚𝑢𝑙𝑡𝑖𝑑𝑖𝑚𝑛𝑒𝑛𝑠𝑖𝑜𝑛𝑎𝑙𝑒𝑠
ii) De acuerdo con las características del dominio del tiempo
𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑜𝑠: 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎𝑠 𝑠𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑛 𝑒𝑛
𝑝𝑢𝑛𝑡𝑜𝑠 𝑑𝑒𝑡𝑒𝑟𝑛𝑚𝑖𝑛𝑎𝑑𝑜 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜

𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑜𝑠: 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎𝑠 𝑠𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑛 𝑒𝑛


{ 𝑝𝑢𝑛𝑡𝑜𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑜𝑠 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜
𝐶𝐶
𝐶𝐷
⇒{
𝐷𝐶
𝐷𝐷

46
UCEMA – MAF- ESTADISTICA Alberto Landro

Definición estricta

𝑓𝑌(𝑡1),𝑌(𝑡2),…,𝑌(𝑡𝑛) (𝑦(𝑡1 ), 𝑦(𝑡2 ), … , 𝑦(𝑡𝑛 ))𝑑𝑦(𝑡1 )𝑑𝑦(𝑡2 ) … 𝑑𝑦(𝑡𝑛 )

𝐹𝑌(𝑡1),𝑌(𝑡2),…,𝑌(𝑡𝑛) (𝑦(𝑡1 ), 𝑦(𝑡2 ), … , 𝑦(𝑡𝑛 ))

Sea, en particular, un proceso {𝑌𝑡 }: 𝐷𝐷:

𝑝[(𝑌1 = 𝑦1 ) ∩ (𝑌2 = 𝑦2 ) ∩ … ∩ (𝑌𝑛 = 𝑦𝑛 )] =

= ∏ 𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , 𝑌𝑡−2 , … ] (𝑡 = 1,2, … )


𝑡

Familia de probabilidades de transición:

𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , 𝑌𝑡−2 , … ] (𝑡 = 1,2, … )

Si:

𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , 𝑌𝑡−2 , … ] = 𝑝(𝑌𝑡 = 𝑦𝑡 ) ⇒ {𝑌𝑡 }: 𝐴𝑅(0)

Proceso de Markov:

𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , 𝑌𝑡−2 , … ] = 𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 ] ⇒ {𝑌𝑡 }: 𝐴𝑅(1)

Proceso de Yule:

𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , 𝑌𝑡−2 , … ] = 𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , 𝑌𝑡−2 ] ⇒ {𝑌𝑡 }: 𝐴𝑅(2)

En general:

𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , … , 𝑌𝑡−𝑝 ] = 𝑝[(𝑌𝑡 = 𝑦𝑡 )⁄𝑌𝑡−1 , … , 𝑌𝑡−𝑝 ] ⇒ {𝑌𝑡 }: 𝐴𝑅(𝑝)

(𝑝 = 1,2, … )

47
UCEMA – MAF- ESTADISTICA Alberto Landro

Definición débil: A partir de los momentos

En particular, los momentos de primero y segundo orden

{𝑌𝑡 }: 𝑁𝑜𝑟𝑚𝑎𝑙

𝐸(𝑌𝑡 ⁄𝑌𝑡−1 , 𝑌𝑡−2 , … ) = 𝑎0 + 𝑎1 𝑌𝑡−1 + 𝑎2 𝑌𝑡−2 + ⋯

Momentos de primer orden = valores esperados

𝑚(𝑌1 ), 𝑚(𝑌2 ), 𝑚(𝑌3 ), …

Momentos de segundo orden = familia de autocovarianzas

𝛾(𝑌𝑡−𝑗 , 𝑌𝑡 ) (𝑡 = 1,2, … ; 𝑗 = 0, ±1, ±2, … )

𝑚(𝑌1 ) =? 𝑝𝑟𝑜𝑏𝑙𝑒𝑚𝑎 𝑒𝑛 𝑒𝑙 𝑑𝑜𝑚𝑖𝑛𝑖𝑜 𝑑𝑒 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠

𝑚(𝑌1 ) = 𝑝𝑟𝑜𝑚(𝑌11 , 𝑌12 , 𝑌13 , … )

48
UCEMA – MAF- ESTADISTICA Alberto Landro

Condición de estacionariedad de orden 𝑠 (1,2, … )

𝑚𝑠 (𝑌𝑡 ) = 𝑚𝑠 (𝑌) (𝑠 = 1,2, … ; 𝑡 = 1,2, … )

Si estacionariedad de orden 𝑠 ⇒ estacionariedad de orden 𝑠 − 1, 𝑠 − 2, …

Estacionariedad de primer orden:

𝑚(𝑌𝑡 ) = 𝐸(𝑌𝑡 ) = 𝑚(𝑌)

49
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑚(𝑌1 ) = 𝑚(𝑌2 ) = ⋯ = 𝑚(𝑌𝑡 ) = 𝑚(𝑌)

𝑚(𝑌) = 𝑝𝑟𝑜𝑚(𝑌1 , 𝑌2 , 𝑌3 , … )

Estacionariedad = teorema de inversión del dominio

Problema en el dominio de las variables ⇒ solución en el dominio del tiempo

Estacionariedad de segundo orden:

𝛾(𝑌𝑡−𝑗 , 𝑌𝑡 ) = 𝛾𝑗 (𝑌) = 𝐸[(𝑌𝑡−𝑗 − 𝑌̅ )(𝑌𝑡 − 𝑌̅)] (𝑗 = 0,1,2, … )

𝛾0 (𝑌) = 𝜎𝑌2

1 𝑝
𝑚(𝑌) =? 𝑌̅(𝑛) = (𝑌1 + 𝑌2 + ⋯ + 𝑌𝑛 ) → 𝑚(𝑌)
𝑛
𝑛
(𝑛) 1 𝑝
𝛾𝑗 (𝑌) =? 𝛾̂𝑗 = ∑ (𝑌𝑡−𝑗 − 𝑌̅)(𝑌𝑡 − 𝑌̅) → 𝛾𝑗 (𝑌)
𝑛
𝑡=𝑗+1

50
UCEMA – MAF- ESTADISTICA Alberto Landro

Estacionariedad estricta:

𝑓𝑌1,𝑌2,…,𝑌𝑡 (𝑦1 , 𝑦2 , … . , 𝑦𝑡 )𝑑𝑦1 𝑑𝑦2 … 𝑑𝑦𝑡 =

= 𝑓𝑌1+ℎ,𝑌2+ℎ,…,𝑌𝑡+ℎ (𝑦1+ℎ , 𝑦2+ℎ , … . , 𝑦𝑡+ℎ )𝑑𝑦1+ℎ … 𝑑𝑦𝑡+ℎ

(𝑡 = 1,2, … ; ℎ = 1,2, … )

Estacionariedad = estructura de probabilidades fija y única

Función de autocorrelaciones

𝛾𝑗 (𝑌)
𝜌𝑗 (𝑌) = (𝑗 = 1,2, … )
𝛾0 (𝑌)

51
UCEMA – MAF- ESTADISTICA Alberto Landro

52
UCEMA – MAF- ESTADISTICA Alberto Landro

Modelos autorregresivos

𝑌𝑡 = 𝑓[𝜔(𝑌𝑡 )] + 𝜀𝑡

𝜔(𝑌𝑡 ) = {𝑌𝑡−1 , 𝑌𝑡−2 , 𝑌𝑡−3 , … , 𝑌𝑡−𝑝 } (𝑝 = 1,2, … )

Test de significatividad individual de los 𝜌𝑗 (𝑌)

Decidir si {𝑌𝑡 }: 𝐴𝑅(0) o no (es decir, decidir si 𝜌𝑗 (𝑌) = 0 (𝑗 = 1,2, … )):

𝐻0 : 𝜌𝑗 (𝑌) = 0 𝐻0 : 𝜌𝑗 (𝑌) ≠ 0

∑𝑛𝑡=𝑗(𝑌𝑡−𝑗 − 𝑌̅)(𝑌𝑡 − 𝑌̅) 𝑛


𝜌̂𝑗 (𝑌) = (𝑗 = 1,2, … , )
∑𝑛𝑡=1(𝑌𝑡 − 𝑌̅)2 4

Bajo el supuesto que 𝐻0 es verdadera:


𝑑 1
𝜌̂𝑗 (𝑌) → 𝑁 (0, )
𝑛
𝑑
√𝑛𝜌̂𝑗 (𝑌) → 𝑁(0,1)

53
UCEMA – MAF- ESTADISTICA Alberto Landro

Si

√𝑛|𝜌̂𝑗 (𝑌)| < 𝑧𝛼∕2

se acepta 𝐻0 .

Para 𝛼 = 0.05 ⇒ si
2
√𝑛|𝜌̂𝑗 (𝑌)| < 2 ⇒ |𝜌̂𝑗 (𝑌)| <
√𝑛
se acepta 𝐻0 (es decir, que {𝑌𝑡 }: 𝐴𝑅(0))

54
UCEMA – MAF- ESTADISTICA Alberto Landro

Para j≅ 0 los 𝜌̂𝑗 (𝑌) están correlacionados ⇒ no tests de significatividad


individual.

55
UCEMA – MAF- ESTADISTICA Alberto Landro

Test de significatividad conjunta

𝐻0 : 𝜌1 (𝑌) = 𝜌2 (𝑌) = ⋯ = 0

Estadístico de Box-Pierce:
𝑛
2
𝑑 𝑛
𝑄𝐵𝑃 (𝑗) = 𝑛 ∑ 𝜌̂𝑖2 (𝑌) → 𝜒(𝑗) (𝑗 = 1,2, … , )
4
𝑖=1

1
𝜎 2 (𝜌̂𝑗 (𝑌)) = genera un sesgo hacia 𝐻0 .
𝑛

Estadístico de Ljung-Box:
𝑛−𝑗
𝜎 2 (𝜌̂𝑗 (𝑌)) =
𝑛(𝑛 + 2)
𝑗
𝐿𝐵 (𝑗)
𝜌̂𝑖2 (𝑌) 𝑑 2
𝑄 = 𝑛(𝑛 + 2) ∑ → 𝜒(𝑗)
𝑛−𝑖
𝑖=1

56
UCEMA – MAF- ESTADISTICA Alberto Landro

Las representaciones

Teorema de Wold (o de la descomposición predictiva)

𝑌𝑡 = 𝜀𝑡 + 𝑎1 𝜀𝑡−1 + ⋯ + 𝑎𝑗 𝜀𝑡−𝑗 + 𝑎𝑗+1 𝑌𝑡−𝑗−1 + 𝑎𝑗+2 𝑌𝑡−𝑗−2 + ⋯

Donde:

𝑌𝑡 : 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑑𝑎

{𝜀𝑡 }: 𝑝𝑟𝑜𝑐𝑒𝑠𝑜 𝑓𝑜𝑟𝑚𝑎𝑑𝑜 𝑝𝑜𝑟 shocks 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑜𝑠

{𝜀𝑡 }: 𝑊𝑁 − 𝑒𝑠𝑡𝑟𝑖𝑐𝑡𝑜

𝐸(𝜀𝑡 ) = 0 (𝑡 = 1,2, … )
Proceso 𝑊𝑁: {
𝜎 2 (𝜀𝑡 ) = 𝜎𝜀2 (𝑡 = 1,2, … )

i) Si, además, se verifica que las variables 𝜀𝑡 son iid ⇒


{𝜀𝑡 }: 𝑊𝑁 − 𝑒𝑠𝑡𝑟𝑖𝑐𝑡𝑜

ii) Si, además, 𝜀𝑡 : 𝑁(0, 𝜎𝜀2 ) ⇒ {𝜀𝑡 }: 𝑊𝑁 − 𝑁(0, 𝜎𝜀2 )

iii) Si 𝛾𝑗 (𝜀) = 0 (𝑗 = 1,2, … ) ⇒ {𝜀𝑡 }: 𝑊𝑁 − 𝑑é𝑏𝑖𝑙

57
UCEMA – MAF- ESTADISTICA Alberto Landro

Haciendo 𝑗 → ∞ ⇒ Representación 𝑀𝐴(∞):


𝑌𝑡 = 𝜀𝑡 + 𝜓1 𝜀𝑡−1 + 𝜓2 𝜀𝑡−2 + ⋯ = ∑ 𝜓𝑗 𝜀𝑡−𝑗 (𝜓0 = 1)


𝑗=0

Operador “backward”:

𝐵𝑌𝑡 = 𝑌𝑡−1

𝐵2 𝑌𝑡 = 𝐵(𝐵𝑌𝑡 ) = 𝐵𝑌𝑡−1 = 𝑌𝑡−2

…………………………

𝐵 𝑗 𝑌𝑡 = 𝑌𝑡−𝑗 (𝑗 = 0,1,2, … )

Luego:

𝑌𝑡 = 𝜀𝑡 + 𝜓1 𝐵𝜀𝑡 + 𝜓2 𝐵2 𝜀𝑡 + ⋯ = (1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ )𝜀𝑡 = 𝛹(𝐵)𝜀𝑡

𝛹(𝐵): 𝑜𝑝𝑒𝑟𝑎𝑑𝑜𝑟 𝑀𝐴 𝑑𝑒 𝑜𝑟𝑑𝑒𝑛 ∞

Para que el sistema:

𝑌𝑡 = 𝛹(𝐵)𝜀𝑡

sea estable y, por lo tanto, {𝑌𝑡 } sea estacionario, debe ser 𝛹(𝐵) < ∞ para
|𝐵| < 1.

La condición necesaria y suficiente para que 𝛹(𝐵) < ∞ es que ∑ 𝜓𝑗2 < ∞
(𝛹(1) = ∑ 𝜓𝑗 es una medida de persistencia).

𝛹(𝐵) < ∞ = 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑒𝑑𝑎𝑑

Comienza una persecución de la condición de estacionariedad

𝜎𝑌2 = 𝛾0 (𝑌) = 𝐸(𝑌𝑡2 ) =

= 𝐸[(𝜀𝑡 + 𝜓1 𝜀𝑡−1 + 𝜓2 𝜀𝑡−2 + ⋯ )(𝜀𝑡 + 𝜓1 𝜀𝑡−1 + 𝜓2 𝜀𝑡−2 + ⋯ )] =

𝜎𝜀2 ∑ 𝜓𝑗2 < ∞

58
UCEMA – MAF- ESTADISTICA Alberto Landro

Haciendo 𝑗 → 0 ⇒ Representación 𝐴𝑅(∞):

𝑌𝑡 = −𝜋1 𝑌𝑡−1 − 𝜋2 𝑌𝑡−2 − ⋯ + 𝜀𝑡

𝑌𝑡 + 𝜋1 𝑌𝑡−1 + 𝜋2 𝑌𝑡−2 + ⋯ = 𝜀𝑡

(1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯ )𝑌𝑡 = 𝜀𝑡

𝛱(𝐵)𝑌𝑡 = 𝜀𝑡

Para que el sistema sea estable y, por lo tanto {𝑌𝑡 } sea invertible, debe ser

𝛱(𝐵) < ∞ (|𝐵| ≤ 1)

La condición necesaria y suficiente para que 𝛱(𝐵) < ∞ es que ∑ 𝜋𝑖2 < ∞.

𝛱(𝐵) < ∞ = 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑

Inversión de la representación

𝑌𝑡 = 𝛹(𝐵)𝜀𝑡

𝛱(𝐵)𝑌𝑡 = 𝛱(𝐵)𝛹(𝐵)𝜀𝑡 = 𝜀𝑡 ⇒ 𝛱(𝐵) = [𝛹(𝐵)]−1

59
UCEMA – MAF- ESTADISTICA Alberto Landro

Representación 𝐴𝑅(𝑝)

Como ∑ 𝜋𝑖2 < ∞ ⇒ −𝜋1 = 𝜙1

−𝜋2 = 𝜙2

………..

−𝜋𝑝 = 𝜙𝑝

−𝜋𝑗 = 0 (𝑗 > 𝑝)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + ⋯ + 𝜙𝑝 𝑌𝑡−𝑝 + 𝜀𝑡

𝑌𝑡 − 𝜙1 𝑌𝑡−1 − 𝜙2 𝑌𝑡−2 − ⋯ − 𝜙𝑝 𝑌𝑡−𝑝 = 𝜀𝑡

(1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 )𝑌𝑡 = 𝜀𝑡

Φ(𝐵)𝑌𝑡 = 𝜀𝑡

Se debe resolver:

1) Condiciones de estacionariedad e invertibilidad.


𝑠𝑒𝑙𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎 𝑓𝑎𝑚𝑖𝑙𝑖𝑎
2) Especificación de la representación {
𝑠𝑒𝑙𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑜𝑟𝑑𝑒𝑛
3) Estimación de la representación = construcción del modelo.

4) Análisis de los residuos.

1) Condiciones de estacionariedad e invertibilidad

𝛱(𝐵) < ∞ = 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑

𝛹(𝐵) < ∞ = 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑒𝑑𝑎𝑑

En el 𝐴𝑅(𝑝), 𝛱(𝐵) → 𝛷(𝐵) ⇒ no puede ser divergente ⇒ 𝐴𝑅(𝑝) siempre es


invertible.

Para la estacionariedad es necesario hallar la forma 𝑀𝐴 del 𝐴𝑅(𝑝):

60
UCEMA – MAF- ESTADISTICA Alberto Landro

−1
𝑌𝑡 = [Φ(𝐵)]−1 𝜀𝑡 = (1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 ) 𝜀𝑡 =

1
= 𝜀 = 𝛹(𝐵)𝜀𝑡
1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 𝑡

___________________________________

Ejemplo 𝐴𝑅(1):

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜀𝑡

(1 − 𝜙1 𝐵)𝑌𝑡 = 𝜀𝑡

𝑌𝑡 = (1 − 𝜙1 𝐵)−1 𝜀𝑡 = (1 − 𝜙1 𝐵 − 𝜙12 𝐵2 − ⋯ )𝜀𝑡

__________________________________

Ecuación característica:

𝛷(𝐵) = 1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 = 0

𝐺1 , 𝐺2 , … , 𝐺𝑝

Condición de estacionariedad:

|𝐺1 |, |𝐺2 |, … , |𝐺𝑝 | > 1

_________________________________

Ejemplo 𝐴𝑅(1):

𝛷(𝐵) = 1 − 𝜙1 𝐵 = 0 |𝐺1 | = |𝜙1−1 | > 1 ⇒ |𝜙1 | < 1

_______________________________

61
UCEMA – MAF- ESTADISTICA Alberto Landro

2) Especificación

i) Selección de la familia

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + ⋯ + 𝜙𝑝 𝑌𝑡−𝑝 + 𝜀𝑡

𝐸(𝑌𝑡−𝑗 𝑌𝑡 ) = 𝛾𝑗 (𝑌) = 𝜙1 𝐸(𝑌𝑡−𝑗 𝑌𝑡−1 ) + 𝜙2 𝐸(𝑌𝑡−𝑗 𝑌𝑡−2 ) + ⋯ +

+𝜙𝑝 𝐸(𝑌𝑡−𝑗 𝑌𝑡−𝑝 ) + 𝐸(𝑌𝑡−𝑗 𝜀𝑡 ) (𝑗 = 1,2, … )

Función de autocovarianzas:

𝛾𝑗 (𝑌) = 𝜙1 𝛾𝑗−1 (𝑌) + 𝜙2 𝛾|𝑗−2| (𝑌) + ⋯ + 𝜙𝑝 𝛾|𝑗−𝑝| (𝑌) (𝑗 = 1,2, … )

Función de autocorrelaciones:

𝜌𝑗 (𝑌) = 𝜙1 𝜌𝑗−1 (𝑌) + 𝜙2 𝜌|𝑗−2| (𝑌) + ⋯ + 𝜙𝑝 𝜌|𝑗−𝑝| (𝑌) (𝑗 = 1,2, … )

_____________________________

Ejemplo 𝐴𝑅(1):

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜀𝑡

𝜌𝑗 (𝑌) = 𝜙1 𝜌𝑗−1 (𝑌) (𝑗 = 1,2, … )


𝑗
𝜌1 (𝑌) = 𝜙1 𝜌2 (𝑌) = 𝜙1 𝜌1 (𝑌) = 𝜌12 (𝑌) 𝜌𝑗 (𝑌) = 𝜌1 (𝑌) (𝑗 = 1,2, … )

𝐴𝑅(𝑝): función de autocorrelaciones infinita

_____________________________

62
UCEMA – MAF- ESTADISTICA Alberto Landro

Algunas demostraciones

Sea un proceso {𝑌𝑡 }: 𝐴𝑅(𝑝).

Su estructura autorregresiva será de la forma:

𝑌𝑡 − 𝜙1 𝑌𝑡−1 − 𝜙2 𝑌𝑡−2 − ⋯ − 𝜙𝑝 𝑌𝑡−𝑝 = 0

Ecuación característica:

𝛷(𝐵) = 1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 = 0

La estructura autorregresiva es una ecuación en diferencias cuya ecuación


auxiliar es de la forma:

𝜆𝑝 − 𝜙1 𝜆𝑝−1 − 𝜙2 𝜆𝑝−2 − ⋯ − 𝜙𝑝 = 0 (𝐺1−1 , 𝐺2−1 , … , 𝐺𝑝−1 )

Proporciona la solución general de la ecuación en diferencias y el


comportamiento estructural de 𝑌𝑡 :
𝑡
𝑌𝑡 = 𝐴1 (𝐺1−1 )𝑡 + 𝐴2 (𝐺2−1 )𝑡 + ⋯ + 𝐴𝑝 (𝐺𝑝−1 )

La 𝐹𝐴𝐶:

𝜌𝑗 (𝑌) − 𝜙1 𝜌𝑗−1 (𝑌) − 𝜙2 𝜌|𝑗−2| (𝑌) − ⋯ − 𝜙𝑝 𝜌|𝑗−𝑝| (𝑌) = 0

es una ecuación en diferencias con la misma ecuación auxiliar y el mismo


comportamiento estructural:
𝑗
𝜌𝑗 (𝑌) = 𝐶1 (𝐺1−1 )𝑗 + 𝐶2 (𝐺2−1 )𝑗 + ⋯ + 𝐶𝑝 (𝐺𝑝−1 )

Lo que demuestra que el comportamiento estructural de 𝑌𝑡 es igual al


comportamiento estructural de su 𝐹𝐴𝐶.

Si {𝑌𝑡 }: 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜 ⇒ |𝐺𝑖 | > 1 (𝑖 = 1,2, … , 𝑝) ⇒ 𝜌𝑗 (𝑌) es una


combinación de funciones exponenciales decrecientes (o sinusoidales
amortiguadas) ⇒ es una función exponencial decreciente.

63
UCEMA – MAF- ESTADISTICA Alberto Landro

|𝐺𝑖 | > 1 (𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜)

Φ(𝐵) = 0 |𝐺𝑖 | < 1 (𝑒𝑥𝑝𝑙𝑜𝑠𝑖𝑣𝑜)

{ |𝐺𝑖 | = 1 (𝑛𝑜 − 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜)

Supóngase que |𝐺𝑖 | > 1 (𝑖 = 1,2, … , 𝑝)

|𝐺1 | = 1 + 𝜀

Para 𝑗 > 𝑗0 ⇒ 𝜌𝑗 (𝑌) ≅ 𝐶1 (𝐺1 )−𝑗 = 𝐶1 (1 + 𝜀)−𝑗 ≅ 𝐶1 (1 − 𝑗𝜀)

La 𝐹𝐴𝐶 es linealmente decreciente.

_______________________________

ii) Selección del orden 𝑝:

Sistema de ecuaciones de Yule y Walker (función de autocorrelaciones


parciales 𝐹𝐴𝐶𝑃):

𝜌1 (𝑌) = 𝜙1𝑝 + 𝜙2𝑝 𝜌1 (𝑌) + ⋯ + 𝜙𝑝𝑝 𝜌𝑝−1 (𝑌)


𝜌2 (𝑌) = 𝜙1𝑝 𝜌1 (𝑌) + 𝜙2𝑝 + ⋯ + 𝜙𝑝𝑝 𝜌|𝑝−2| (𝑌)
………………………………………
{ 𝜌𝑝 (𝑌) = 𝜙1𝑝 𝜌𝑝−1 (𝑌) + 𝜙2𝑝 𝜌|𝑝−2| (𝑌) + ⋯ + 𝜙𝑝𝑝

Para 𝑝 = 1:

𝜌1 (𝑌) = 𝜙11

Para 𝑝 = 2:

𝜌 (𝑌) = 𝜙12 + 𝜙22 𝜌1 (𝑌)


{ 1
𝜌2 (𝑌) = 𝜙12 𝜌1 (𝑌) + 𝜙22

64
UCEMA – MAF- ESTADISTICA Alberto Landro

𝜌2 (𝑌) − 𝜌12 (𝑌)


𝜙22 =
1 − 𝜌12 (𝑌)

………………………

____________________________

Ejemplo 𝐴𝑅(1):

𝜙11 = 𝜌1 (𝑌)

𝜙22 = 0

𝜙33 = 0

……………

___________________________

𝐴𝑅(𝑝): 𝐹𝐴𝐶𝑃 significativa hasta el orden 𝑝 y después se anula

Significatividad de los 𝜙𝑗𝑗 :


𝑛
𝐻0 : 𝜙𝑗𝑗 = 0 𝐻1 : 𝜙𝑗𝑗 ≠ 0 (𝑗 = 1,2, … , )
4
𝜙̂𝑗𝑗 : 𝑏𝑎𝑗𝑜 𝑒𝑙 𝑠𝑢𝑝𝑢𝑒𝑠𝑡𝑜 𝑞𝑢𝑒 𝐻0 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 ⇒

𝑎𝑠𝑖𝑛𝑡ó𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜𝑠

⇒ 𝑎𝑠𝑖𝑛𝑡ó𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑁𝑜𝑟𝑚𝑎𝑙𝑒𝑠

2 ̂
1
{ 𝑡𝑎𝑙𝑒𝑠 𝑞𝑢𝑒 𝜎 (𝜙𝑗𝑗 ) ≅ 𝑛

65
UCEMA – MAF- ESTADISTICA Alberto Landro

Estadístico del test:


𝑑 1
𝜙̂𝑗𝑗 → 𝑁 (0, )
𝑛
𝑑
√𝑛|𝜙̂𝑗𝑗 | → 𝑁(0,1)

Si √𝑛|𝜙̂𝑗𝑗 | < 𝑧𝛼∕2 ⇒ se acepta 𝐻0 .

2
Para 𝛼 = 0,05 ⇒ si |𝜙̂𝑗𝑗 | < ⇒ se acepta 𝐻0 .
√𝑛

66
UCEMA – MAF- ESTADISTICA Alberto Landro

3) Construcción del modelo = estimación de los coeficientes

i) Estimación por Yule-Walker

Sistema de Yule-Walker con los 𝜌̂𝑗 (𝑌)

𝜌̂1 (𝑌) = 𝜙1 + 𝜙2 𝜌̂1 (𝑌) + ⋯ + 𝜙𝑝 𝜌̂𝑝−1 (𝑌)


𝜌̂2 (𝑌) = 𝜙1 𝜌̂𝑗 (𝑌) + 𝜙2 + ⋯ + 𝜙𝑝 𝜌̂|𝑝−2| (𝑌)
………………………………………
{𝜌̂𝑝 (𝑌) = 𝜙1 𝜌̂𝑝−1 (𝑌) + 𝜙2 𝜌̂|𝑝−2| (𝑌) + ⋯ + 𝜙𝑝

Sistema de 𝑝 ecuaciones lineales con 𝑝 incógnitas ⇒


𝑎𝑠𝑖𝑛𝑡ó𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠
⇒ 𝜙̂𝑗𝑌𝑊 (1,2, … , 𝑝) { 𝑑
→ 𝑁𝑜𝑟𝑚𝑎𝑙
ii) Estimación por cuadrados mínimos ordinarios (𝐶𝑀𝑂):
𝑛 𝑛 𝑛
2 2
∑ 𝜀̂𝑡2 = ∑ (𝑌𝑡 − 𝑌̂𝑡 ) = ∑ (𝑌𝑡 − 𝜙̂1 𝑌𝑡−1 − ⋯ − 𝜙̂𝑝 𝑌𝑡−𝑝 ) = 𝑚𝑖𝑛
𝑡=𝑝+1 𝑡=𝑝+1 𝑡=𝑝+1

𝑎𝑠𝑖𝑛𝑡ó𝑡𝑖𝑐𝑜𝑠 𝑎 𝑙𝑜𝑠 𝜙̂𝑗𝑌𝑊

𝑓𝑜𝑟𝑚𝑎𝑙𝑚𝑒𝑛𝑡𝑒 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝑎 𝑙𝑜𝑠 𝑚𝑜𝑑𝑒𝑙𝑜𝑠 𝑐𝑙á𝑠𝑖𝑐𝑜𝑠


𝜙̂𝑗𝐶𝑀𝑂 (1,2, … , 𝑝)
𝑌𝑡−1 , … , 𝑌𝑡−𝑝 𝑠𝑜𝑛 𝑟𝑒𝑔𝑟𝑒𝑠𝑜𝑟𝑒𝑠 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑜𝑠
𝑑
𝑠𝑖 {𝜀𝑡 } → 𝑁𝑜𝑟𝑚𝑎𝑙 ⇒ 𝑎𝑠𝑖𝑛𝑡ó𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠
{ 𝑐𝑜𝑛𝑠𝑖𝑠𝑡𝑒𝑛𝑡𝑒𝑠

iii) Estimación máximo-verosímil

67
UCEMA – MAF- ESTADISTICA Alberto Landro

Varianzas y covarianzas de los estimadores

𝜎 2 (𝜙̂1 ) 𝛾(𝜙̂1 , 𝜙̂2 ) … 𝛾(𝜙̂1 , 𝜙̂𝑝 )


𝛤𝑝 (𝜙̂) = [ … … … … ]≅
𝛾(𝜙̂1 , 𝜙̂𝑝 ) 𝛾(𝜙̂2 , 𝜙̂𝑝 ) … 𝜎 (𝜙̂𝑝 )
2

1
≅ [1 − 𝜌̂𝑝𝑇 (𝑌)𝜙̂𝑝 ]𝛲𝑝−1 (𝑌)
𝑛
Donde:

𝜌̂1 (𝑌) 𝜙̂1 1 𝜌̂1 (𝑌) … 𝜌̂𝑝−1 (𝑌)


𝜌̂𝑝 (𝑌) = [ … ] 𝜙̂𝑝 = [ … ] 𝛲𝑝 = [ … … … … ]
𝜌̂𝑝 (𝑌) 𝜙̂𝑝 𝜌̂𝑝−1 (𝑌) 𝜌̂𝑝−2 (𝑌) … 1

68
UCEMA – MAF- ESTADISTICA Alberto Landro

Test de significatividad individual de los 𝜙𝑗 :

𝐻0 : 𝜙𝑗 = 0 𝐻1 : 𝜙𝑗 ≠ 0 (𝑗 = 1,2, … , 𝑝)

Estadístico del test:

𝜙̂𝑗
𝑇= : 𝑡(𝑛−𝑝) (ó 𝑛 − 𝑝 − 1)
𝜎̂(𝜙̂𝑗 )

69
UCEMA – MAF- ESTADISTICA Alberto Landro

Selección del orden 𝑝 utilizando criterios de información

Criterios = medidas con término de penalización

i) Criterios eficientes (criterios de Akaike):

(𝑀𝑉)2 2(𝑝 + 1)
𝐴𝐼𝐶(𝑝) = 𝑙𝑛 [𝜎̂𝜀 (𝐴𝑅(𝑝))] +
𝑛−𝑝
𝑛
(𝑀𝑉)2 1
𝜎̂𝜀 (𝐴𝑅(𝑝)) = ∑ 𝜀̂𝑡2
𝑛−𝑝
𝑡=𝑝+1

presenta un sesgo hacia la sobreestimación en series cortas.

(𝑀𝑉)2 𝑛
𝐴𝐼𝐶𝑐 (𝑝) = 𝑙𝑛 [𝜎̂𝜀 (𝐴𝑅(𝑝))] +
𝑛 − 2(𝑝 + 1)

𝑛
𝐴𝐼𝐶𝑢 (𝑝) = 𝑙𝑛[𝜎̂𝜀2 (𝐴𝑅(𝑝))] +
𝑛 − 2(𝑝 + 1)
𝑛
1
𝜎̂𝜀2 (𝐴𝑅(𝑝)) = ∑ 𝜀̂𝑡2
𝑛 − 2𝑝
𝑡=𝑝+1

Sea 𝐴𝑅(𝑝1 ) el mejor modelo.

Sea 𝑝2 > 𝑝1 . El error de elegir 𝑝2 (𝐴𝐼𝐶 (𝑝2 ) < 𝐴𝐼𝐶(𝑝1 )):

2
𝑙𝑖𝑚 𝑝[𝐴𝐼𝐶(𝑝2 ) < 𝐴𝐼𝐶(𝑝1 )] = 𝑝 (𝜒2(𝑝2 −𝑝1 )
> 3(𝑝2 − 𝑝1 ))
𝑛→∞

2
𝑙𝑖𝑚 𝑝[𝐴𝐼𝐶𝑐 (𝑝2 ) < 𝐴𝐼𝐶𝑐 (𝑝1 )] = 𝑝 (𝜒2(𝑝2 −𝑝1 )
> 3(𝑝2 − 𝑝1 ))
𝑛→∞

2
𝑙𝑖𝑚 𝑝[𝐴𝐼𝐶𝑢 (𝑝2 ) < 𝐴𝐼𝐶𝑢 (𝑝1 )] = 𝑝 (𝜒2(𝑝2 −𝑝1 )
> 4(𝑝2 − 𝑝1 ))
𝑛→∞

70
UCEMA – MAF- ESTADISTICA Alberto Landro

ii) Criterios consistentes (el verdadero modelo pertenece al conjunto de


modelos candidatos)

Criterio de Schwarz:

(𝑀𝑉)2 𝑝 𝑙𝑛(𝑛 − 𝑝)
𝑆𝐼𝐶(𝑝) = 𝑙𝑛 [𝜎̂𝜀 (𝐴𝑅(𝑝))] +
𝑛−𝑝

Criterio de Hannan-Quinn:

(𝑀𝑉)2 𝑝 𝑙𝑛[𝑙𝑛(𝑛 − 𝑝)]


𝐻𝑄(𝑝) = 𝑙𝑛 [𝜎̂𝜀 (𝐴𝑅(𝑝))] +
𝑛−𝑝

(𝑀𝑉)2 2𝑝 𝑙𝑛[𝑙𝑛(𝑛 − 𝑝)]


𝐻𝑄𝑐 (𝑝) = 𝑙𝑛 [𝜎̂𝜀 (𝐴𝑅(𝑝))] +
𝑛 − 2(𝑝 + 1)

71
UCEMA – MAF- ESTADISTICA Alberto Landro

Proceso 𝐴𝑅(2)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + 𝜀𝑡

𝛷(𝐵) = 1 − 𝜙1 𝐵 + 𝜙2 𝐵2 = 0

−𝜙1 ± √𝜙12 + 4𝜙2


𝐺=
2𝜙2

Si 𝐷 = 𝜙12 + 4𝜙2 > 0 𝐺1 ≠ 𝐺2 (𝐺1 , 𝐺2 ∈ ℝ) |𝐺1 |, |𝐺2 | > 1

Comportamiento estructural de 𝑌𝑡 :

𝑌𝑡 = 𝐴1 (𝐺1−1 )𝑡 + 𝐴1 (𝐺2−1 )𝑡 (|𝐺1−1 |, |𝐺2−1 | < 1)

Combinación lineal de funciones exponenciales decrecientes.

}Si 𝐷 = 𝜙12 + 4𝜙2 < 0 𝐺1 , 𝐺2 𝑐𝑜𝑚𝑝𝑙𝑒𝑗𝑎𝑠 𝑐𝑜𝑛𝑗𝑢𝑔𝑎𝑑𝑎𝑠

Función sinusoidal amortiguada con amplitud:


𝑡
(𝑠𝑖𝑔𝑛𝑜(𝜙1 )) 𝑑𝑡
𝑌(𝑡) =
𝑠𝑒𝑛(𝛼)
donde:

𝑑 = √−𝜙2

1 + 𝑑2
𝑡𝑔(𝛼) = 𝑡𝑔(2𝜋𝜃)
1 − 𝑑2
𝜙1
𝑐𝑜𝑠(2𝜋𝜃) =
2|√−𝜙2 |

72
UCEMA – MAF- ESTADISTICA Alberto Landro

Si 𝐷 = 𝜙12 + 4𝜙2 = 0 𝐺1 = 𝐺2

𝑌(𝑡) = (𝐴1 + 𝐴2 𝑡)(𝐺 −1 )𝑡

Función compuesta por una función lineal (1 + 𝛼𝑡) y una función exponencial
decreciente.

73
UCEMA – MAF- ESTADISTICA Alberto Landro

http://bibliotecadigital.econ.uba.ar/download/libros/Landro-Gonzalez_Elementos-econometria-
fenomenos-dinamicos-1.pdf

74
UCEMA – MAF- ESTADISTICA Alberto Landro

Representación 𝑀𝐴(𝑞)

Representación 𝑀𝐴(∞):

𝑌𝑡 = 𝜀𝑡 + 𝜓1 𝜀𝑡−1 + 𝜓2 𝜀𝑡−2 + ⋯ = ∑ 𝜓𝑗 𝜀𝑡−𝑗 (𝜓0 = 1)


𝑗=0

𝑌𝑡 = 𝛹(𝐵)𝜀𝑡

Para que 𝛹(𝐵) < ∞ (|𝐵| ≤ 1) debe ser ∑ 𝜓𝑗2 < ∞

𝜓1 = −𝜃1

𝜓2 = −𝜃2

………

𝜓𝑞 = −𝜃𝑞

𝜓𝑗 = 0 (𝑗 > 𝑞)

𝑌𝑡 = 𝜀𝑡 + 𝜃1 𝜀𝑡−1 + 𝜃2 𝜀𝑡−2 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑞 =

= (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 )𝜀𝑡 = 𝛩(𝐵)𝜀𝑡

Se debe resolver:

i) Condiciones de estacionariedad e invertibilidad


𝑠𝑒𝑙𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎 𝑓𝑎𝑚𝑖𝑙𝑖𝑎
ii) Especificación de la representación {
𝑠𝑒𝑙𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑜𝑟𝑑𝑒𝑛
iii) Construcción del modelo

iv) Análisis de los residuos

75
UCEMA – MAF- ESTADISTICA Alberto Landro

i) Condiciones de estacionariedad e invertibilidad

𝛹(𝐵) < ∞ ⇒ 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑒𝑑𝑎𝑑

𝛱(𝐵) < ∞ ⇒ 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑

En el 𝑀𝐴(𝑞), 𝛹(𝐵) → 𝛩(𝐵) ⇒ no puede ser divergente ⇒ 𝑀𝐴(𝑞) siempre


estacionario.

Para la invertibilidad, en necesario hallar la forma 𝐴𝑅 del 𝑀𝐴(𝑞):

[𝛩(𝐵)]−1 𝑌𝑡 = 𝜀𝑡
−1
(1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 ) 𝑌𝑡 =

1
= 𝑌 = 𝜀𝑡
1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 𝑡

Π(𝐵)𝑌𝑡 = 𝜀𝑡

Cuando se invierte una representación, se obtiene como resultado una


representación de orden infinito.

Ecuación característica:

𝛩(𝐵) = 1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 = 0 (𝐻1 , 𝐻2 , … , 𝐻𝑞 )

Condición de invertibilidad:

|𝐻1 |, |𝐻2 |, … , |𝐻𝑞 | > 1

76
UCEMA – MAF- ESTADISTICA Alberto Landro

2) Especificación de la representación

i) Selección de la familia:

𝑌𝑡 = 𝜀𝑡 + 𝜃1 𝜀𝑡−1 + 𝜃2 𝜀𝑡−2 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑞

𝐸(𝑌𝑡−𝑗 𝑌𝑡 ) = 𝛾𝑗 (𝑌) =

=[(𝜀𝑡−𝑗 + 𝜃1 𝜀𝑡−𝑗−1 + 𝜃2 𝜀𝑡−𝑗−2 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑗−𝑞 )(𝜀𝑡 + 𝜃1 𝜀𝑡−1 + 𝜃2 𝜀𝑡−2 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑞 )]

Función de autocovarianzas:

𝛾0 (𝑌) = 𝜎𝑌2 = (1 + 𝜃12 + ⋯ + 𝜃𝑞2 )𝜎𝜀2

𝛾1 (𝑌) = (−𝜃1 + 𝜃1 𝜃2 + ⋯ + 𝜃𝑞−1 𝜃𝑞 )𝜎𝜀2

𝛾2 (𝑌) = (−𝜃2 + 𝜃1 𝜃3 + ⋯ + 𝜃𝑞−2 𝜃𝑞 )𝜎𝜀2

𝛾1 (𝑌) = −𝜃𝑞 𝜎𝜀2

𝛾𝑗 (𝑌) = 0 (𝑗 = 𝑞 + 1, 𝑞 + 2, … )

Función de autocorrelaciones (𝐹𝐴𝐶):


−𝜃2 + 𝜃1 𝜃3 + ⋯ + 𝜃𝑞−2 𝜃𝑞
(𝑗 = 1,2, … , 𝑞)
1 + 𝜃12 + ⋯ + 𝜃𝑞2
𝜌𝑗 (𝑌) =
{0 (𝑗 > 𝑞)

𝑀𝐴(𝑞): 𝐹𝐴𝐶 significativa hasta el orden 𝑞.

Función de autocorrelaciones parciales (𝐹𝐴𝐶𝑃):

𝑀𝐴(𝑞): 𝐹𝐴𝐶P es infinita.

77
UCEMA – MAF- ESTADISTICA Alberto Landro

3) Estimación de los coeficientes

𝜎𝑌2 = (1 + 𝜃12 + ⋯ + 𝜃𝑞2 )𝜎𝜀2

−𝜃2 + 𝜃1 𝜃3 + ⋯ + 𝜃𝑞−2 𝜃𝑞
𝜌𝑗 (𝑌) = (𝑗 = 1,2, … , 𝑞)
{ 1 + 𝜃12 + ⋯ + 𝜃𝑞2

Sistema de ecuaciones no-lineales.

Representación 𝐴𝑅𝑀𝐴(𝑝, 𝑞)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + ⋯ + 𝜙𝑝 𝑌𝑡−𝑝 +𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 − ⋯ − 𝜃𝑞 𝜀𝑡−𝑞

𝑌𝑡 − 𝜙1 𝑌𝑡−1 − 𝜙2 𝑌𝑡−2 − ⋯ − 𝜙𝑝 𝑌𝑡−𝑝 = 𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 − ⋯ − 𝜃𝑞 𝜀𝑡−𝑞

(1 − 𝜙1 𝐵 − ⋯ − 𝜙𝑝 𝐵𝑝 )𝑌𝑡 = (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 )𝜀𝑡

Φ(𝐵)𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

1) Condiciones de estacionariedad e invertibilidad

𝛹(𝐵) < ∞ ⇒ 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑒𝑑𝑎𝑑

𝛱(𝐵) < ∞ ⇒ 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑

Para la estacionariedad es necesario hallar la forma 𝑀𝐴 del 𝐴𝑅𝑀𝐴(𝑝, 𝑞):

𝛩(𝐵)
𝑌𝑡 = [𝛷(𝐵)]−1 𝛩(𝐵)𝜀𝑡 = 𝜀 = 𝛹(𝐵)𝜀𝑡
1 − 𝜙1 𝐵 − ⋯ − 𝜙𝑝 𝐵𝑝 𝑡

Ecuación característica de la componente 𝐴𝑅:

𝛷(𝐵) = 1 − 𝜙1 𝐵 − ⋯ − 𝜙𝑝 𝐵𝑝 = 0 (𝐺1 , 𝐺2 , … , 𝐺𝑝 )

Condición de estacionariedad:

|𝐺1 |, |𝐺2 |, … , |𝐺𝑝 | > 1


78
UCEMA – MAF- ESTADISTICA Alberto Landro

Para la invertibilidad es necesario halla la forma 𝐴𝑅 del 𝐴𝑅𝑀𝐴(𝑝, 𝑞):

[𝛩(𝐵)]−1 𝛷(𝐵)𝑌𝑡 = 𝜀𝑡

𝛷(𝐵)
𝑌 = 𝛱(𝐵)𝑌𝑡 = 𝜀𝑡
1 − 𝜃1 𝐵 − ⋯ − 𝜃𝑞 𝐵𝑞 𝑡

Ecuación característica de la componente 𝑀𝐴:

𝛩(𝐵) = 1 − 𝜃1 𝐵 − ⋯ − 𝜃𝑞 𝐵𝑞 = 0 (𝐻1 , 𝐻2 , … , 𝐻𝑞 )

Condición de invertibilidad:

|𝐻1 |, |𝐻2 |, … , |𝐻𝑞 | > 1

79
UCEMA – MAF- ESTADISTICA Alberto Landro

2) Especificación:

𝐸(𝑌𝑡−𝑗 𝑌𝑡 ) = 𝛾𝑗 (𝑌) =

= 𝜙1 𝐸(𝑌𝑡−𝑗 𝑌𝑡−1 ) + ⋯ + 𝜙𝑝 𝐸(𝑌𝑡−𝑗 𝑌𝑡−𝑝 ) +

+𝐸(𝑌𝑡−𝑗 𝜀𝑡 ) − 𝜃1 𝐸(𝑌𝑡−𝑗 𝜀𝑡−1 ) − ⋯ − 𝜃𝑞 𝐸(𝑌𝑡−𝑗 𝜀𝑡−𝑞 )

𝛾0 (𝑌) = 𝜙1 𝛾1 (𝑌) + ⋯ + 𝜙𝑝 𝛾𝑝 (𝑌) + 𝜎𝜀2 − 𝜃1 𝛾(𝑌𝑡 𝜀𝑡−1 ) − ⋯ − 𝜃𝑞 𝛾(𝑌𝑡 𝜀𝑡−𝑞 )

𝛾1 (𝑌) = 𝜙1 𝛾0 (𝑌) + ⋯ + 𝜙𝑝 𝛾𝑝−1 (𝑌) − 𝜃1 𝜎𝜀2 − 𝜃1 𝛾(𝑌𝑡−1 𝜀𝑡−2 ) − ⋯ − 𝜃𝑞 𝛾(𝑌𝑡−1 𝜀𝑡−𝑞 )

… … … … … … … … … … … … … … … … … ….
𝛾𝑞 (𝑌) = 𝜙1 𝛾𝑞−1 (𝑌) + ⋯ + 𝜙𝑝 𝛾|𝑞−𝑝| (𝑌) − 𝜃𝑞 𝜎𝜀2

𝛾𝑗 (𝑌) = 𝜙1 𝛾𝑗−1 (𝑌) + 𝜙2 𝛾|𝑗−2| (𝑌) + ⋯ + 𝜙𝑝 𝛾|𝑗−𝑝| (𝑌) (𝑗 > 𝑝)

𝐴𝑅𝑀𝐴(𝑝, 𝑞): 𝐹𝐴𝐶 es infinita y 𝐹𝐴𝐶𝑃 es infinita.

80
UCEMA – MAF- ESTADISTICA Alberto Landro

3) Estimación de los coeficientes:

i) Estimación de los coeficientes 𝜙𝑗 (𝑗 = 1,2, … , 𝑝):

Ecuaciones de Yule-Walker

𝜌̂𝑞+1 (𝑌) = 𝜙1 𝜌̂𝑞 (𝑌) + 𝜙1 𝜌̂𝑞−1 (𝑌) + ⋯ + 𝜙1 𝜌̂1 (𝑌)

𝜌̂𝑞+2 (𝑌) = 𝜙1 𝜌̂𝑞+1 (𝑌) + 𝜙1 𝜌̂𝑞 (𝑌) + ⋯ + 𝜙1 𝜌̂2 (𝑌)

……………………………………

{𝜌̂𝑞+𝑝 (𝑌) = 𝜙1 𝜌̂𝑞+𝑝−1 (𝑌) + 𝜙1 𝜌̂𝑞+𝑝−2 (𝑌) + ⋯ + 𝜙1 𝜌̂𝑞 (𝑌)

𝜙̂1 , 𝜙̂2 , … , 𝜙̂𝑝

Sustituir estos valores en las 𝑞 + 1 primeras ecuaciones ⇒ se obtienen los


estimadores 𝜎̂𝜀2 ,𝜃̂1 , 𝜃̂2 , … , 𝜃̂𝑞 (ecuaciones no-lineales).

Estimadores máximo-verosímiles=eficientes.

81
UCEMA – MAF- ESTADISTICA Alberto Landro

4) Análisis de los residuos

Axiomática tomada como punto de partida:

{𝜀𝑡 }: 𝑊𝑁 − 𝑁(0, 𝜎𝜀2 )

i) Test para decidir acerca de la existencia de autocorrelaciones en las


perturbaciones:

𝐻0 : {𝜀𝑡 }: 𝐴𝑅(0)

Bajo el supuesto que 𝐻0 es verdadera


𝑗
𝜌̂𝑖2 (𝜀) 𝑑 2
𝑄𝑗𝐿𝐵 = (𝑛 − 𝑝)(𝑛 − 𝑝 + 2) ∑ → 𝜒 (𝑗−𝑝−𝑞) (𝑗 > 𝑝 + 𝑞)
𝑛−𝑝+𝑖 (𝑗−𝑝−𝑞−1)
𝑖=1

Si se rechaza 𝐻0 significa que el 𝐴𝑅𝑀𝐴(𝑝, 𝑞) es insuficiente.

ii) Test de Normalidad (test de Jarque-Bera):

Bajo el supuesto que 𝐻0 es verdadera, el estadístico del test es:


𝑛−𝑝 1 𝑑
𝐽𝐵 = ̂ (𝜀̂) − 3)2 ] → 𝜒(2)
[𝐴̂𝑠 2 (𝜀̂) + (𝐾 2
6 4
Si se rechaza 𝐻0 ⇒ Gráfico 𝑄 − 𝑄

82
UCEMA – MAF- ESTADISTICA Alberto Landro

Predicción de procesos estacionarios

Sea un proceso {𝑌𝑡 } que admite una representación 𝐴𝑅𝑀𝐴(𝑝, 𝑞) de la forma:

𝛷(𝐵)𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

Donde

𝑌𝑡 : 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑑𝑎

{𝜀𝑡 }: 𝑊𝑁 − 𝑁(0, 𝜎𝜀2 )

El problema es 𝑌𝑡+ℓ =? (ℓ = 1,2, … )

83
UCEMA – MAF- ESTADISTICA Alberto Landro

Función de predicción o predictor:

𝑓 (𝑡,ℓ) (𝑌𝑡 , 𝑌𝑡−1 , … , 𝑌𝑡−𝑛 ) = 𝐸(𝑌𝑡+ℓ ⁄𝑌𝑡 , … , 𝑌𝑡−𝑛 )

Error de predicción:

𝑒(ℓ, 𝑡) = 𝑌𝑡+ℓ − 𝑓 (𝑡,ℓ)

Criterio de aproximación:

𝑓 (𝑡,ℓ) 𝑑𝑒𝑏𝑒 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟 𝑒𝑙 𝑒𝑟𝑟𝑜𝑟 𝑚𝑒𝑑𝑖𝑜 𝑐𝑢𝑎𝑑𝑟á𝑡𝑖𝑐𝑜

𝑑𝑒𝑏𝑒 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟 𝑙𝑎 𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑖𝑎 𝐿2


2
𝜎̂ 2 (𝑒(ℓ, 𝑡)) = 𝐸 {[𝑌𝑡+ℓ − 𝑓 (𝑡,ℓ) ] }

𝑌𝑡+ℓ = 𝑓 (𝑡,ℓ) + 𝑒(ℓ, 𝑡)

84
UCEMA – MAF- ESTADISTICA Alberto Landro

Sea un predictor 𝑓 (𝑡,ℓ)∗ ≠ 𝑓 (𝑡,ℓ) :

𝑓 (𝑡,ℓ)∗ − 𝑓 (𝑡,ℓ) = 𝜂(ℓ, 𝑡) ⇒ 𝑓 (𝑡,ℓ)∗ = 𝑓 (𝑡,ℓ) + 𝜂(ℓ, 𝑡)

𝑌𝑡+ℓ = 𝑓 (𝑡,ℓ)∗ + 𝑒 ∗ (ℓ, 𝑡)

2 2
𝜎 2 (𝑒 ∗ (ℓ, 𝑡)) = 𝐸 {[𝑌𝑡+ℓ − 𝑓 (𝑡,ℓ)∗ ] } = 𝐸 {[𝑌𝑡+ℓ − (𝑓 (𝑡,ℓ) + 𝜂(ℓ, 𝑡))] } =

2
= 𝐸 {[(𝑌𝑡+ℓ − 𝑓 (𝑡,ℓ) ) − 𝜂(ℓ, 𝑡)] } =

2
= 𝐸 {[𝑌𝑡+ℓ − 𝑓 (𝑡,ℓ) ] } + 𝜂2 (ℓ, 𝑡) − 2𝜂(ℓ, 𝑡)𝐸(𝑌𝑡+ℓ − 𝑓 (𝑡,ℓ) )

𝐸{𝑌𝑡+ℓ − 𝐸(𝑌𝑡+ℓ ⁄𝑌𝑡 , … , 𝑌𝑡−𝑛 )} = 𝜇(𝑌𝑡+ℓ ) = 0

Luego:

𝜎 2 (𝑒 ∗ (ℓ, 𝑡)) = 𝜎 2 (𝑒(ℓ, 𝑡)) + 𝜂2 (ℓ, 𝑡) ⇒ 𝜎 2 (𝑒 ∗ (ℓ, 𝑡)) > 𝜎 2 (𝑒(ℓ, 𝑡))

𝜎 2 (𝑒 ∗ (ℓ, 𝑡)) = 𝜎 2 (𝑒(ℓ, 𝑡)) sólo si 𝜂(ℓ, 𝑡) = 0 es decir si

𝑓 (𝑡,ℓ)∗ = 𝑓 (𝑡,ℓ) = 𝐸(𝑌𝑡+ℓ ⁄𝑌𝑡 , … , 𝑌𝑡−𝑛 )

Luego:

𝑓 (𝑡,ℓ) = 𝐸(𝑌𝑡+ℓ ⁄𝑌𝑡 , … , 𝑌𝑡−𝑛 )

es el predictor que minimiza la varianza del error de predicción.

Suponiendo que {𝑌𝑡 } admite una representación lineal:

𝐸(𝑌𝑡+ℓ ⁄𝑌𝑡 , … , 𝑌𝑡−𝑛 ) = 𝑎0 𝑌𝑡 + 𝑎1 𝑌𝑡−1 + ⋯ + 𝑎𝑛 𝑌𝑡−𝑛

la predicción implica el cálculo de los coeficientes

𝑎𝑗 = 𝑔(𝜙𝑗 , 𝜃𝑗 )

85
UCEMA – MAF- ESTADISTICA Alberto Landro

Estimación por intervalo:

𝑝[𝑓 (𝑡,ℓ) − 𝑧𝛼∕2 𝜎(𝑒(ℓ, 𝑡)) ≤ 𝑌𝑡+ℓ ≤ 𝑓 (𝑡,ℓ) + 𝑧𝛼∕2 𝜎(𝑒(ℓ, 𝑡))] = 1 − 𝛼

Predicción con 𝐴𝑅(1)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜀𝑡

𝑓 (𝑡,1) = 𝜙1 𝑌𝑡
𝑌𝑡+1 = 𝜙1 𝑌𝑡 + 𝜀𝑡+1 {
𝑒(1, 𝑡) = 𝜀𝑡+1

𝑌𝑡+2 = 𝜙1 𝑌𝑡+1 + 𝜀𝑡+2 = 𝜙1 (𝜙1 𝑌𝑡 + 𝜀𝑡+1 ) + 𝜀𝑡+2 =

𝑓 (𝑡,2) = 𝜙12 𝑌𝑡
= 𝜙12 𝑌𝑡 + (𝜀𝑡+2 + 𝜙1 𝜀𝑡+1 ) {
𝑒(2, 𝑡) = 𝜀𝑡+2 + 𝜙1 𝜀𝑡+1

… … … … … … … … … … … ….

ℓ−1 𝑓 (𝑡,ℓ) = 𝜙1ℓ 𝑌𝑡


𝑗 ℓ−1
𝑌𝑡+ℓ = 𝜙1ℓ 𝑌𝑡 + ∑ 𝜙1 𝜀𝑡+ℓ−𝑗 𝑗
𝑒(ℓ, 𝑡) = ∑ 𝜙1 𝜀𝑡+ℓ−𝑗
𝑗=0
{ 𝑗=0

ℓ−1
2𝑗
𝜎 2 (𝑒(ℓ, 𝑡)) = 𝜎𝜀2 ∑ 𝜙1
𝑗=0


2 2𝑗 𝜎𝜀2 2
𝑙𝑖𝑚 𝜎 (𝑒(ℓ, 𝑡)) = 𝜎𝜀2 ∑ 𝜙1 = 2 = 𝜎𝑌
ℓ→∞ 1 − 𝜙1
𝑗=0

86
UCEMA – MAF- ESTADISTICA Alberto Landro

Predicción con 𝐴𝑅𝑀𝐴(1,1)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜀𝑡 − 𝜃1 𝜀𝑡−1

𝑌𝑡+1 = 𝜙1 𝑌𝑡 + 𝜀𝑡+1 − 𝜃1 𝜀𝑡 = (𝜙1 𝑌𝑡 − 𝜃1 𝜀𝑡 ) + 𝜀𝑡+1

𝑌𝑡+2 = 𝜙1 (𝜙1 𝑌𝑡 − 𝜃1 𝜀𝑡 ) + [𝜀𝑡+2 + (𝜙1 − 𝜃1 )𝜀𝑡+1 ]

… … … … … … … … … … … ….
ℓ−1
𝑗−1
𝑌𝑡+ℓ = 𝜙1ℓ−1 (𝜙1 𝑌𝑡 − 𝜃1 𝜀𝑡 ) + [𝜀𝑡+ℓ + (𝜙1 − 𝜃1 ) ∑ 𝜙1 𝜀𝑡+ℓ−𝑗 ]
𝑗=1

ℓ−1
𝑗−1
𝑒(ℓ, 𝑡) = 𝜀𝑡+ℓ + (𝜙1 − 𝜃1 ) ∑ 𝜙1 𝜀𝑡+ℓ−𝑗
𝑗=1

ℓ−1
2 2(𝑗−1)
𝜎 (𝑒(ℓ, 𝑡)) = 𝜎𝜀2 + (𝜙1 − 2 2
𝜃1 ) 𝜎𝜀 ∑ 𝜙1
𝑗=1

(1 − 𝜃1 )2 2
2
lim 𝜎 (𝑒(ℓ, 𝑡)) = 𝜎 = 𝜎𝑌2
ℓ→∞ 1 − 𝜙12 𝜀

87
UCEMA – MAF- ESTADISTICA Alberto Landro

No estacionariedad

1) No estacionariedad de segundo orden (no estacionariedad en las


varianzas, heterocedasticidad)

Sea un proceso {𝑌𝑡 } que admite una representación de la forma:


𝑑

𝑌𝑡 = 𝑚(𝑌𝑡 ) + 𝜀𝑡∗ = ∑ 𝑎𝑗 𝑡 𝑗 + 𝜀𝑡∗


𝑗=0

Donde

𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡 2 + ⋯ + 𝑎𝑑 𝑡 𝑑

representa una tendencia determinística.

𝜎 2 (𝜀𝑡∗ ) = 𝜎 2 (𝑌𝑡 ) = ℎ[𝑚(𝑌𝑡 )]𝜎𝜀2

(donde ℎ(. ) es una función conocida).

Se debe aplicar una transformación 𝑇(𝑌𝑡 ) tal que:

𝜎 2 [𝑇(𝑌𝑡 )] = 𝜎𝑌2

donde

𝑇(𝑌𝑡 ) = {∫[ℎ(𝑣)]−1∕2 𝑑𝑣}


𝑣=𝑌

Tomando en consideración el término de primer orden del desarrollo de


Taylor de la definición de la transformación:

𝑇(𝑌𝑡 ) ≅ 𝑇(𝑚(𝑌𝑡 )) + [𝑌𝑡 − 𝑚(𝑌𝑡 )]𝑇′(𝑚(𝑌𝑡 ))

(donde 𝑇′(𝑚(𝑌𝑡 )) denota el valor de la primera derivada de la función 𝑇(𝑌𝑡 )


en el punto 𝑚(𝑌𝑡 )).

88
UCEMA – MAF- ESTADISTICA Alberto Landro

Luego, la varianza de la serie transformada puede ser aproximada como:

𝜎 2 [𝑇(𝑌𝑡 )] ≅ [𝑇′(𝑚(𝑌𝑡 ))] = ℎ[𝑚(𝑌𝑡 )]𝜎𝜀2

De modo que debe ser:


1
𝑇(𝑚(𝑌𝑡 )) =
√ℎ[𝑚(𝑌𝑡 )]

Si
1
√ℎ[𝑚(𝑌𝑡 )] = 𝑚(𝑌𝑡 ) ⇒ 𝑇 ′(𝑚(𝑌𝑡 )) = ⇒ 𝑇(𝑚(𝑌𝑡 )) = 𝑙𝑛(𝑚(𝑌𝑡 ))
𝑚(𝑌𝑡 )

Si

√ℎ[𝑚(𝑌𝑡 )] = √𝑚(𝑌𝑡 ) ⇒ 𝑇 ′(𝑚(𝑌𝑡)) = [𝑚(𝑌𝑡 )]−1∕2 ⇒

𝑇(𝑚(𝑌𝑡 )) = 2√𝑚(𝑌𝑡 )

89
UCEMA – MAF- ESTADISTICA Alberto Landro

Si ℎ[𝑚(𝑌𝑡 )] es desconocida ⇒ transformaciones de potencia de Tukey:

𝑇 (𝜆) (𝑌𝑡 ) = (𝑌𝑡 + 𝑐)𝜆

Donde 𝑐 es una constante tal que 𝑌𝑡 + 𝑐 > 0.

Estimación de 𝜆 (relación rango-mediana)

90
UCEMA – MAF- ESTADISTICA Alberto Landro

91
UCEMA – MAF- ESTADISTICA Alberto Landro

2) No estacionariedad de primer orden (de primero y segundo orden)

> 1 (𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜 𝑑𝑒 2𝑑𝑜. 𝑜𝑟𝑑𝑒𝑛)

< 1 (𝑒𝑥𝑝𝑙𝑜𝑠𝑖𝑣𝑜)
|𝐺𝑖 | =
= 1 (𝑛𝑜 − 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜 𝑝𝑜𝑟 𝑙𝑎 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎
𝑑𝑒 𝑟𝑎í𝑐𝑒𝑠 𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎𝑠 𝑒𝑛 𝑙𝑎
{ 𝑒𝑐𝑢𝑎𝑐𝑖ó𝑛 𝛷(𝐵) = 0)

Sea un proceso {𝑌𝑡 } que admite una representación de la forma:

𝑌𝑡 = 𝜑1 𝑌𝑡−1 + 𝜑2 𝑌𝑡−2 + ⋯ + 𝜑𝑝+𝑑 𝑌𝑡−𝑝−𝑑 + 𝛩(𝐵)𝜀𝑡

𝑌𝑡 − 𝜑1 𝑌𝑡−1 − 𝜑2 𝑌𝑡−2 − ⋯ − 𝜑𝑝+𝑑 𝑌𝑡−𝑝−𝑑 = 𝛩(𝐵)𝜀𝑡

(1 − 𝜑1 𝐵 − 𝜑2 𝐵2 − ⋯ − 𝜑𝑝+𝑑 𝐵𝑝+𝑑 )𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

𝜑(𝐵)𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

Ecuación característica de la componente 𝐴𝑅:

𝜑(𝐵) = 1 − 𝜑1 𝐵 − 𝜑2 𝐵2 − ⋯ − 𝜑𝑝+𝑑 𝐵𝑝+𝑑 = 0

|𝐺1 |, … , |𝐺𝑝 | > 1


{
|𝐺𝑝+1 | = ⋯ = |𝐺𝑝+𝑑 | = 1

Luego,

𝜑(𝐵)𝑌𝑡 = (1 − 𝐺1−1 )(1 − 𝐺2−1 ) … (1 − 𝐺𝑝−1 )(1 − 𝐵)𝑑 𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

Φ(𝐵)(1 − 𝐵)𝑑 𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

(1 − 𝐵)𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−1 = 𝛥𝑌𝑡

(1 − 𝐵)2 𝑌𝑡 = (1 − 2𝐵 + 𝐵2 )𝑌𝑡 = 𝑌𝑡 − 2𝑌𝑡−1 + 𝑌𝑡−2 = 𝛥2 𝑌𝑡

………………………………

92
UCEMA – MAF- ESTADISTICA Alberto Landro

(1 − 𝐵)𝑑 𝑌𝑡 = 𝛥𝑑 𝑌𝑡

𝜑(𝐵)𝑌𝑡 = Φ(𝐵)𝛥𝑑 𝑌𝑡 = 𝛩(𝐵)𝜀𝑡

Haciendo 𝛥𝑌𝑡 = 𝑍𝑡 ⇒

𝑌𝑡 = 𝛥−1 𝑍𝑡 = (1 − 𝐵)−1 𝑍𝑡 =(1 + 𝐵 + 𝐵2 + ⋯ )(1 − 𝐵)𝑑 𝑍𝑡 = 𝑆𝑍𝑡

{𝑍𝑡 } = {𝑌𝑡 } 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑑𝑜 𝑑 𝑣𝑒𝑐𝑒𝑠 ⇒ {𝑌𝑡 } = {𝑍𝑡 } 𝑖𝑛𝑡𝑒𝑔𝑟𝑎𝑑𝑜 𝑑 𝑣𝑒𝑐𝑒𝑠

{𝑌𝑡 }: 𝐼(𝑑) (𝑑 = 1,2, … )

Si {𝑌𝑡 }: 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜 ⇒ {𝑌𝑡 }: 𝐼(0)

Si {𝑍𝑡 } = {𝛥𝑑 𝑌𝑡 }: 𝐴𝑅𝑀𝐴(𝑝, 𝑞) ⇒ {𝑌𝑡 }: 𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞)

93
UCEMA – MAF- ESTADISTICA Alberto Landro

Determinación del orden 𝑑

Problemas de sobre-diferenciación (sobre la componente 𝑀𝐴):

Sea un proceso {𝑌𝑡 }: 𝑀𝐴(1) invertible (|𝜃1 | < 1):

𝑌𝑡 = 𝜀𝑡 − 𝜃1 𝜀𝑡−1 = (1 − 𝜃1 𝐵)𝜀𝑡

𝛥𝑌𝑡 = (1 − 𝐵)𝑌𝑡 = (1 − 𝐵)(1 − 𝜃1 𝐵)𝜀𝑡 =

= [1 − (1 + 𝜃1 )𝐵 + 𝜃1 𝐵2 ]𝜀𝑡 = (1 − 𝜃1∗ 𝐵 − 𝜃2∗ 𝐵2 )𝜀𝑡

Pierde parsimonia

Dado que:

𝜃1∗ = 1 + 𝜃1 𝜃2∗ = −𝜃1

𝜃1∗ + 𝜃2∗ = 1 + 𝜃1 − 𝜃1 = 1

Ecuación característica de la componente 𝑀𝐴:

𝛩∗ (𝐵) = 1 − 𝜃1∗ 𝐵 − 𝜃2∗ 𝐵2 = 0 ⇒ {𝑌𝑡 }: 𝑛𝑜 − 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑙𝑒

𝜎𝑌2 = 𝜎 2 (𝜀𝑡 − 𝜃1 𝜀𝑡−1 ) = (1 + 𝜃12 )𝜎𝜀2


2
𝜎𝛥𝑌 = 𝜎 2 [𝜀𝑡 − (1 + 𝜃1 )𝜀𝑡−1 + 𝜃1 𝜀𝑡−2 ] =

= [1 + (1 + 𝜃1 )2 + 𝜃12 ]𝜎𝜀2 = 2(1 + 𝜃1 + 𝜃12 )𝜎𝜀2


2
𝜎𝛥𝑌 − 𝜎𝑌2 = 2(1 + 𝜃1 + 𝜃12 )𝜎𝜀2 − (1 + 𝜃12 )𝜎𝜀2 =

= (2 + 2𝜃1 + 2𝜃12 − 1 − 𝜃12 )𝜎𝜀2 = (1 + 2𝜃1 + 𝜃12 )𝜎𝜀2 =

= (1 + 𝜃1 )2 𝜎𝜀2 > 0

Aumento de la varianza

94
UCEMA – MAF- ESTADISTICA Alberto Landro

Tendencia determinística – Tendencia estocástica

Random walk (RW):

𝑌𝑡 = 𝑌𝑡−1 + 𝜀𝑡 (𝑡 = 1,2, … )

𝑌1

𝑌2 = 𝑌1 + 𝜀2

𝑌3 = 𝑌2 + 𝜀3 = (𝑌1 + 𝜀2 ) + 𝜀3 = 𝑌1 + (𝜀2 + 𝜀3 )

… … … … … … … … … … … ..
𝑡−1

𝑌𝑡 = 𝑌1 + ∑ 𝜀𝑡−𝑗
𝑗=0

𝑡−1

∑ 𝜀𝑡−𝑗 ∶ 𝑡𝑒𝑛𝑑𝑒𝑛𝑐𝑖𝑎 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑎


𝑗=0

Sucesión no-convergente de “shocks” aleatorios (los “shocks” ejercen un


efecto permanente).

Si {𝜀𝑡 }: 𝑊𝑁 − 𝑒𝑠𝑡𝑟𝑖𝑐𝑡𝑜 ⇒ {𝑌𝑡 }: 𝑅𝑊 − 1

𝑅𝑊 − 𝑐𝑜𝑛 𝑡𝑒𝑛𝑑𝑒𝑛𝑐𝑖𝑎

𝑌𝑡 = 𝜑0 + 𝑌𝑡−1 + 𝜀𝑡 (𝑡 = 1,2, … )

𝑌1 = 𝜑0

𝑌2 = 𝜑0 + 𝑌1 + 𝜀2

𝑌3 = 𝜑0 + 𝑌2 + 𝜀3 = 𝜑0 + (𝜑0 + 𝑌1 + 𝜀2 ) + 𝜀3 = 𝑌1 + 2𝜑0 + (𝜀2 + 𝜀3 )

… … … … … … … … … … … ..

95
UCEMA – MAF- ESTADISTICA Alberto Landro

𝑡−1

𝑌𝑡 = 𝑌1 + (𝑡 − 1)𝜑0 + ∑ 𝜀𝑡−𝑗
𝑗=0

(𝑡 − 1)𝜑0 : 𝑡𝑒𝑛𝑑𝑒𝑛𝑐𝑖𝑎 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛í𝑠𝑡𝑖𝑐𝑎 − 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑎


𝑡−1

∑ 𝜀𝑡−𝑗 ∶ 𝑡𝑒𝑛𝑑𝑒𝑛𝑐𝑖𝑎 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑎


𝑗=0

96
UCEMA – MAF- ESTADISTICA Alberto Landro

Test de raíces unitarias (Dickey-Fuller)

> 1 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜 𝑑𝑒 2𝑑𝑜. 𝑜𝑟𝑑𝑒𝑛 − 𝐼(0)


< 1 𝑒𝑥𝑝𝑙𝑜𝑠𝑖𝑣𝑜. 𝑁𝑜 𝑡𝑖𝑒𝑛𝑒 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 𝑒𝑛 𝑒𝑙 á𝑚𝑏𝑖𝑡𝑜
𝑑𝑒 𝑙𝑎 𝑡𝑒𝑜𝑟í𝑎 𝑑𝑒 𝑚𝑜𝑑𝑒𝑙𝑜𝑠
|𝐺𝑖 | =
= 1 (𝑛𝑜 − 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑜 𝑝𝑜𝑟 𝑙𝑎 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎
𝑑𝑒 𝑟𝑎í𝑐𝑒𝑠 𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎𝑠 𝑒𝑛 𝑙𝑎
{ 𝑒𝑐𝑢𝑎𝑐𝑖ó𝑛 𝛷(𝐵) = 0)

Sea un proceso 𝐴𝑅(1)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜀𝑡 (𝑡 = 1,2, … )

Donde: i) 𝑌𝑡 es una variable centrada

ii) {𝜀𝑡 }: 𝑊𝑁 − 𝑁(0, 𝜎𝜀2 )

Ecuación característica:

Φ(𝐵) = 1 − 𝜙1 𝐵 = 0 |𝐺1 | = |𝜙1−1 |


𝐻0 : 𝐺1 = 1 𝐻0 : 𝐺1 > 1
𝜙1−1 = 1 𝜙1−1 > 1
𝜙1 = 1 𝜙1 < 1

Estimador: 𝜙̂1𝐶𝑀𝑂

Bajo el supuesto que 𝐻0 es verdadera ⇒ 𝜎 2 (𝑌) = ∞ ⇒ los estimadores


clásicos y los tests con respecto a 𝜙1 no son apropiados ⇒ test en términos de
diferencias de primer orden:

𝑌𝑡 − 𝑌𝑡−1 = Δ𝑌𝑡 = (𝜙1 − 1)𝑌𝑡 + 𝜀𝑡

De modo que:

𝐻0 : 𝜙1 − 1 = 0 𝐻1 : 𝜙1 − 1 < 0

y construir un test 𝑇 con un estadístico:

97
UCEMA – MAF- ESTADISTICA Alberto Landro

𝜙̂1 − 1
𝑇= : 𝑡(𝑛−1)
𝜎̂(𝜙̂1 )
𝑑 𝑑
Ahora bien, si |𝜙1 | < 1 ⇒ √𝑛 − 1(𝜙̂1 − 𝜙1 ) → 𝑁(0,1 − 𝜙12 ), de modo que,
si se supone que 𝜙1 = 1 ⇒

𝜎 2 [√𝑛 − 1(𝜙̂1 − 𝜙1 ) ] = 0

Luego, el estimador 𝜙̂1 no se puede utilizar en el test.

Dickey- Fuller (a partir del teorema de Donsker, la integral estocástica de


Itô), basándose en métodos de simulación de Monte Carlo definieron un
estimador
1
𝑑 ∫0 𝐵(𝑡)𝑑𝑡
𝜏→
1
√∫0 [𝐵(𝑡)]2 𝑑𝑡

Y tabularon esta distribución límite y consideraron los valores críticos (y


porcentajes de aceptación y rechazo de 𝐻0 ) a partir del estadístico:

𝜙̂1 − 1
𝑇=
𝜎̂(𝜙̂1 )

Si 𝜏 < 𝑇 < 0 se acepta 𝐻0 .

98
UCEMA – MAF- ESTADISTICA Alberto Landro

Si {𝑌𝑡 } admite una representación de la forma:

𝑌𝑡 = 𝑎0 + 𝜙1 𝑌𝑡−1 + 𝜀𝑡 (𝜏𝜇 )

Si 𝜏𝜇 < 𝑇 < 0 se acepta 𝐻0 . El problema es decidir la significatividad de 𝑎0 .

Si {𝑌𝑡 } admite una representación de la forma:

𝑌𝑡 = 𝑎0 + 𝑎1 𝑡 + 𝜙1 𝑌𝑡−1 + 𝜀𝑡 (𝜏𝜏 )

Si 𝜏𝜏 < 𝑇 < 0 se acepta 𝐻0 .

Sea un proceso 𝐴𝑅(𝑝):

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + ⋯ + 𝜙𝑝 𝑌𝑡−𝑝 + 𝜀𝑡

Ecuación característica:

Φ(𝐵) = 1 − 𝜙1 𝐵 − ⋯ − 𝜙𝑝 𝐵𝑝 = 0

∑𝑝𝑖=1 𝜙𝑖 < 1 es condición necesaria para que |𝐺𝑖 | > 1 (𝑖 = 1,2, … , 𝑝)

∑𝑝𝑖=1|𝜙𝑖 | < 1 es condición suficiente para que |𝐺𝑖 | > 1 (𝑖 = 1,2, … , 𝑝)

∑𝑝𝑖=1 𝜙𝑖 = 1 es condición necesaria y suficiente para que exista por lo menos


una raíz unitaria.

99
UCEMA – MAF- ESTADISTICA Alberto Landro

Es necesario construir una representación en la que el coeficiente de 𝑌𝑡−1 sea


∑𝑝𝑖=1 𝜙𝑖 = 𝜙1∗ :
𝑝−1

𝑌𝑡 = 𝜙1∗ 𝑌𝑡−1 − ∑ 𝜙𝑗+1 𝛥𝑌𝑡−𝑗 + 𝜀𝑡
𝑗=1

𝑝
Donde 𝜙𝑗∗ = ∑𝑖=𝑗 𝜙𝑖

De modo que:
𝑝−1

𝛥𝑌𝑡 = (𝜙1∗ − 1)𝑌𝑡−1 − ∑ 𝜙𝑗+1 𝛥𝑌𝑡−𝑗 + 𝜀𝑡
𝑗=1

𝐻0 : 𝜙1∗ − 1 = 0 𝐻1 : 𝜙1∗ − 1 < 0


𝑝−1

𝛥𝑌𝑡 = 𝑎0 + (𝜙1∗ − 1)𝑌𝑡−1 − ∑ 𝜙𝑗+1 𝛥𝑌𝑡−𝑗 + 𝜀𝑡
𝑗=1

𝑝−1

𝛥𝑌𝑡 = 𝑎0 + 𝑎1 𝑡 + (𝜙1∗ − 1)𝑌𝑡−1 − ∑ 𝜙𝑗+1 𝛥𝑌𝑡−𝑗 + 𝜀𝑡
𝑗=1

En particular, sea {𝑌𝑡 }: 𝐴𝑅(2):

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + 𝜀𝑡

Ecuación característica:

𝛷(𝐵) = 1 − 𝜙1 𝐵 − 𝜙2 𝐵2 = 0 (𝐺1 , 𝐺2 )

𝑠𝑖 𝐻0 ⇒ 2 𝑅𝑈

Δ2 𝑌𝑡 𝑠𝑖 𝐻0 ⇒ 1 𝑅𝑈
𝑠𝑖 𝐻1 ⇒ Δ𝑌𝑡 {
{ 𝑠𝑖 𝐻1 ⇒ {𝑌𝑡 }: 𝐼(0)

100
UCEMA – MAF- ESTADISTICA Alberto Landro

Sea un proceso 𝐴𝑅𝑀𝐴(𝑝, 𝑞)

Said-Dickey demostraron que un proceso {𝑌𝑡 }: 𝐴𝑅𝐼𝑀𝐴(𝑝, 1, 𝑞) puede ser


aproximado por una representación 𝐴𝑅𝐼𝑀𝐴(𝑝∗ , 1,0) (𝑝∗ ≤ 𝑛1∕3 ).

Luego, la ecuación
𝑝−1

𝛥𝑌𝑡 = 𝑎0 + 𝑎1 𝑡 + (𝜙1∗ − 1)𝑌𝑡−1 − ∑ 𝜙𝑗+1 𝛥𝑌𝑡−𝑗 + Θ(𝐵)𝜀𝑡
𝑗=1

puede ser aproximada por:


𝑝−1

𝛥𝑌𝑡 = 𝑎0 + 𝑎1 𝑡 + (𝜙1∗ − 1)𝑌𝑡−1 − ∑ 𝜙𝑗+1 𝛥𝑌𝑡−𝑗 + 𝜀𝑡
𝑗=1

101

También podría gustarte