Violación de Supuestos de Los MRL y Aspectos para La Elección de Modelos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 4

Econometría I

Cat. Víctor Ramirez

Violación de supuestos de los MRL y aspectos


para la elección de modelos
I Multicolinealidad
Si la multicolinealidad es perfecta, los coeficientes de regresión de las variables X son
indeterminados, y sus errores estándar, infinitos. Si la multicolinealidad es menos que perfecta, los
coeficientes de regresión, aunque sean determinados, poseen grandes errores estándar (en relación
con los coeficientes mismos), lo cual significa que los coeficientes no pueden ser estimados con gran
precisión o exactitud.
Fuentes de multicolinealidad

1. El método de recolección de información. Por ejemplo, la obtención de muestras en un


intervalo limitado de valores tomados por las regresoras en la población.
2. Restricciones en el modelo o en la población objeto de muestreo. Por ejemplo, en la
regresión del consumo de electricidad sobre el ingreso (X2) y el tamaño de las viviendas (X3)
hay una restricción física en la población, pues las familias con ingresos más altos suelen
habitar viviendas más grandes que las familias con ingresos más bajos.
3. Especificación del modelo. Por ejemplo, la adición de términos polinomiales a un modelo
de regresión, en especial cuando el rango de la variable X es pequeño.
4. Un modelo sobredeterminado. Esto sucede cuando el modelo tiene más variables
explicativas que el número de observaciones. Esto puede suceder en investigación médica,
donde en ocasiones hay un número reducido de pacientes sobre quienes se reúne
información respecto de un gran número de variables.
5. Otra razón para la multicolinealidad, sobre todo en los datos de series de tiempo, puede ser
que las regresoras del modelo compartan una tendencia común
Consecuencias multicolinealidad

Puede demostrarse que, aunque la multicolinealidad sea muy alta, como en el caso de casi
multicolinealidad, los estimadores de MCO conservarán la propiedad MELI.
Sin embargo:
1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes que
dificultan la estimación precisa.
2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más amplios,
lo cual propicia una aceptación más fácil de la “hipótesis nula cero” (es decir, que el
verdadero coeficiente poblacional es cero).
3. También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a ser
estadísticamente no significativa.
4. Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa, R2, la
medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.

1
Econometría I
Cat. Víctor Ramirez
Detectando la multicolinealidad

1. Gráficos de dispersión de pares de variables independientes (presentación correlación e


algún(os) par(es) de variables.
2. Factores de inflación de la varianza entre 5 y 10 (moderada) y mayores a 10 (grave).

¿Qué hacer?

1. No hacer nada.
2. Combinar data de corte transversal y series de tiempo.
3. Eliminar alguna(s) variable(s). Sin embargo, se debe tener cuidado con no incurrir en un
sesgo de especificación.
4. Transformar las variables.

II Heterocedasticidad
Varianza no constante del término de error.
Fuentes de heterocedasticidad
1. Aprendizaje de los errores.
2. Posibilidades distintas de uso a medida que una variable crece (ejemplo, más opciones de
uso del ingreso cuando este incrementa).
3. Mejora en las técnicas de recolección de datos.
4. Presencia de datos atípicos o aberrantes. Una observación atípica es la que es muy diferente
(muy pequeña o muy grande) en relación con las demás observaciones en la muestra.
5. Error de especificación
6. Otra fuente de la heterocedasticidad es la asimetría en la distribución de una o más
regresoras.
7. Incorrecta transformación de los datos.
Consecuencias

 Los estimadores MCO continuarán siendo lineales e insesgados.


 Bajo ciertas condiciones, los estimadores continúan estando normalmente distribuidos.
 Sin embargo, el estimador ya no tendrá varianza mínima (dejará de ser un estimador
eficiente).
 Por lo tanto, intervalos de confianza serán mayores.
 Puede conducir a errores en pruebas de significancia.

Detectando la heteroscedasticidad

1. Gráfico de los residuos de la regresión al cuadrado vs la variable dependiente estimada


(heterocedasticidad: algún tipo de patrón).
2. Pruebas de Breusch-Pagan-Godfrey, de Harvey, de Glejser, ARCH, de White, etc.

Opciones

1. No hacer nada (uno debería preocuparse por este problema si es muy grave).

2
Econometría I
Cat. Víctor Ramirez
2. Estimar por mínimos cuadrados generalizados (si se conoce cómo cambia la varianza
condicional del término de error).
3. Transformación de las variables (en muchas ocasiones, transformaciones logísticas
funcionan bien).

III Autocorrelación
Correlación entre miembros de series de observaciones ordenadas en el tiempo (como en datos de
series de tiempo) o en el espacio (como en datos de corte transversal).
En presencia tanto de autocorrelación como de heteroscedasticidad, los estimadores de MCO
usuales, a pesar de ser lineales, insesgados y tener distribución asintóticamente normal (es decir,
en muestras grandes), dejan de tener varianza mínima entre todos los estimadores lineales
insesgados. En resumen, no son eficientes en relación con los demás estimadores lineales e
insesgados. Dicho de otro modo, es posible que no sean los mejores estimadores lineales insesgados
(MELI). Como resultado, las pruebas usuales t, F y χ2 pueden no ser válidas.
Fuentes de la autocorrelación

1. Inercia
2. Sesgo de especificación: caso de variables excluidas
3. Sesgo de especificación: forma funcional incorrecta
4. Fenómeno de la telaraña
5. Rezagos
6. “Manipulación” de datos
7. Transformación de datos
8. No estacionariedad

Consecuencias

Las pruebas de significancia t y F usuales dejan de ser válidas y, de aplicarse, es probable que
conduzcan a conclusiones erróneas sobre la significancia estadística de los coeficientes de regresión
estimados.
Detectando autocorrelación

1. Gráfico de los residuos (se observarán patrones)


2. Función de autocorrelación y autocorrelación parcial de los residuos
3. Estadístico de Durbin-Watson

Opciones

1. Revisar si no resulta de un error de especificación del modelo.


2. Transformar la data (por ejemplo, trabajar con diferencias de los datos si se trata de datos
de series de tiempo).
3. Si la autocorrelación es consecuencia de una pendiente determinística, incluirla dentro de
las variables del modelo.
4. Incluir términos autorregresivos de acuerdo a la ACF y PACF de los residuos.

3
Econometría I
Cat. Víctor Ramirez

V Criterios de selección de modelos y otros aspectos


El modelo elegido debe:
1. Ser adecuado para los datos; es decir, las predicciones basadas en el modelo deben ser
lógicamente posibles.
2. Ser consistente con la teoría; es decir, debe tener un sentido económico pertinente.
3. Tener regresoras exógenas débiles; es decir, las variables explicativas, o regresoras, no
deben estar correlacionadas con el término de error.
4. Mostrar constancia en los parámetros; es decir, los valores de los parámetros deben ser
estables. De otra forma el pronóstico se dificultará. Ante la ausencia de la constancia en los
parámetros, tales predicciones no serán confiables.
5. Exhibir coherencia en los datos; es decir, los residuos estimados a partir del modelo deben
ser puramente aleatorios (técnicamente, ruido blanco). En otras palabras, si el modelo de
regresión es adecuado, los residuos obtenidos de este modelo deben ser de ruido blanco.
Si no es el caso, existe un error de especificación en el modelo.
6. Ser inclusivo; es decir, el modelo debe abarcar o incluir todos los modelos contendientes,
en el sentido de que debe poder explicar sus resultados. En resumen, otros modelos no
pueden ser mejores que el elegido.
Criterios para la selección de modelos

1. 𝑅
2. 𝑅 2
3. Criterios de información de Akaike (AIC) y de Schwarz (SBC)

Tipos de errores de especificación del modelo:

1. Omisión de una variable importante


2. Inclusión de una variable irrelevante
3. Forma funcional incorrecta
4. Especificación incorrecta del término de error estocástico
5. Interacción entre las variables regresoras
6. Suposición incorrecta de que el término de error está normalmente distribuido

También podría gustarte