Resumen Cap 9 y 10 PARA ALUMNOS 360534

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 18

UNIVERSIDAD DE SANTIAGO DE CHILE

FACULTAD DE ADMINISTRACIÓN Y ECONOMÍA


DEPARTAMENTO DE ADMINISTRACIÓN

RESUMEN DEL CAPITULO 9 y 10 DEL LIBRO

“ECONOMETRÍA”
<Cuarta Edición>
<Damodar Gujarati>

Asignatura: Métodos y Modelos de proyección.


Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

RESUMEN CAP. 9

Naturaleza de las variables dicotómicas

En el análisis de regresión es importante señalar que la variable regresada no solo está


influenciada por variables de razón de escala (como precios, costos, etc), sino que también por
variables cualitativas o de escala nominal. Dichas variables se caracterizan generalmente por
tomar 2 valores indicando la presencia o la ausencia de un atributo determinado, como lo
podrían ser el sexo (Masculino o Femenino), ciudadanía (inscrito en el registro electoral, no
inscrito en el registro electoral) entre otras características que pueden tomar valores de cero o
uno o satisfagan la siguiente función:

Con a y b constante D = 1 ó 0*

*No debemos confundirnos con el hecho de que las variables dicotómicas siempre tomen valores 1 ó 0. Al cumplir
las restricciones de la ecuación anterior podrían tomar otros valores sin que por ello dejen de ser dicotómicas

Dichas variables son llamadas dicotómicas y son excluyentes entre sí. Entre los modelos más
conocidos por emplear tales variables se encuentra por ejemplo el modelo de análisis de
varianza o tabla ANOVA. Por ejemplo, si quisiéramos saber la producción promedio anual de
cobre en las mineras estatales de las zonas Norte, Centro y Sur de Chile podríamos utilizar un
modelo de tabla ANOVA desarrollando la siguiente ecuación:

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 2 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Donde: Y1= Producción promedio cobre en las minas de Chile

D2i: 1 si la región está en la zona norte del país, 0 si está en cualquier otra zona

D3i: 1 si la región está en la zona sur del país, 0 si está en cualquier otra zona

Precauciones en el uso de las variables dicotómicas

Al momento de usar las variables dicotómicas, debemos tener cuidado de no agregar un


número mayor o igual de variables dicotómicas en relación con el número de categorías de la
variable. En otras palabras, si una variable cualitativa tiene n categorías, debemos solo agregar
(n-1) variables dicotómicas, de lo contrario estaríamos cometiendo un error que desencadenaría
en una multicolinealidad perfecta, la cual como sabemos se produce cuando una de las
variables explicativas se puede hacer una función exacta de las otras aumentando la varianza de
los estimadores.

Sin embargo, dada la tecnología disponible hoy en día tenemos herramientas para no caer en la
trampa de la multicolinealidad al agregar tantas variables dicotómicas como números de
categorías de la variable. Lo anterior puede ser evitado eliminando el término de intersección
de la ecuación, con lo cual igualmente podríamos obtener los valores medios de las distintas
categorías.

En otras palabras, si eliminamos el término de intersección, la ecuación perfectamente podría


quedar así:

Donde : Y1= Producción promedio cobre en las minas de Chile

D2i: 1 si la región está en la zona norte del país, 0 si está en cualquier otra zona

D3i: 1 si la región está en la zona sur del país, 0 si está en cualquier otra zona

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 3 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Por lo tanto para asegurarnos de aplicar correctamente el modelo y no caer en la trampa de


multicolinealidad básicamente tenemos 2 opciones: agregar una variable dicotómica para cada
categoría omitiendo el término de intersección o bien agregando una variable menos en
relación al número de categorías añadiendo el término de intersección.

También podemos encontrar modelos ANOVA con 2 variables cualitativas, en el cual debemos
poner especial énfasis al momento de determinar a la categoría que se está considerando como
categoría base, ya que todas las comparaciones se llevaran a cabo respecto a dicha
comparación. Si nos confundimos en este punto, el modelo presentará errores y no será fiable.

Regresión con una mezcla de variables cuantitativas y cualitativas o modelos ANCOVA

Son una generalización de los modelos ANOVA y proporcionan un método para controlar
estadísticamente los efectos de las variables cuantitativas o variantes de control. Esto podría
aplicarse al ejemplo anterior si añadiéramos al modelo una variable cuantitativa X como podría
ser por ejemplo el gasto efectuado por el gobierno en subsidios a proyectos mineros. Dado lo
anterior el modelo quedaría así:

Donde: Y1= Producción promedio cobre en las minas de Chile

Xi: Gasto del estado en subsidios a proyectos mineros

D2i: 1 si la región está en la zona norte del país, 0 si está en cualquier otra zona

D3i: 1 si la región está en la zona sur del país, 0 si está en cualquier otra zona

Con lo que podemos ver que añadimos al modelo una variable cuantitativa como lo es el gasto
en subsidios mineros efectuados por el estado.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 4 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Con lo anterior lo que básicamente hace este tipo de análisis es el eliminar la heterogeneidad
causada en la variable dependiente al añadir variables cuantitativas o covariables.

Ventajas de la variable dicotómica versus la prueba de Chow

Como se vio antes, la prueba de Chow es un elemento que sirve para examinar la estabilidad
estructural del modelo de regresión, sin embargo, no establece de manera precisa cual es el
coeficiente, intersección o pendiente que es distinta. Ante esto y a modo de comparación
podemos ver que el método de la variable dicotómica corrige esas falencias además de
presentar otras ventajas tales como:

• Utilizar solo una regresión en el análisis

• Mejora la precisión relativa de los parámetros al agruparlos a todos en una sola


regresión.

• Identifica de manera exacta el coeficiente, intersección o pendiente distinto

Por lo cual como se puede apreciar, el modelo posee muchas más ventajas que la prueba de
Chow que nos pueden simplificar mucho más el análisis además de arrojar resultados mucho
más exactos.

Efectos de interacción al utilizar variables dicotómicas

Gracias a la flexibilidad que presentan las variables dicotómicas es que las podemos utilizar en
una gran cantidad de problemas de aplicación práctica ya que no considera solamente el efecto
de 2 atributos de manera individual o en forma aditiva, sino que considera el producto entre
estas 2 variables dicótomas con lo cual el resultado final es más exacto, con lo cual lo podemos
aplicar a problemas tales como podrían ser por ejemplo la influencia del sexo en los salarios, o
la influencia de la raza en los salarios, e incluso la influencia de ambos atributos en conjunto en
base al salario. Con lo anterior podemos ver que gracias a este modelo podemos identificar de
manera clara el comportamiento de los atributos combinados cosa que no podríamos hacer de
emplear otro modelo meramente aditivo.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 5 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Uso de las variables dicotómicas en las series de tiempo

Como sabemos las series de tiempo son utilizadas para determinar el comportamiento de una
variable a través del tiempo, tales como las ventas durante un año, la cantidad de
precipitaciones (lluvia) en un país a lo largo del año, entre otras. Sin embargo, es común ver que
en estas series de tiempo se presentan muchos patrones estacionales en los datos, por ejemplo
el nivel de lluvia caída en un país es muy superior en invierno que en verano, por lo cual se hace
necesario utilizar una herramienta para solucionar este problema.

Lo anterior puede ser evitado mediante el método de las variables dicotómicas, con las cuales
podemos desestacionalizar o ajustar estacionalmente los datos a fin de poder concentrarnos en
otros componentes tales como la tendencia.

Regresión lineal por secciones

Existe otro tipo de regresiones lineales denominada regresión lineal por sectores, en la cual la
regresión no se comporta de igual manera a lo largo de su curva, sino que existen segmentos en
los cuales la influencia de las variables aumenta generando un cambio en el comportamiento de
la regresión. Lo anterior se puede clarificar mediante el siguiente ejemplo:

En una fábrica de zapatos se asignan bonos de producción a los trabajadores si es que estos
cumplen con una meta de producción, por ejemplo, si se llega a una producción mensual de
1.000.0000 de zapatos, los trabajadores tendrán un bono extra de $ 100.000 pesos. Si la
producción llega a ser de 1.500.000 zapatos, el bono extra será de $ 200.000.

Como vemos este es un claro ejemplo de regresión lineal por secciones ya que la recta no se
comporta uniformemente durante toda su trayectoria, sino que existen lapsos donde esta se
quiebra y aumenta repentinamente.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 6 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Aspectos técnicos de la variable dicotómica

¿Qué hacer si en un modelo log-lin una variable regresora es dicotómica?

Como pudimos ver en capítulos anteriores, el modelo anterior sólo lo podíamos aplicar si la
variable regresora es cuantitativa, sin embargo, si tenemos una variable dicótoma en un modelo
que presente problemas de este tipo como podría ser una distinción en el salario dependiendo
del sexo del trabajador como el siguiente :

Donde Y la variable dicótoma sería la tasa de salario por hora

D=1 para mujer y 0 para hombre

Entonces lo que debemos hacer es obtener el antilogaritmo de β1 para obtener de esta manera
la mediana del salario y si tomamos el antilogaritmo de (β1+ β2 obtendríamos la mediana de los
salarios por hora solucionando el problema de la dicotomía.

Variables dicotómicas y heteroscedasticidad

Si queremos examinar las regresiones entre 2 variables como por ejemplo podrían ser el ahorro-
ingreso para Chile entre 2 periodos, para evitar el problema de la heteroscedasticidad debemos
primero que todo estar seguros de que las varianzas en el subperiodo son iguales, lo cual puede
ser fácilmente remediado mediante la prueba f. Sin embargo, debemos destacar que estas
técnicas no son del todo infalibles pero que en los capítulos siguientes del libro Gujarati se hace
un estudio más profundo del tema.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 7 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Variables dicotómicas y auto correlación

No se hace referencia a ese punto en este capítulo, sino que se hablara más detalladamente en
el capítulo destinado a autocorrelación.

¿Qué pasa si la variable dependiente es dicotómica?

A modo de explicar mejor este fenómeno pondremos un ejemplo:

La decisión de un empresario sobre si invertir en un proyecto o no. Como vemos este es un


problema donde la variable dependiente es dicotómica ya que esta toma 2 valores, sí, si la
persona decide participar y no en cualquier otro caso. Ante esto podemos utilizar los modelos
MCO para estimar los problemas de regresión, aunque al hacerlo nos encontraremos con
muchos problemas estadísticos. Por lo tanto, lo mejor que se puede hacer en ese caso es el
recurrir a otras herramientas tales como los modelos logit y probit, llamados modelos con
variable dependiente policótomas, pero que se verán con mayor detalle en otro capítulo.

CONCLUSIONES FINALES:

Las variables dicótomas que tienen valores de 0 y 1, permiten introducir variables cualitativas en
el análisis de regresión.

Permiten dividir muestras en subgrupos, según cualidades y atributos, permitiendo


implícitamente realizar regresiones para cada uno de estos subgrupos.

Hay que tener en cuenta:

1°, si la regresión contiene un término constante, el número de variables dicótomas debe ser
menor que el número de clasificaciones de cada variable cualitativa.

2°, el coeficiente que acompaña las variables dicótomas siempre debe ser interpretado en
relación con el grupo base. (Esta base dependerá del propósito de la investigación).

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 8 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Finalmente podemos concluir que durante esta sección se analizaron las diversas aplicaciones
de las variables dicótomas:

1) comparación de 2 o más regresiones.

2) desestacionalizacion de datos de series de tiempo.

3) variables dicótomas interactivas.

4) interpretación de las variables dicótomas en modelos semi-logarítmicos, y

5) modelos de regresión lineal a segmentos.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 9 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

RESUMEN CAP. 10

Multicolinealidad: ¿qué pasa si las regresoras están correlacionadas?

Naturaleza de Multicolinealidad:

Multicolinealidad significa que hay una relación lineal perfecta o “menos que perfecta” entre las
variables regresoras lo cual violaría el supuesto 10 del MCLR que establece que no hay
multicolinealidad. Se dice que hay relación lineal perfecta si:

O “menos que perfecta” si:

Existen diversas fuentes de multicolinealidad, algunas de las cuales pueden ser:

1. El método de recolección de información empleado.


2. Restricciones en el modelo o en la población objeto de muestreo.
3. Especificación del modelo.
4. Modelo sobre-determinado, con más variables explicativas que el número de
observaciones.
5. Tendencia común que comparten las regresoras incluidas en el modelo. O sea, todas
aumentan o disminuyen en el tiempo.

Estimación en presencia de Multicolinealidad Perfecta:

Utilizando la forma de desviación, un ejemplo de multicolinealidad perfecta en un modelo de


tres variables, sería el que sigue:

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 10 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Lo cual, es equivalente a la siguiente expresión:

En que se supondrá que siendo λ una constante distinta de 0. Entonces, obtenemos:

Luego, se verifica que también es indeterminada. Esto ocurre porque, como y son
perfectamente colineales, es imposible hacer variar una de las variables y al mismo tiempo
mantener constante la otra. A medida que cambia, también lo hace por el factor .

Estimación en presencia de Multicolinealidad “Alta”, pero Imperfecta.

Por lo general, no existe dicha relación lineal exacta entre las variables “X”, y la
Multicolinealidad perfecta es algo difícil de tener, es un extremo patológico.

En el caso de multicolinealidad imperfecta se supondrá que siendo y en


que es un término de error estocástico. En este caso se puede estimar los coeficientes como
sigue:

No se puede descartar a priori, que la ecuación anterior pueda ser estimada. Salvo caso en que
sea cercano a cero llegaríamos al caso indeterminado.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 11 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 12 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Consecuencias teóricas de la multicolinealidad:

1°. El insesgamiento es una propiedad multimuestral, o sea, manteniendo fijas las “X”, si se
obtienen muestras repetidas y se calculan los estimadores MCO, para cada una de estas
muestras, el promedio de los valores muestrales se aproximará a los verdaderos valores
poblacionales, a medida que aumente el número de muestras. Pero esto ni dice nada respecto a
las propiedades de los estimadores.

2°. La colinealidad no destruye la propiedad de varianza mínima, en estimadores lineales


insesgados. Pero esto no garantiza que la varianza de un estimador MCO será pequeña en
cualquier muestra dada.

3°. La multicolinealidad es un fenómeno esencialmente muestral. Esto porque si bien las “X” de
la población no estén linealmente relacionadas, podrían estarlo en la muestra disponible. Es
posible que la muestra no sea lo suficiente rica para acomodar las variables X a favor del
análisis, sin colinealidad.

Es así que a pesar de que los estimadores MCO sean MELI, y existiendo multicolinealidad sea
poco consuelo.

Consecuencias prácticas de la multicolinealidad:

En casos de casi o alta multicolinealidad es posible que se presenten las siguientes


consecuencias:

1. Los estimadores presentan varianzas y covarianzas grandes que dificultan la estimación


más precisa. Aún cuando son MELI.
2. Los intervalos de confianza son muy grandes, lo que hace que se acepte la “hipótesis
nula cero”, o sea, que el verdadero coeficiente poblacional es cero.
3. Las razones t de uno o más coeficientes tienden a ser estadísticamente No significativa.
4. puede ser muy alta (bondad de ajuste muy alta).
5. Los estimadores MCO son sensibles a pequeños cambios en la información.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 13 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Detección de la multicolinealidad:

Puestos que la multicolinealidad en un fenómeno de tipo muestral, no existen métodos únicos


para detectarla. Sin embargo, existen reglas prácticas, que nos permiten visualizarla:

 Haber obtenido un grande, pero se tienen pocas razones t significativas.

 Altas correlaciones entre dos regresoras: consiste en ver el coeficiente de correlación de


orden cero entre dos regresoras. Si es alto, se puede decir que hay multicolinealidad. No
obstante, la multicolinealidad puede existir incluso si este coeficiente de correlación es
bajo.

 Correlaciones parciales: si se encuentra que es grande, pero las correlaciones de


orden cero son bajas, puede sugerir que las regresoras están altamente correlacionadas
y una de las variables está de más.

 Regresiones auxiliares: Se hace regresiones de cada X sobre las X que quedan, y se


calcula el de esa regresión. Según la regla práctica de Klien si la calculada de una
regresión de las X es mayor que el de la regresión de Y respecto de las X, entonces
puede existir multicolinealidad.

 Valores propios e índice de condición.

 Factores de tolerancia y de inflación de varianza.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 14 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Medidas correctivas:

 No hacer nada. Según Blanchard, la multicolinealidad, puede deberse a un problema de


deficiencia de datos, y a veces no hay opción respecto de estos datos que se tienen para
hacer el análisis.

 Procedimientos prácticos: existencia de los siguientes lineamientos prácticos.


1. Información a priori: en base a creencias sobre la relación existente entre las variables
β de un modelo, se puede estimar primero un para luego poder en base a esa relación
estimar los otros . Esta información a priori proviene del trabajo empírico que tenga el
investigador del tema.

2. Combinación de información de corte transversal y de series de tiempo: supóngase que:

En que P e I están correlacionados. Luego se puede estimar uno de los coeficientes haciendo la
siguiente regresión:

Donde , o sea, es igual a Y sin el efecto de I.

3. Eliminación de una variable y sesgo de especificación: esto puede ayudar a tener variables
estadísticamente significativas. Pero esto puede derivar en un sesgo de especificación por
eliminar una variable que es necesaria para el modelo. Supongamos que el modelo correcto es:

Pero erróneamente se ajusta al modelo:

En que: , lo que significa que será una estimación sesgada de


mientras sea diferente de cero.

4. Transformación de variables: supongamos que se tiene datos de series de tiempo y el


siguiente modelo:

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 15 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Entonces para el periodo t-1 se tiene:

Si se resta:

Lo que se llama ecuación de primeras diferencias. Este método reduce frecuentemente la


severidad de la multicolinealidad.

Otra alternativa que se puede usar es la transformación de razón que queda como sigue:

Sin embargo, esta técnica puede provocar autocorrelación y heteroscedasticidad.

5. Datos nuevos o Adicionales: una solución puede ser simplemente aumentar el tamaño de la
muestra o escoger otra muestra.

6. reducción de la colinealidad en regresiones polinomiales: al aplicar este método cuando las


variables explicativas están expresadas en términos de desviación, la multicolinealidad puede
reducirse sustancialmente. Si no, puede aplicarse polinomios ortogonales.

7. Otros métodos: técnicas como, análisis de factores, componentes principales, o regresión en


cresta, se pueden emplear para solucionar la multicolinealidad.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 16 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

Posiblemente no sea siempre Mala la multicolinealidad:

Cuando el único propósito de la regresión es el pronóstico o predicción, entonces la presencia


de multicolinealidad, puede no ser un gran problema, puesto que entre más alto sea R 2, mejor
sería la predicción. Sin embargo, para ello, los valores de las variables explicativas para los
cuales se desean las predicciones deben obedecer a las mismas dependencias lineales de la
matriz X, de datos. Pero, cumplir lo anterior, es muy difícil en la práctica.

Ahora bien, cuando el objetivo de la regresión no apunta solamente a predicción, sino también
a predicción confiable de parámetros, la presencia de alta multicolinealidad puede ser un
problema, porque conduce a grandes errores estándar en los estimadores.

CONCLUSIONES FINALES:

1°. En términos simples, la multicolinealidad se refiere a una situación en la cual existe relación
lineal exacta o aproximadamente exacta entre las variables “X”.

2°. Consecuencias de multicolinealidad:

- Si existe colinealidad perfecta entre las X, sus coeficientes serán indeterminados, y errores
estándar no están definidos.

- Si existe colinealidad alta pero no perfecta, la estimación de los coeficientes de regresión es


posible, pero sus errores estándar tienden a ser altos.

Así, los valores poblacionales de los coeficientes no pueden estimarse en forma precisa.

3°. Una vez detectada la multicolinealidad, existen algunas reglas practicas para deshacerse del
problema:

a) utilizar información obtenida a priori.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 17 de 17
Universidad de Santiago de Chile
Facultad de Administración y Economía
Ingeniería Comercial

b) combinar información de corte transversal y de series de tiempo.

c) omitir variable si es muy colineal.

d) transformar los datos.

e) obtener información nueva, adicional.

4°. Si la estructura colineal continúa en alguna muestra futura, sería peligroso utilizar para fines
de predicción una regresión estimada, que contiene multicolinealidad.

Metodos y Modelos de Proyección


Prof. Manuel Pizarro Vidal
Página 18 de 17

También podría gustarte