Multicolinealidad y Heterocedasticidad
Multicolinealidad y Heterocedasticidad
Multicolinealidad y Heterocedasticidad
Numerosos métodos han sido desarrollados con el objeto de detectar la posible existencia de
multicolinealidad y sus efectos anómalos sobre un modelo de regresión.
Mandell (1982) señala que una de las principales dificultades en el uso de estimaciones mínimo
cuadráticas es la presencia de este fenómeno que, aun cuando no afecta la capacidad predictiva
del modelo, representa un problema grave si su propósito fundamental es evaluar la contribución
individual de las variables explicativas. Esto es debido a que en presencia de multicolinealidad los
coeficientes bj tienden a ser inestables, es decir sus errores estándar presentan magnitudes
indebidamente grandes. Esta falta de precisión afecta los contrastes parciales diseñados para
evaluar la contribución individual de cada variable explicativa, corriéndose un alto riesgo de no
encontrar significación en variables que realmente la tengan.
Jackson (1991) subraya además que bajo condiciones de colinealidad resulta imposible distinguir
los efectos individuales de cada variable predictora, debido a que la fuerza de la correlación entre
ellas produce relaciones lineales de similar magnitud entre los coeficientes.
La multicolinealidad entre las variables explicativas se da cuando existe algún tipo de dependencia
lineal entre ellas, o lo que es lo mismo, si existe una fuerte correlación entre las mismas. La
correlación no solamente se refiere a las distintas variables dos a dos, sino a cualquier de ellas con
cualquier grupo de las restantes. Por esta razón no es suficiente (aunque sí necesaria) que en la
matriz de correlaciones bivariadas haya correlaciones altas.
El SPSS adopta varios procedimientos para detectar multicolinealidad entre los predictores. El
primero de ellos, basado en la correlación múltiple de un determinado regresor con los restantes se
denomina Tolerancia de dicho regresor. Su valor es: 1-R(2)i
Siendo R(2)i la correlación múltiple al cuadrado de dicho regresor con los restantes. Para que haya
multicolinealidad dicha correlación ha de ser alta, o lo que es lo mismo la tolerancia baja. Además,
otro índice relacionado con éste y que nos da una idea del grado de aumento de la varianza se
denomina Factor de Inflación de la Varianza, y es precisamente el recíproco de la tolerancia. Su
valor es: VIFi = 1/1-R(2)y1
Para que no haya multicolinealidad el denominador tiene que valer cerca de la unidad, por tanto,
un poco más de 1 el valor de VIF. Cuanto mayor sea de este valor mayor multicolinealidad habrá.
Factor de inflación varianza: el factor de inflación varianza (VIF) lo medimos así; nos
indica el grado en el que la varianza del estimador de mínimos cuadrados se eleva por la
colinealidad entre variables.
Existen una serie de métodos para corregir el problema de multicolinealidad. Es importante señalar
que si nuestro modelo es predictivo (no estructural) la multicolinealidad no se consideraría un
problema ya que la relación entre variables puede mantenerse en el futuro. Las técnicas más
utilizadas si queremos solucionar esto son:
Eliminar variables: el hecho de suprimir variables puede acabar con el problema, pero
cuidado, tenemos que tener en cuenta si el hecho de omitirlas puede ser un problema más
grave por su relevancia.
Razones de escala
Distribución espacial
Aprendizaje de los errores
Menores restricciones de elección.
Mejoras en la Información
Observaciones Influyentes
Problemas de especificación
Estimadores ineficientes.
Perdida de validez de las pruebas de contraste estadísticos.