Definición Del Modelo Clásico 040220

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 3

DEFINICIÓN DEL MODELO CLÁSICO DE REGRESIÓN LINEAL SIMPLE

El objetivo de un modelo de regresión es tratar de explicar la relación que existe entre una
variable dependiente (variable respuesta) Y un conjunto de variables independientes (variables
explicativas) X1, ..., Xn. En un modelo de regresión lineal simple tratamos de explicar la relación
que existe entre la variable respuesta Y y una única variable explicativa X.

Mediante las técnicas de regresión de una variable Y sobre una variable X, buscamos una función
que sea una buena aproximación de una nube de puntos (xi, yi), mediante una curva del tipo:

El modelo de regresión lineal simple tiene la siguiente expresión: Y = α + βX + ε

En donde  es la ordenada en el origen (el valor que toma Y cuando X vale 0),  es la pendiente de
la recta (e indica cómo cambia Y al incrementar X en una unidad) y  una variable que incluye un
conjunto grande de factores, cada uno de los cuales influye en la respuesta sólo en pequeña
magnitud, a la que llamaremos error. X e Y son variables aleatorias, por lo que no se puede
establecer una relación lineal exacta entre ellas.

Supuestos del Modelo Clásico de Regresión

Supuesto 1: modelo de regresión lineal

Supuesto 1: modelo de regresión lineal

-Es decir, sigue una tendencia lineal, dado que el modelo se sustenta en promedios, y al ser
promedios sigue una tendencia promediar

Supuesto 2: los valores de X son fijos en un muestreo repetido

-Los X deben seguir una secuencia de carácter lógico a lo menos en un 80%, es decir, deben
guardar una relación directa o inversamente proporcional.

-Cuando los valores son demasiados fluctuantes no sirve este modelo

Supuesto 3:

-los residuos deben comportarse como una distribución normal en la que tienda al centro, es
decir, a 0.

- si el residuo no tiende a 0, se descarta porque los residuos no se comportarán como una


distribución normal

Supuesto 4:

-El modelo debe ser homocedasico, es decir, que tiende a comportarse los residuos de manera
similar dentro de los datos. Si existe homocedasicidad se comprueba con la varianza.

-la varianza tendría que tender a 0

-Si el modelo es homocedasico, se sigue al siguiente paso (supuesto 5).

Si el modelo es heterocedas%co en sus residuos, se descarta el modelo.


Heterocedas%cidad: significa que es distinta la varianza de una variable con las otras.

Todos los residuos tienen distintas varianzas, por lo tanto, los datos variaran mucho y la predicción
que podemos hacer del futuro no será cierto.

Supuesto 5: No existe auto correlación entre las perturbaciones

Covarianza: relación entre 2 variables; a diferencia de la correlación, la covarianza es


bidimensional, es decir, que ve la relación que hay entre un dato1 y dato2, y de dato2 a

dato1. Cómo una in/ere en la otra y como la otra in/ere en la una. (Viceversa)

La correlación solo ve la relación de una variable con el otro, no viceversa.

Según este supuesto, se espera que las variables no estén auto correlacionadas, es decir, no se
puede tomar una extensión de la misma variable.

Para aprobar este supuesto, la covarianza debe ser 0.

Perturbaciones: residuos.

Gráfico 1: correlación positiva (NO ES VALIDA)

Gráfico 2: correlación negativa (NO ES VALIDA)

Gráfico 3: correlación nula. (0) (ESTA ES LA VÁLIDA)

Supuesto 6: La covarianza entre el residuo y el eje x debe ser 0

Supuesto 7: el número de observaciones “n” debe ser mayor que el número de parámetros por
estimar

-no se puede estimar por sobre los datos que tengo

Ejemplo: n: de 1 año

Estimaciones: de 6 meses.

Supuesto 8: variabilidad en los valores de “x”.

La varianza de x debe ser mayor de 0, porque los datos deben variar. “x” se debe mover porque si
no se mueve no explicaría nada, no estaríamos estudiando nada.

Supuesto 9: el modelo de regresión está correctamente especificado.

-a mayor comportamiento de “x”, los datos se van expandiendo.

Supuesto 10: No hay multicolinealidad perfecta.

-No hay relaciones perfectamente lineales entre las variables explicativas.

Supuesto 5: No existe auto correlación entre las perturbaciones


Propiedades de los Estimadores

Un estimador es un estadístico (una función de la muestra) utilzado para estimar un parámetro


desconocido de la población.

Por ejemplo, si se desea conocer el precio medio poblacional de un artículo (parámetro


desconocido) se recogen observaciones del precio de dicho artículo en diversos establecimientos
(muestra) pudiendo utilizarse la media aritmética de las observaciones para estimar el mecio
medio poblacional.

Para cada parámetro pueden existir varios estimadores diferentes. En general, se elige al
estimados que posea mejores propiedades que los restantes, como insesgadez, eficiencia,
convergencia y robustez (consistencia).

El valor de un estimador proporciona una eestimación puntual del valor del parámetro en estudio.
En general, se realiza la estimación mediante un intervalo, es decir, se obtiene un
intervalo(parámetro muestral +- error muetsral) dentro del cual se espera se encuentre el valor
poblacional dentro de un cierto nivel de confianza.

El nivel de confianza es la probabilidad de qe a priori el valor poblacional se enceuntre contenido


en el intervalo.

*Teorema de Gauss-Márkov:

Bajo las hipótesis básicas del MRL, el estimador MCO (Mínimos Cuadrados Ordinarios) de β es
óptimo entre la familia de estimadores lineales e insesgados.

Es decir, no es posible encontrar otro estimador de β que siendo lineal e insesgado tenga una
varianza menor que el estimador MCO.

Al referirnos que los estimadores “B” tienen varianza mínima, podemos decir de la forma más
simple, que presentan el menor error cuadrático comparado a otros estimadores, y hace por ello
que sean los más eficientes, todo esto con el fin de que la función de regresión muestral sea lo
más cercana posible a la función de regresión poblacional, por lo que podemos hablar de
insesgadez.

También podría gustarte