Econometria Notas

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 25

Universidad San Francisco de Quito

Econometría 1
Mario Ankalli Conejo
Notas

LECTURA I: RESPASO DE ESTADÍSTICA DESCRIPTIVA


Experimento: Un experimento es un procedimiento que puede, al menos en teoría. repetirse
una cantidad infinita de veces y que tiene un conjunto bien definido de resultados
Variable aleatoria:
Definición en Wooldridge
Una variable aleatoria es una variable que toma un valor numérico determinado por un
experimento.
Definición en Ross
Las cantidades de interés o formalmente las funciones de valores reales definidas en un
espacio muestral se conocen como variables aleatorias. Dado que el valor de la variable
aleatoria es determinado por el resultado del experimento, podemos asignar probabilidades a
los posibles resultados de la variable aleatoria.
Ejemplo:
Supón que nuestro experimento consiste en lanzar 3 monedas. Si permitimos que Y denote el
número de caras que aparecen, entonces Y es una variable aleatoria que puede tomar los
valores 0 1 2 y 3 con las respectivas probabilidades:
, ,

P Y 0 P S S S 18
{ = } = {( , , )} =

P Y 1 P CSS SCS SSC 3


{ = } = {( , , ), ( , , ), ( , , )} =
8
P Y 2 P CCS SCC CSC 3
{ = } = {( , , ), ( , , ), ( , , )} =
8
P Y 3 P CCC 1
{ = } = {( , , )} =
8
Donde;

∑i 0 P Y
3
=
{ = i 1} =

Variable aleatoria discreta:


Definición de Jorge
Definición formal
X Xk k K
∈ { , ∈ ∈ 𝚴}

Distribución de probabilidades
fdp ⟹ f xi p X xi Pi donde i 1 2 K
( ) = ( = ) = = , ,...,

∑iK1 Pi
=
= 1

Definición en Wooldridge
Es una variable aleatoria que solo toma una cantidad finita o una cantidad infinita de valores.
La noción de “infinita contable” significa que aunque la variable
aleatoria pueda tomar una cantidad infinita de valores, éstos se pueden poner en
correspondencia
uno a uno con los enteros positivos.
Definición en Ross
Se dice que una variable aleatoria que puede tomar como máximo un número contable de
valores posibles es discreta. Para una variable aleatoria discreta X, definimos la función de
densidad de probabilidad p(a) de X por
pa P X a
( ) = { = }

La función de masa de probabilidad p(a) es positiva como máximo para un número contable
de valores de a. Es decir, si X debe asumir uno de los valores x1, x2, . . . , entonces
p xi 0 para i 1 2
( ) ⩾ = , ,...
p x 0 para los dem s valores de x
( ) = á

Dado que X debe tomar uno de los valores de xi , tenemos

∑i 1 p xi

=
( ) = 1

Ejemplo: La fdp de una variable aleatoria X está dada por p i c i, i 0 1 2


𝜆
donde
( ) =
i = , , , ..., 𝜆

es algún valor positivo. Encuentra (a) P X 0 y (b) P X 2


!

{ = } { > }.

Solución: Dado ∑i 0 p i

=
( ) = 1, tenemos

c∑ i
i
1

𝜆
=

i0 !

Dado que ∑ xi
=

i
ex , se obtiene

i0 =
!

ce 1 o c e- c i e-
𝜆
𝜆
𝜆
i
i i
𝜆 𝜆
= = ∴ =
! !

Dado p a PX a
( ) = { = }

(a) P X 0 e 0
- 0 -
e
𝜆
𝜆
𝜆
{ = } = =
!

(b) P X 2 1-P X 2
{ > } = { ⩽ }

= 1-P X 0 -P X 1 -P X 2
{ = } { = } { = }

1- e 0 - e 1 - e 2 1-e- - e- - 2e
- 0 - 1 - 2
𝜆
𝜆
𝜆
𝜆
2- 𝜆
𝜆 𝜆
𝜆
𝜆 𝜆
= = 𝜆
! ! !

Variable aleatoria continua:


Definición de Jorge
Función de distribución acumulada ⟹ F x ( ) = PX x( ⩽ )

Propiedades de la FDA:
Para todo número c ⟹ P X (c 1-F c
> ) = ( )

Para todo par de números a b ⟹ P a X b F b -F a


< ( ⩽ ⩽ ) = ( ) ( )

Definición Wooldridge
Una variable X es una variable aleatoria continua si la probabilidad de que la variable
aleatoria tome cualquier valor real es cero. Esta definición es un poco contraintuitiva, ya que
en cualquier aplicación se observará algún valor de la variable aleatoria. La idea es que los
valores que puede tomar una variable aleatoria continua X son tantos que no es posible
contarlos o hacerlos coincidir con los enteros positivos, de manera que la consistencia lógica
indica que X puede tomar cada uno de estos valores con probabilidad cero.
Definición Ross
También existen variables aleatorias cuyo conjunto de valores posibles es incontable. Dos
ejemplos son el tiempo que un tren llega a una parada específica y la vida útil de un
transistor. Sea X una variable aleatoria de este tipo. Decimos que X es una variable aleatoria
continua si existe una función no negativa f , definida para todo real x - , que tiene ∈ ( ∞, ∞)

la propiedad de que, para cualquier conjunto B de números reales,


PX B{ ∈ } =
B f x dx
∫ ( )

Donde f es la fdp de la variable aleatoria X.


Esta ecuación establece que la probabilidad de que X esté en B puede obtenerse integrando la
función de densidad de probabilidad sobre el conjunto B. Dado que X debe asumir algún
valor, f debe satisfacer
1 PX - f x dx

= { ∈ ( ∞, ∞)} = ∫
- ∞
( )

Todos los enunciados de probabilidad sobre X pueden responderse en términos de f . Por


ejemplo, haciendo B a b , obtenemos
= [ , ]

b
Pa X b
{ ⩽ ⩽ )} = ∫
a f x dx
( )
Por tanto si establecemos a = b obtendríamos
a
PX a
{ = )} = ∫
a f x dx 0
( ) =

Distribuciones conjuntas:
Definición de Wooldridge
Sean X y Y variables aleatorias discretas. Entonces (X,Y) tiene una distribución conjunta,
descrita
completamente por la función de densidad de probabilidad conjunta de (X,Y):
fx y x y P X x Y y
,
( , ) = ( = , = ),

donde el lado derecho es la probabilidad de que X = x y Y y. =

Hay un caso en el que la fdp conjunta se obtiene con facilidad si se cuenta con las fdp de X
y de Y. En particular, se dice que las variables aleatorias X y Y son independientes si y solo
si,
fx y x y fx x fy y
,
( , ) = ( ) ( )

para toda x y y, donde fx es la fdp de X y fy es la fdp de Y. Cuando se tiene más de una


variable
aleatoria, a las fdp fx y fy se les suele llamar funciones de densidad de probabilidad marginal
para distinguirlas de la fdp conjunta fx y . Esta definición de independencia es válida tanto para
,

variables discretas como para variables continuas.


Para entender el significado de la segunda ecuación, lo más fácil es ver el caso discreto. Si X y
Y son discretas, entonces fx y x y fx x fy y es lo mismo que
,
( , ) = ( ) ( )

PX x Y y PX x PY y
( = , = ) = ( = ) ( = );

en otras palabras, la probabilidad de que X = x y Y y es el producto de las probabilidades


=

PX x yPY y.
( = ) ( = )

Distribuciones condicionales:
Definición Wooldridge
En econometría, usualmente interesa saber cómo está relacionada una variable, a la que se le
llamará Y, con otra u otras variables. Por ahora, suponga que sólo interesa el efecto de una
variable, llámesele X. Lo más que se puede saber acerca de cómo afecta X a Y está contenido
en la distribución condicional de Y dada X. Esta información está resumida en la función de
densidad de probabilidad condicional, definida por
fY X y x fX Y x y fX x
|
( | ) = ,
( , )/ ( )

para todos los valores de x tales que fx x 0. La interpretación de la ecuación se ve más


( ) >

fácilmente cuando X y Y son discretas. Entonces,


fY X y x P Y y X x
|
( | ) = ( = | = ),

donde el lado derecho se lee como “la probabilidad de que Y y dado que X x”. Cuando Y = =

es continua, fY X y x no se puede interpretar directamente como una probabilidad, por las


| ( | )

razones
antes vistas, sino que las probabilidades condicionales se encuentran calculando áreas bajo
la fdp condicional.
Una característica importante de las distribuciones condicionales es que, si X y Y son
variables
aleatorias independientes, conocer el valor que toma X no dice nada acerca de la probabilidad
de que Y tome diversos valores (y viceversa). Es decir,
fY X y x fY y y fX Y x y fX x
|
( | ) = ( ) |
( | ) = ( ).

Ejemplo 2a
Un estudiante está tomando un examen de recuperación con límite de tiempo de una hora.
Suponga que la probabilidad de que el estudiante termine el examen en menos de x horas es
x/2, para todo 0... x... 1. Entonces, dado que el estudiante todavía está trabajando después
de 0,75 horas, ¿cuál es la probabilidad condicional de que el estudiante termine el examen en
menos de x horas? se usa la hora?
Solución. Sea Lx el evento de que el estudiante termine el examen en menos de x horas,
0 x 1 , y sea F el evento de que el estudiante use la hora completa. Como F es el evento de
… …

que el estudiante no termine en menos de 1 hora,

PF( ) = P L1c = 1 P L1
− ( ) = 05
,
Ahora, el evento de que el estudiante todavía está trabajando en el tiempo .75 es el
complemento del evento L.75, por lo que la probabilidad deseada se obtiene de

P FL0c 75 PF 05
P F L0c 75 .
{ }

0 625 0 8
.

P L0c 75 P L0c 75
| = = = = .
.
.
. .

LECTURA II: CARACTERÍSTICAS DE LAS DISTRIBUCIONES DE


PROBABILIDAD
Medidas de tendencia central: Valor esperado o media poblacional
Definición Wooldridge
Si X es una variable aleatoria, el valor esperado (o la esperanza) de X, que se denota E X o, [ ]

alguna veces, X o simplemente , es un promedio ponderado de todos los posibles valores de


𝜇 𝜇

X. Los pesos de ponderación están determinados por la función de densidad de probabilidad.


Al valor esperado también se le suele llamar media poblacional, en especial cuando se quiere
hacer énfasis en que X representa una variable poblacional.
Para variables discretas, sea f (x) la función de densidad de probabilidad de X. El valor
esperado de X es el promedio ponderado
E X x1 f x1 x2 f x2
[ ] = ( )+ ( ) + ... + xk f xk ( ) = ∑j 1 xjf xj
k
=
( )

Si X es una variable aleatoria continua


EX xf x dx


[ ] =
-

( )

Dada una variable aleatoria X y una función g(.), se puede crear una nueva variable aleatoria
g(X). Por ejemplo, si X es una variable aleatoria, entonces también X 2 y log X (si X 0) son ( ) >

variables aleatorias. El valor esperado de g X es, otra vez, un simple promedio ponderado:
( )
Eg X
[ ( )] = ∑j k1 g xj fx xj
=
( ) ( ),

o, para variables aleatorias continuas,

Eg X g x fx x dx


[ ( )] =
- ∞
( ) ( )

Propiedades
Propiedad 1: Para toda constante c,
Ec c[ ] =

Propiedad 2: Para un par de constantes a y b,


E aX b E aX E b aE X b
[ + ] = [ ]+ [ ] = [ ]+

Propiedad 3: Para un conjunto de constantes a1 a2 { , ,..., an y un conjunto de variables


}

aleatorias X1 X2 Xn entonces
{ , ,..., },

E a1 X1 a2 X2
[ + + ... + an Xn a1 E X1 a2 E X2
] = [ ]+ [ ] + ... + an E Xn
[ ] = ∑i n1 aiE xi
=
[ ]

Ejemplo [Determinar ingresos esperados]


Sean X1 X2 y X3 las cantidades de pizzas pequeñas, medianas y grandes vendidas en una
,

pizzería en un día determinado. Éstas son variables aleatorias cuyos valores esperados son
E X1 25, E X2 57 y E X3 40. Los precios de las pizzas pequeñas, medianas y grandes
( ) = ( ) = ( ) =

son $5.50, $7.60 y $9.15 respectivamente.


Por tanto, el ingreso esperado por día de la venta de las pizzas es
E 5 50X1 7 60X2 9 15X3 5 50E X1 7 60E X2 9 15E X3
( . + . + . ) = . ( )+ . ( )+ . ( )

5 50 25 7 60 57 9 15 40 936 70
= . ( )+ . ( )+ . ( ) = . ,

es decir, $936.70. El ingreso real en un día determinado será, por lo general, distinto de este
valor, pero este es el valor esperado.
Medidas de tendencia central: Varianza
Dada una variable aleatoria X, sea E X . Hay varias maneras de medir qué tan lejos está
𝜇 = ( )

X
de su valor esperado, pero la forma más sencilla para manipular algebraicamente es el
cuadrado de la diferencia, X- 2 . (Al elevar al cuadrado se elimina el signo de la distancia
( 𝜇)

medida; el valor positivo que se obtiene corresponde a la noción intuitiva de distancia y trata
de manera simétrica a valores mayores y menores que .) Esta distancia también es una 𝜇

variable aleatoria, pues cambia con cada valor que toma X. Así como se necesita un número
que resuma la tendencia central de X, también se requiere uno que indique qué tan lejos, en
promedio, está X de . Este número es la varianza, que da la distancia esperada de X a su
𝜇

media:

Var X E X-
( ) = ( 𝜇)
2 .

La varianza también suele denotarse como x2 , o simplemente 2 , cuando el contexto es claro.


𝜎 𝜎

De acuerdo con la ecuación anterior se tiene que la varianza siempre es no negativa.


Es útil observar que

 𝜎 E X2 -2X 2 E X2 -2 E X E 2
2 = 𝜇+𝜇 = 𝜇 ( )+ 𝜇

= E X2 -2 2 2 E X2 - 2 E X2 - E X 2
𝜇 +𝜇 = 𝜇 = [ ( )]
Propiedades
Propiedad 1: Si y solo si existe una constante c tal que P X ( = c 1, en cuyo caso E X c
) = ( ) =

entonces
Var X c 0
( = ) =

Esta propiedad indica que la varianza de cualquier constante es cero y que si una variable
aleatoria
tiene varianza cero, entonces es una constante.
Propiedad 2: Para cualesquiera constantes a y b,
Var aX b Var aX Var b a2Var X
( + ) = ( )+ ( ) = ( )

Esto significa que sumar una constante a una variable aleatoria no modifica la varianza, pero
multiplicar una variable aleatoria por una constante aumenta la varianza en un factor igual al
cuadrado de la constante.
Ejemplo
Si X denota temperatura en grados Celsius y Y 32 9 5 X es temperatura en grados = +( / )

Fahrenheit, entonces Var Y 9 5 2 Var X 81 25 Var X .


( ) = ( / ) ( ) = ( / ) ( )

Medidas de tendencia central: Desviación standard


La desviación estándar de una variable aleatoria, que se denota sd X , es la raíz cuadrada ( )

positiva de la varianza: sd X Var X . La desviación estándar también se suele denotar


( ) = + ( )

𝜎X,
o simplemente , cuando se sobreentiende la variable aleatoria. De las propiedades VAR.1 y
𝜎

VAR.2 se deducen de inmediato dos propiedades de la desviación estándar.


Propiedad 1: Para toda constante c,
sd c 0
( ) = .

Propiedad 2: Para todas las constantes a y b,


sd aX b
( + ) = | | a sd X ( ).

Esta última propiedad hace que resulte más natural trabajar con la desviación estándar
que con la varianza.
Ejemplo
Suponga que X es una variable aleatoria medida en miles de dólares, como por ejemplo,
ingreso. Si se define Y 1 000X , entonces Y es ingreso medido en dólares. Suponga que
= ,

E X 20 y que sd X 6. Entonces E Y 1 000E X 20 000 y


( ) = ( ) = ( ) = , ( ) = ,

sd Y 1 000sd X 6 000 , de manera que tanto el valor esperado como la desviación


( ) = , ( ) = ,

estándar aumentan en un mismo factor, 1,000. Si se calcula la varianza, se tiene


Var Y 1 000 2Var X , de manera que la varianza de Y es un millón de veces más grande
( ) = ( , ) ( )

que la de X.
Estandarización de una variable aleatoria
Suponiendo una variable aleatoria X, se define una nueva variable aleatoria tal que

Z X-=
𝜎
𝜇
,

Lo que es igual a decir


Z aX b
= +
donde a =
1 y b - , por tanto
=
µ

𝜎 𝜎

E Z aE X b a b
( ) = ( )+ = 𝜇+ =
𝜇

𝜎
- µ

𝜎
= 0
Var Z a2Var X
( ) = ( ) = 𝜎
2 /𝜎
2 = 1

Estructura de datos
Por último, recordar que CORRELACIÓN no es CAUSALIDAD. ØEn la Causalidad aplica el
concepto de CeterisParibus: el efecto de una variable sobre otra, si todos los otros factores
relevantes se mantienen constante.
Modelo de regresión simple (clase 2/7/2022)
Qué es regresión?
En econometría nosotros queremos saber como los datos de dos o más variables regresan o se
ajustan a una función lineal, el modelo de regresión lineal es una función lineal que mejor se
ajusta a los datos..
y = β 0 +β 1x +𝜇

Qué es la regresión simple?


Nos permite evaluar el efecto que una variable tiene sobre otra con forma funcional lineal con
un término de error o perturbación . 𝜇

Forma funcional y sus elementos:


y = β 0 +β 1x +𝜇

donde,
Y: Variable dependiente, regresando, predicha, endógena o de respuesta
X: Variable independiente, regresor, de política, decisión o exógena
β 1 : Impacto de X sobre Y, cambio en Y ante un incremento marginal en X
β 0 : Intersecto
𝜇 : Término de error o perturbación, representa factores distintos a x que afectan y
Supuestos:
1. Linealidad en parámetros: 0 y 1 tienen exponente 1.
β β

No es tan real por...


Ej. Sean X años de educación y Y ingreso, a un incremento marginal de años incrementa el
ingreso en 2 unidades. No es real porque la educación superior es bastante más valorada en el
ámbito profesional que el colegio.
2. Valor esperado no condicional de los errores es cero: para estimar la constante
3. Media condicional cero
E ux E
( | ) = (𝜇) = 0
. No existe alguna relación entre y x. Asumimos causalidad en CETERIS PARIBUS cuando
𝜇

Cov x 0.
(𝜇| ) =

Función de regresión poblacional FRP


E y x E 0 1x x
( | ) = (β +β + 𝜇| )

= E 0 1x x E x
(β +β | )+ (𝜇| )

0 1x
= β +β

Es importante entender que la ecuación dice cómo varía el valor promedio de y de acuerdo
con la variación de x; esta ecuación no dice que y sea igual a 0 1 x para cada una de las
β +β

unidades de la población.
A la parte 0 1 x , que representa E y x , se le llama parte sistemática de y, es decir, es la
β +β ( | )

parte de y explicada por x y a u se le llama la parte no sistemática o estocástica, o la parte


de y que no es explicada por x.
4. Homocedasticidad
Var Y X x Var X x
( | = ) = (𝜇| = ) = 𝜎
2

Es decir que la varianza de Y es igual para cada valor de x. (Gráficamente las funciones de
campana son las mismas para cada valor de x)
Estimación del Modelo por Mínimo Cuadrados Ordinarios (MCO)
Estimar los parámetros de este modelo: 0 y 1 .β β

Se necesita una muestra de la población de interés.


f yi xi i 1 2 n
( , ); = , ,...,

yi 0 1 xi i
= β +β +𝜇

𝜇 i yi - 0 - 1 xi
= β β

𝜇 i yi - 0 1 xi
= (β +β )

𝜇i es el término de error
yi es la variable real
(β 0 1 xi es la estimación
+β )

Mínimos porque queremos minimizar el error


Cuadrados para tener distancias positivas (se eleva al cuadrado para tener una distancia
positiva como en la varianza)
Queremos minimizar el error
β ,β
min
0

n
2
1 i1 i =
𝜇 = yi - 0 - 1 xi 2
β β

Paso 1: Condiciones de primer orden

∑ni 1

=

∂β 0
𝜇
2
i
= ∑i n1 2 yi - 0 - 1xi
=
β β ( -1 0) =

∑ni 1

=

∂β 1
𝜇
2
i
= ∑i n1 2 yi - 0 - 1xi
=
β β ( -xi 0 ) =

∂∑ni 1 𝜇
2
i
Depejamos 0 de
𝛽
=

∂β 0

∑ni 1

=

∂β 0
𝜇
2
i
= ∑i 1 2 yi - 0 - 1xi
n
=
β β ( -1 0) =

-2∑ yi - 0 - 1 xi 0
n
β β =
i1
=

∑i 1 yi - ∑i 1 0 - ∑i 1 1xi
=
n n
=
β
n
=
β = 0

∑i n1 0 ∑i n1 yi - ∑i n1 1xi
=
β =
= =
β

n0 β = ∑i n1 yi - ∑i n1 1xi
= =
β

∑ni 1 yi - ∑ni 1 1 xi β

0 n
= =
β =

∑ni 1 yi ∑ni 1 xi
0 n -1 n
= =
β = β

0 y⏨- 1 x⏨
β = β
Donde
∑ni 1 yi
n es el promedio ponderado de y
=

∑ni 1 xi
n es el promedio ponderado de x
=

∑ni 1
∂ 𝜇
2
i
Depejamos 1 de
𝛽
=

∂β 1

∑ni 1

=

∂β 1
𝜇
2
i
= ∑i 1 2 yi - 0 - 1xi
n
=
β β ( -xi 0 ) =

∑i 1 yi - 0 - 1xi
n
=
β β ( xi 0
) =

∑i 1 yixi - 0xi - 1xi2


n
=
β β = 0

∑i 1 yixi - 0∑i 1 xi - 1∑i 1 xi2


n
=
β
=
n
β
n
=
= 0
∑ni 1 yi - 1 xi
∑i 1 yixi - n
=
n
=
β
∑i n1 xi - 1∑i n1 xi2
=
β
=
= 0
∑ni 1 xi
∑i 1 yixi - ∑i 1
=
n n
=
yi - 1 xi n -
β
=
β 1 ∑i 1 xi2
n
=
= 0

∑i n1 yixi - ∑i n1 yi - 1xi
= =
β ∑
n
x⏨- 1 xi2
i1
β

=
= 0

∑i n1 yixi - ∑i n1 yi x⏨ ∑i n1 1xi x⏨- 1∑i n1 xi2


= =
+

=
β β

=
= 0

∑i n1 yixi - x⏨∑i n1 yi 1 x⏨∑i n1 xi - 1∑i n1 xi2


= =

=
β
=
= 0
β ∑i1
n
1 x⏨ xi - 1
= i1
β ∑n
=
xi2 = x⏨∑ yi - ∑ yixi
i1
n
=i1 =
n

β ∑
n
i1
=
n
1 xi - 1 x⏨ xi
2
i1
β ∑ ∑i 1 yixi - x⏨∑i 1 yi
=
=
n
= =
n

β 1 ∑
n
i1=

n
xi - x⏨ xi
2
i1

n
i1

n
yixi - x⏨ yi
i1=
=
= =

∑ni 1 yixi - x⏨∑ni 1 yi


1
= =

∑ni 1 xi2 - x⏨∑ni 1 xi


β =

= =

∑ni 1 yixi - x⏨∑ni 1 yi nn


1
= =

∑ni 1 xi2 - x⏨∑ni 1 xi nn


β =

= =

∑ni 1 yixi -nx⏨y⏨ covmuestral x y ( , )


1 var x
=

∑ni 1 xi2 -nx⏨2


β = =
( )
=

Nota adicional

cov x y ∑ yi -n-1
( ,
y⏨ xi - x⏨
) =
( )( )

var x ∑ x i - x
⏨ 2 ( )

n-1 ( ) =

Reemplazando en B0

∑ni 1 yi ∑ni 1 xi
0 n -1 n
= =
β = β

∑ni 1 yi ∑ni 1 yixi - x⏨∑ni 1 yi ∑ni 1 xi


0 n - ∑ni 1 xi2 - x⏨∑ni 1 xi n
= = = =
β =

= =

Estimadores mínimos cuadrados ordinarios


∑ni 1 yi ∑ni 1 yixi - x⏨∑ni 1 yi ∑ni 1 xi
0 n - ∑ni 1 xi2 - x⏨∑ni 1 xi n
= = = =
β =

= =

∑ni 1 yixi -nx⏨y⏨


y⏨- n 2 2 x⏨ =

∑i 1 xi -nx⏨
=

∑ni 1 yixi - x⏨∑ni 1 yi


1
= =

∑ni 1 xi2 - x⏨∑ni 1 xi


β =

= =

∑ni 1 yixi -nx⏨y⏨


=

∑ni 1 xi2 -nx⏨2


=

Estimación de Forma Gráfica


Residuos o estimados del error:

𝜇 i = yi - yi
yi = β 0 1 Xi

Propiedades algebraicas de los estimadores MCO

∑i n1 i
=
𝜇 = 0

Covarianza muestral entre la variable independiente y los residuos es igual a cero

Cov X (𝜇, ) = ∑i 1 iXi


n
=
𝜇 = 0

Los promedios muestrales de Y y X siempre estarán en la linea de regresión de los MCO


Dadas ( x⏨y⏨
, )

yi = 𝛽 0 +𝛽 1 xi
⏨yi = 𝛽 0 +𝛽 1 x⏨i

Relación entre medidas de variaciones de las variables dependiente,


independiente y residuos

2
( Yi - ⏨Y 2 ) = ( Yi - ⏨Y )+𝜇 i

= ( Yi - Y⏨ 2 2 Yi - Y⏨
) + ( i
)𝜇 + 𝜇
2
i

∑ Yi - Y⏨ 2 ∑ Yi - Y⏨ 2 2∑ Yi - Y⏨ i ∑ i2
( ) = ( ) + ( )𝜇 + 𝜇

∑ Yi - ⏨Y 2 ∑ Yi - ⏨Y 2 ∑ i2
( ) ( ) 𝜇

⏨⏨
STC ⏨⏨
SEC ⏨⏨
SRC
= +

STC: Suma total de cuadrados


Es la variación total de la variable actual dependiente de la variable que queremos determinar.
SEC: Suma explicada de cuadrados
Son las variaciones totales que tiene nuestro modelo
SRC: Suma residual de cuadrados
Son las variaciones totales de la variable de residuos
Medidas de bondad de ajuste
Qué tan bien el modelo (parte determinística) se relaciona o predice la variable dependiente?
Qué tan bien la linea de regresión se ajusta a los datos muestrales?
R-cuadrado o R 2
Es una de varias medidas de bondad de ajuste, nos da intuición
SEC 1- SRC
R2 STC
=
STC =

Interpretaciones:
La proporción de las variaciones de la variable Y que son explicadas por las variaciones de la
variable x o nuestro modelo.
Si multiplicamos el R 2 por 100%, sería el porcentaje de variaciones de la variable Y
explicadas por las variaciones de la variable x o nuestro modelo
Ej.
Si 100R 2 =70% entonces un 70% de las variaciones de la variable Y explicadas por las
variaciones de la variable x o nuestro modelo
Unidades de medición en las variables y los estimadores MCO
Suponga que regreso ingreso en 1000 dólares sobre añis de educación
Luego cambio las unidades de medición bien de la variable dependiente o independiente. Por
ejemplo, ingreso en dólares ahora, o educación en meses.
Propiedades de la distribución de los Estimadores MCO
Insesgamiento
Para 0𝛽

𝛽 0 = y⏨- 1 x⏨
𝛽

Probar
E 𝛽 0 = 𝛽 0

Dado yi
∑ yi
= 𝛽 0 +𝛽 1 Xi +𝜇 i y y⏨ =
n
𝛽 0 = y⏨- 1 x⏨𝛽

𝛽 0 = ∑ 0 1xi i - 1 x⏨
1
n (𝛽 +𝛽 +𝜇 ) 𝛽

0
1 ∑ 0 ∑ 1xi ∑ i - 1 x⏨
𝛽 =
n 𝛽 + 𝛽 + 𝜇 𝛽

0 0 1 x⏨ n ∑ i - 1 x⏨
𝛽
1
= 𝛽 +𝛽 + 𝜇 𝛽

1 - 1 x⏨ n ∑ i
𝛽 0 0= 𝛽
1+ 𝛽 𝛽 + 𝜇

Valor esperado
E 𝛽 0 = E 0
[𝛽 ] + E x⏨ E n1 ∑
𝛽 1- 1 𝛽 + 𝜇 i

E 0 0 x⏨E 1 - 1
1E i
𝛽 = 𝛽 +
n 𝛽 𝛽 + [𝜇 ]

E 𝛽 0 = 𝛽 +
1
0 x⏨ 1 - 1 n E i
(𝛽 𝛽 )] + [𝜇 ]

E 𝛽 0 = 𝛽 0 ∴ es insesgado
Varianza

𝛽 0 = y⏨- 1 ⏨x𝛽

∑ di i donde d x - x
i ⏨
𝜇
𝛽 1 = 𝛽 1 +
STCx i , = ( )

Supuesto RLS5:
Var i xi Var
(𝜇 | ) = (𝜇 ) = 𝜎i 2
Varianza 1 𝛽

Var 𝛽 1 = Var (𝛽 ) + 1 Var ∑STC


di i 2Cov 1 ∑ di i
x STCx
𝜇
+ 𝛽 ,
𝜇
Var 𝛽 1 = 0 Var ∑STC
+
di i 0
x
𝜇
+

Var 𝛽 1 = Var ∑STC


di i
x
𝜇
= ∑ STCdi x 2Var (𝜇 )i

= ∑ STCdi x 2 2 𝜎 =
𝜎

STCx
2 ∑
2
d 2
i =
𝜎
2
STCx2 STCx STCx
=
𝜎
2

Varianza 0 (demostrar) p54 de Wooldridge


𝛽

Estimador de la varianza de los errores

2 1 ∑n 2 SRC
𝜎 =
n-2 i 1 =
𝜇
i =
n-2
Estimador de la varianza de 1 𝛽

2
Var 𝛽 1 =
STCx
𝜎

Regresión a través del origen


La relación lineal entre la variable Y y X no tiene un intercepto

Y = 𝛽 ␒1 Xi +𝜇 i
Queremos minimizar el error

Min∑
n
2
𝜇
i
i1
=

Estimadores:
Y = 𝛽 1X
∑ Yi Xi
1
𝛽 =
∑ Xi2
Modelo de regresión lineal simple
Supuestos de Gauss-Markov
Estimadores MCO de la Regresión Múltiple
• Inclusión de más factores que explican la variable dependiente
• Mayor número de variables independientes, mejor R 2
• RLM acepta que variables independientes están correlacionadas, incluir más factores
flexibiliza el supuesto cov x 0.
( , 𝜇) =

• Modelo general de regresión lineal múltiple, o modelo de regresión múltiple


Y = 𝛽 0 +𝛽 1 X1 +𝛽 2 X2 + ... + 𝛽 k Xk +𝜇 ; K 12 k
= , ,...,

• Teniendo una muestra aleatoria, podemos escribir este modelo de regresión múltiple
para cada individuo u observación
Yi = 𝛽 0 +𝛽 1 Xi1 +𝛽 2 Xi2 + ... + 𝛽 k Xik +𝜇 ; K 12 k
= , ,...,

Se quiere

0
Min
𝛽 ,..., 𝛽 k
∑ i2 𝜇

Y1 = 𝛽 1 X11 +𝛽 2 X12 + ... + 𝛽 k X1k +𝜇 1


.

Yn 1 Xn1 2 Xn2 k Xnk


.

= 𝛽 +𝛽 + ... + 𝛽 +𝜇 n
En forma matrcial
Y1 1 1 X11 X1k
Y2 X21 X2k
𝜇 𝛽 ...

2 2 X
Y
𝜇 𝛽 ...

= . ; 𝜇 = . ; 𝛽 = . ;
n k ×
= .

Yn Xn1 Xnk
. . . .

𝜇 n 𝛽 k ...
0 k

Min 2
i
𝛽 ,..., 𝛽
𝜇

Donde ∑ i2 t 𝜇 = 𝜇 𝜇

Min ∑ 2 Min t S

i 𝜇 = 𝜇 𝜇 = (𝛽)
0 k
𝛽 ,..., 𝛽 0 k 𝛽 ,..., 𝛽

También podría gustarte