Tema3 PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Estadı́stica.

Tema 3

Esperanzas

3.1. Esperanza. Propiedades

3.2. Varianza y covarianza. Correlación

3.3. Esperanza y varianza condicional. Predicción

Objetivos

1. Medidas caracterı́sticas distribución de VA.

2. Media y varianza.

3. Correlación lineal vs. esperanza condicional.

Bibliografı́a

Dekking et al. (2005). Capı́tulos 7 y 10.

Wasserman (2005). Capı́tulo 3.

Wooldridge (2006). Apéndice B.

1
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

3.1. Esperanza. Propiedades

Existen muchas medidas caracterı́sticas de las distribuciones de probabilidad. Las más


frecuentes se basan en el concepto de esperanza, aunque pueden tener significados difer-
entes (posición central, dispersión, asimetrı́a, etc.

Definición. El valor esperado, o esperanza o media o primer momento de una VA X


se define como
Z ( P
xf (x) si X es discreta
E (X) = xdF (x) = R x
xf (x) dx si X es continua

Notación Z
E (X) = EX = xdF (x) = µ = µX .

Interpretación. Existencia.

Ejemplos.

 Esperanza de una función de una VA: Y = r (X) ,


Z
E (Y ) = E (r (X)) = r (x) dFX (x) .

Si Y = IA (X) = 1 si X ∈ A; = 0 si X 6∈ A, entonces
Z Z
E (IA (X)) = IA (x) dFX (x) = dFX (x) = Pr (X ∈ A) .
A

Caso multivariante: Z = r (X, Y )


Z
E (Z) = E (r (X, Y )) = r (x, y) dFX,Y (x, y) .

2
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

PROPIEDADES

Teorema: si X1 , . . . , Xn son VA y a1 , . . . , an son constantes, entonces


n
! n
X X
E ai Xi = ai E (Xi ) .
i=1 i=1

Ejemplo: Binomial.

Teorema: si X1 , . . . , Xn son VA independientes, entonces


n
! n
Y Y
E Xi = E (Xi ) .
i=1 i=1

3
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

3.2. Varianza y covarianza. Correlación

Sea X es una VA con media µ. La varianza de X, σ 2 = σ 2X = V (X) = V (X) se define


como Z
σ = E (X − µ) = (x − µ)2 dF (x) .
2 2

p
La desviación estándar se define como sd (X) = V (X) = σ = σ X .

Teorema. Propiedades de la varianza:

1. V (X) = E (X 2 ) − µ2 .

2. Si a y b son constantes, entonces V (aX + b) = a2 V (X) .

3. Si X1 , . . . , Xn son VA independientes y a1 , . . . , an son constantes, entonces


n
! n
X X
V ai Xi = a2i V (Xi ) .
i=1 i=1

Ejemplos: Binomial.

 Si X1 , . . . , Xn son VA, entonces la media muestral se define como


n
1X
X̄n = Xi
n i=1

y la varianza muestral es
n
1 X 2
Sn2 = Xi − X̄ .
n − 1 i=1

Si X1 , . . . , Xn son VA con µ = E (Xi ), σ 2 = V (Xi ) , entonces


 σ2
y E Sn2 = σ 2 .
 
E X̄n = µ, V X̄n =
n

4
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

Covarianza entre dos VA X e Y, con medias µX y µY y desviaciones estándar σ X y


σY :
Cov (X, Y ) = E ((X − µX ) (Y − µY )) .

Correlación (coeficiente de correlación):

Cov (X, Y )
ρ = ρX,Y = ρ (X, Y ) = .
σX σY

Propiedades:

Cov (X, Y ) = E (XY ) − E (X) E (Y )


−1 ≤ ρ (X, Y ) ≤ 1.

Si Y = aX + b, a y b constantes, entonces

ρ (X, Y ) = 1 si a > 0
ρ (X, Y ) = −1 si a < 0.

Si X e Y son independientes, entonces Cov (X, Y ) = ρ = 0. Lo contrario no es


verdad en general.

Cov (aX + b, cY + d) = ac · Cov (X, Y )


ρ (aX + b, cY + d) = ρ (X, Y ) si a y c tienen el mismo signo.
V (X + Y ) = V (X) + V (Y ) + 2Cov (X, Y )
V (X − Y ) = V (X) + V (Y ) − 2Cov (X, Y )
n
! n n X
X X X
V ai Xi = a2i V (Xi ) + 2 ai aj Cov (Xi , Xj ) .
i=1 i=1 i=1 i<j

5
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

Ejemplo. En una población con un número muy elevado de individuos se considera el


experimento de seleccionar uno al azar y observar dos variables,

Y → ”Número de veces que ha estado desempleado”


X → ”Número de titulaciones académicas”

donde las probabilidades de cada combinación de valores viene dada por la siguiente
tabla,

Y \X 1 2 3
1 0, 4 0, 2 0, 05 0, 65
2 0, 2 0, 1 0 0, 3
3 0, 05 0 0 0, 05
0, 65 0, 3 0, 05 1

E [Y ] = E [X] = 1 · 0,65 + 2 · 0,3 + 3 · 0,05 = 1,4


E Y 2 = E X 2 = 12 · 0,65 + 22 · 0,3 + 32 · 0,05 = 2,3
   

V [Y ] = V [X] = 2,3 − 1,42 = 0,34


E [Y X] = 1 · 1 · 0,4 + 1 · 2 · 0,2 + 1 · 3 · 0,05 + 2 · 1 · 0,2 + 2 · 2 · 0,1 + 3 · 1 · 0,05
= 1,9
C [Y, X] = 1,9 − 1,42 = −0,06

6
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

3.3. Esperanza y varianza condicional. Predicción

Esperanza condicional:
Z ( P
yfY |X=x (y) si Y es discreta
E (Y |X = x) = ydFY |X=x (y) = R y
y
yfY |X=x (y) dy si Y es continua

E (Y |X = x) es una función de x, denominada función de regresión, mientras que


E (Y |X) es una variable aleatoria, con la misma distribución de probabilidad que X,
pero con valores E (Y |X = x) .

En general:
Z ( P
r (y) fY |X=x (y) si Y es discreta
E (r (Y ) |X = x) = r (y) dFY |X=x (y) = R y
y
r (y) fY |X=x (y) dy si Y es continua

Varianza condicional: se define como la varianza de las distribuciones condicionadas,

V (Y |X = x) = σ 2 (x)
= E (Y − E (Y |X = x) |X = x)2
Z
= (y − E (Y |X = x))2 dFY |X=x (y)

= E Y 2 |X = x − E (Y |X = x)2 .


Ejemplo. Las probabilidades de Y dado X están dadas por

Y Pr {Y = yi |X = x1 } Pr {Y = yi |X = x2 } · · · Pr {Y = yi |X = xs }
y1 f11 = p11 /px1 f12 = p12 /px2 ··· f1s = p1s /pxs
y2 f21 = p21 /px1 f22 = p22 /px2 f2s = p2s /pxs
.. .. .. ..
. . . .
ym fm1 = pm1 /px1 fm2 = pm2 /px2 ··· fms = pms /pxs
1 1 ··· 1

y la esperanza condicional de Y dado X = xi está dada por


m
X
E [Y |X = xi ] = yj fji .
j=1

7
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

Ejemplo:
Y Pr {Y = yi |X = 1} Pr {Y = yi |X = 2} Pr {Y = yi |X = 3}
1 f11 = 0, 4/0, 65 = 0,615 f12 = 0, 2/0, 3 = 0, 667 f13 = 0, 05/0, 05 = 1
2 f21 = 0, 2/0, 65 = 0,308 f22 = 0, 1/0, 3 = 0, 333 f23 = 0
3 f31 = 0, 05/0, 65 = 0,077 f32 = 0 f33 = 0
1 1 1

Por tanto
E [Y |X = 1] = 1 · 0,615 + 2 · 0,308 + 3 · 0,077 = 1,462
E [Y |X = 2] = 1 · 0,667 + 2 · 0,333 + 3 · 0 = 1,333
E [Y |X = 3] = 1 · 1 + 2 · 0 + 3 · 0 = 1

y la función de regresión es

E Y 2 |X = 1 = 12 · 0,615 + 22 · 0,308 + 32 · 0,077 = 2,54


 

E Y 2 |X = 2 = 12 · 0,667 + 22 · 0,333 + 32 · 0 = 2
 

E Y 2 |X = 3 = 12 · 1 + 22 · 0 + 32 · 0 = 1
 

y entonces
V [Y |X = 1] = 2,54 − 1,4622 = 0,4026
V [Y |X = 2] = 2 − 1,3332 = 0,2231
V [Y |X = 3] = 1 − 12 = 0

8
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

PROPIEDADES DE LA ESPERANZA CONDICIONAL

1. g (X) = E [Y |X] es una v.a. (una función de X) con función de probabilidad

g(X) = E [Y |X] Pr {E [Y |X] = g(xi )}


g(x1 ) px1
g(xs ) px2
..
.
g(xs ) pxs
1

2. Ley de Esperanzas iteradas

E [Y ] = E [E [Y |X]]

porque
=E[Y |X=xi ]
}| #{ z"
s
X m
X
E [E [Y |X]] = yj fji pxi
i=1 j=1
=pyj
z" }| #{
m s
X X pji
= yj fji pxi fji =
j=1 i=1
pxi
= E [Y ]

3. Para cualquier función m (x) ,

E [Y m (X) |X = xi ] = m (xi ) E [Y |X = xi ]

y por tanto E [Y m (X) |X] = m (X) E [Y |X] .

4. Esperanza condicional por etapas:

E [Y |X] = E [E [Y |X, Z] |X] .

5. Si X e Y son independientes, entonces

E [Y |X] = E [Y ] .

9
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

6. Si E [Y |X] = E [Y ] entonces
Cov (Y, X) = 0.
Prueba:

Cov (Y, X) = E [XY ] − E [Y ] E [X]


= E [E [XY |X]] − E [Y ] E [X]
= E [XE [Y |X]] − E [Y ] E [X]
= E [XE [Y ]] − E [Y ] E [X]
= E [X] E [Y ] − E [Y ] E [X] = 0.

El recı́proco de estas dos últimas propiedades no tiene porqué ser verdad en general.

7. Predicción:
La función de regresión es la que, de entre todas las posibles (funciones de X),
minimiza la varianza del error de predicción,

g (x) = E [Y |X = x] = arg mı́n E (Y − m (X))2 |X = x todo x,


 
m(x)

⇒ g minimiza en m E (Y − m (X))2 = Varianza del error.


 

8. Descomposición de la Varianza:

V (Y ) = E [V (Y |X)] + V [E (Y |X)] .

10
Estadı́stica. 3. Esperanzas Carlos Velasco. MEI UC3M. 2007/08

I Ejemplo:

E (E [Y |X]) = E [Y |X = 1] ∗ Pr [X = 1] + E [Y |X = 2] ∗ Pr [X = 2] + E [Y |X = 3] ∗ Pr [X = 3]
= 1,462 ∗ 0, 65 + 1,333 ∗ 0, 3 + 1 ∗ 0, 05
= 1. 400 = E (Y )

y de igual forma

E E [Y |X]2

= E [Y |X = 1] ∗ Pr [X = 1] + E [Y |X = 2] ∗ Pr [X = 2] + E [Y |X = 3] ∗ Pr [X = 3]
= 1,4622 ∗ 0,65 + 1,3332 ∗ 0,3 + 12 ∗ 0,05
= 1. 972 4

y por tanto

V (E [Y |X]) = E E [Y |X]2 + E (E [Y |X])2




= 1. 972 4 − 1. 4002
= 0,012 4.

Por otro lado,

E (V [Y |X]) = V [Y |X = 1] ∗ Pr [X = 1] + V [Y |X = 1] ∗ Pr [X = 3] + V [Y |X = 1] ∗ Pr [X = 3]
= 0,4026 ∗ 0, 65 + 0,2231 ∗ 0, 3 + 0 ∗ 0, 05
= 0,328 6

por lo que
V (Y ) = 0,012 4 + 0,328 6 = 0,341 .

11

También podría gustarte