P2 Tarea2 Manuel Guillermo Flota Lopez Rev

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 13

UNIVERSIDAD AUTÓNOMA DE YUCATÁN

FACULTAD DE MATEMÁTICAS

INFERENCIA ESTADÍSTICA
UNIDAD 2. ESTIMACIÓN PUNTUAL (Parte 3 de 3)
(Tarea 2, Parcial 2)

Arjona Rudy Flota Manuel Gio Irving Villanueva Paola

1. Sea X una sola observación de una N (0 , θ).


a) ¿Es X un estadístico suficiente? (4 puntos)
b) ¿Es ¿ X ∨¿ es estadístico suficiente para θ ? Demuestra tu respuesta. (4
puntos)
c) ¿Es X 2 un estimador insesgado para θ ? (4 puntos)
d) ¿Cuál es el estimador de máxima verosimilitud de √ θ? (4 puntos)
e) ¿Cuál es el estimador de momentos de √ θ? (4 puntos)

Solución. Ya que X es una observación de una distribución normal con media 0 y


varianza θ , entonces la función de densidad de X es
2
−1 x

f X ( x )=
1
e
( ).
2 θ

√ 2 πθ
a) Consideremos las funciones
−1
1
2
x
g ( X ; θ )= e 2 θ , h ( x )=1
√ 2 πθ
Entonces:
f X ( x )=g( X ; θ) h ( x )

Para todo x y θ . Luego, por el criterio de factorización, X es un estadístico


suficiente para θ . (Ok!)

b) Tenemos que
2
−x −1 2
1 1 |x|
f X ( x )= e 2θ = e 2θ .
√2 πθ √ 2 πθ
Sean ahora las funciones
−1 2
1 |x|
g (|X|; θ )= e 2 θ , h ( x )=1
√ 2 πθ
Entonces:
f X ( x )=g(| X|; θ)h ( x )

Para todo x y θ . Así que, de acuerdo al criterio de la factorización, ¿ X ∨¿ es un


estadístico suficiente para θ , cuando X es una observación de N ( 0 , θ ). (Ok!)
c) Sabemos que E ( X ) =0 y V ( X )=θ entonces
2
E ( X 2) =V ( X ) + ( E ( X ) )
¿ θ+ ( 0 )2=θ
Así que, por lo tanto, por definición X 2 es un estimador insesgado para θ . (Ok!)

d) Dado que sólo tenemos una observación entonces:


2
−x
1
L (θ ; x )=f ( x ; θ ) = e 2θ
√2 πθ
Aplicando ln se tiene:
2
−x
x2
(
ln ( L ( θ ; x ) ) =ln
1
√ 2 πθ ) ( )
+ ln e 2 θ =
−1
2
ln ( 2 πθ ) −

Por lo tanto:
∂ ln ( L ( θ ; x ) ) −1 x 2
= +
∂θ 2θ 2θ 2
Igualando a 0 obtenemos:
x2 1
2
− =0
2θ 2 θ
x 2=θ
^ 2 es el EMV de θ . Como √ θ es una función inyectiva para θ>0 se sigue
Así, θ=x
de la invarianza funcional del EMV que ¿ X ∨¿ es el EMV de √ θ. (Ok!)

e) El primer momento poblacional no es útil ya que no es función del parámetro de


interés pues
E ( X ) =0 ,
como resultado, usamos el segundo momento poblacional
2
E ( X 2) =V ( X ) + ( E ( X ) ) =θ+0=θ
Comparando este segundo momento poblacional con el segundo momento
muestral:
E ( X 2) =M '2
n
1
θ= ∑ x 2i
n i=1
n


1
√ θ= ∑ x 2i
n i =1
Por tanto, el estimador de √ θ es:
n
T=
√∑ 1
x2 .
n i=1 i
Ya que solo tenemos una observación n=1 así que el estimador de momentos de
√ θ es ¿ X ∨¿. (Ok!)
(20 puntos)
2. Sea X 1 , X 2 dos variables aleatorias independientes e idénticamente distribuidas
(v.a.i.i.d.) provenientes de una distribución discreta uniforme en los enteros
1,2 , … , N . Demostrar que T =X 1 + X 2 no es suficiente para N . (8 puntos)

Solución. Ya que variables aleatorias X i son independientes e idénticamente distribuidas


(v.a.i.i.d.) provenientes de una distribución discreta uniforme en los enteros 1,2 , … , N
1
tienen por función de probabilidad a p ( x i) = para x i=1 , … , N para i=1,2. De este modo
N
tenemos que
N −1
1 N −1
P ( T =N )= pT ( N )= ∑ p X ( xi ) p X ( N −x i)= ∑ = 2 .
x i∈ R X 1
1 2
xi =1 N2 N
Entonces, la distribución condicional de X 1 =1, X 2=N−1 dado T =N es
1
P ( X 1=1 , X 2=N −1 ) N2 1
P X , X ∨T =N ( 1 , N −1|T =N ¿= = =
1 2
P ( T =t ) N−1 N −1
N2
Lo cual claramente depende de N así que, por lo tanto, T no es suficiente para N .
OK, traten de llegar a la expresión general:

{
,
P X|T ( ( X 1 , X 2 )|T ) = ( t−1 ) si t=2 , … , N
1 ¿ si ¿ t=N +n , con n=1, … , N
,
( N−n+1 )

(8 puntos)

3. Sea Y 1 ,Y 2 , … , Y n una m.a. de una función de densidad dada por

r
−y

{ 1 r −1 θ
f ( y ; θ )= θ r y e , si θ>0 , y >0
¿ 0 , en otro caso .

Donde r es una constante positiva conocida. Determinar un estadístico suficiente


para θ . (8 puntos)

Solución. Tenemos que la función de verosimilitud L(θ) es


r
n n − yi n n
L ( y 1 , y 2 , … , y n ; θ ) =∏ f ( x i ; θ)=∏
i= I i=I
( 1 r−1
ry e
θ i
θ
) =
1
n∏
θ i= I [
r y ri −1 exp
−1
θ

i=1
]
y ri .

Haciendo
n n n
g (∑ ) ( ) [
i =1
y ri ,θ =
1
θ n
exp
−1
θ

i=1
]
y ri y h ( y 1 , y 2 , … , y n )=∏ ry ri −1
i =1

obtenemos por el criterio de factorización que


n

∑ yir
i=1

es un estadístico suficiente para θ .


(OK! 8 puntos)

4. Si Y 1 ,Y 2 , … , Y n denota una m.a. de una distribución geométrica con parámetro p,


demuestra que Ý es suficiente para p.

Solución. Dado que Y 1 ,Y 2 , … , Y n es una muestra aleatoria de una distribución


Geométrica (p)
y
f Y ( y )= p ( 1− p ) I N ( y ) .
0

Reescribiendo la expresión anterior se tiene lo siguiente:

f Y ( y )=( p ) exp [ y ln ( 1− p ) ] I N ( y ) .
0

Haciendo
y
a ( p )= p , b ( y )=I N ( y ) , c ( p )=n ln ( 1− p ) , d ( y )= ,
0
n
notamos que la distribución Geométrica (p) es parte de la familia exponencial y, por ende,
n

∑ d ( y i ) es un estimador completo y suficiente para p. Realizando las cuentas se tiene


i=1

n n
yi 1 n
∑ d ( y i ) =∑ = ∑ y =Ý .
n n i=1 i
i=1 i=1

Concluimos que Ý es un estimador suficiente y completo para p. (Ok! 8 puntos)

5. Demuestra que la familia de distribuciones Gamma con λ desconocida y r conocida,


pertenece a la familia exponencial. (Optativo)
Solución. Nótese que la función de densidad de la distribución Gamma ( λ ,r ), está dada de
la siguiente manera

λr r−1 − λx
f ( x )= x e I (0 ,∞ ) ( x ) .
Γ (r)
Considerando que r es conocido y tomando

x r−1
a ( λ )=λr ,b ( x )= I ( x ) , c ( λ )=− λ , d ( x )=x ,
Γ ( r ) ( 0 , ∞)

se tiene que f ( x )=a ( λ ) b ( x ) exp [ c (λ) d (x) ] , por lo que la familia de distribuciones
Gamma ( λ ,r ) con λ desconocida y r conocida, pertenece a la familia exponencial. (Ok!)

6. Sea X 1 , X 2 , … , X n una m.a. de la distribución binomial (mn ) p ( 1− p )


x m−x
,
x=0,1 , … , m, donde m es conocido y 0 ≤ p ≤ 1. Hallar un UMVUE para p . (10
puntos)

Solución. Reescribiendo la función de probabilidad, tenemos que

p
f ( x )= m ( 1− p )m exp x ln
x () [ ( )]
1− p
,

por lo que al hacer

p
a ( p )= (1− p )m , b ( x ) = m ,c ( p )=ln ( )
x () 1− p
, d ( x )=x ,

n n
concluimos que S=∑ d ( xi ) =∑ x i es un estimador completo y suficiente para p.
i=1 i=1

Ahora, nótese que la media poblacional es μ=np (debe ser mp ) porque se trata de una
distribución binomial. Además, sabemos que X́ es un estimador insesgado de μ, por lo
que E ( X́ ) =np, entonces

E ( X́n )= p ,
Probando que X́ / n es un estimador insesgado de p. Además, véase que
n

∑ xi S
X́ i=1
= 2 = 2.
n n n
Finalmente, como S es un estimador completo y suficiente para p, y S/n2 es un estimador
insesgado de p, entonces por el Teorema de Lehmann-Scheffé, se concluye que
n

∑ xi
S i=1
= 2 ,
n2 n
es un UNVUE de p.
n
1 X́
Hay errores, el UMVUE es T = ∑ x i= (6 puntos)
nm i=1 m

θ−1
7. Sea X 1 , X 2 , … , X n una m.a. de la densidad f ( x ; θ )=θ x I [ 0,1 ) ( x ), para θ>0 .
θ
a) Hallar el EMV de μ= . (5 puntos)
1+θ
b) Hallar un estadístico suficiente y completo para θ . (5 puntos)
θ2
c) Demuestra que la cota inferior de Cramer-Rao es . (5 puntos)
n
d) ¿Existe un estimador insesgado cuya varianza coincida con la cota inferior
de Cramer-Rao? (5 puntos)

Solución.
a) Primero, tenemos qua la función de máxima verosimilitud L(θ) es
n n n
L ( x1 , x 2 , … , x n ; θ ) =∏ f ( x i ; θ ) =∏ ( θ x θ−1
i )=θn ∏ x θ−1
i .
i=1 i=1 i=1
Ahora bien
n
ln ( L ( θ ) )=n ln ( θ ) + ( θ−1 ) ∑ ln ⁡( x¿ ¿i)¿
i=1
así que
∂(ln ( L ( θ ) ) ) n n
= + ∑ ln (x i)
∂θ θ i=1
de modo que
^ −n
θ= n

∑ ln ( xi )
i=1
θ
es el EMV de θ . De aquí, ya que θ>0 y μ= es una función inyectiva, se sigue
1+θ
de la invarianza funcional del EMV que
−n
n

∑ ln ( xi ) n
i =1
^μ= = n
n
1− n n−∑ ln ( xi )
i=1
∑ ln ( x i )
i=1

es el EMV de μ. (Ok! 5)
b) Notemos que la función

f ( x ; θ )=θ x θ−1 I [ 0,1 ) ( x ) ,

puede ser expresada como sigue:

f ( x ; θ )=θ I [ 0,1 ) ( x ) exp [(θ−1)ln ⁡( x )]

de modo que, al hacer

a ( θ ) =θ , b ( x ) =I [ 0,1) ( x ) , c ( θ )=θ−1 y d ( x )=ln ⁡( x )

resulta que f ( x ; θ ) pertenece a la familia exponencial, por lo cual se cumple que


n n

∑ d ( x i )=∑ ln( x i )
i=1 i=1

es un estimador suficiente y completo para θ . (Ok! 5)

c) Primero ya que τ ( θ ) =θ, entonces τ ' ( θ )=1, por otro lado como f (x ; θ) es dos
veces diferenciable con respecto a θ podemos escribir la información de Fisher
como sigue

∂2 (ln (f ( x ; θ )))
−E
[ ∂ θ2
,
]
de este modo, ya que

∂2 (ln ( f ( x ; θ ) )) ∂ 1 −1
∂θ 2
=(∂θ θ )
+ ln ⁡( x ) = 2
θ
entonces

∂2 (ln (f ( x ; θ ))) 1
−E
[ ∂θ 2
−1
θ ] ( )
=−E 2 =∫ 2 f ( x ; θ ) dx ,
−∞ θ

sin embargo, puesto que f ( x ; θ )=0 para toda x ∉ ¿se sigue que
∞ 1 1 x=1
1 1 1 1 xθ 1

−∞ θ2 θ 0
θ−1
θ 0
θ−1
f ( x ; θ ) dx= 2 ∫ ( θ x ) dx = ∫ x dx=
θ θ [ ] x=0
=
θ2
.

Por lo tanto, la información de Fisher es

∂2 ( ln(f ( x ; θ ))) 1
−E
[
∂ θ2
= 2,
θ ]
de aquí, se tiene que la cota inferior de Cramer-Rao es
2
[τ' (θ )] 12 θ2
= = .
∂2 (ln ( f ( x ; θ ))) 1 n
−nE
[ ∂θ 2 ] () n 2
θ

(Ok! 5)
d) Por el inciso b) sabemos que f ( x ; θ ) pertenece a la familia exponencial, de este
modo se cumple que existe un estimador insesgado T cuya varianza coincide con
la cota inferior de Cramer-Rao. Ahora bien, supongamos que queremos estimar
τ ( θ ) =1/θ. Primero notemos que τ ( θ ) =1/θ para θ>0 es una función inyectiva así
que por la invarianza funcional del EMV y el inciso a) resulta que
n n
1 −1 1
= ∑ ln ( x i )= ∑ ln ( 1/ xi )
θ^ n i=1 n i=1
es un EMV para τ ( θ ) =1/θ. Procedemos a calcular unos resultados útiles para
k ≥ 0 tenemos que

k k
E [ ( ln ( 1 /x ) ) ] =∫ ( ln ( 1/x ) ) f ( x ; θ ) dx
−∞

sin embargo, ya que f ( x ; θ )=0 para toda x ∉ [ 0,1 ) , entonces


∞ 1
k k
∫ ( ln (1 /x ) ) f ( x ; θ ) dx=∫ ( ln ( 1/ x )) [θ x θ−1 ]dx
−∞ 0

1 −1 −1 θ
−u
sea u=ln ⁡( 1 /x ), entonces e θ u=x y dx= e du. Luego, cuando x=0 , u=−∞
θ θ
y cuando x=1 , u=0 por lo cual
1 0 k u −u

( ) [θ e ](−1θ e
1
)
k −u
θ−1 θ θ
∫ ( ln ( 1/x ) ) [θ x ] dx=∫
θ
u du
0 −∞

0
¿ ∫ −(1/θ)k uk e−u du
−∞


¿(1 /θ)k ∫ uk e−u du.
0
Nótese que esta última integral coincide con la función gamma, así que, por lo
tanto

k
E [ ( ln ( 1 /x ) ) ] =(1/θ) ∫ uk e−u du=(1 /θ)k Γ ( k +1 )=(1/θ)k k !
k

0
de aquí, tomando k =1 y k =2 resulta que
1 2 2
E ( ln (1/x ) )= y E [ ( ln ( 1/ x ) ) ]= 2
θ θ
además
2 1 1
V ( ln ( 1/ x ) )= − = .
θ2 θ 2 θ2

De este modo, por las propiedades del valor esperado se sigue que
n n
1 1 1 1 1
E
() (
θ^ n i=1 n i=1 )
=E ∑ ln ( 1/ x i ) = ∑ E(ln ( 1/x i ) )= ( n/θ )= .
n θ
Por otro lado, por las propiedades de la varianza se cumple que
1
n
V (ln(1/ x)) θ2
V
1
θ^() 1
=V ∑ ln
n i=1
1
xi[=
n ( )]
1
= = 2
n nθ

Por lo realizado anteriormente tenemos que la conta inferior de Cramer Rao para
τ ( θ ) =1/θ es
1 1 1
2
θ4 4
( τ ' (θ ) ) θ θ4 1
= = = = 2

2
1
2
nV ( ln( x) ) n nθ
nE ([
∂θ
ln f ( x ; θ ) ] ) ([ nE
θ
+ ln(x) ]) θ2

De este modo, por todo lo realizado concluimos que 1/ θ^ es un estimador


insesgado para τ ( θ ) =1/θ y además su varianza coincide con la cota inferior de
Cramer Rao. (Ok! 5)
(20 puntos)

8. Sea X 1 , X 2 , … , X n una m.a. de una distribución Bernoulli ( θ ) .


a) Hallar la cota inferior de Cramer-Rao para la varianza de estimadores
insesgados de θ ( 1−θ ). (5 puntos)
b) Hallar el UMVUE de θ ( 1−θ ) si existe. (5 puntos)
Solución. Ya que las X i constituyen una m.a. de una Bernoulli ( θ ) se cumple que
X ∼ Bernoulli(θ) para toda i=1,2 , … , n.
a) Como X i ∼ Bernoulli (θ), entonces tenemos que E ( X i ) =θ y V ( X i ) =θ(1−θ) . Sea
' d
τ ( θ ) =θ (1−θ ) , entonces τ ( θ )= ( θ−θ 2 )=1−2θ .

xi 1−x i
Recordemos que f ( x i ; θ )=θ ( 1−θ ) , entonces
2 2 2 2
∂ ∂ ∂ x 1−x x−xθ−
E
∂θ ([
ln f ( x ; θ ) ] ) ([=E
∂θ
1− x
ln ( θ x ( 1−θ ) ) =E
∂θ ] ) ([ ] ) ([
( x lnθ+ ( 1−x ) ln ( 1−θ ) ) =E −
θ 1−θ ] ) ([
=E
θ (1

Por lo tanto, la cota inferior de Cramer-Rao para la varianza de estimadores insesgados


de θ(1−θ) es
2
[ τ' (θ) ] (1−2θ )2 θ ( 1−θ )( 1−2 θ )2
= =

2 n n
nE ([ ∂θ
ln f ( x ; θ ) ]) θ ( 1−θ )

b) Consideremos lo siguiente
n n n
x i−θ
∑ ∂∂θ ln f ( x i ; θ ) =∑ θ ( 1−θ )
=
θ (
1
(
1−θ ) ) n (
∑ ( x i−θ ) = θ ( 1−θ )
X́ −θ )
i=1 i=1 i=1

Notemos que la única forma en la que podríamos tener τ ( θ ) =θ(1−θ) es haciendo


n

( )∑ ∂∂θ ln f ( x ; θ) = θ ( 1−θ
1−θ
1−θ i=1
n
)
( ( 1−θ ) X́−θ ( 1−θ ) )
i 2

Donde E ( ( 1−θ ) X́ )=( 1−θ ) E ( X́ )=θ ( 1−θ )insinuando que podría ser insesgado para
θ(1−θ), sin embargo, es claro que θ= ^ ( 1−θ ) X́ no es una función únicamente de
x 1 , x 2 , … , x n y valores conocidos y además no es si quiera un estimador.
Sin embargo, notemos que X́ , al ser insesgado, sí es un UMVUE para θ , por lo que
podríamos inferir que X́ ( 1− X́ ) es un UMVUE para θ(1−θ), solo faltaría probar que es
insesgado.

2 θ ( 1−θ ) 2 θ+(n−1)θ2
Ya que E ( X́ ) =θ y V ( X́ ) =E ( X́ 2 )−E ( X́ ) , y por tanto E ( X́ 2) = +θ = ,
n n
obtenemos que

2 −θ−( n−1 ) θ 2 nθ−θ− ( n−1 ) θ2


2
E ( X́ − X́ ) =E ( X́ )−E ( X́ )=θ+ =
n n
( n−1 ) θ− ( n−1 ) θ2 ( n−1 ) ( θ−θ 2 ) ( n−1 )
¿ = = θ ( 1−θ ) ≠ θ(1−θ)
n n n
Obteniendo que no es insesgado, por lo tanto, no es UMVUE de θ(1−θ), pero estamos a
n−1
un paso de poder encontrar alguno, recordando que es una constante, tendremos
n
n
que es también una constante, entonces
n−1
n
E ( n−1 ( X́− X́ ) )= n E ( X́ − X́ ) =( n )( n−1 ) θ ( 1−θ )=θ(1−θ)
2 2
n−1 n−1 n
n
Entonces X́ ( 1− X́ ) es un estimador insesgado para θ(1−θ), y por tanto es un
n−1
UMVUE de θ(1−θ). (Ok! 10 puntos)

9. El número de descomposturas Y por día para cierta máquina es una variable


aleatoria de Poisson con media λ . El costo diario de reparación de estas
descomposturas está dado por C=3 Y 2. Si Y 1 ,Y 2 , … , Y n denota el número
observado de descomposturas para n días seleccionados de manera independiente,
encuentra un UMVE para E(C ). (8 puntos)

Solución. Primero, ya que las Y i constituyen una muestra aleatoria de una distribución
Poisson con media λ , entonces se cumple que E ( Y i ) =λ y V ( Y i )= λ para toda i=1,2 , … , n
. De este modo, tenemos que
2
E ( C )=E ( 3 Y 2 )=3 E ( Y 2 )=3 [ V ( Y ) + ( E ( Y ) ) ]
¿ 3 ( λ+ λ2 ) .
n
Por otro lado, por lo probado en clase, sabemos que ∑ Y i es un estimador completo y
i=1
suficiente del parámetro λ .

Si se puede encontrar un estimador insesgado para 3 ( λ+ λ2 ) y una función de un


estadístico suficiente, entonces será ese el UMVE. Ahora bien, tenemos que
n

∑ Y i ∼ Poisson ( λn ) .
i=1

λ
Además, nótese que E ( Ý )= λ , mientras que V ( Ý )= , por lo que
n
2 λ
E ( Ý 2 )=V ( Ý ) + ( E ( Ý ) ) = + λ2 .
n
Por lo tanto,
1 1
( [ ( )]) ( ( ))
2
E 3 Ý + Ý 1−
n
2
=3 E Ý + Ý 1−
n

1
[ ( )( ) ]
¿ 3 E Ý 2 + 1−
n
E ( Ý )

λ 2 1
¿3
[ ( )]
n
+ λ + 1− λ
n

¿ 3 [ λ2 + λ ]=E ( C ) .
n
1
[ ( )]
Así tenemos que 3 Ý + Ý 1−
2
n
es un estimador insesgado que es función de ∑ Y i, por
i=1

1
[ ( )]
2
lo tanto, 3 Ý + Ý 1−
n
es un UMVE para E ( C )=3 ( λ+ λ 2 ) .

(Ok! 8 puntos)

10. Sea X 1 , X 2 , … , X n una muestra aleatoria de N ( θ , θ2 ) ,−∞<θ< ∞. ¿Es θ un


parámetro de localización o un parámetro de escala? Justifica tu respuesta. (8
puntos)

Solución. Notemos que la función de densidad de N (θ , θ2 ) es


2
1 −1 x−θ
f ( x ; θ )=
√2 π θ
exp
2 [ ( )]
θ
.

1 −1
De este modo, podemos observar que para h ( z )=
√2 π
exp[ 2 ]
( z−1 )2 ,

2
x 1 −1 x−θ
h () =
θ √2 π
exp
2 θ [ ( )] ,

1
por lo que f ( x ; θ )= h
θ ( xθ ). Además h(⋅) es la densidad de una variable que se distribuye
N (1,1)y, por lo tanto, concluimos que θ es un parámetro de escala.
Ahora, procediendo por contradicción, supongamos que θ también es parámetro de
localización, por lo que existe una función g ( x ) tal que

∀ θ ∈θ , f ( x ; θ )=g ( x−θ ) .
Nótese que f ( x ; θ ) está definida para toda x ∈ R, en particular para x=θ , por lo que debe
suceder que
f ( θ ; θ ) =g ( x −θ )=g ( 0 ) .
Sin embargo, nótese que al sustituir se tiene
2
1 −1 θ−θ 1
g ( 0 )=f ( θ ; θ )=
√2π θ
exp
2 [ ( )]
θ
=
√2 π θ
.

1
Esto es una contradicción, pues implicaría que g ( 0 )= , para toda θ ∈θ , por lo que 0
√2π θ
tendría más de una imagen asociada. Concluimos que θ no es parámetro de localización.
−1 2 −1 2
y ( x−θ)
2
 1 2
y h ( x−θ ) = 1 e 2 θ
2
Sea Y N ( 0 ,θ ) h ( y )= e2 θ =f (x)
√ 2 π θ √2 π θ
Así que θ es parámetro de localización.
(4 puntos)

CALIFICACIÓN: 92

También podría gustarte