P2 Tarea2 Manuel Guillermo Flota Lopez Rev
P2 Tarea2 Manuel Guillermo Flota Lopez Rev
P2 Tarea2 Manuel Guillermo Flota Lopez Rev
FACULTAD DE MATEMÁTICAS
INFERENCIA ESTADÍSTICA
UNIDAD 2. ESTIMACIÓN PUNTUAL (Parte 3 de 3)
(Tarea 2, Parcial 2)
f X ( x )=
1
e
( ).
2 θ
√ 2 πθ
a) Consideremos las funciones
−1
1
2
x
g ( X ; θ )= e 2 θ , h ( x )=1
√ 2 πθ
Entonces:
f X ( x )=g( X ; θ) h ( x )
b) Tenemos que
2
−x −1 2
1 1 |x|
f X ( x )= e 2θ = e 2θ .
√2 πθ √ 2 πθ
Sean ahora las funciones
−1 2
1 |x|
g (|X|; θ )= e 2 θ , h ( x )=1
√ 2 πθ
Entonces:
f X ( x )=g(| X|; θ)h ( x )
√
1
√ θ= ∑ x 2i
n i =1
Por tanto, el estimador de √ θ es:
n
T=
√∑ 1
x2 .
n i=1 i
Ya que solo tenemos una observación n=1 así que el estimador de momentos de
√ θ es ¿ X ∨¿. (Ok!)
(20 puntos)
2. Sea X 1 , X 2 dos variables aleatorias independientes e idénticamente distribuidas
(v.a.i.i.d.) provenientes de una distribución discreta uniforme en los enteros
1,2 , … , N . Demostrar que T =X 1 + X 2 no es suficiente para N . (8 puntos)
{
,
P X|T ( ( X 1 , X 2 )|T ) = ( t−1 ) si t=2 , … , N
1 ¿ si ¿ t=N +n , con n=1, … , N
,
( N−n+1 )
(8 puntos)
r
−y
{ 1 r −1 θ
f ( y ; θ )= θ r y e , si θ>0 , y >0
¿ 0 , en otro caso .
Haciendo
n n n
g (∑ ) ( ) [
i =1
y ri ,θ =
1
θ n
exp
−1
θ
∑
i=1
]
y ri y h ( y 1 , y 2 , … , y n )=∏ ry ri −1
i =1
∑ yir
i=1
f Y ( y )=( p ) exp [ y ln ( 1− p ) ] I N ( y ) .
0
Haciendo
y
a ( p )= p , b ( y )=I N ( y ) , c ( p )=n ln ( 1− p ) , d ( y )= ,
0
n
notamos que la distribución Geométrica (p) es parte de la familia exponencial y, por ende,
n
n n
yi 1 n
∑ d ( y i ) =∑ = ∑ y =Ý .
n n i=1 i
i=1 i=1
λr r−1 − λx
f ( x )= x e I (0 ,∞ ) ( x ) .
Γ (r)
Considerando que r es conocido y tomando
x r−1
a ( λ )=λr ,b ( x )= I ( x ) , c ( λ )=− λ , d ( x )=x ,
Γ ( r ) ( 0 , ∞)
se tiene que f ( x )=a ( λ ) b ( x ) exp [ c (λ) d (x) ] , por lo que la familia de distribuciones
Gamma ( λ ,r ) con λ desconocida y r conocida, pertenece a la familia exponencial. (Ok!)
p
f ( x )= m ( 1− p )m exp x ln
x () [ ( )]
1− p
,
p
a ( p )= (1− p )m , b ( x ) = m ,c ( p )=ln ( )
x () 1− p
, d ( x )=x ,
n n
concluimos que S=∑ d ( xi ) =∑ x i es un estimador completo y suficiente para p.
i=1 i=1
Ahora, nótese que la media poblacional es μ=np (debe ser mp ) porque se trata de una
distribución binomial. Además, sabemos que X́ es un estimador insesgado de μ, por lo
que E ( X́ ) =np, entonces
E ( X́n )= p ,
Probando que X́ / n es un estimador insesgado de p. Además, véase que
n
∑ xi S
X́ i=1
= 2 = 2.
n n n
Finalmente, como S es un estimador completo y suficiente para p, y S/n2 es un estimador
insesgado de p, entonces por el Teorema de Lehmann-Scheffé, se concluye que
n
∑ xi
S i=1
= 2 ,
n2 n
es un UNVUE de p.
n
1 X́
Hay errores, el UMVUE es T = ∑ x i= (6 puntos)
nm i=1 m
θ−1
7. Sea X 1 , X 2 , … , X n una m.a. de la densidad f ( x ; θ )=θ x I [ 0,1 ) ( x ), para θ>0 .
θ
a) Hallar el EMV de μ= . (5 puntos)
1+θ
b) Hallar un estadístico suficiente y completo para θ . (5 puntos)
θ2
c) Demuestra que la cota inferior de Cramer-Rao es . (5 puntos)
n
d) ¿Existe un estimador insesgado cuya varianza coincida con la cota inferior
de Cramer-Rao? (5 puntos)
Solución.
a) Primero, tenemos qua la función de máxima verosimilitud L(θ) es
n n n
L ( x1 , x 2 , … , x n ; θ ) =∏ f ( x i ; θ ) =∏ ( θ x θ−1
i )=θn ∏ x θ−1
i .
i=1 i=1 i=1
Ahora bien
n
ln ( L ( θ ) )=n ln ( θ ) + ( θ−1 ) ∑ ln ( x¿ ¿i)¿
i=1
así que
∂(ln ( L ( θ ) ) ) n n
= + ∑ ln (x i)
∂θ θ i=1
de modo que
^ −n
θ= n
∑ ln ( xi )
i=1
θ
es el EMV de θ . De aquí, ya que θ>0 y μ= es una función inyectiva, se sigue
1+θ
de la invarianza funcional del EMV que
−n
n
∑ ln ( xi ) n
i =1
^μ= = n
n
1− n n−∑ ln ( xi )
i=1
∑ ln ( x i )
i=1
es el EMV de μ. (Ok! 5)
b) Notemos que la función
∑ d ( x i )=∑ ln( x i )
i=1 i=1
c) Primero ya que τ ( θ ) =θ, entonces τ ' ( θ )=1, por otro lado como f (x ; θ) es dos
veces diferenciable con respecto a θ podemos escribir la información de Fisher
como sigue
∂2 (ln (f ( x ; θ )))
−E
[ ∂ θ2
,
]
de este modo, ya que
∂2 (ln ( f ( x ; θ ) )) ∂ 1 −1
∂θ 2
=(∂θ θ )
+ ln ( x ) = 2
θ
entonces
∞
∂2 (ln (f ( x ; θ ))) 1
−E
[ ∂θ 2
−1
θ ] ( )
=−E 2 =∫ 2 f ( x ; θ ) dx ,
−∞ θ
sin embargo, puesto que f ( x ; θ )=0 para toda x ∉ ¿se sigue que
∞ 1 1 x=1
1 1 1 1 xθ 1
∫
−∞ θ2 θ 0
θ−1
θ 0
θ−1
f ( x ; θ ) dx= 2 ∫ ( θ x ) dx = ∫ x dx=
θ θ [ ] x=0
=
θ2
.
∂2 ( ln(f ( x ; θ ))) 1
−E
[
∂ θ2
= 2,
θ ]
de aquí, se tiene que la cota inferior de Cramer-Rao es
2
[τ' (θ )] 12 θ2
= = .
∂2 (ln ( f ( x ; θ ))) 1 n
−nE
[ ∂θ 2 ] () n 2
θ
(Ok! 5)
d) Por el inciso b) sabemos que f ( x ; θ ) pertenece a la familia exponencial, de este
modo se cumple que existe un estimador insesgado T cuya varianza coincide con
la cota inferior de Cramer-Rao. Ahora bien, supongamos que queremos estimar
τ ( θ ) =1/θ. Primero notemos que τ ( θ ) =1/θ para θ>0 es una función inyectiva así
que por la invarianza funcional del EMV y el inciso a) resulta que
n n
1 −1 1
= ∑ ln ( x i )= ∑ ln ( 1/ xi )
θ^ n i=1 n i=1
es un EMV para τ ( θ ) =1/θ. Procedemos a calcular unos resultados útiles para
k ≥ 0 tenemos que
∞
k k
E [ ( ln ( 1 /x ) ) ] =∫ ( ln ( 1/x ) ) f ( x ; θ ) dx
−∞
1 −1 −1 θ
−u
sea u=ln ( 1 /x ), entonces e θ u=x y dx= e du. Luego, cuando x=0 , u=−∞
θ θ
y cuando x=1 , u=0 por lo cual
1 0 k u −u
( ) [θ e ](−1θ e
1
)
k −u
θ−1 θ θ
∫ ( ln ( 1/x ) ) [θ x ] dx=∫
θ
u du
0 −∞
0
¿ ∫ −(1/θ)k uk e−u du
−∞
∞
¿(1 /θ)k ∫ uk e−u du.
0
Nótese que esta última integral coincide con la función gamma, así que, por lo
tanto
∞
k
E [ ( ln ( 1 /x ) ) ] =(1/θ) ∫ uk e−u du=(1 /θ)k Γ ( k +1 )=(1/θ)k k !
k
0
de aquí, tomando k =1 y k =2 resulta que
1 2 2
E ( ln (1/x ) )= y E [ ( ln ( 1/ x ) ) ]= 2
θ θ
además
2 1 1
V ( ln ( 1/ x ) )= − = .
θ2 θ 2 θ2
De este modo, por las propiedades del valor esperado se sigue que
n n
1 1 1 1 1
E
() (
θ^ n i=1 n i=1 )
=E ∑ ln ( 1/ x i ) = ∑ E(ln ( 1/x i ) )= ( n/θ )= .
n θ
Por otro lado, por las propiedades de la varianza se cumple que
1
n
V (ln(1/ x)) θ2
V
1
θ^() 1
=V ∑ ln
n i=1
1
xi[=
n ( )]
1
= = 2
n nθ
Por lo realizado anteriormente tenemos que la conta inferior de Cramer Rao para
τ ( θ ) =1/θ es
1 1 1
2
θ4 4
( τ ' (θ ) ) θ θ4 1
= = = = 2
∂
2
1
2
nV ( ln( x) ) n nθ
nE ([
∂θ
ln f ( x ; θ ) ] ) ([ nE
θ
+ ln(x) ]) θ2
b) Consideremos lo siguiente
n n n
x i−θ
∑ ∂∂θ ln f ( x i ; θ ) =∑ θ ( 1−θ )
=
θ (
1
(
1−θ ) ) n (
∑ ( x i−θ ) = θ ( 1−θ )
X́ −θ )
i=1 i=1 i=1
( )∑ ∂∂θ ln f ( x ; θ) = θ ( 1−θ
1−θ
1−θ i=1
n
)
( ( 1−θ ) X́−θ ( 1−θ ) )
i 2
Donde E ( ( 1−θ ) X́ )=( 1−θ ) E ( X́ )=θ ( 1−θ )insinuando que podría ser insesgado para
θ(1−θ), sin embargo, es claro que θ= ^ ( 1−θ ) X́ no es una función únicamente de
x 1 , x 2 , … , x n y valores conocidos y además no es si quiera un estimador.
Sin embargo, notemos que X́ , al ser insesgado, sí es un UMVUE para θ , por lo que
podríamos inferir que X́ ( 1− X́ ) es un UMVUE para θ(1−θ), solo faltaría probar que es
insesgado.
2 θ ( 1−θ ) 2 θ+(n−1)θ2
Ya que E ( X́ ) =θ y V ( X́ ) =E ( X́ 2 )−E ( X́ ) , y por tanto E ( X́ 2) = +θ = ,
n n
obtenemos que
Solución. Primero, ya que las Y i constituyen una muestra aleatoria de una distribución
Poisson con media λ , entonces se cumple que E ( Y i ) =λ y V ( Y i )= λ para toda i=1,2 , … , n
. De este modo, tenemos que
2
E ( C )=E ( 3 Y 2 )=3 E ( Y 2 )=3 [ V ( Y ) + ( E ( Y ) ) ]
¿ 3 ( λ+ λ2 ) .
n
Por otro lado, por lo probado en clase, sabemos que ∑ Y i es un estimador completo y
i=1
suficiente del parámetro λ .
∑ Y i ∼ Poisson ( λn ) .
i=1
λ
Además, nótese que E ( Ý )= λ , mientras que V ( Ý )= , por lo que
n
2 λ
E ( Ý 2 )=V ( Ý ) + ( E ( Ý ) ) = + λ2 .
n
Por lo tanto,
1 1
( [ ( )]) ( ( ))
2
E 3 Ý + Ý 1−
n
2
=3 E Ý + Ý 1−
n
1
[ ( )( ) ]
¿ 3 E Ý 2 + 1−
n
E ( Ý )
λ 2 1
¿3
[ ( )]
n
+ λ + 1− λ
n
¿ 3 [ λ2 + λ ]=E ( C ) .
n
1
[ ( )]
Así tenemos que 3 Ý + Ý 1−
2
n
es un estimador insesgado que es función de ∑ Y i, por
i=1
1
[ ( )]
2
lo tanto, 3 Ý + Ý 1−
n
es un UMVE para E ( C )=3 ( λ+ λ 2 ) .
(Ok! 8 puntos)
1 −1
De este modo, podemos observar que para h ( z )=
√2 π
exp[ 2 ]
( z−1 )2 ,
2
x 1 −1 x−θ
h () =
θ √2 π
exp
2 θ [ ( )] ,
1
por lo que f ( x ; θ )= h
θ ( xθ ). Además h(⋅) es la densidad de una variable que se distribuye
N (1,1)y, por lo tanto, concluimos que θ es un parámetro de escala.
Ahora, procediendo por contradicción, supongamos que θ también es parámetro de
localización, por lo que existe una función g ( x ) tal que
∀ θ ∈θ , f ( x ; θ )=g ( x−θ ) .
Nótese que f ( x ; θ ) está definida para toda x ∈ R, en particular para x=θ , por lo que debe
suceder que
f ( θ ; θ ) =g ( x −θ )=g ( 0 ) .
Sin embargo, nótese que al sustituir se tiene
2
1 −1 θ−θ 1
g ( 0 )=f ( θ ; θ )=
√2π θ
exp
2 [ ( )]
θ
=
√2 π θ
.
1
Esto es una contradicción, pues implicaría que g ( 0 )= , para toda θ ∈θ , por lo que 0
√2π θ
tendría más de una imagen asociada. Concluimos que θ no es parámetro de localización.
−1 2 −1 2
y ( x−θ)
2
1 2
y h ( x−θ ) = 1 e 2 θ
2
Sea Y N ( 0 ,θ ) h ( y )= e2 θ =f (x)
√ 2 π θ √2 π θ
Así que θ es parámetro de localización.
(4 puntos)
CALIFICACIÓN: 92