0% encontró este documento útil (0 votos)
17 vistas5 páginas

P 8

Este documento presenta varios ejercicios relacionados con probabilidad y estadística. Incluye ejercicios sobre la ley fuerte de los grandes números, estimación paramétrica, método de Montecarlo, estimación puntual y otros temas.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
0% encontró este documento útil (0 votos)
17 vistas5 páginas

P 8

Este documento presenta varios ejercicios relacionados con probabilidad y estadística. Incluye ejercicios sobre la ley fuerte de los grandes números, estimación paramétrica, método de Montecarlo, estimación puntual y otros temas.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 5

Facultad de Ingeniera

IMERL
PROBABILIDAD Y ESTAD

ISTICA
Curso 2013
Practico 8
Ley Fuerte y Estimacion Parametrica
LFGN y Montecarlo
Ejercicio 1
Este ejercicio describe el metodo de Montecarlo para el calculo de integrales.
1. Sean (U
i
)
iN
U[a, b] iid y f R[a, b] (f es integrable Riemann en [a, b]), mostrar que:
1
n
n

i=1
f (U
i
)
c.s.

n
1
b a
b

a
f (x) dx.
2. Sea D una region arbitraria de [0, 1] [0, 1] y sean U
1
, U
2
, . . . , U
n
variables aleatorias indepen-
dientes e identicamente distribuidas con distribucion U ([0, 1] [0, 1]), es decir que se cumple que
P(U A) = area(A [0, 1] [0, 1]).
Si a
n
=
#{i : 1 i n y U
i
D}
n
probar que a
n
c.s.

n
area(D).
Ejercicio 2
Utilizando alg un software de generacion de n umeros aleatorios y el metodo de Montecarlo para resolver
integrales, obtenga una estimacion de
1

0
e

x
2
2

2
dx, mediante la generacion de 100 n umeros aleatorios.
Comparar el resultado obtenido con el provisto por las tablas de la distribucion N(0, 1).
Ejercicio 3
Calcular el volumen de la region n-dimensional siguiente:
R
n
= {(x
1
, x
2
, . . . , x
n
) R
n
: 0 x
1
x
2
. . . x
n
1}
Ejercicio 4
Demostrar que si X
n
c.s.

n
a y g : R R continua entonces g(X
n
)
c.s.

n
g(a).
Ejercicio 5
Considerese una red con n terminales comunicados (con C
n
2
=
n(n1)
2
enlaces). Cada enlace funciona
independientemente, con probabilidad p (o falla con probabilidad 1 p).
Se desea estimar la probabilidad P(n) de que la red permanezca conexa, es decir, que cada par de
nodos se pueda alcanzar entre s mediante enlaces.
1. Sorteando una cantidad N sucientemente grande de tales redes, utilice el metodo de Montecarlo
para hallar un estimador P
N
para P(n)
2. Aplique la tecnica anterior para estimar la probabilidad de que una red completa de 50 no-
dos resulte conexa, cuando p = 0, 99 y eligiendo el tama no de muestras N. Encuentra alguna
dicultad? Calcular la varianza de P
N
.
1
Ejercicio 6 Examen diciembre de 2004
Considere una variable aleatoria X absolutamente continua con densidad de probabilidad
f
X
(x) =

2a
x
2
si 1 x b
0 en caso contrario,
donde a >
1
2
y b > 1. (1)
1. Hallar b en funcion de a.
2. HallarE(X), V ar(X) y m
X
, la mediana de X.
Considere ahora una muestra, X
1
, X
2
, . . . , X
100
, de variables aleatorias i.i.d. con densidad f
X
(x).
3. Construya un estimador consistente para el parametro b. Justique su respuesta.
4. Suponiendo a = 1, estime la probabilidad de que el promedio de la muestra este en el intervalo
[1,8 log 2, 2,1 log 2].
Estimacion Puntual
Denicion: Sean {X
n
}
nN
iid con distribucion F

donde es un parametro. Se considera la fa-


milia {T
n
(X
1
, . . . , X
n
)}
nN
donde T
n
es una funcion de los n datos (que cumple ciertas hipotesis).
T
n
(X
1
, . . . , X
n
) se llama un estimador de . Un estimador se dice consistente si T
n
(X
1
, . . . , X
n
)
c.s.

n
.
Ejercicio 7
Sean (X
n
)
nN
iid tales que E(X
1
) = y Var (X
1
) =
2
< ( > 0).
1. Demostrar que X
n
es un estimador consistente de , esto es que X
n
c.s.

n
.
2. Demostrar que si
2
n
=
1
n
n

i=1

X
i
X
n

2
y s
2
n
=
1
n 1
n

i=1

X
i
X
n

2
entonces

2
n
c.s.

2
s
2
n
c.s.

n
c.s.

n
s
n
c.s.

(
2
n
y s
2
n
son estimadores consistentes de
2
y
n
y s
n
son estimadores consistentes de .)
Sugerencia:
1
n
n

i=1

X
i
X
n

2
=
1
n
n

i=1
(X
i
)
2

X
n

2
y usar los siguientes resultados:
Si X
n
c.s.

n
X y g : R R es continua entonces g (X
n
)
c.s.

n
g (X)
Si X
n
c.s.

n
X e Y
n
c.s.

n
Y y g : R
2
R es continua entonces g (X
n
, Y
n
)
c.s.

n
g (X, Y )
Ejercicio 8
Denimos el coeciente de correlaci on de dos variables aleatorias X e Y tales que 0 < Var (X) , Var (Y ) <
mediante
=
Cov(X, Y )

Var (X)

Var (Y )
.
Sean (X
n
)
nN
, (Y
n
)
nN
iid, tales que 0 < Var (X
n
) = Var (X) =
2
(X) < , 0 < Var (Y
n
) =
Var (Y ) =
2
(Y ) < . Sea

n
=
1
n
n

i=1

X
i
X
n

Y
i
Y
n

n
(X)
n
(Y )
con
2
n
(X) =
1
n
n

i=1

X
i
X
n

2
y analogamente con
2
n
(Y ). Demostrar que
n
c.s.

n
.
Sugerencia:
1
n
n

i=1

X
i
X
n

Y
i
Y
n

=
1
n
n

i=1
X
i
Y
i
X
n
Y
n
2
Ejercicio 9
Sea X una variable con recorrido R
X
= {1, 2, 3} y probabilidades puntuales p(X = 1) = a y P(X =
2) = b. Disponemos de la siguiente muestra de tal variable, que se asume i.i.d.:
1, 2, 1, 2, 3, 1, 3, 1.
Hallar estimadores consistentes a y b, utilizando el metodo de los momentos.
Ejercicio 10
Sean X
1
, X
2
, . . . X
n
iid F Encontrar los estimadores de maxima verosimilitud para los siguientes
parametros:
1. p si la distribucion es Ber(p)
2. si la distribucion es P()
3. p si la distribucion es Geo(p)
4. y
2
si la distribucion es N(,
2
)
5. a y b si la distribucion es U[a, b].
Ejercicio 11
Consideremos una variable aleatoria X con densidad f
X
(t) =
1
2

a(t1)
, si 1 < t < 1+a, y f
X
(t) = 0 en
caso contrario. Dada la muestra X
1
, . . . .X
n
i.i.d. de X, calcular el estimador por maxima verosimilitud
para a.
Sesgo de un estimador
Denicion: Sean {X
n
: n N} iid con distribucion F

. Se dene el sesgo de un estimador de


, T
n
= T
n
(X
1
, . . . , X
n
) como E(T
n
). Un estimador T
n
se dice insesgado si su sesgo es cero, es
decir E(T
n
) = 0 n N. Decimos que es asintoticamente insesgado si E(T
n
)
n
0.
Ejercicio 12
Sean (X
n
)
nN
iid tales que E(X
1
) = y Var (X
1
) =
2
< ( > 0).
1. Mostrar que X
n
es insesgado como estimador de , que
2
n
no es insesgado como estimador de

2
y que s
2
n
es insesgado para
2
.
2. Mostrar que
n
y s
n
no son insesgados como estimadores de .
3. Sea X
1
, . . . , X
n
exp() iid, entonces
1
X
n
es consistente como estimador de pero no insesgado.
Sugerencia: para las dos ultimas partes usar la desigualdad de Jensen
1
.
Ejercicio 13
Se considera una muestra X
1
, X
2
, ..., X
n
iid con media E(X) = y varianza Var (X) =
2
. Se
considera el estimador =
n

i=1
a
i
X
i
(una combinacion lineal de las observaciones).
1. Hallar la relacion que tienen que cumplir los coecientes a
i
para que sea un estimador insesgado
de la media .
2. Entre todos los estimadores lineales e insesgados de la media hallar el de varianza mnima.
Sugerencia: usar la desigualdad de Cauchy-Schwarz para vectores en R
n
.
1
Desigualdad de Jensen: si : R R es una funcion con (x)

0 x, entonces (E(X)) E((X)). Adem as el


igual se cumple si (x) es lineal. El enunciado anterior es valido mas en general para cualquier convexa
3
Ejercicio 14
Una forma de evaluar la eciencia de un estimador es a traves del error cuadr atico medio, que se
dene como ECM(T
n
) = E

(T
n
)
2

. Demostrar que si el estimador T


n
tiene sesgo a
n
entonces
ECM(T
n
) = Var (T
n
) +a
2
n
.
Ejercicio 15
Sean X
1
, . . . , X
n
iid P().
1. Estimar por el metodo de los momentos. Observar que es insesgado y calcular el error cuadratico
medio.
2. Probar que s
2
n
tambien es un estimador insesgado para .
3. Encontrar el estimador de maxima verosimilitud para y observar que coincide con el estimador
obtenido por el metodo de los momentos.
Ejercicio 16
Sean X
1
, . . . , X
n
iid U[0, ]. Interesa estimar el valor de .
1. Hallar el estimador de por el metodo de los momentos.
2. Estudiar su sesgo, varianza y error cuadratico medio.
3. Demostrar que el estimador de maxima verosimilitud de es X

n
, el maximo de los valores
muestrales.
Ejercicio 17 Primer parcial, mayo de 1999
Supongamos que un bolillero contiene N bolillas que pueden ser rojas, blancas o azules. Supongamos
que hay r bolillas rojas y b blancas (y por lo tanto N (r + b) azules), con r 1, b 1. Tomamos
una muestra de n bolillas elegidas al azar con reposicion.
Denimos
X = n umero de bolillas rojas observadas en la muestra,
Y = n umero de bolillas blancas observadas en la muestra,
Z = n umero de bolillas azules observadas en al muestra.
1. Calcular las funciones de probabilidad de X, de Y y de Z
2. Calcular E(X) , Var (X) , E(Y ) , Var (Y ).
3. Hallar la funcion de probabilidad de X +Y . Calcular E(X +Y ) , Var (X +Y ).
4. Son X e Y independientes? Justique la respuesta.
5. Supongamos que N = 2000. Si se repite 2500 veces de manera independiente la experiencia de
muestrear 10 bolillas con reposicion y se obtiene una cantidad promedio de 3,2 bolillas rojas y
4,6 bolillas blancas, le parece creble que en el bolillero haya mas de 1250 bolillas azules?
Ejercicio 18 Examen diciembre de 2003
Para modelar la cantidad X de productos defectuosos que se encuentran en una lnea de produccion
en determinado perodo de tiempo se utiliza un modelo de dos parametros llamado Poisson con Ceros
Forzados (PCF). Decimos que la variable X tiene distribucion de Poisson con ceros Forzados, y se
nota X PCF(, p), si X puede escribirse como X = Y Z con Y , Z independientes tales que:
Y tiene distribucion de Poisson de parametro (Y P ())
Z tiene distribucion de Bernoulli de parametro p (Z Ber (p))
El modelo representa que si la produccion tiene una muy baja tasa de errores, la probabilidad de
que no haya defectuosos es mas alta que en un modelo de Poisson tradicional.
4
1. Hallar P(X = k) k 0.
2. Decimos que X = 0 es un cero forzado cuando ocurre Z = 0. Dado que se observa X = 0 hallar
la probabilidad de que no sea un cero forzado (esto es Z = 1).
3. Hallar E(X), E

X
2

y Var (X).
4. Dada una muestra X
1
, . . . , X
n
iid PCF (, p), halle estimadores

y p de los parametros por
el metodo de los momentos.
5. Para la siguiente lista de 10 observaciones: 0, 0, 0, 2, 0, 0, 4, 1, 0, 0, estime y p por el metodo
de los momentos.
5

También podría gustarte