Teoria Asintotica

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

PONTIFICIA UNIVERSIDAD JAVERIANA

FACULTAD DE INGENIERÍA
ESTADISTICA INFERENCIAL
PROFESOR: FELIPE ALBERTO BARREO NAGED

TALLER 1

Para los ejercicios a desarrollar, tenga en cuenta los siguientes conceptos:

Para todos los efectos de esta primera parte, tenga en cuenta que las variables X,Y,Z,W son variables aleatorias. Como
no se ha dicho hasta el momento, las variables pueden distribuirse como cualquier tipo de función de distribución de
probabilidad. Recuerde que la función acumulada desde el menos infinito hasta el infinito para cada una de estas
distribuciones debe ser 1.

Revisar Capítulos 2 y 3 de William Navidi

OPERADOR ESPERANZA (E)

1. E(aX) = aE(X), donde a es una constante.


2. E(X/a) = E(X)/a
3. E(X + Y) = E(X) + E(Y)
4. E(X + Y + Z + … + W) = E(X) + E(Y) + E(Z) + … + E(W), donde a,b,c y n son constantes.
5. E(aX + bY) = aE(X) + bE(Y), donde a y b son constantes
6. E(aX + bY + cZ + … + nW) = aE(X) + bE(Y) + cE(Z) + … + nE(W), donde a,b,c y n son constantes.
7. E(aX + c) = aE(X) + c donde c es una constante
8. E(𝑐𝑡𝑒 + 𝑎 ∑𝑛𝑖=1 𝑋𝑖 + 𝑏 ∑𝑚 𝑜 𝑛 𝑚 𝑜
𝑗=1 𝑌𝑗 + ⋯ + 𝑘 ∑𝑙=1 𝑍𝑜 ) = 𝑐𝑡𝑒 + 𝑎 ∑𝑖=1 𝐸(𝑋𝑖 ) + 𝑏 ∑𝑗=1 𝐸(𝑌𝑗 ) + … + 𝑘 ∑𝑙=1 𝐸(𝑍𝑜 )

OPERADOR VARIANZA (V)

1. V(aX) = a2V(X)
2. V(X/a) = V(X)/a2
3. V(X + Y) = V(X) + V(Y) + 2cov(X,Y). Ojo, si no tiene el término de la covarianza, es decir que la covarianza es igual o
cercano a cero numéricamente, entonces X y Y son independientes. Recuerden que en la covarianza solo caben
dos, ya sea una sola variable con su respectivo signo os sino un conjunto de variables.
4. V(aX + bY) = a2V(X) + b2V(Y) + 2cov(aX,bY) no se muestran todas las combinaciones de la covarianza.
5. V(X – Y) = V(X) + V(Y) + 2cov(X,-Y) no se muestran todas las combinaciones de la covarianza.
6. V(aX – bY) = a2V(X) + b2V(Y) + 2cov(aX,-bY) no se muestran todas las combinaciones de la covarianza.
7. V(X + Y + X) = V(X) + V(Y) + V(Z) + 2cov(X,Y + Z) = V(X) + V(Y) + V(Z) + 2cov(X + Y,Z) =
V(X) + V(Y) + V(Z) + 2cov(X + Z,Y) no se muestran todas las combinaciones de la covarianza.
8. V(X – Y – Z) = V(X) + V(Y) + V(Z) + 2cov(X,-Y - Z) = V(X) + V(Y) + V(Z) + 2cov(X - Y,-Z) =
V(X) + V(Y) + V(Z) + 2cov(X - Z,-Y) no se muestran todas las combinaciones de la covarianza.
9. V(aX – bY – cZ) = a2V(X) + b2V(Y) + c2V(Z) + 2cov(aX,-bY - cZ) no se muestran todas las combinaciones de la
covarianza.
10. V(aX + bY + cZ + dW) = a2V(X) + b2V(Y) + c2V(Z) + d2V(W) + 2cov(aX + bY,cZ + dW) no se muestran todas las
combinaciones de la covarianza.
11. V(aX – bY + cZ – dW) = a2V(X) + b2V(Y) + c2V(Z) + d2V(W) + 2cov(aX + cZ,-bY - dW) no se muestran todas las
combinaciones de la covarianza.
12. V(aX + c) = a2E(X) + c2 donde c es una constante.
13. V(𝑐𝑡𝑒 + 𝑎 ∑𝑛𝑖=1 𝑋𝑖 + 𝑏 ∑𝑚 𝑜 2 2 𝑛 2 𝑚 2 𝑜
𝑗=1 𝑌𝑗 + ⋯ + 𝑘 ∑𝑙=1 𝑍𝑜 ) = 𝑐𝑡𝑒 + 𝑎 ∑𝑖=1 𝑉(𝑋𝑖 ) + 𝑏 ∑𝑗=1 𝑉(𝑌𝑗 ) + … + 𝑘 ∑𝑙=1 𝑉(𝑍𝑜 ) +

2𝑐𝑜𝑣(𝑐𝑡𝑒 + 𝑎 ∑𝑛𝑖=1 𝑋𝑖 , 𝑏 ∑𝑚 𝑜
𝑗=1 𝑌𝑗 + ⋯ + 𝑘 ∑𝑙=1 𝑍𝑜 ) no se muestran todas las combinaciones de la covarianza.

PRIMER PUNTO

Calcule la esperanza y la varianza de las siguientes variables aleatorias mostrando todas las posibles combinaciones
de la covarianza.

a) 5X + 3Y
b) 3X – 4Y
c) 2X + 3Y + 6
d) 6X – 4Y + 5
e) 8X + 3Y + 7Z
f) 2X – 5Y – 9Z + 10

TEORIA ASINTOTICA - CONCEPTOS

Primero que todo hay que recordar los conceptos de lo que es una distribución de probabilidad o función de
probabilidad. Para entender este concepto, es muy importante recordar algunos conceptos vistos en teoría de
probabilidades, entre los cuales se destacan los siguientes.

Una función de distribución de probabilidad DISCRETA P(X), aplicada a una variable aleatoria X, cumple con la siguiente
condición:

∑ 𝑃(𝑋) = 1
−∞

Una función de distribución de probabilidad CONTINUA F(X), aplicada a una variable aleatoria X, cumple con esta otra
condición:

∫ 𝐹(𝑋)𝑑𝑋 = 1
−∞

Hay algunas distribuciones de probabilidad que por sus características particulares, es posible aproximarlas a la
distribución de probabilidad NORMAL. Una de las condiciones importantes es que la distribución sea UNIMODAL, es
decir que tenga un solo pico de distribución máximo tal y como se puede observar en las siguientes distribuciones:
Los casos (a) y (c) no son posible aproximarlos a una distribución normal directamente, debido a que sus coeficientes
de asimetría son extremos (ya sea asimetría muy positiva o muy negativa) (REVISAR LOS CONCEPTOS DE COEFICIENTE
DE ASIMETRÍA EN EL CAPITULO 1 DEL LIBRO DE OBAGI), tal y como sucede en las distribuciones exponencial y/o
lognormal, en donde una de las soluciones para tratar estas variables es sacando el logaritmo natural de esas variables
aleatorias como un método de suavización exponencial para aproximar las mismas a una función de distribución de
probabilidad normal. Ejemplos de distribuciones con coeficientes de asimetría extremos son la distribución
exponencial y la distribución lognormal.

Por el contrario, si una distribución es bimodal o multimodal, no se puede aproximar a una función de distribución
normal, ya que se tendrían varios puntos medios y no únicamente uno, tal y como sucede en la función de distribución
Normal.

Para revisar a profundidad estos conceptos, por favor leer el capítulo 1 del libro de WILLIAM NAVIDI.

De acuerdo a lo anterior las distribuciones de probabilidad Hipergeométrica, Binomial y de Poisson se pueden


aproximar a función de distribución de probabilidad Normal. Las condiciones para poder aproximar estas
distribuciones a la función de distribución de probabilidad Normal son las siguientes de acuerdo al Libro de
Montgomery, capítulo 3 del libro.

Por último recuerde que de acuerdo a las aproximaciones desarrolladas (si los parámetros cumplen con los valores
indicados en la figura), se podrían igualar los parámetros de una distribución a otra de acuerdo de acuerdo a lo
siguiente:

μ = λ = np = n(R/N)

En donde los parámetros anteriormente expuestos son:

- μ es la media de la Distribución Normal para una variable aleatoria X con una distribución Normal(μ,𝜎2) con
parámetros μ y 𝜎2.
- λ es una tasa de éxito de la Distribución de Poisson para una variable aleatoria X con una distribución
Poisson(λ) con un único parámetro λ.
- n es la cantidad de ensayos bernoulli y p es la proporción de éxito de acuerdo a la Distribución Binomial para
una variable aleatoria X con una distribución Binomial(n,p) con parámetros n y p.
- n es la cantidad de ensayos bernoulli y R es la cantidad de éxitos y N es el tamaño de la población en un tiempo
determinado, de acuerdo a la Distribución Hipergeométrica para una variable aleatoria X con una distribución
Hipergeométrica(n,R,N) con parámetros n, R y N.

Ahora si podemos observar cómo se aproximan las distribuciones de probabilidad mencionadas a la distribución de
probabilidad normal. (v.a es variable aleatoria)

APROXIMACIÓN
ASINTÓTICA A LA
ESPERANZA DE LA VARIANZA DE LA NORMAL
DISTRIBUCIÓN DE VARIABLE ALEATORIA VARIABLE ALEATORIA (Recuerde tener en
PROBABILIDAD CON ESA DISTRIBUCIÓN CON ESA DISTRIBUCIÓN cuenta los valores de los
E(v.a) V(v.a.) parámetros de acuerdo a
lo indicado por
Montgomery)
Distribución Normal
Parámetros: µ, σ2 µX σ2X N(µX, σ2X)
X es una variable aleatoria
X se distribuye N(µX, σ2X)
Distribución Poisson
Parámetros: λ λY λY N(λY, λY)
Y es una variable aleatoria
Y se distribuye P(λY)
Distribución Binomial
Parámetros: n, p nZ pZ nZ pZ(1- pZ) N(nZ pZ, nZ pZ(1- pZ))
Z es una variable aleatoria
Z se distribuye B(nZ,pZ)
Primero se aproxima la
distribución binomial a la
distribución hipergeométrica
Distribución Hipergeométrica con los siguientes
parámetros.
Parámetros: N, n, R 𝐑𝐖 𝐑𝐖 𝐑𝐖 𝑵𝑾 −𝒏𝑾 𝐑
nW nW (𝟏 − )( ) B(nW, 𝐖 )
W es una variable aleatoria 𝐍𝐖 𝐍𝐖 𝐍𝐖 𝑵𝑾 −𝟏 𝐍𝐖
W se distribuye H(NW,nW,RW) Luego se aproxima esta
distribución a la distribución
de probabilidad normal:
𝐑 𝐑 𝐑
N(nW 𝐖 , nZ 𝐖 (1- 𝐖 ))
𝐍𝐖 𝐍𝐖 𝐍𝐖

Ahora si se deseara calcular la esperanza y la varianza de la suma de las variables aleatorias X,Y,Z y W entonces
podríamos desarrollar el siguiente ejemplo.
𝐑
E(aX – bY + cZ - dW) = aE(X) – bE(Y) + cE(Z) - dE(W) = aµX – bλY + cnZpZ - dnW𝐍𝐖
𝐖

V(aX – bY + cZ - dW) = a2V(X) + b2V(Y) + c2V(Z) + d2V(W) + 2cov(aX + cZ, -bY – dW)
R R
= a2𝜎𝑋2 + b2𝜆𝑌 + c2nZpZ(1-pZ) + d2nWNW (1-NW )+ 2cov(aX + cZ, -bY – dW)
W W

SEGUNDO PUNTO

Calcule la esperanza y la varianza de la siguiente suma de variables aleatorias, teniendo en cuenta que se distribuyen
de acuerdo a la tabla anteriormente ilustrada:

- 4X + 3Y – 7Z – 5W
VARIANZA Y COVARIANZA DE LOS ESTIMADORES DE LOS PARAMETROS DE LAS DISTRIBUCIONES

Tenga en cuenta lo siguiente:


𝒏𝑿
∑ 𝒙
̂ 𝑿 = 𝒊=𝟏 𝒊, 𝜇̂ 𝑋 es el mejor estimador hallado por el método de máxima verosimilitud para 𝜇𝑋 , parámetro que
𝑋̅ = 𝝁
𝒏𝑿
hace parte de la distribución de probabilidad normal. Tenga en cuenta que la variable aleatoria. Tenga en cuenta que
𝑥𝑖 es una variable aleatoria que se distribuye N(𝝁𝑿 ,𝝈𝟐𝑿 ).
𝒏𝒀
∑ 𝒚𝒊
𝜇̂ 𝑌 = 𝝀̂𝒀 = 𝒊=𝟏
𝒏
, 𝜆̂𝑌 es el mejor estimador hallado por el método de máxima verosimilitud para 𝜆𝑌 , parámetro que
𝒀
hace parte de la distribución de probabilidad poisson. Tenga en cuenta que 𝑦𝑖 es una variable aleatoria que se
distribuye asintóticamente normal como N(𝝀𝒀 , 𝝀𝒀 ).
𝑛𝑍 𝒏𝒁
∑ 𝑧𝑖 ∑ 𝒛
𝜇̂ 𝑍 = 𝜆̂𝑍 = 𝑘𝑍 𝑝̂𝑍 = 𝑖=1
𝑛
̂ 𝒁 = 𝒊=𝟏 𝒊 , 𝑝̂𝑍 es el mejor estimador hallado por el método de máxima
, por lo cual 𝒑 𝒏 𝒌
𝑍 𝒁 𝒁
verosimilitud para 𝑝𝑍 , parámetro que hace parte de la distribución de probabilidad binomial. Tenga en cuenta que 𝑧𝑖
es una variable aleatoria que se distribuye asintóticamente normal como N(𝒏𝒁 𝒑𝒁 , 𝒏𝒁 𝒑𝒁 (𝟏 − 𝒑𝒁 )).
𝑛𝑊 𝒏𝑾
𝑅̂ ∑ 𝑤𝑖
𝜇̂ 𝑊 = 𝜆̂𝑊 = 𝑘𝑊 𝑝̂ 𝑊 = 𝑘𝑊 𝑁𝑊 = 𝑖=1 ̂ 𝑾 = 𝑵𝑾 ∑𝒊=𝟏 𝒘𝒊, 𝑅̂𝑊 es el mejor estimador hallado por el
, por lo cual 𝑹
𝑛 𝑊 𝒏 𝒌 𝑊 𝑾 𝑾
método de máxima verosimilitud para 𝑅𝑊 , parámetro que hace parte de la distribución de probabilidad
hipergeométrica. Tenga en cuenta que 𝑤𝑖 es una variable aleatoria que se distribuye asintóticamente normal como
̂
𝑹 ̂
𝑹 ̂
𝑹
N(𝒏𝑾 𝑵𝑾 , 𝒏𝒁 𝑵𝑾 (𝟏 − 𝑵𝑾 )).
𝑾 𝑾 𝑾

Ahora vamos a desarrollar la esperanza y la varianza de uno de los estimadores de los parámetros mencionados. Al
desarrollar los otros estimadores, tenga en cuenta la esperanza y la varianza de la distribución asintóticamente
aproximada a la normal de su variable aleatoria como ejercicio.

̂𝑿
Para el estimador del parámetro 𝝁𝑿 , 𝝁
𝒏𝑿 𝒙 𝒏𝑿 𝑬(𝒙 ) 𝒏𝑿 𝝁
∑𝒊=𝟏 𝒊 ∑𝒊=𝟏 𝒊 ∑𝒊=𝟏 𝑿 𝒏𝑿 𝝁𝑿
̂ 𝑿) = E(
E(𝝁 )= = = = 𝝁𝑿
𝒏𝑿 𝒏𝑿 𝒏𝑿 𝒏𝑿
𝒏
𝑿 𝒙 𝒏𝑿 𝑽(𝒙 ) 𝒏
𝑿 𝝈𝟐
∑𝒊=𝟏 𝒊 ∑𝒊=𝟏 𝒊 ∑𝒊=𝟏 𝑿 𝒏𝑿 𝝈𝟐𝑿 𝝈𝟐
̂ 𝑿 ) = V(
V(𝝁 𝒏𝑿
)= 𝒏𝑿 𝟐 = 𝒏𝑿 𝟐 = 𝒏𝑿 𝟐
= 𝒏𝑿
𝑿

Desarrolle los mismo para 𝝀̂𝒀 , 𝒑 ̂ 𝑾.


̂𝒁, 𝑹

SUMA DE VARIABLES ALEATORIAS NORMALES

Si X, Y y Z son variables aleatorias normales en donde:

X ~ N(μX,𝜎𝑋2 ), es decir que X de distribuye normal con media μX y varianza 𝜎𝑋2 .

Y ~ N(μY,𝜎𝑌2 ), es decir que Y de distribuye normal con media μY y varianza 𝜎𝑌2 .

Z ~ N(μZ,𝜎𝑍2 ), es decir que Z de distribuye normal con media μZ y varianza 𝜎𝑍2 .

Determine como se distribuyen estas sumas de variables aleatorias normales comenzando en determinar la esperanza
y la varianza de estas sumas (calculado previamente) y luego determinar que la suma se distribuye de la siguiente
forma N(E(suma de variables),V(suma de variables))

a) 5X + 3Y
b) 3X – 4Y
c) 2X + 3Y + 6
d) 6X – 4Y + 5
e) 8X + 3Y + 7Z
f) 2X – 5Y – 9Z + 10
Ahora desarrolle lo mismo (Determine como se distribuye la suma de variables aleatorias normales) para las variables
aleatorias X,Y,Z y W aproximadas asintóticamente normal, desarrollando la siguiente suma (recuerde que previamente
usted ya calculo la esperanza y la varianza).

- 4X + 3Y – 7Z – 5W

Ahora vamos a determinar cómo se distribuyen los parámetros de las distribuciones y sus aproximaciones asintóticas.
Ya previamente se ha calculado la esperanza y la varianza de los mismos.
𝜎2
- 𝜇̂ 𝑋 ~ 𝑁(𝐸(𝜇̂ 𝑋 ), 𝑉(𝜇̂ 𝑋 )) = 𝑁 (𝜇𝑋 , 𝑛𝑋 )
𝑋
𝜎2 𝜎2
- 𝜇̂ 𝑋 − 𝜇̂ 𝑌 ~ 𝑁(𝐸(𝜇̂ 𝑋 − 𝜇̂ 𝑌 ), 𝑉(𝜇̂ 𝑋 − 𝜇̂ 𝑌 )) = 𝑁(𝐸(𝜇̂ 𝑋 ) − 𝐸(𝜇̂ 𝑌 ), 𝑉(𝜇̂ 𝑋 ) + 𝑉(𝜇̂ 𝑌 )) = 𝑁 (𝜇𝑋 − 𝜇𝑌 , 𝑛𝑋 + 𝑛𝑌 )
𝑋 𝑌
- 3𝜇̂ 𝑋 – 4𝜇̂ 𝑌 + 7𝜇̂ 𝑍 ~ 𝑁(𝐸(3𝜇̂ 𝑋 – 4𝜇̂ 𝑌 + 7𝜇̂ 𝑍 ), 𝑉(3𝜇̂ 𝑋 – 4𝜇̂ 𝑌 + 7𝜇̂ 𝑍 )) =
𝑁(3𝐸(𝜇̂ 𝑋 ) − 4𝐸(𝜇̂ 𝑌 ) + 7𝐸(𝜇̂ 𝑍 ), 9𝑉(𝜇̂ 𝑋 ) + 16𝑉(𝜇̂ 𝑌 ) + 49𝑉(𝜇̂ 𝑌 )) =
𝜎𝑋2 𝜎𝑌2 𝜎𝑍2
𝑁 (3𝜇𝑋 − 4𝜇𝑌 + 7𝜇𝑍 , 9 + 16 + 49 )
𝑛𝑋 𝑛𝑌 𝑛𝑍

Ahora desarrolle lo mismo para los siguientes estimadores o la suma de los mismos.

- 𝜆̂𝑋 ~
- 𝜆̂𝑋 − 𝜆̂𝑌 ~
- 3𝜆̂𝑋 – 4𝜆̂𝑌 + 7𝜆̂𝑍 ~
- 𝑝̂𝑋 ~
- 𝑝̂𝑋 − 𝑝̂𝑌 ~
- 3𝑝̂𝑋 – 4𝑝̂𝑌 + 7𝑝̂𝑍 ~
- 𝑅̂𝑋 ~
- 𝑅̂𝑋 − 𝑅̂𝑌 ~
- 3𝑅̂𝑋 – 4𝑅̂𝑌 + 7𝑅̂𝑍 ~

ESTANDARIZACIÓN

Es un método que sirve para convertir una variable aleatoria que se distribuye normal o una suma de variables
aleatorias normales, a una distribución normal estándar N(0,1), es decir una distribución normal con media 0 y varianza
1.
𝑣.𝑎.−𝐸(𝑣.𝑎.)
Si 𝑣. 𝑎. ~𝑁(𝐸(𝑣. 𝑎. ), 𝑉(𝑣. 𝑎. )), entonces ~𝑁(0,1).
√𝑉(𝑣.𝑎.)

Desarrolle las siguientes estandarizaciones:

Si X, Y y Z son variables aleatorias normales en donde:

X ~ N(μX,𝜎𝑋2 ), es decir que X de distribuye normal con media μX y varianza 𝜎𝑋2 .

Y ~ N(μY,𝜎𝑌2 ), es decir que Y de distribuye normal con media μY y varianza 𝜎𝑌2 .

Z ~ N(μZ,𝜎𝑍2 ), es decir que Z de distribuye normal con media μZ y varianza 𝜎𝑍2 .

a) 5X + 3Y
b) 3X – 4Y
c) 2X + 3Y + 6
d) 6X – 4Y + 5
e) 8X + 3Y + 7Z
f) 2X – 5Y – 9Z + 10

Ahora desarrolle lo mismo (Determine como se distribuye la suma de variables aleatorias normales) para las variables
aleatorias X,Y,Z y W aproximadas asintóticamente normal, desarrollando la siguiente suma (recuerde que previamente
usted ya calculo la esperanza y la varianza).
- 4X + 3Y – 7Z – 5W

Ahora desarrolle lo mismo para los siguientes estimadores o la suma de los mismos.

- µ̂𝑋 ~
- µ̂𝑋 − µ̂𝑌 ~
- 3µ̂𝑋 – 4µ̂𝑌 + 7µ̂𝑍 ~
- 𝜆̂𝑋 ~
- 𝜆̂𝑋 − 𝜆̂𝑌 ~
- 3𝜆̂𝑋 – 4𝜆̂𝑌 + 7𝜆̂𝑍 ~
- 𝑝̂𝑋 ~
- 𝑝̂𝑋 − 𝑝̂𝑌 ~
- 3𝑝̂𝑋 – 4𝑝̂𝑌 + 7𝑝̂𝑍 ~
- 𝑅̂𝑋 ~
- 𝑅̂𝑋 − 𝑅̂𝑌 ~
- 3𝑅̂𝑋 – 4𝑅̂𝑌 + 7𝑅̂𝑍 ~

INTERVALOS DE CONFIANZA PARA MEDIAS Y O DIFERENCIA DE MEDIA A PARTIR DE LOS ESTIMADORES DE LOS
PARÁMETROS

A partir de la estandarización de los parámetros se pueden obtener los intervalos de confianza de la siguiente manera:

Caso 1.

̂ 𝑋 −(𝜇𝑋 )
µ 𝜎2
= Z, despejando el término en rojo se obtiene: µ̂𝑋 − (𝜇𝑋 ) = Z√ 𝑋 .
2 𝑛𝑋
𝜎
√ 𝑋
𝑛𝑋

𝜎2
𝜇𝑋 = µ̂𝑋 - Z√𝑛𝑋 ahora le agrego un símbolo positivo a la expresión, quedando en forma de un intervalo de confianza:
𝑋

𝜎2
𝜇𝑋 = µ̂𝑋 +/- Z√ 𝑋 . Este es un intervalo de confianza para la media en muestras grandes.
𝑛𝑋

Caso 2

̂ 𝑋 −µ
(µ ̂ 𝑌 )−(𝜇𝑋 −𝜇𝑌 ) 𝜎2 𝜎2
= Z, despejando el término en rojo se obtiene: µ̂𝑋 − µ̂𝑌 − (𝜇𝑋 − 𝜇𝑌 ) = Z√𝑛𝑋 + 𝑛𝑌 .
𝜎 2
𝜎 2 𝑋 𝑌
√ 𝑋+ 𝑌
𝑛𝑋 𝑛𝑌

𝜎2 𝜎2
𝜇𝑋 − 𝜇𝑌 = µ̂𝑋 − µ̂𝑌 - Z√𝑛𝑋 + 𝑛𝑌 ahora le agrego un símbolo positivo a la expresión, quedando en forma de un intervalo
𝑋 𝑌
de confianza:

𝜎2 𝜎2
𝜇𝑋 − 𝜇𝑌 = µ̂𝑋 − µ̂𝑌 +/- Z√𝑛𝑋 + 𝑛𝑌 . Este es un intervalo de confianza para diferencia de medias para muestras grandes.
𝑋 𝑌

Caso 3
̂ 𝑋 −4µ
(3µ ̂ 𝑌 +7µ
̂ 𝑍 )−(3𝜇𝑋 −4𝜇𝑌 +7𝜇𝑍 )
= Z, despejando el término en rojo se obtiene:
𝜎2 𝜎2 𝜎2
√9 𝑋 +16 𝑌 +49 𝑍
𝑛𝑋 𝑛𝑌 𝑛𝑍

𝜎2 𝜎2 𝜎2
3µ̂𝑋 − 4µ̂𝑌 + 7µ̂𝑍 − (3𝜇𝑋 − 4𝜇𝑌 + 7𝜇𝑍 ) = Z√9 𝑛𝑋 + 16 𝑛𝑌 + 49 𝑛𝑍 .
𝑋 𝑌 𝑍

𝜎2 𝜎2 𝜎2
3𝜇𝑋 − 4𝜇𝑌 + 7𝜇𝑍 = 3µ̂𝑋 − 4µ̂𝑌 + 7µ̂𝑍 - Z√9 𝑛𝑋 + 16 𝑛𝑌 + 49 𝑛𝑍 ahora le agrego un símbolo positivo a la expresión,
𝑋 𝑌 𝑍
quedando en forma de un intervalo de confianza:
𝜎2 𝜎2 𝜎2
3𝜇𝑋 − 4𝜇𝑌 + 7𝜇𝑍 = 3µ̂𝑋 − 4µ̂𝑌 + 7µ̂𝑍 +/- Z√9 𝑛𝑋 + 16 𝑛𝑌 + 49 𝑛𝑍 . Este es un intervalo de confianza para diferencia
𝑋 𝑌 𝑍
de medias para muestras grandes.

Desarrolle este ejercicio para los siguientes estimadores de parámetros o para la suma de los mismos:

- 𝜆̂𝑋 ~
- 𝜆̂𝑋 − 𝜆̂𝑌 ~
- 3𝜆̂𝑋 – 4𝜆̂𝑌 + 7𝜆̂𝑍 ~
- 𝑝̂𝑋 ~
- 𝑝̂𝑋 − 𝑝̂𝑌 ~
- 3𝑝̂𝑋 – 4𝑝̂𝑌 + 7𝑝̂𝑍 ~
- 𝑅̂𝑋 ~
- 𝑅̂𝑋 − 𝑅̂𝑌 ~
- 3𝑅̂𝑋 – 4𝑅̂𝑌 + 7𝑅̂𝑍 ~

También podría gustarte