Notas Inferencia Estadística II LCC
Notas Inferencia Estadística II LCC
Notas Inferencia Estadística II LCC
DISTRIBUCIONES MUESTRALES
Definición: muestra aleatoria (m.a): Sea una función de densidad digamos f(x), se dice que las
variables aleatorias 𝑋1 , 𝑋2 , . . . 𝑋𝑛 es una muestra aleatoria de la distribución f(x) si las n-variables
aleatorias son independientes e idénticamente distribuidas (iid).
Ejemplo: Dada una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 con distribución exponencial con media 𝛽 determinar
la función de densidad conjunta de las n-variables aleatorias:
1 −𝛽1 𝑥
𝑓(𝑥) = {𝛽 𝑒 𝑥≥0
0 𝑑𝑒 𝑜. 𝑚
con 𝛽 > 0
Además, la función de densidad conjunta es:
Así la función de densidad conjunta de una muestra aleatoria con distribución exponencial con media
𝛽 es
1 3 − 1 ∑3 𝑥𝑖
𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = ( ) 𝑒 𝛽 𝑖=1
𝛽
1
Ejemplo: Sea una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 con distribución Bin(n,p). Determinar la función de
verosimilitud.
𝑛
𝑓(x) = ( ) 𝑝 𝑥 𝑞 n−x
x
𝑛 𝑥 𝑛−𝑥
Cada 𝑋𝑖 ~𝐵𝑖𝑛(𝑛, 𝑝) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑓(𝑥𝑖 ) = (𝑥 ) 𝑝 𝑞 𝑖
𝑖
𝑖
𝑛 𝑛 𝑛
𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = 𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 ) = ((𝑥 ) 𝑝 𝑥1 𝑞𝑛−𝑥1 ) ((𝑥 ) 𝑝 𝑥2 𝑞𝑛−𝑥2 ) ((𝑥 ) 𝑝 𝑥3 𝑞𝑛−𝑥3 )
1 2 3
𝑛 𝑛 𝑛
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝 𝑥1 𝑞𝑛−𝑥1 )(𝑝 𝑥2 𝑞𝑛−𝑥2 )(𝑝 𝑥3 𝑞𝑛−𝑥3 )
1 2 3
𝑛 𝑛 𝑛
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝 𝑥1 +𝑥2 +𝑥3 𝑞(𝑛−𝑥1 )+(𝑛−𝑥2 )+(𝑛−𝑥2 ) )
1 2 3
𝑛 𝑛 𝑛
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝 𝑥1 +𝑥2 +𝑥3 𝑞(3𝑛−𝑥1 −𝑥2 −𝑥3 ) )
1 2 3
𝑛 𝑛 𝑛 3 3
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝∑𝑖=1 𝑥𝑖 𝑞3𝑛−∑𝑖=1 𝑥𝑖 )
1 2 3
3 𝑛 3 3
𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 ) = ∏𝑖=1 (𝑥 ) (𝑝∑𝑖=1 𝑥𝑖 𝑞 3𝑛−∑𝑖=1 𝑥𝑖 )
𝑖
Así, la función de densidad conjunta o función de verosimilitud de una muestra aleatoria con
distribución Bin(n,p) es:
3
𝑛 3 3
𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = 𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 ) = ∏ (𝑥 ) (𝑝∑𝑖=1 𝑥𝑖 𝑞3𝑛−∑𝑖=1 𝑥𝑖 )
𝑖
𝑖=1
Ejemplo: sea 𝑋1 , 𝑋2 , … 𝑋𝑛 una muestra aleatoria con distribución Bernoulli 𝑓(𝑥) = 𝑝 𝑥 𝑞1−𝑥 .
idénticamente distribuidas, entonces tienen la misma distribución con los mismos parámetros
𝑓(𝑥𝑖 ) = 𝑝 𝑥𝑖 𝑞1−𝑥𝑖 𝑖 = 1 … 𝑛
Son independientes 𝑋1 , 𝑋2 … 𝑋𝑛 entonces tiene que:
Estadístico. Un estadístico es una función de variables aleatorias observables, la cual también resulta
ser una variable aleatoria (v.a.) observable, y que no contiene parámetros desconocidos.
2
Nota: una v.a. observable significa que puede ser observada mediante un valor, aquí se emplearan
estadísticos (o estadísticas) para hacer inferencia acerca de los parámetros de la variable aleatoria.
Ejemplos: Si X tiene una distribución normal X≈ 𝑁(𝜇, 𝜎 2 ) donde y 𝜎 2 son desconocidos, entonces
T=X+ no es un estadístico,
𝑇 = 𝜎/𝑋 tampoco es un estadístico
T=X+3 si es un estadístico,
T=2X+2ln(X) es un estadístico
Ejemplos: Si se tiene una m.a 𝑋1 , 𝑋2 , . . . 𝑋𝑛 con distribución normal X≈ 𝑁(𝜇, 𝜎 2 ) donde y 𝜎 2 son
desconocidos, entonces
𝑇
𝑇1 = ∑𝑛𝑖=1 𝑋𝑖 y 𝑇2 = ∑𝑛𝑖=1 (𝑋𝑖 − 1 ) = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅) son estadístico,
𝑛
mientras que:
𝑋𝑖 −𝜇
𝑇 = ∑𝑛𝑖=1(𝑋𝑖 − 𝜇) y 𝑇 = ∑𝑛𝑖=1 ( ) no son estadísticos.
𝜎
Proponer estadísticos:
𝑇 = 𝑋12 + 𝑋2 sí es un estadístico (pues no contiene parámetro desconocido)
μ
𝑇 = 2 ∑𝑛𝑖=1 𝑥𝑖 sí es un estadístico
𝑇 = ∏𝑛𝑖=1 𝑥𝑖 sí es un estadístico
𝑇 = ∏𝑛𝑖=1 √𝑥𝑖 sí es un estadístico
Nota: Uno de los problemas centrales de la estadística es hallar estadísticos apropiados (función de
las v.a. 𝑋1 , 𝑋2 , . . . 𝑋𝑛 ) para representar un parámetro desconocido de la distribución de la población.
Dos estadísticos que jugarán un papel sumamente importante son expuestos a continuación.
Definición: media muestral: Sea 𝑋1 , 𝑋2 , . . . 𝑋𝑛 una muestra aleatoria de tamaño n de una distribución
f(x) con media 𝜇 y varianza 𝜎 2 . Se denotará por 𝑋𝑛 a la media aritmética de las observaciones de la
muestra. Entonces la variable aleatoria:
1
𝑋𝑛 = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 es denominada media muestral.
Note que: 𝐸(𝑋1 ) = 𝜇, 𝐸(𝑋2 ) = 𝜇 … 𝐸(𝑋n ) = 𝜇
𝑉(𝑋1 ) = 𝜎 2 , 𝐸(𝑋2 ) = 𝜎 2 … 𝐸(𝑋n ) = 𝜎 2
3
𝑛 𝑛 𝑛
1 1 1 1 𝜎2
𝑉(𝑋𝑛 ) = 𝑉 ( ∑ 𝑋𝑖 ) = 2 ∑ 𝑉(𝑋𝑖 ) = 2 ∑ 𝜎 2 = 2 (𝑛𝜎 2 ) =
𝑛 𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1
1 1
𝑉 (𝑛 ∑𝑛𝑖=1 𝑋𝑖 ) = 𝑛2 ∑𝑛𝑖=1 𝑉(𝑋𝑖 ) esta igualdad es válida ya que las 𝑋𝑖 son independientes
Entonces: en general
𝑬(𝑿𝒏 ) = 𝝁
𝝈𝟐
V(𝑿𝒏 ) = 𝒏
Ejemplo: Sea una muestra aleatoria 𝑋1 , 𝑋2 , … 𝑋𝑛 con distribución Gamma(α,β) con media (α)(β)
Si observamos las tablas de distribuciones especiales se tiene que:
𝐸(𝑋̅) = µ = αβ
𝜎 2 αβ2
𝑉(𝑋̅) = =
𝑛 𝑛
Ejemplo: Sea una muestra aleatoria 𝑋1 , 𝑋2 , … 𝑋𝑛 con distribución Poisson(β)
Si observamos las tablas de distribuciones especiales se tiene que:
𝐸(𝑋̅) = µ = β
𝜎2 β
𝑉(𝑋̅) = =
𝑛 𝑛
Nota:
La varianza de 𝑋𝑛 es 1/n en proporción más pequeño que la varianza de la distribución de la que se
seleccionó la muestra aleatoria. Esto significa que la distribución de la probabilidad de 𝑋𝑛 estará mas
concentrada alrededor del valor medio 𝜇𝑋 que la distribución original. En otras palabras, la
probabilidad de que la media muestral 𝑋𝑛 esté cerca de 𝜇𝑋 es mayor que la probabilidad de que lo
esté una sola observación xi de la distribución original.
Definición: Varianza Muestral: Sea 𝑋1 , 𝑋2 , . . . 𝑋𝑛 una muestra aleatoria de una población con función
de densidad f(x), con media y varianza 𝜎 2 . Entonces
1
𝑆 2 = 𝑛−1 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 donde n>1
se define como la varianza muestral
4
1 𝑛−3
Teorema: 𝐸(𝑆 2 ) = 𝜎 2 y 𝑉(𝑆 2 ) = 𝑛 (𝜇4 − 𝑛−1 𝜎 4 ) con n>1
Donde 𝜇4 = 𝐸[(𝑋 − 𝜇)4 ]
Demostración:
Por demostrar 𝐸(𝑆 2 ) = 𝜎 2
De lo anterior se tiene:
∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 + 𝑛(𝑋 − 𝜇𝑋 )2
Entonces:
∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 − 𝑛(𝑋 − 𝜇𝑋 )2
𝐸(𝑆 2 ) = 𝜎 2
5
1 𝑛−3 4
𝑉(𝑆 2 ) = (𝜇4 − 𝜎 )
𝑛 𝑛−1
Desigualdad de Markov. Sea X una v.a. no negativa, entonces para cualquier valor 𝑎 >0
𝐸[𝑋]
𝑃(𝑋 ≥ 𝑎) ≤
𝑎
Demostración:
(Por propiedad de esperanza se tiene que si X≥0 entonces E[X] ≥0)
∞ ∞ ∞ ∞
𝐸(𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 = ∫ 𝑥𝑓(𝑥)𝑑𝑥 + ∫ 𝑥𝑓(𝑥)𝑑𝑥 ≥ ∫ 𝑥𝑓(𝑥)𝑑𝑥
.−∞ 0 𝑎 0
∞
≥ ∫𝑎 𝑎𝑓(𝑥)𝑑𝑥 𝑥𝑓(𝑥) ≥ 𝑎𝑓(𝑥) siempre que x>a
∞
=𝑎 ∫𝑎 𝑓(𝑥)𝑑𝑥 = 𝑎𝑃[𝑋 ≥ 𝑎]
𝐸[𝑋]
entonces: 𝑃(𝑋 ≥ 𝑎) ≤ 𝑎
Desigualdad de Chebyshev. Si X es una v.a. con media 𝜇 y varianza 𝜎 2 entonces para cualquier
valor 𝑘>0,
𝜎2
𝑃(|𝑋 − 𝜇| ≥ 𝑘) ≤ 2
𝑘
Demostración: Por la desigualdad de Markov:
𝐸[𝑋]
𝑃(𝑋 ≥ 𝑎) ≤
𝑎
2] 2
𝐸[(𝑋 − 𝜇) 𝜎
𝑃{(𝑋 − 𝜇)2 ≥ 𝑘 2 } ≤ = 2
𝑘2 𝑘
Pero 𝑃{(𝑋 − 𝜇)2 ≥ 𝑘 2 } = 𝑃{|𝑋 − 𝜇| ≥ 𝑘|}
𝜎2
Entonces: 𝑃{|𝑋 − 𝜇| ≥ 𝑘|} ≤ 𝑘 2
6
𝜎2 𝑉(𝑋)
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 𝑘 2 equivalente a: 𝑃{|𝑋 − 𝐸(𝑋)| ≥ 𝑘} ≤ 𝑘2
𝑉(𝑋)
𝑃{|𝑋 − 𝐸(𝑋)| ≥ 𝑘} ≤
𝑘2
Por propiedades de la media muestral se tiene que:
𝜎2
𝐸(𝑋) = 𝜇 y 𝑉(𝑋) = 𝑛
𝜎2
𝑛 𝜎2
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 2 = 2
𝑘 𝑛𝑘
2
𝜎
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 2
𝑛𝑘
Resultado de la ley débil de los grandes números:
𝜎2
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 2
𝑛𝑘
Aquí inicia la clase del día lunes 23 de enero 2023
Solución:
Se desea:
𝑃{(|𝑋 − 𝜇| < 1)} ≥ 0.99
𝜎2
Por la ley débil de los grandes números se tiene: 𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 𝑛𝑘 2
Un resultado alterno de este es
𝜎2
1− ≤ 𝑃{|𝑋 − 𝜇| < 𝑘}
𝑛𝑘 2
Del problema 𝜎 = 2, k = 1
4
1− ≤ 𝑃{|𝑋 − 𝜇| < 1}
𝑛
4
Observemos que: 0.99 ≤ 1 − 𝑛 ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 1) Por conveniencia
7
Así, para que lo anterior se cumple se tiene que:
4 4 4
0.99 ≤ 1 − ⇒ ≤ 0.01 ⇒ ≤ 𝑛 ⇒ 400 ≤ 𝑛
𝑛 𝑛 0.01
por tanto, se requiere un tamaño de muestra de al menos 400 elementos para que se cumpla la
condición deseada.
𝑃{(|𝑋 − 𝜇| < 1)} ≥ 0.99
Hay que recordar que la desigualdad de Chebyshev proporciona un resultado muy conservador, por
lo que podría esperarse que si se conoce la distribución y es empleada para determinar el tamaño de
muestra se obtendría un tamaño de muestra mucho menor que 400 y con ese tamaño de muestra
alcanza la probabilidad deseada.
4
0.99 ≤ 1 − ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 1)
𝑛
4
No conviene poner: 1 − 𝑛 ≤ 0.99 ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 1)
4 4 4
Pues: 1 − ≤ 0.99 0.01 ≤ n ≤ n ≤ 400 y no puede ser que n=1 lo cumpla
𝑛 n 0.01
Ejemplo: Supóngase que se desea determinar el tamaño de la muestra de una población con varianza
conocida 𝜎02 , de tal manera que la media muestral se encuentre a una distancia 𝜀 de la media
poblacional, con una probabilidad de al menos 𝑝. Determine el tamaño de muestra mínima necesaria
para que se cumpla la condición deseada.
Solución:
Se desea una 𝑛 tal que 𝑃(|𝑋 − 𝜇| < 𝜀) ≥ 𝑝
8
Así mientras más grande sea la muestra ocurre que la distancia |𝑋̅ − 𝜇| queda más pequeña, además
si se desea que tenga distancia <1 es decir |𝑋̅ − 𝜇| < 1 y esto se desea con una probabilidad mayor
que 0.90, es decir 𝑃(|𝑋̅ − 𝜇| < 1) ≥ 0.90 entonces se requiere un tamaño de muestra:
02
n
(1 − p ) 2
Ejemplo: Supóngase que se va a seleccionar una muestra de pesos de estudiantes aleatoria de una
distribución normal con media y varianza 𝜎 2 = 9. Determinar el valor del tamaño de la muestra
mínimo para que 𝑃(|𝑋̅ − 𝜇| < 1) ≥ 0.95
a) Utilizar la ley débil de los grandes números (no se conoce la distribución de datos)
b) Utilizar la distribución de los datos
Solución:
a) Se usa la ley débil de los grandes números si no se supiera cual es la distribución de los pesos
𝜎02
/// 𝑃(|𝑋̅ − 𝜇| < 𝜀) ≥ 𝑝 entonces ≤𝑛
(1−𝑝)𝜀 2
9
= 180 ≤ 𝑛
0.05(12 )
así el tamaño de muestra requerida es 180 ≤ 𝑛
b) Ahora si se usa la distribución de los datos que es normal el proceso de solución es:
−1 𝑋−𝜇 ̅ 1
𝑃(|𝑋̅ − 𝜇| < 1) = 𝑃(−1 < 𝑋̅ − 𝜇 < 1) = 𝑃 ( 2 < 2 < 2
)
√𝜎 √𝜎 √𝜎
𝑛 𝑛 𝑛
−1 𝑋̅−𝜇 1 √𝑛 √𝑛
=𝑃( 3 < 3 < 3 ) = 𝑃 (− 3
<𝑍< 3
)
√𝑛 √𝑛 √𝑛
Como se desea 𝑃(|𝑋𝑛 − 𝜇| < 1) ≥ 0.95 Analizaremos para el caso de 𝑃(|𝑋𝑛 − 𝜇| < 1) = 0.95:
√𝑛 √𝑛
𝑃(|𝑋̅ − 𝜇| ≤ 1) = 𝑃(−1 ≤ 𝑋̅ − 𝜇 ≤ 1) = 𝑃 (− < 𝑍 < ) = 0.95
3 3
9
√𝑛 √𝑛
𝑃 (− <𝑍< ) = 0.95
3 3
√𝑛 √𝑛
𝑃 (− <𝑍< ) = 0.95
3 3
√𝑛
1 − 2𝑃 (𝑍 > ) = 0.95
3
√𝑛
2𝑃 (𝑍 >
) = 0.05
3
√𝑛
𝑃 (𝑍 > ) = 0.025
3
𝑃(𝑍 > 𝑍𝑜) = 0.025 la 𝑍𝑜 que cumple esto es 𝑍𝑜 = 1.96
√𝑛
Es decir 3
= 1.96 𝑛 = [3(1.96)]2 = 34.5744 𝑟𝑒𝑑𝑜𝑛𝑑𝑒𝑎𝑛𝑑𝑜 𝑛 = 35
0.4
0.3
densidad
0.2
0.1
0
-5 -3 -1 1 3 5
X: -1.95997, 1.95997
Obsérvese: que si no se toma en cuenta l distribución de los datos con la aplicación de la fórmula de
la ley débil de los grandes números se requiere un tamaña de muestra 𝑛 ≥ 180, mientras que si se
toma en cuenta la distribución que le corresponde el tamaño de muestra disminuye mucho esto es
𝑛 ≥ 35 por lo que, si se considera 180 o más, lógicamente se cumple con mucha más razón la
condición que se requiere
𝑃(|𝑋̅ − 𝜇| ≤ 1) ≥ 0.95
Nota: La ley débil de los grandes números nos permite hallar el tamaño mínimo de una m.a. para
estimar la cercanía de la media muestral 𝑋̅𝑛 a una media poblacional μ𝑋 en términos de
probabilidades.
10
Teorema del límite central: Sean 𝑋1 , 𝑋2 , … 𝑋𝑛 una muestra aleatoria de una población con media 𝜇
y 𝜎 2 Sea 𝑋̅ la media muestral y 𝑍𝑛 definida por
𝑋̅ − 𝐸(𝑋̅) 𝑋̅ − 𝜇
𝑍𝑛 = = 𝜎
√𝑉(𝑋̅ )
√𝑛
𝜎2
Cuando n ⟶ ∞ entonces la distribución de 𝑍𝑛 ~̇𝑁(0,1) y 𝑋̅ ~̇𝑁(𝜇, ) 𝑛
Notas: El teorema del límite central es válido para una muestra aleatoria de cualquier distribución, se
tiene que 𝑍𝑛 (estandarización de 𝑋̅) tiene una distribución normal estándar. Además, esto
𝜎 2
implícitamente que 𝑋̅ tiene una distribución 𝑁(𝜇, 𝑛 ). El teorema de límite central solamente es
válido cuando el tamaño de muestra es grande (consideraremos en el curso muestra grande cuando
𝑛 ≥ 30
Ejemplo: Sea 𝑋1 , 𝑋2 , . . . 𝑋100 una muestra aleatoria con distribución exponencial con media 𝛽
entonces:
𝑋̅ − 𝜇
𝑍𝑛 =
𝜎/√𝑛
De la tabla de distribuciones se tiene que:
𝐸(𝑋) = 𝜇 = 𝛽
𝑉(𝑋) = 𝜎 2 = 𝛽 2 entonces 𝜎 = 𝛽
N=100 entonces:
𝑋̅ − 𝛽
𝑍𝑛 = ̇
~𝑁(0,1)
𝛽/10
Ejemplo: Sea 𝑋1 , 𝑋2 , . . . 𝑋100 una muestra aleatoria con distribución Poisso (𝜆) entonces:
𝑋̅ − 𝜇
𝑍𝑛 =
𝜎/√𝑛
De la tabla de distribuciones se tiene que:
𝐸(𝑋) = 𝜇 = 𝜆
𝑉(𝑋) = 𝜎 2 = 𝜆 entonces 𝜎 = √𝜆
N=100 entonces:
𝑋̅ − 𝜆
𝑍𝑛 = ̇
~̇𝑁(0,1)
√𝜆/10
Obsérvese que:
𝑋̅ − 𝐸(𝑋̅) 𝑋̅ − 𝜇 𝑋̅ − 𝜇
𝑍𝑛 = = =
√𝑉(𝑋̅) √𝜎 2 /𝑛 𝜎/√𝑛
Consideraremos n grande n≥30
Observación:
11
1 1
𝑛 (𝑛 ∑𝑛𝑖=1 𝑋𝑖 − 𝐸 (𝑛 ∑𝑛𝑖=| 𝑋𝑖 ))
𝑋̅ − 𝐸(𝑋̅) 𝑛(𝑋̅ − 𝐸(𝑋̅)) ∑𝑛𝑖=1 𝑋𝑖 − 𝐸(∑𝑛𝑖=1 𝑋𝑖 )
𝑍𝑛 = = = =
√𝑉(𝑋̅) 𝑛√𝑉(𝑋̅) 1 1 2
𝑛√𝑉 (𝑛 ∑𝑛𝑖=| 𝑋𝑖 ) 𝑛√( ) 𝑉(∑𝑛𝑖=| 𝑋𝑖 )
𝑛
∑𝑛𝑖=1 𝑋𝑖 − 𝐸(∑𝑛𝑖=1 𝑋𝑖 )
= ~𝑁(0,1)
√𝑉(∑𝑛𝑖=1 𝑋𝑖 )
12
Ejemplo: Suponga que un sistema está formado por 100 componentes, cada uno de los cuales tiene
una confiabilidad igual a 0.95 (es decir, la probabilidad que funcione el componente durante un
tiempo específico es igual a 0.95). Si estas componentes funcionan independientemente una de otra
y el sistema funciona correctamente cuando al menos funcionan 80 componentes. ¿Cuál es la
confiabilidad del sistema?
Solución:
X-No. de componentes que funcionan
𝑋1 , 𝑋2 , . . 𝑋100 es una muestra aleatoria con distribución Bernoullis(0.95) con n=100
𝑋 = 𝑋1 + 𝑋2 +. . . +𝑋100 = ∑𝑛𝑖=1 𝑋𝑖 , y 𝑋 = ∑𝑛𝑖=1 𝑋𝑖 tiene distribución Binomial(100,0.95)
𝑋 − 95 80 − 95 15
𝑃(𝑋 ≥ 80) = 𝑃 ( ≥ ) = 𝑃 (𝑍 ≥ − ) = 𝑃(𝑍 ≥ −6.88) = 1
√4.75 √4.75 2.179
0.4
0.3
densidad
0.2
0.1
0
-5 -3 -1 1 3 5
X: -2.32635
///////
Analizar:
De la normal estándar
P(Z<3)=1-P(Z>3)=1-0.0013=0.9987
P(Z<-3)=P(Z>3)=0.0013/////
13
Usando la probabilidad exacta
𝑋 = ∑𝑛𝑖=1 𝑋𝑖 tiene distribución Binomial(100,0.95)
100
𝑓(𝑥) = ( ) (0.95)𝑥 (0.05)100−𝑥 𝐼{0,1,2,3…100} (𝑥)
𝑥
Se desea 𝑃(𝑋 ≥ 80) = 𝑃(𝑋 = 80) + 𝑃(𝑋 = 81) + ⋯ 𝑃(𝑋 = 100)
100 (0.95)𝑥
= ∑100
𝑥=80 ( ) (0.05)100−𝑥 calcular
𝑥
Solución:
35 35
a) Distribución Exacta de una binomial: 𝑃(𝑋 = 𝑥) = ( ) 𝑝 𝑥 𝑞35−𝑥 = ( ) (0.6)𝑥 (0.4)35−𝑥
𝑥 𝑥
35
Determinar la P(X=20)= ( ) (. 6)20 (0.4)15 = 0.1274
20
𝑋−𝑛𝑝 𝑋−(35)(0.6) 𝑋−21
b) 𝑍 = 𝑛𝑝𝑞 = = 2.898 ~̇𝑁(0,1)
√ √(35)(0.6)(0.4)
𝑋−21 20−21
𝑃(𝑋 = 20) = 𝑃 ( 2.898 = 2.898 ) = 𝑃(𝑍 = −0.3450) = 0!!!!! Pues Z es una v.a continua y en una v.a.
continua P(Z=a)=0 a es valor real (no hay área)
En lugar que se determine 𝑃(𝑋 = 20) se determina 𝑃(19.5 < 𝑋 < 20.5)
= 𝑃(−0.52 < 𝑍 < −0.17) = 𝑃(0.17 < 𝑍 < 0.52) = 𝑃(𝑍 > 0.17) − 𝑃(𝑍 > 0.52)
= 0.4325 − 0.3015 = 0.131
Veamos algunos casos de cómo se emplea la aproximación usando el factor de corrección por
continuidad.
10.5−21 14.5−21
P(10<X<15)= 𝑃(10.5 < 𝑋 < 14.5) = 𝑃 ( 2.898
<𝑍< 2.898
) = 𝑃(−3.62 < 𝑍 < −2.24)
= 𝑃(2.24 < 𝑍 < 3.62) = 𝑃(𝑍 > 2.24) − 𝑃(𝑍 > 3.62) = 0.0125 − 0 = 0.0125
𝑃(2.24 < 𝑍 < 3.62) = 𝑃(2.24 < 𝑍) − 𝑃(𝑍 < 3.62) esto no es correcto
14
9.5−21 14.5−21
𝑃(10 ≤ 𝑋 < 15) = 𝑃(9.5 ≤ 𝑋 < 14.5) = 𝑃 ( ≤𝑍< ) (Se concluye usando la tabla
2.898 2.898
N(0,1))
2.5−21 5.5−21
𝑃(2 < 𝑋 ≤ 5) = 𝑃(2.5 < 𝑋 ≤ 5.5) = 𝑃( 2.898 < 𝑍 ≤ 2.898
(Se concluye usando la tabla N(0,1))
𝑃(2 ≤ 𝑋 < 5) = 𝑃(1.5 ≤ 𝑋 < 4.5)
𝑃(2 ≤ 𝑋 ≤ 5) = 𝑃(1.5 ≤ 𝑋 ≤ 5.5)
Binomial
0.2
probabilidad
0.15
0.1
0.05
0
0 2 4 6 8 10
x
0.2
probabilidad
0.15
0.1
0.05
0
0 2 4 6 8 10
x
Obsérvese: la gráfica de una binomial (10,0.5) y las probabilidades de los valores posibles
X=0,1,2,3,4,5,6,7,8,9 en la tabla de abajo.
15
Binomial
0.2
probabilidad
0.15
0.1
0.05
0
0 2 4 6 8 10
x
En esta gráfica las alturas de los segmentos de los valores posibles corresponden a las probabilidades,
lo que se encuentra en la tabla de probabilidades.
16
10
𝑃(𝑋 = 𝑥) = ( ) 0.5𝑥 0.5𝑛−𝑥
𝑥
Solución:
Se desea:
17
35
𝑃(10 < 𝑋 < 15) = ∑14
𝑥=11 ( ) (0.6)𝑥 (0.4)35−𝑥 = 𝑃(𝑋 = 11) + 𝑃(𝑋 = 12) + 𝑃(𝑋 = 13) + 𝑃(𝑋 =
𝑥
14) = 0.013092094
𝑋−𝑛𝑝 𝑋−(35)(0.6) 𝑋−21
b) 𝑍𝑛 = = = ~𝑁(0,1)
√𝑛𝑝𝑞 √(35)(0.6)(0.4) 2.898
10 − 21 15 − 21
𝑃(10 < 𝑋 < 15) = 𝑃 ( <𝑍< ) = 𝑃(−3.79 < 𝑍 < −2.07)
2.898 2.898
= 𝑃(2.07 < 𝑍 < 3.79)
= 𝑃(𝑍 > 2.07) − 𝑃(𝑍 > 3.79) = 0.0192 − 0 = 0.0192
10.5−21 14.5−21
c) 𝑃(10 < 𝑋 < 15) = 𝑃(10.5 < 𝑋 < 14.5) = 𝑃 ( 2.898
<𝑍< 2.898
) = 𝑃(−3.62 < 𝑍 < −2.24)
= 𝑃(2.24 < 𝑍 < 3.62) = 𝑃(𝑍 > 2.24) − 𝑃(𝑍 > 3.62) = 0.0125 − 0 = 0.0125
Aquí termina la clase del martes 24 enero 2023
Observaciones:
El caso general del Teorema una combinación lineal de las variables aleatorias 𝑋1 , 𝑋2 , 𝑋3 … 𝑋𝑛
independientes es
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛 con 𝑎, 𝑎1 , 𝑎2 … 𝑎𝑛 constantes
1 1 1 1
𝑚𝑌 (𝑡) = 𝑚𝑋1 ( 𝑡) 𝑚𝑋2 ( 𝑡) 𝑚𝑋3 ( 𝑡) … 𝑚𝑋𝑛 ( 𝑡)
𝑛 𝑛 𝑛 𝑛
3. 𝑌 = 2 + 𝑋1 + 𝑋2 + ⋯ . . 𝑋𝑛 combinación lineal con 𝑎 = 2, 𝑎1 = 1, 𝑎2 = 1 … 𝑎𝑛 = 1, entonces la
fgm de Y es:
𝑚𝑌 (𝑡) = 𝑒 2𝑡 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)𝑚𝑋3 (𝑡) … 𝑚𝑋𝑛 (𝑡)
18
1 1
4. 𝑌 = 3 + 2 𝑋1 − 𝑋2 combinación lineal con 𝑎 = 3, 𝑎1 = 2 , 𝑎2 = −1, entonces la fgm de 𝑌 es:
1
𝑚𝑌 (𝑡) = 𝑒 3𝑡 𝑚𝑋1 ( 𝑡) 𝑚𝑋2 (−𝑡)
2
5. 𝑌 = 𝑎 − ∑𝑛𝑖=1 𝑋𝑖 combinación lineal con 𝑎, 𝑎1 = −1, 𝑎2 = −1, 𝑎3 = −1, … . . 𝑎𝑛 = −1 entonces
la fgm de Y es:
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (−𝑡)𝑚𝑋2 (−𝑡) … 𝑚𝑋𝑛 (−𝑡)
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)𝑚𝑋3 (𝑎3 𝑡) … 𝑚𝑋𝑛 (𝑎𝑛 𝑡)
2 1
Se puede ver como una combinación lineal con 𝑎 = , 𝑎1 = −
𝑘 𝑘
2−𝑋 2 1
Pues 𝑌 = 𝑘
= 𝑘 − 𝑘 𝑋 entonces la fgm de 𝑌 es:
𝑌 = 𝑎 + 𝑎1 𝑋
2 1
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋 (𝑎1 𝑡) 𝑎 = 𝑘 𝑎1 − 𝑘
2 1
𝑚𝑌 (𝑡) = 𝑒 𝑘𝑡 𝑚𝑋 (− 𝑡)
𝑘
El objetivo de este tema es, dadas variables aleatorias con alguna distribución conocida y una
combinación lineal de ellas "𝑌" determinar la nueva distribución de esta combinación lineal “Y”,
siempre que se conozca la función generadora de momentos de las variables aleatorias. Para esto
aplicaremos el teorema y las funciones generadoras de momentos que se encuentran en la tabla de
distribuciones más comunes.
Ejemplos:
Solución
𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
Es una combinación lineal de variables aleatorias independientes de una distribución Bernoulli(p)
Entonces, por teorema la fgm de 𝑌 es:
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡) … 𝑚𝑋𝑛 (𝑡)
19
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)𝑚𝑋3 (𝑡)…… 𝑚𝑋𝑛 (𝑡)
= ( 𝑞 + 𝑝𝑒 𝑡 )( 𝑞 + 𝑝𝑒 𝑡 ) … . . ( 𝑞 + 𝑝𝑒 𝑡 )
= ( 𝑞 + 𝑝𝑒 𝑡 )𝑛
Se observa que la fgm de 𝑌 es:
𝑚𝑌 (𝑡) = ( 𝑞 + 𝑝𝑒 𝑡 )𝑛
Observando la tabla de distribuciones, esta 𝑚𝑌 (𝑡) corresponde a una Binomial(n,p) por lo que se
concluye que
𝑌~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝)
Nota: Sumas de n variables aleatorias independientes Bernoullis(p) idénticamente distribuidas
resulta una distribución binomial
2) Sean 𝑋1 , 𝑋2 variables aleatorias independientes, tal que 𝑋𝑖 ~𝑁(𝜇𝑖 , 𝜎𝑖2 ) 𝑖 = 1,2 determinar la
distribución de
𝑌 = 𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2
Solución:
El teorema usado para la técnica de combinación lineal:
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛
⟹ 𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)𝑚𝑋3 (𝑎3 𝑡) … 𝑚𝑋𝑛 (𝑎𝑛 𝑡)
20
Observen: la fgm de una v.a normal es:
Y obtuvimos:
2 2
1
𝑚𝑌 (𝑡) = 𝑒𝑥𝑝 [(𝑎 + ∑ 𝜇𝑖 𝑎𝑖 ) 𝑡 + 𝑡 2 (∑ 𝜎𝑖2 𝑎𝑖2 )]
2
𝑖=1 𝑖=1
Entonces la fgm de “Y” corresponde a una Normal con media (𝑎 + ∑2𝑖=1 𝜇𝑖 𝑎𝑖 ) y varianza
(∑2𝑖=1 𝜎𝑖2 𝑎𝑖2 ) entonces se concluye que:
2 2
Observación
Se puede observar de la combinación lineal: 𝑌 = 𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2 + ⋯ +𝑎𝑛 𝑋𝑛
Teorema: Sean las v.a. 𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 … 𝑿𝒏 independientes con 𝑿𝒊 ~𝑵(𝝁𝒊 , 𝝈𝟐𝒊 ) i=1,2...n y sea
𝒀 = 𝒂 + 𝒂𝟏 𝑿𝟏 + 𝒂𝟐 𝑿𝟐 + ⋯ . . 𝒂𝒏 𝑿𝒏 , 𝐝𝐨𝐧𝐝𝐞 𝒂𝒊 ≠ 𝟎 𝐩𝐚𝐫𝐚 𝐚𝐥 𝐦𝐞𝐧𝐨𝐬 𝐚𝐥𝐠𝐮𝐧𝐚 𝒊, Entonces ⟹
𝒀~𝑵[𝑬(𝒀), 𝑽(𝒀)]
Nota: este último teorema solo es válido para variables aleatorias independientes con distribución
normal
21
4) Sea una variable aleatoria 𝑋~𝑁(3,9) y sea 𝑌 = 2𝑋 + 10 determinar la distribución de Y
Solución:
𝑌 = 2𝑋 + 10
𝑌 = 𝑎 + 𝑎1 𝑋1
es una combinación lineal con una v.a. con distribución Normal donde 𝑋~𝑁(3,9)
Entonces por teorema 𝑌~𝑁[𝐸(𝑌), 𝑉(𝑌)]
Donde 𝑌 = 10 + 2𝑋
Solución:
a) Si se da la opción de usar el teorema, o bien no se pide específicamente un método lo más
práctico es usar el teorema. ! Claro siempre y cuando las variables aleatorias sean independientes y
con distribuciones normales.
𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))………….(*)
Recuerde que cada 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ) entonces implica que 𝐸(𝑋𝑖 ) = 𝜇 y 𝑉(𝑋𝑖 ) = 𝜎 2 son idénticamente
distribuidas
Entonces de acuerdo a (*)
𝑌~𝑁(𝑛𝜇, 𝑛𝜎 2 )
1 1 1 1
b) 𝑋̅ recuerde que 𝑋̅ = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 = 𝑛 𝑋1 + 𝑛 𝑋2 + ⋯ 𝑛 𝑋𝑛 es una combinación lineal de variables
aleatorias independientes. Entonces por teorema
𝑋̅~𝑁(𝐸(𝑋̅), 𝑉(𝑋̅))
𝜎2
Sabemos por propiedades de 𝑋̅ 𝐸(𝑋̅) = 𝜇 𝑉(𝑋̅) = 𝑛
𝜎2
̅
𝑋~𝑁 (𝜇, )
𝑛
22
//// Observación:
𝜎2
Si 𝑋̅~𝑁 (𝜇, ) y Estandarizando𝑋̅ se tiene que:
𝑛
𝑋̅ − 𝜇 𝑋̅ − 𝜇
𝑍= =
𝜎 2 𝜎/√𝑛
√
𝑛
𝑋−𝜇
Si 𝑋~𝑁(𝜇, 𝜎 2 ) si se estandariza X 𝑍 = ////
𝜎
Solución:
a) Usando el teorema:
Entonces: 𝑌~𝑁(135,13)
donde cada 𝑋𝑖 tiene distribución Normal entonces sus fgm son las siguientes:
1
𝑋1 ~𝑁(65,4) → 𝑚𝑋1 (𝑡) = 𝑒𝑥𝑝 [65𝑡 + 2 4𝑡 2 ]
1
𝑋2 ~𝑁(70,9) → 𝑚𝑋2 (𝑡) = 𝑒𝑥𝑝 [70𝑡 + 9𝑡 2 ]
2
Entonces:
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)
1 1
= 𝑒𝑥𝑝 [65𝑡 + 2 4𝑡 2 ] 𝑒𝑥𝑝 [70𝑡 + 2 9𝑡 2 ] por propiedades de exponenciales se tiene:
1 1
= 𝑒𝑥𝑝 [65𝑡 + 2 4𝑡 2 + 70𝑡 + 2 9𝑡 2 ]
1
= 𝑒𝑥𝑝 [135𝑡 + 2 𝑡 2 (4 + 9)]
1
= 𝑒𝑥𝑝 [135𝑡 + 2 (13)𝑡 2 ]
1
Entonces: 𝑚𝑌 (𝑡) = 𝑒𝑥𝑝 [135𝑡 + (13)𝑡 2 ]
2
23
//
Analizando entonces se concluye que la fgm de Y corresponde a una distribución Normal con 𝜇 =
135 y 𝜎 2 = 13
Entonces:
𝑌~𝑁(135,13)
7) Sea X una variable aleatoria con 𝑋~𝑁(𝜇, 𝜎 2 ) Emplee la técnica de la función generadora de
momentos para determinar la distribución de 𝑌 = 3𝑋
Solución:
Ahora en este ejercicio 𝑌 = 3𝑋 es una sola variable, se puede considerar como combinación
lineal
𝑌 = 0 + 3𝑋 entonces la fgm de 𝑌 es:
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)𝑚𝑋3 (𝑎3 𝑡) … 𝑚𝑋𝑛 (𝑎𝑛 𝑡)
Se observa que la fgm de “Y” corresponde a una Normal con media 3𝜇 y varianza 9𝜎 2 entonces se
concluye que:
𝑌~𝑁(3𝜇, 9𝜎 2 )
Usando el teorema:
𝑌 = 3𝑋 es una combinación lineal entonces por teorema
𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))….. *
24
𝑋−𝜇 𝑋 𝜇 𝜇 1
Se tiene 𝑍 = 𝜎
= 𝜎 − 𝜎 = −𝜎 + 𝜎𝑋 se observa que Z es una combinación lineal de una v.a con
distribución Normal
Entonces 𝑍~𝑁(𝐸(𝑍), 𝑉(𝑍))
𝜇 1 𝜇 1 𝜇 1 𝜇 1
𝐸(𝑍) = 𝐸 (− + 𝑋) = − + 𝐸 ( 𝑋) = − + 𝐸(𝑋) = − + 𝜇 = 0
𝜎 𝜎 𝜎 𝜎 𝜎 𝜎 𝜎 𝜎
𝜇 1 1 1 2 1
𝑉(𝑍) = 𝑉 (− 𝜎 + 𝜎 𝑋) = 𝑉 (𝜎 𝑋) = (𝜎) 𝑉(𝑋) = 𝜎2 𝜎 2 =1
Entonces 𝑍~𝑁(0,1)
Tarea: para este mismo ejercicio emplear la técnica de la fgm
𝑡 2 (1) 𝑡2
Si 𝑋~𝑁(0,1) entonces 𝑚𝑋 (𝑡) = exp (0𝑡 + 2
) = 𝑒𝑥( 2 )
𝑡2
𝑚𝑧 (𝑡) = 𝑒𝑥𝑝( )
2
2.2. Distribución Ji-cuadrada.
Solución:
Nota: 𝑤1 ~𝜒𝑛1
2
indica que 𝑤𝑖 tiene distribución Chi-cuadrada con 𝑛1 grados de libertad y así para
cada 𝑤𝑖 donde 𝑖 = 1,2,3. Obsérvese que las variables aleatorias 𝑤𝑖 no son idénticamente
distribuidas ya que las 𝑛𝑖 cambian.
En este ejercicio 𝑌 = 𝑤1 +𝑤2 + 𝑤3 este es una combinación lineal, donde la fgm de Y es
𝑚𝑌 (𝑡) = 𝑚𝑤1 (𝑡)𝑚𝑤2 (𝑡)𝑚𝑤3 (𝑡)
donde cada 𝑤𝑖 tiene las siguientes distribuciones y fgm:
𝑛1
2
𝑤1 ~𝜒𝑛1 → 𝑚𝑤1 (𝑡) = (1 − 2𝑡)− 2
𝑛2
2
𝑤2 ~𝜒𝑛2 → 𝑚𝑤2 (𝑡) = (1 − 2𝑡)− 2
𝑛3
2
𝑤3 ~𝜒𝑛3 → 𝑚𝑤3 (𝑡) = (1 − 2𝑡)− 2
Sustituyendo:
25
𝑛1 𝑛2 𝑛3
𝑚𝑌 (𝑡) = 𝑚𝑤1 (𝑡)𝑚𝑤2 (𝑡)𝑚𝑤3 (𝑡) = (1 − 2𝑡)− 2 (1 − 2𝑡)− 2 (1 − 2𝑡)− 2
𝑛1+𝑛2+𝑛3
= (1 − 2𝑡)− 2
Demostración:
Definamos: 𝑍𝑖 =
𝑥𝑖 −𝜇 𝑍𝑖 ~𝑁(0,1) 𝑍𝑖2 ~𝜒12 𝑈 = ∑𝑛𝑖=1 𝑍𝑖2 ~𝜒𝑛2
𝜎
Así:
𝑛
𝑥𝑖 − 𝜇 2
∑( ) ~ 𝜒𝑛2
𝜎
𝑖=1
Demostración:
1 1 1 1 1 1 1
√𝑛𝑍̅ = √𝑛 (𝑛 ∑𝑛𝑖=1 𝑧𝑖 ) = √𝑛 (𝑛 𝑧1 + 𝑛 𝑧2 + ⋯ 𝑛 𝑧𝑛 ) = (√𝑛 𝑧1 + √𝑛 𝑧2 + ⋯ √𝑛 𝑧𝑛 ) es una combinación
lineal de distribuciones normales
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛
𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))
26
𝐸(𝑌) = 𝐸(√𝑛𝑍̅) = √𝑛𝐸(𝑍̅) = √𝑛𝜇 = √𝑛(0) = 0 la 𝜇 de las 𝑧𝑖 es 𝜇 = 0
1 𝜎2
𝑉(𝑌) = 𝑉(√𝑛𝑍̅) = 𝑛𝑉(𝑍̅) = 𝑛 ( 𝑛 ) = 𝑛 (𝑛) = 1 la 𝜎 2 de las 𝑧𝑖 es 𝜎 2 = 1
Entonces se concluye que
𝑌 = √𝑛 𝑍̅~𝑁(0,1)
i) y iii) ∑𝑛𝑖=1(𝑍𝑖
̅
− 𝑍 ) tiene una distribución 𝜒𝑛−1
2 2
Ji-Cuadrada con n-1 grados de libertad.
La vamos a considerar válida sin demostración
Observación:
Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria tal que 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ), entonces tenemos que:
𝑋𝑖 −𝜇
Además, si se estandariza cada 𝑋𝑖 definiendo 𝑍𝑖 = ~𝑁(0,1), entonces se tiene:
𝜎
𝑋 −𝜇 1
𝑍𝑖 − 𝑍̅ = ( 𝑖 ) − ∑𝑛𝑖=1 𝑍𝑖
𝜎 𝑛
𝑋𝑖 −𝜇 1 𝑛 𝑋 −𝜇
= ( 𝜎 ) − 𝑛 ∑𝑖=1 ( 𝑖𝜎 )
𝑋 𝜇 1
= ( 𝑖 − ) − {∑𝑛𝑖=1(𝑋𝑖 − 𝜇)}
𝜎 𝜎 𝑛𝜎
𝑋 𝜇 1
= ( 𝜎𝑖 − 𝜎) − 𝑛𝜎 {∑𝑛𝑖=1 𝑋𝑖 − 𝑛𝜇}
𝑋 𝜇 1 1
= ( 𝜎𝑖 − 𝜎) − 𝑛𝜎 ∑𝑛𝑖=1 𝑋𝑖 + 𝑛𝜎 𝑛𝜇
𝑋 𝜇 1 𝜇
= ( 𝜎𝑖 − 𝜎) − 𝑛𝜎 ∑𝑛𝑖=1 𝑋𝑖 + 𝜎
𝑋 𝜇 𝑋̅ 𝜇
= ( 𝜎𝑖 − 𝜎) − 𝜎 + 𝜎
𝑋𝑖 𝑋̅
= 𝜎
−𝜎
𝑋𝑖 −𝑋̅
=
𝜎
Por lo tanto, se tienen las siguientes igualdades:
𝑋 −𝑋 ̅
𝑍𝑖 − 𝑍̅ = 𝑖𝜎
𝑋 −𝑋 ̅ 2
(𝑍𝑖 − 𝑍̅)2 = ( 𝑖 ) para cada 𝑋𝑖
𝜎
𝑋 −𝑋 ̅ 2
∑𝑛𝑖=1(𝑍𝑖 − 𝑍̅)2 = ∑𝑛𝑖=1 ( 𝑖 )
𝜎
Por el teorema anterior se tiene que:
𝑛
𝑖 =1
𝒏 𝟐
̅
𝑿𝒊 − 𝑿
∑( ) ~𝝌𝟐𝒏−𝟏
𝝈
𝒊=𝟏
Además, obsérvese que
𝑛 2 𝑛 𝑛
𝑋𝑖 − 𝑋̅ 1 (𝑛 − 1) 1 (𝑛 − 1) 2 (𝑛 − 1)𝑆 2
∑( ) = 2 ∑(𝑋𝑖 − 𝑋̅) =
2
( ∑(𝑋𝑖 − ̅
𝑋 )2
) = 𝑆 =
𝜎 𝜎 𝜎2 𝑛−1 𝜎2 𝜎2
𝑖=1 𝑖=1 𝑖=1
27
(𝑛−1)𝑆 2
2
~𝜒𝑛−1
𝜎2
entonces se dice que 𝑋 tiene una distribución t con n grados de libertad, denotado como 𝑋~𝑡𝑛 .
Teorema: Supóngase que se tienen dos variables aleatorias independientes 𝑋 𝑦 𝑌 tal que 𝑋~𝑁(0,1) y 𝑌~
𝑋
𝜒𝑛2 . Sea 𝑇 = entonces T tiene una distribución t con n grados de libertad, es decir:
√𝑌/𝑛
𝑇~𝑡𝑛
(Para probarlo es posible emplear el método de transformación)
Teorema: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria con distribución Normal con 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 )
𝑋̅−𝜇
y sea 𝑌 = 𝑆/ 𝑛, entonces: Y tiene una distribución t con n-1 grados de libertad.
√
Demostración.
Se requiere una v.a. Z con distribución normal estándar y otra variable Y con distribución 𝜒𝑛−1
2
(𝑛−1)𝑆 2
Así la que utilizaremos como v.a. chi-cuadrada con n-1 gl es 𝑌 = 2
~𝜒𝑛−1
𝜎2
Tenemos que:
𝑋̅−𝜇 (𝑛−1)𝑆 2
Z= ~𝑁(0,1) y 𝑌= 2
~𝜒𝑛−1
𝜎/√𝑛 𝜎2
Entonces por teorema
28
𝑍
𝑇= ~𝑡𝑛−1
√𝑌/(𝑛−1)
𝑋̅ − 𝜇
𝜎/√𝑛
𝑇= ~𝑡𝑛−1
2
√(𝑛 − 1)𝑆
2 /(𝑛 − 1)
𝜎
̅ −𝜇
𝑋
𝜎/√𝑛 (𝑋̅−𝜇)√𝑛−1 (𝑋̅−𝜇)√𝑛−1 (𝑋̅−𝜇) 𝑋̅−𝜇
𝑇= ~𝑡𝑛−1 = = = = 𝑠/ ~𝑡𝑛−1
2 (𝑛−1)𝑆2 1/√𝑛√(𝑛−1)𝑆 2 1/√𝑛√𝑆2 √𝑛
√(𝑛−1)𝑆 /(𝑛−1) 𝜎/√𝑛√
𝜎2 𝜎2
t n −1
῀
𝑋̅ − 𝜇
𝑠/√𝑛
~𝑡𝑛−1
2.4. Distribución F.
(m + n) / 2 m x ( m−2) / 2
m/2
f X ( x) = I (0, ) ( x)
m / 2n / 2 n 1 + (m / n) x( m+n) / 2
entonces se dice que 𝑋 tiene una distribución F con m(numerador) y n (denominador) grados de libertad,
es decir, denotémoslo como 𝑋~F𝑚,𝑛 .
En resumen:
Si se tiene 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria tal que 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ), entonces tenemos que:
𝑋̅−𝜇
a) 𝜎/√𝑛
~𝑁(0,1)
𝑋𝑖 −𝜇 2
b) ∑𝑛𝑖=1 ( 2
) ~𝜒𝑛−1
𝜎
𝑋𝑖 −𝑋̅ 2 (𝑛−1)𝑆 2
c) ∑𝑛𝑖=1 (
𝜎
2
) ~𝜒𝑛−1 equivalente a 𝜎2
~𝜒2𝑛−1
𝑋̅−𝜇
d) ~𝑡𝑛−1
𝑆/√𝑛
29
Teorema: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una m.a con distribución 𝑁(𝜇1 , 𝜎 2 ) y 𝑌1 , 𝑌2 , … , 𝑌𝑚 una m.a con
distribución 𝑁(𝜇2 , 𝜎 2 ). Entre las muestras aleatoria 𝑋i y la muestra aleatoria 𝑌j hay independencia,
probar que:
(𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
~𝑡𝑛+𝑚−2
1 1
√( + ) (𝑆𝑝 ) 2
𝑛 𝑚
∑𝑛 ̅ 2 𝑚 ̅ 2
𝑖=1(𝑋𝑖 −𝑋) +∑𝑗=1(𝑌𝑖 −𝑌)
Donde 𝑆𝑝2 = 𝑛+𝑚−2
Demostración:
La variable aleatoria 𝑍 = 𝑋̅ − 𝑌̅ es una combinación lineal de v.a. con distribución normal entonces:
𝑍~𝑁[𝐸(𝑍), 𝑉(𝑍)]
𝑍~𝑁[𝐸(𝑋̅ − 𝑌̅ ), 𝑉(𝑋̅ − 𝑌̅ )]
𝑍~𝑁[𝐸(𝑋̅) − 𝐸(𝑌̅ ), 𝑉(𝑋̅) + 𝑉(𝑌̅ )]
𝜎2 𝜎2
𝑍~𝑁 [(𝜇1 − 𝜇2 ), + ]
𝑛 𝑚
1 1
𝑍~𝑁 [(𝜇1 − 𝜇2 ), 𝜎 2 ( + )]
𝑛 𝑚
1 1
(𝑋̅ − 𝑌̅)~𝑁 [(𝜇1 − 𝜇2 ), 𝜎 2 ( + )]
𝑛 𝑚
𝑋𝑖 −𝑋̅ 2 𝑌𝑗 −𝑌̅ 2
Por otro lado, tenemos que: 𝑊1 = ∑𝑛𝑖=1 ( 2
) ~𝜒𝑛−1 y 𝑊2 = ∑𝑚
𝑗=1 (
2
) ~𝜒𝑚−1
𝜎 𝜎
Entonces 𝑊 = 𝑊1 + 𝑊2 ~𝜒𝑛+𝑚−2
2
ya que:
( n −1) / 2 ( m −1) / 2 ( n+ m−2) / 2
1 1 1
mW (t ) = mW1 (t )mW2 (t ) = =
1 − 2t 1 − 2t 1 − 2t
Se observa que 𝑚𝑊 (𝑡) es la f.g.m. de una distribución Ji-cuadrada con (n+m-2) grados de libertad es
decir:
𝑋𝑖 −𝑋̅ 2 𝑌𝑗 −𝑌̅ 2
𝑊 = ∑𝑛𝑖=1 ( 𝜎
) + ∑𝑚
𝑗=1 ( 𝜎
2
) ~𝜒𝑛+𝑚−2 ……………………..(II)
De (I) y (II) tenemos que
𝐾
𝑇= ~𝑡𝑛+𝑚−2
√ 𝑊
𝑛+𝑚−2
30
(𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
√𝜎 2 (1 + 1 )
𝑛 𝑚
𝑇= ~𝑡𝑛+𝑚−2
2 2
𝑛 𝑋𝑖 − 𝑋̅ 𝑚 𝑌𝑗 − 𝑌̅
√ ∑𝑖=1 ( 𝜎 ) + ∑𝑗=1 ( 𝜎 )
𝑛+𝑚−2
(𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
1 1
𝜎 √(𝑛 + 𝑚)
𝑇= ~𝑡𝑛+𝑚−2
2
1√ ∑𝑛𝑖=1(𝑋𝑖
− + 𝑋̅)2 − 𝑌̅)∑𝑚
𝑗=1(𝑌𝑗
𝜎 𝑛+𝑚−2
̅ ̅
(𝑋 − 𝑌) − (𝜇1 − 𝜇2 )
√(1 + 1 ) (𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
𝑛 𝑚
𝑇= = ~𝑡𝑛+𝑚−2
√𝑆𝑝2 √(1 + 1 ) 𝑆𝑝2
𝑛 𝑚
(𝑋̅−𝑌̅)−(𝜇1 −𝜇2 )
~𝑡𝑛+𝑚−2
1 1
√( + )𝑆𝑝2
𝑛 𝑚
Ejemplos: Sea una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 , … 𝑋10 con distribución normal estándar, a partir de
estas
a) Construir un estadístico o variable aleatoria con distribución 𝜒32
b) Construir un estadístico o variable aleatoria con distribución 𝑡2
c) Construir un estadístico o variable aleatoria con distribución 𝑡5
d) Construir un estadístico o variable aleatoria con distribución 𝐹3,5
Solución:
a) 𝑌 = (𝑋22 + 𝑋32 + 𝑋10
2
)~𝜒32
𝑋8 𝑋8
Entonces por teorema 𝑇 = ~𝑡2 o 𝑇 = 2 2
√𝑌/2 √(𝑋2 +𝑋3)
2
𝑈/3
Entonces por teorema 𝐹 = 𝑊/5 ~𝐹3,5
31
Ejemplos: Sea variables aleatorias independientes 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 donde 𝑋1 , 𝑋2 con distribución
N(1,1) 𝑋3 , 𝑋4 con distribución N(2,2) y 𝑋5 ~𝑁(0,2)
a) Construir un estadístico o variable aleatoria con distribución 𝜒32
b) Construir un estadístico o variable aleatoria con distribución 𝑡2
c) Construir un estadístico o variable aleatoria con distribución 𝐹3,2
Solución
𝑋2 −1 2 𝑋3 −2 2 𝑋 2
a) 𝑌 = ( 1
) +( ) + ( 25 ) ~𝜒32
√2 √
𝑋3 −2 𝑋 2 𝑋1 −1 2 1
b) 𝑈 = , 𝑊= ( 52) +( ) = 2 (𝑋5 )2 + (𝑋1 − 1)2
√2 √ 1
𝑈
Por teorema se tiene que 𝑊 = = ~𝑡2
𝑊
√
2
𝑋2 −1 2 𝑋3 −2 2 𝑋 2
c) 𝑌1 = ( ) +( ) + ( 5 ) ~𝜒32
1 √2 √2
𝑋 −1 2 𝑋 −2 2
𝑌2 = ( 1
1
) +( 4
) ~𝜒22
√2
𝑌 /3
Por teorema se tiene que: 𝑊 = 𝑌1 /2 ~𝐹3,2
2
32
𝐴 = (𝑋1 − 1)~𝑁(0,1)
Observando el denominador:
𝑋3 −2 𝑋3 −2 2
𝑋3 ~𝑁(2,2) → ~𝑁(0,1) →( ) ~𝜒12
√2 √2
𝑋2 ~𝑁(1,1) → (𝑋2 − 1)~𝑁(0,1) → (𝑋2 − 1)2 ~𝜒12
𝑋3 − 2 2
→ 𝐵 = [( ) + (𝑋2 − 1)2 ] ~𝜒22
√2
Por teorema:
𝑋1 − 1 𝐴
𝑈= = ~𝑡2
2 √ 𝐵
𝑋3 − 2 2 2
√( √2 ) + (𝑋2 − 1)
2
𝑋5 2
c) 𝑊 = (𝑋1 − 1)2 +
2
𝑋1 ~𝑁(1,1) → (𝑋1 − 1)~𝑁(0,1) ⟹ (𝑋1 − 1)2 ~𝜒12
𝑋5 𝑋 2 (𝑋5 )2
𝑋5 ~𝑁(0,2) → ~𝑁(0,1) → ( 25 ) ~𝜒12 → ~𝜒12
√2 √ 2
(𝑋5 )2
Entonces: (𝑋1 − 1)2 + ~𝜒22
2
Ejemplos: Sean 𝑋1 , 𝑋2 muestra aleatoria con distribución N(0,1). Determinar las distribuciones de las
siguientes variables:
a) (𝑋2 − 𝑋1 )/√2
(𝑋1 +𝑋2 )2
b) (𝑋2 −𝑋1 )2
𝑋2 +𝑋1
c)
√(𝑋1 −𝑋2 )2
𝑋1 + 𝑋2
d)
√2
e) 2(𝑋1 − 𝑋2 )
Solución:
𝑋2 𝑋1 1 1
a) (𝑋2 − 𝑋1 )/√2 = − = 𝑋 − 𝑋
√2 √2 √2 2 √2 1
es una combinación lineal de variables aleatorias independientes. Por teorema tiene una
distribución normal
1 1 1 1 1 1
( 𝑋2 − 𝑋1 ) ~𝑁 (𝐸 ( 𝑋2 − 𝑋1 ) , 𝑉 (
𝑋1 )) 𝑋2 −
√2 √2 √2 √2 √2 √2
1 1 1 1 1 1
𝐸 ( 𝑋2 − 𝑋1 ) = 𝐸(𝑋2 ) − 𝐸(𝑋1 ) = (0)) − (0) = 0
√2 √2 √2 √2 √2 √2
1 1 1 1 1 2 1 2 1 1
𝑉 ( 𝑋2 − 𝑋1 ) = 𝑉 ( 𝑋2 + (− 𝑋1 )) = ( ) 𝑉(𝑋2 ) + (− ) 𝑉(𝑋1 ) = 𝑉(𝑋2 ) + 𝑉(𝑋1 )
√2 √2 √2 √2 √2 √2 2 2
1 1
= (1) + (1) = 1
2 2
33
(𝑋2 − 𝑋1 )/√2 ~𝑁(0,1) #
(𝑋1 +𝑋2 )2
b) (𝑋2 −𝑋1 )2
Se observa que
𝑋1 + 𝑋2 es una combinación lineal entonces:
(𝑋1 + 𝑋2 )~𝑁(𝐸(𝑋1 + 𝑋2 ), 𝑉(𝑋1 + 𝑋2 )
𝑋1 +𝑋2
(𝑋1 + 𝑋2 )~𝑁(0,2) entonces estandarizando ~𝑁(01)
√2
𝑋1 +𝑋2 2
entonces ( ) ~𝜒12
√2
2
𝑋1 + 𝑋2 1
𝐴=( ) = (𝑋 + 𝑋2 )2 ~𝜒12
√2 2 1
𝑋2 −𝑋1 2 1
Obsérvese también de manera similar que: 𝐵 = ( ) = 2 (𝑋2 − 𝑋1 )2 ~𝜒12
√2
(𝐴/1)
~𝐹
(𝐵/1) 1,1
1
(𝑋1 + 𝑋2 )2
(2 )
1
(𝑋1 + 𝑋2 )2
= ~𝐹
1
(𝑋2 − 𝑋1 )2 (𝑋2 − 𝑋1 )2 1,1
(2 )
1
𝑋2 +𝑋1
c)
√(𝑋1 −𝑋2 )2
𝑋2 +𝑋1
(𝑋2 + 𝑋1 )~𝑁(0,2) estandarizando 𝑈 = ~𝑁(0,1)
√2
𝑋1 −𝑋2 𝑋1 −𝑋2 2
(𝑋1 − 𝑋2 )~𝑁(0,2) estandarizando ~𝑁(0,1) 𝑊=( ) ~𝜒1
√2 √2
Entonces por teorema
𝑈
~𝑡1
√𝑊
1
𝑋2 + 𝑋1 𝑋2 + 𝑋1 𝑋2 + 𝑋1
√2 √2 √2 𝑋2 + 𝑋1
= = =
1 1 √ (𝑋1 − 𝑋2 )2 √ (𝑋1 − 𝑋2 )2
𝑋1 − 𝑋2 2 √2 (𝑋 − 𝑋 ) 2
√ ( √2 )
1 2
√2 1
1
1
𝑋2 +𝑋1
Entonces ~𝑡1 #
√(𝑋1 −𝑋2 )2
𝑋1 + 𝑋2
d)
√2
34
𝑋1 + 𝑋2
es una combinación de v.a normales entonces
√2
𝑋1 + 𝑋2 𝑋 +𝑋 𝑋 +𝑋
~𝑁 [𝐸 ( 1 2 2 ) , 𝑉 ( 1 2 2 )]
√2 √ √
𝑋1 + 𝑋2 1
𝐸 ( 2 ) = 2 (𝐸(𝑋1 + 𝑋2 )) = 0
√ √
𝑋1 + 𝑋2 1 1 1 1
𝑉 ( 2 ) = 2 𝑉(𝑋1 + 𝑋2 ) = 2 [𝑉(𝑋1 ) + 𝑉(𝑋2 )] = 2 [1 + 1] 2 [2] = 1
√
𝑋1 + 𝑋2
Entonces: ~𝑁(0,1)#
√2
𝑋1 , 𝑋2 𝑁(1,1)
𝑌1 , 𝑌2 𝑁(2,2)
𝑍1 ~𝑁(0,2)
𝐸(𝑈) = 𝐸(𝑋̅ − 3𝑍̅) = 𝐸(𝑋̅ ) − 3𝐸(𝑍̅) = 1 − 3(0) = 1)
1 2 1 37
𝑉(𝑈) = 𝑉(𝑋̅ − 3𝑍̅) = 𝑉[𝑋̅ + (−3)𝑍̅] = 𝑉(𝑋̅) + (−3)2 𝑉(𝑍̅) = + 9 ( ) = + 18 =
2 1 2 2
37
𝑈~𝑁(1,
)
2
Ejemplo: Sea tres muestras aleatorias independientes 𝑋1 , 𝑋2 , 𝑋3 , 𝑌1 , 𝑌2 , 𝑌2 y 𝑍1 , 𝑍2 donde 𝑋𝑖 ~𝑁(3,3),
𝑌i ~𝑁(0,3) y 𝑍i ~𝑁(1,3).
𝑋̅+𝑌̅+𝑍̅
a) Determinar la distribución de W= 3
b) Construir una distribución 𝑡2 usando 𝑋̅, 𝑌̅ 𝑦 𝑍̅
(𝑋̅−3)2
c) Determine la distribución de 𝑈 = 𝑌̅ 2
35