Notas Inferencia Estadística II LCC

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 35

UNIDAD II

DISTRIBUCIONES MUESTRALES

1. Media y varianza muestral.

1.1 Muestra aleatoria y estadístico.

Definición: muestra aleatoria (m.a): Sea una función de densidad digamos f(x), se dice que las
variables aleatorias 𝑋1 , 𝑋2 , . . . 𝑋𝑛 es una muestra aleatoria de la distribución f(x) si las n-variables
aleatorias son independientes e idénticamente distribuidas (iid).

Función conjunta o función de verosimilitud de una (m.a): es la función de probabilidad de la muestra


aleatoria denotada por:
𝑓(𝑥1 , 𝑥2 , . . 𝑥𝑛 ) = 𝑓(𝑥1 )𝑓(𝑥2 ) … 𝑓(𝑥𝑛 )

Ejemplo: Dada una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 con distribución exponencial con media 𝛽 determinar
la función de densidad conjunta de las n-variables aleatorias:

Se entiende que cada 𝑋𝑖 tiene función de densidad

1 −𝛽1 𝑥
𝑓(𝑥) = {𝛽 𝑒 𝑥≥0
0 𝑑𝑒 𝑜. 𝑚
con 𝛽 > 0
Además, la función de densidad conjunta es:

𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = 𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 )


1 1 1 1 1 1
1 − 𝑥1 1 − 𝑥2 1 − 𝑥3 1 3 − 𝑥1 − 𝑥2 − 𝑥3
= (𝛽 𝑒 𝛽 ) (𝛽 𝑒 𝛽 ) (𝛽 𝑒 𝛽 ) = (𝛽) (𝑒 𝛽 ) (𝑒 𝛽 ) (𝑒 𝛽 )
1 1 1 1 1
1 3 − 𝑥1 − 𝑥2 − 𝑥3 1 3 − (𝑥1 +𝑥2 +𝑥2 ) 1 3 − ∑3𝑖=1 𝑥𝑖
= (𝛽) 𝑒 𝛽 𝛽 𝛽 = (𝛽) 𝑒 𝛽 = (𝛽) 𝑒 𝛽

Así la función de densidad conjunta de una muestra aleatoria con distribución exponencial con media
𝛽 es
1 3 − 1 ∑3 𝑥𝑖
𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = ( ) 𝑒 𝛽 𝑖=1
𝛽

Esta función es denominada función de densidad conjunta o función de verosimilitud de una


muestra aleatoria de la distribución exponencial con media 𝛽

1
Ejemplo: Sea una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 con distribución Bin(n,p). Determinar la función de
verosimilitud.
𝑛
𝑓(x) = ( ) 𝑝 𝑥 𝑞 n−x
x
𝑛 𝑥 𝑛−𝑥
Cada 𝑋𝑖 ~𝐵𝑖𝑛(𝑛, 𝑝) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑓(𝑥𝑖 ) = (𝑥 ) 𝑝 𝑞 𝑖
𝑖
𝑖
𝑛 𝑛 𝑛
𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = 𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 ) = ((𝑥 ) 𝑝 𝑥1 𝑞𝑛−𝑥1 ) ((𝑥 ) 𝑝 𝑥2 𝑞𝑛−𝑥2 ) ((𝑥 ) 𝑝 𝑥3 𝑞𝑛−𝑥3 )
1 2 3
𝑛 𝑛 𝑛
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝 𝑥1 𝑞𝑛−𝑥1 )(𝑝 𝑥2 𝑞𝑛−𝑥2 )(𝑝 𝑥3 𝑞𝑛−𝑥3 )
1 2 3
𝑛 𝑛 𝑛
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝 𝑥1 +𝑥2 +𝑥3 𝑞(𝑛−𝑥1 )+(𝑛−𝑥2 )+(𝑛−𝑥2 ) )
1 2 3
𝑛 𝑛 𝑛
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝 𝑥1 +𝑥2 +𝑥3 𝑞(3𝑛−𝑥1 −𝑥2 −𝑥3 ) )
1 2 3
𝑛 𝑛 𝑛 3 3
= (𝑥 ) (𝑥 ) (𝑥 ) (𝑝∑𝑖=1 𝑥𝑖 𝑞3𝑛−∑𝑖=1 𝑥𝑖 )
1 2 3
3 𝑛 3 3
𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 ) = ∏𝑖=1 (𝑥 ) (𝑝∑𝑖=1 𝑥𝑖 𝑞 3𝑛−∑𝑖=1 𝑥𝑖 )
𝑖

Así, la función de densidad conjunta o función de verosimilitud de una muestra aleatoria con
distribución Bin(n,p) es:
3
𝑛 3 3
𝑓(𝑥1 , 𝑥2 , 𝑥3 ) = 𝑓(𝑥1 )𝑓(𝑥2 )𝑓(𝑥3 ) = ∏ (𝑥 ) (𝑝∑𝑖=1 𝑥𝑖 𝑞3𝑛−∑𝑖=1 𝑥𝑖 )
𝑖
𝑖=1

Ejemplo: sea 𝑋1 , 𝑋2 , … 𝑋𝑛 una muestra aleatoria con distribución Bernoulli 𝑓(𝑥) = 𝑝 𝑥 𝑞1−𝑥 .
idénticamente distribuidas, entonces tienen la misma distribución con los mismos parámetros
𝑓(𝑥𝑖 ) = 𝑝 𝑥𝑖 𝑞1−𝑥𝑖 𝑖 = 1 … 𝑛
Son independientes 𝑋1 , 𝑋2 … 𝑋𝑛 entonces tiene que:

𝑓(𝑥1 , 𝑥2 … . 𝑥𝑛 ) = 𝑓(𝑥1 ) 𝑓(𝑥2 ) … . 𝑓(𝑥𝑛 )=(𝑝 𝑥1 𝑞1−𝑥1 )(𝑝 𝑥2 𝑞1−𝑥2 ) … . . (𝑝 𝑥𝑛 𝑞1−𝑥𝑛 )


= (𝑝 𝑥1 )(𝑝 𝑥2 ) … (𝑝 𝑥𝑛 )(𝑞1−𝑥1 )(𝑞1−𝑥2 ) … . (𝑞1−𝑥𝑛 )
𝑛 𝑛
= 𝑝∑𝑖=1 𝑥𝑖 𝑞∑𝑖=1(1−𝑥𝑖)
𝑛 𝑛
= 𝑝∑𝑖=1 𝑥𝑖 𝑞𝑛−∑𝑖=1 𝑥1

Esta última igualdad es denominada como la función de verosimilitud de la muestra aleatoria


Bernoulli.

Cuando la muestra aleatoria 𝑋1 , 𝑋2 , . . . 𝑋𝑛 es observada, los valores reales de 𝑋1 , 𝑋2 , . . . 𝑋𝑛 son


conocidos y estos valores reales son representados como 𝑥1 , 𝑥2 , . . . 𝑥𝑛 . A veces las observaciones
𝑥1 , 𝑥2 , . . . 𝑥𝑛 también se les llama muestra aleatoria.

Estadístico. Un estadístico es una función de variables aleatorias observables, la cual también resulta
ser una variable aleatoria (v.a.) observable, y que no contiene parámetros desconocidos.

2
Nota: una v.a. observable significa que puede ser observada mediante un valor, aquí se emplearan
estadísticos (o estadísticas) para hacer inferencia acerca de los parámetros de la variable aleatoria.

Ejemplos: Si X tiene una distribución normal X≈ 𝑁(𝜇, 𝜎 2 ) donde  y 𝜎 2 son desconocidos, entonces
T=X+ no es un estadístico,
𝑇 = 𝜎/𝑋 tampoco es un estadístico
T=X+3 si es un estadístico,
T=2X+2ln(X) es un estadístico

Ejemplos: Si se tiene una m.a 𝑋1 , 𝑋2 , . . . 𝑋𝑛 con distribución normal X≈ 𝑁(𝜇, 𝜎 2 ) donde  y 𝜎 2 son
desconocidos, entonces
𝑇
𝑇1 = ∑𝑛𝑖=1 𝑋𝑖 y 𝑇2 = ∑𝑛𝑖=1 (𝑋𝑖 − 1 ) = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅) son estadístico,
𝑛
mientras que:
𝑋𝑖 −𝜇
𝑇 = ∑𝑛𝑖=1(𝑋𝑖 − 𝜇) y 𝑇 = ∑𝑛𝑖=1 ( ) no son estadísticos.
𝜎

Proponer estadísticos:
𝑇 = 𝑋12 + 𝑋2 sí es un estadístico (pues no contiene parámetro desconocido)
μ
𝑇 = 2 ∑𝑛𝑖=1 𝑥𝑖 sí es un estadístico
𝑇 = ∏𝑛𝑖=1 𝑥𝑖 sí es un estadístico
𝑇 = ∏𝑛𝑖=1 √𝑥𝑖 sí es un estadístico

Nota: Uno de los problemas centrales de la estadística es hallar estadísticos apropiados (función de
las v.a. 𝑋1 , 𝑋2 , . . . 𝑋𝑛 ) para representar un parámetro desconocido  de la distribución de la población.
Dos estadísticos que jugarán un papel sumamente importante son expuestos a continuación.

1.2 Media y varianza de la media muestral.

Definición: media muestral: Sea 𝑋1 , 𝑋2 , . . . 𝑋𝑛 una muestra aleatoria de tamaño n de una distribución
f(x) con media 𝜇 y varianza 𝜎 2 . Se denotará por 𝑋𝑛 a la media aritmética de las observaciones de la
muestra. Entonces la variable aleatoria:
1
𝑋𝑛 = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 es denominada media muestral.
Note que: 𝐸(𝑋1 ) = 𝜇, 𝐸(𝑋2 ) = 𝜇 … 𝐸(𝑋n ) = 𝜇
𝑉(𝑋1 ) = 𝜎 2 , 𝐸(𝑋2 ) = 𝜎 2 … 𝐸(𝑋n ) = 𝜎 2

Propiedades de la media muestral:

Ya que X1 , X 2 , . . . X n es una m.a entonces E(X i ) = μ y V(X i ) = σ2


𝑛 𝑛 𝑛
1 1 1 1
𝐸(𝑋𝑛 ) = 𝐸 ( ∑ 𝑋𝑖 ) = ∑ 𝐸(𝑋𝑖 ) = ∑ 𝜇 = (𝑛𝜇) = 𝜇
𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1

3
𝑛 𝑛 𝑛
1 1 1 1 𝜎2
𝑉(𝑋𝑛 ) = 𝑉 ( ∑ 𝑋𝑖 ) = 2 ∑ 𝑉(𝑋𝑖 ) = 2 ∑ 𝜎 2 = 2 (𝑛𝜎 2 ) =
𝑛 𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1
1 1
𝑉 (𝑛 ∑𝑛𝑖=1 𝑋𝑖 ) = 𝑛2 ∑𝑛𝑖=1 𝑉(𝑋𝑖 ) esta igualdad es válida ya que las 𝑋𝑖 son independientes

Entonces: en general
𝑬(𝑿𝒏 ) = 𝝁
𝝈𝟐
V(𝑿𝒏 ) = 𝒏

Recordemos que por notación 𝐸(𝑋) = µ y Recordemos que 𝑉(𝑋) = 𝜎 2

Ejemplo: Sea una muestra aleatoria 𝑋1 , 𝑋2 , … 𝑋𝑛 con distribución Gamma(α,β) con media (α)(β)
Si observamos las tablas de distribuciones especiales se tiene que:
𝐸(𝑋̅) = µ = αβ
𝜎 2 αβ2
𝑉(𝑋̅) = =
𝑛 𝑛
Ejemplo: Sea una muestra aleatoria 𝑋1 , 𝑋2 , … 𝑋𝑛 con distribución Poisson(β)
Si observamos las tablas de distribuciones especiales se tiene que:
𝐸(𝑋̅) = µ = β
𝜎2 β
𝑉(𝑋̅) = =
𝑛 𝑛
Nota:
La varianza de 𝑋𝑛 es 1/n en proporción más pequeño que la varianza de la distribución de la que se
seleccionó la muestra aleatoria. Esto significa que la distribución de la probabilidad de 𝑋𝑛 estará mas
concentrada alrededor del valor medio 𝜇𝑋 que la distribución original. En otras palabras, la
probabilidad de que la media muestral 𝑋𝑛 esté cerca de 𝜇𝑋 es mayor que la probabilidad de que lo
esté una sola observación xi de la distribución original.

La dispersión de los valores de 𝑋𝑛 respecto de 𝜇𝑋 es pequeña para muestras de tamaño grande,


comparado con muestras pequeñas, por ejemplo, la varianza de la distribución de 𝑋𝑛 para una
muestra de tamaño 20 es la mitad de la varianza de la distribución de𝑋𝑛 para una muestra de tamaño
10, así que para muestras de tamaño grande los valores de 𝑋𝑛 tiende a estar más concentrados
respecto a 𝜇𝑋 que para una muestra de tamaño pequeña. Esta noción queda mejor ejemplificada por
la ley de los grandes números que un poco más adelante será considerado.

Definición: Varianza Muestral: Sea 𝑋1 , 𝑋2 , . . . 𝑋𝑛 una muestra aleatoria de una población con función
de densidad f(x), con media  y varianza 𝜎 2 . Entonces
1
𝑆 2 = 𝑛−1 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 donde n>1
se define como la varianza muestral

4
1 𝑛−3
Teorema: 𝐸(𝑆 2 ) = 𝜎 2 y 𝑉(𝑆 2 ) = 𝑛 (𝜇4 − 𝑛−1 𝜎 4 ) con n>1
Donde 𝜇4 = 𝐸[(𝑋 − 𝜇)4 ]

Demostración:
Por demostrar 𝐸(𝑆 2 ) = 𝜎 2

Para la prueba utilizaremos la siguiente igualdad:


𝑛 𝑛

∑(𝑋𝑖 − 𝜇)2 = ∑(𝑋𝑖 − 𝑋)2 + 𝑛(𝑋 − 𝜇)2


𝑖=1 𝑖=1
La comprobación de esta igualdad es:
//∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝜇 + 𝑋 − 𝑋)2
= ∑𝑛𝑖=1[(𝑋𝑖 − 𝑋) + (𝑋 − 𝜇𝑋 )]2
= ∑𝑛𝑖=1[(𝑋𝑖 − 𝑋)2 + 2(𝑋𝑖 − 𝑋)(𝑋 − 𝜇𝑋 ) + (𝑋 − 𝜇𝑋 )2 ]
= ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 + 2(𝑋 − 𝜇𝑋 ) ∑𝑛𝑖=1(𝑋𝑖 − 𝑋) + 𝑛(𝑋 − 𝜇𝑋 )2
= ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 + 𝑛(𝑋 − 𝜇𝑋 )2

// Note que: ∑𝑛𝑖=1(𝑋𝑖 − 𝑋) = 0 pues


1
∑𝑛𝑖=1(𝑋𝑖 − 𝑋) = ∑𝑛𝑖=1 𝑋𝑖 − 𝑛𝑋 = ∑𝑛𝑖=1 𝑋𝑖 − 𝑛 ∑𝑛𝑖=1 𝑋𝑖 = 0//
𝑛

De lo anterior se tiene:
∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 + 𝑛(𝑋 − 𝜇𝑋 )2
Entonces:
∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 − 𝑛(𝑋 − 𝜇𝑋 )2

Ahora si demostrando el teorema:


𝑛 𝑛
2)
1 1
𝐸(𝑆 = 𝐸( ∑(𝑋𝑖 − 𝑋)2 ) = 𝐸 (∑(𝑋𝑖 − 𝑋)2 )
𝑛−1 𝑛−1
𝑖=1 𝑖=1
1
= 𝑛−1 𝐸(∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 − 𝑛(𝑋 − 𝜇)2 )
1 1
= 𝑛−1 (∑𝑛𝑖=1 𝐸(𝑋𝑖 − 𝜇)2 − 𝑛𝐸(𝑋 − 𝜇)2 ) = 𝑛−1 (∑𝑛𝑖=1 𝑉(𝑋𝑖 ) − 𝑛𝑉(𝑋))
1 𝜎2 1 1
= 𝑛−1 (∑𝑛𝑖=1 𝜎 2 − 𝑛( 𝑛 )) = 𝑛−1 (𝑛𝜎 2 − 𝜎 2 ) = 𝑛−1 (𝑛 − 1)𝜎 2 = 𝜎 2

// Observe usando una la variable Z que: 𝑉(𝑍) = 𝐸(𝑍 − 𝜇)


𝑉(𝑍) = 𝐸(𝑍 − 𝐸(𝑍))2
2
𝑉(𝑋𝑖 ) = 𝐸(𝑋𝑖 − 𝐸(𝑋𝑖 )) = 𝐸(𝑋𝑖 − 𝜇)2 = 𝜎 2 usando 𝑋𝑖 en lugar de Z
2 𝜎2
𝑉(𝑋) = 𝐸(𝑋 − 𝐸(𝑋)) = 𝑛
// usando 𝑋 en lugar de Z

𝐸(𝑆 2 ) = 𝜎 2

5
1 𝑛−3 4
𝑉(𝑆 2 ) = (𝜇4 − 𝜎 )
𝑛 𝑛−1

Ejemplos: se tiene una m.a 𝑋1 , 𝑋2 , . . . 𝑋𝑛 con función de densidad f(x)


1
La media muestral: 𝑋̅ = ∑𝑛𝑖=1 𝑋𝑖 es un estadístico
𝑛
1
La varianza muestral media 𝑆 2 = 𝑛−1 ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 es un estadístico.

1.3 Ley débil de los grandes números.

Desigualdad de Markov. Sea X una v.a. no negativa, entonces para cualquier valor 𝑎 >0
𝐸[𝑋]
𝑃(𝑋 ≥ 𝑎) ≤
𝑎
Demostración:
(Por propiedad de esperanza se tiene que si X≥0 entonces E[X] ≥0)

∞ ∞ ∞ ∞
𝐸(𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 = ∫ 𝑥𝑓(𝑥)𝑑𝑥 + ∫ 𝑥𝑓(𝑥)𝑑𝑥 ≥ ∫ 𝑥𝑓(𝑥)𝑑𝑥
.−∞ 0 𝑎 0

≥ ∫𝑎 𝑎𝑓(𝑥)𝑑𝑥 𝑥𝑓(𝑥) ≥ 𝑎𝑓(𝑥) siempre que x>a

=𝑎 ∫𝑎 𝑓(𝑥)𝑑𝑥 = 𝑎𝑃[𝑋 ≥ 𝑎]
𝐸[𝑋]
entonces: 𝑃(𝑋 ≥ 𝑎) ≤ 𝑎

Desigualdad de Chebyshev. Si X es una v.a. con media 𝜇 y varianza 𝜎 2 entonces para cualquier
valor 𝑘>0,
𝜎2
𝑃(|𝑋 − 𝜇| ≥ 𝑘) ≤ 2
𝑘
Demostración: Por la desigualdad de Markov:
𝐸[𝑋]
𝑃(𝑋 ≥ 𝑎) ≤
𝑎
2] 2
𝐸[(𝑋 − 𝜇) 𝜎
𝑃{(𝑋 − 𝜇)2 ≥ 𝑘 2 } ≤ = 2
𝑘2 𝑘
Pero 𝑃{(𝑋 − 𝜇)2 ≥ 𝑘 2 } = 𝑃{|𝑋 − 𝜇| ≥ 𝑘|}
𝜎2
Entonces: 𝑃{|𝑋 − 𝜇| ≥ 𝑘|} ≤ 𝑘 2

Ley débil de los grandes números.


Supóngase que 𝑋1 , 𝑋2 , . . . 𝑋𝑛 constituyen una muestra aleatoria cuya media es 𝜇 y varianza conocida
𝜎 2 . Sea 𝑋𝑛 la media muestral. Entonces, para cualquier >0
𝜎2
𝑃(|𝑋𝑛 − 𝜇| ≥ 𝜀) ≤ 2
𝑛𝜀
𝐴𝑞𝑢𝑖 𝑡𝑒𝑟𝑚𝑖𝑛𝑎 𝑙𝑎 𝑐𝑙𝑎𝑠𝑒 del 19 de enero 2023
Demostración:
Desigualdad de Chebyshev:

6
𝜎2 𝑉(𝑋)
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 𝑘 2 equivalente a: 𝑃{|𝑋 − 𝐸(𝑋)| ≥ 𝑘} ≤ 𝑘2
𝑉(𝑋)
𝑃{|𝑋 − 𝐸(𝑋)| ≥ 𝑘} ≤
𝑘2
Por propiedades de la media muestral se tiene que:
𝜎2
𝐸(𝑋) = 𝜇 y 𝑉(𝑋) = 𝑛
𝜎2
𝑛 𝜎2
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 2 = 2
𝑘 𝑛𝑘
2
𝜎
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 2
𝑛𝑘
Resultado de la ley débil de los grandes números:
𝜎2
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 2
𝑛𝑘
Aquí inicia la clase del día lunes 23 de enero 2023

Analicemos la siguiente variante del resultado anterior


𝜎2
𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤
𝑛𝑘 2
𝜎2
1 − 𝑃{|𝑋 − 𝜇| < 𝑘} ≤ 2
𝑛𝑘
𝜎2
1 − 2 ≤ 𝑃{|𝑋 − 𝜇| < 𝑘}
𝑛𝑘

Ejemplo: Supóngase que se va a seleccionar una muestra aleatoria correspondiente al peso de un


producto de la cual su distribución se desconoce al igual que el valor de la media 𝜇 pero se conoce la
desviación estándar 𝜎 = 2 kl. Determinar qué tan grande debe ser el tamaño de la muestra para que
|𝑋𝑛 -𝜇| sea menos que una unidad con una probabilidad de al menos 0.99. (al menos indica que puede
ser ≥ esta probabilidad)

Solución:
Se desea:
𝑃{(|𝑋 − 𝜇| < 1)} ≥ 0.99
𝜎2
Por la ley débil de los grandes números se tiene: 𝑃{|𝑋 − 𝜇| ≥ 𝑘} ≤ 𝑛𝑘 2
Un resultado alterno de este es
𝜎2
1− ≤ 𝑃{|𝑋 − 𝜇| < 𝑘}
𝑛𝑘 2
Del problema 𝜎 = 2, k = 1
4
1− ≤ 𝑃{|𝑋 − 𝜇| < 1}
𝑛

4
Observemos que: 0.99 ≤ 1 − 𝑛 ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 1) Por conveniencia

7
Así, para que lo anterior se cumple se tiene que:
4 4 4
0.99 ≤ 1 − ⇒ ≤ 0.01 ⇒ ≤ 𝑛 ⇒ 400 ≤ 𝑛
𝑛 𝑛 0.01
por tanto, se requiere un tamaño de muestra de al menos 400 elementos para que se cumpla la
condición deseada.
𝑃{(|𝑋 − 𝜇| < 1)} ≥ 0.99

Hay que recordar que la desigualdad de Chebyshev proporciona un resultado muy conservador, por
lo que podría esperarse que si se conoce la distribución y es empleada para determinar el tamaño de
muestra se obtendría un tamaño de muestra mucho menor que 400 y con ese tamaño de muestra
alcanza la probabilidad deseada.
4
0.99 ≤ 1 − ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 1)
𝑛

4
No conviene poner: 1 − 𝑛 ≤ 0.99 ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 1)
4 4 4
Pues: 1 − ≤ 0.99 0.01 ≤ n ≤ n ≤ 400 y no puede ser que n=1 lo cumpla
𝑛 n 0.01

Veamos el siguiente ejemplo que generaliza el ejemplo anterior.

Ejemplo: Supóngase que se desea determinar el tamaño de la muestra de una población con varianza
conocida 𝜎02 , de tal manera que la media muestral se encuentre a una distancia 𝜀 de la media
poblacional, con una probabilidad de al menos 𝑝. Determine el tamaño de muestra mínima necesaria
para que se cumpla la condición deseada.

Solución:
Se desea una 𝑛 tal que 𝑃(|𝑋 − 𝜇| < 𝜀) ≥ 𝑝

Por la ley débil de los grandes números el resultado alterno es:


𝜎2
1 − 2 ≤ 𝑃{|𝑋 − 𝜇| < 𝜀}
𝑛𝜀
pero queremos que 𝑝 ≤ 𝑃(|𝑋 − 𝜇| < 𝜀)
𝜎02
o bien 𝑝 ≤1− ≤ 𝑃(|𝑋𝑛 − 𝜇| < 𝜀)
𝑛𝜀 2
para que se cumpla lo anterior es necesario que:
𝜎02 𝜎02
𝑝 ≤1− 2 ⇒ 2 ≤1−𝑝
𝑛𝜀 𝑛𝜀
Entonces el tamaño de muestra debe ser:
𝜎02
≤𝑛
(1 − 𝑝)𝜀 2
Para que se cumpla 𝑝 ≤ 𝑃(|𝑋 − 𝜇𝑋 | < 𝜀)

8
Así mientras más grande sea la muestra ocurre que la distancia |𝑋̅ − 𝜇| queda más pequeña, además
si se desea que tenga distancia <1 es decir |𝑋̅ − 𝜇| < 1 y esto se desea con una probabilidad mayor
que 0.90, es decir 𝑃(|𝑋̅ − 𝜇| < 1) ≥ 0.90 entonces se requiere un tamaño de muestra:
 02
n
(1 − p ) 2

Ejemplo: Supóngase que se va a seleccionar una muestra de pesos de estudiantes aleatoria de una
distribución normal con media  y varianza 𝜎 2 = 9. Determinar el valor del tamaño de la muestra
mínimo para que 𝑃(|𝑋̅ − 𝜇| < 1) ≥ 0.95
a) Utilizar la ley débil de los grandes números (no se conoce la distribución de datos)
b) Utilizar la distribución de los datos
Solución:
a) Se usa la ley débil de los grandes números si no se supiera cual es la distribución de los pesos
𝜎02
/// 𝑃(|𝑋̅ − 𝜇| < 𝜀) ≥ 𝑝 entonces ≤𝑛
(1−𝑝)𝜀 2
9
= 180 ≤ 𝑛
0.05(12 )
así el tamaño de muestra requerida es 180 ≤ 𝑛
b) Ahora si se usa la distribución de los datos que es normal el proceso de solución es:

Se desea 𝑃(|𝑋̅ − 𝜇| < 1) ≥ 0.95

𝑃(|𝑋̅ − 𝜇| < 1) = 𝑃(−1 < 𝑋̅ − 𝜇 < 1)

Usaremos el siguiente resultado:


Si 𝑋1 , 𝑋2 … 𝑋𝑛 es una muestra aleatoria con distribución 𝑁(𝜇, 𝜎 2 ) o sea
𝑁(𝜇, 9)entonces:
𝑋̅~𝑁(𝐸(𝑋̅), 𝑉(𝑋̅))
9
𝑋̅~𝑁 (𝜇, )
𝑛
Este resultado será tratado en temas posteriores.
𝑋̅−𝜇 𝑋̅−𝜇
Estandarizando la media muestral 𝑋𝑛 se tiene: 𝑍 = = ~𝑁(0,1)
𝜎2 9
√ √
𝑛 𝑛

−1 𝑋−𝜇 ̅ 1
𝑃(|𝑋̅ − 𝜇| < 1) = 𝑃(−1 < 𝑋̅ − 𝜇 < 1) = 𝑃 ( 2 < 2 < 2
)
√𝜎 √𝜎 √𝜎
𝑛 𝑛 𝑛

−1 𝑋̅−𝜇 1 √𝑛 √𝑛
=𝑃( 3 < 3 < 3 ) = 𝑃 (− 3
<𝑍< 3
)
√𝑛 √𝑛 √𝑛

Como se desea 𝑃(|𝑋𝑛 − 𝜇| < 1) ≥ 0.95 Analizaremos para el caso de 𝑃(|𝑋𝑛 − 𝜇| < 1) = 0.95:

√𝑛 √𝑛
𝑃(|𝑋̅ − 𝜇| ≤ 1) = 𝑃(−1 ≤ 𝑋̅ − 𝜇 ≤ 1) = 𝑃 (− < 𝑍 < ) = 0.95
3 3

9
√𝑛 √𝑛
𝑃 (− <𝑍< ) = 0.95
3 3

√𝑛 √𝑛
𝑃 (− <𝑍< ) = 0.95
3 3

√𝑛
1 − 2𝑃 (𝑍 > ) = 0.95
3

√𝑛
2𝑃 (𝑍 >
) = 0.05
3
√𝑛
𝑃 (𝑍 > ) = 0.025
3
𝑃(𝑍 > 𝑍𝑜) = 0.025 la 𝑍𝑜 que cumple esto es 𝑍𝑜 = 1.96
√𝑛
Es decir 3
= 1.96 𝑛 = [3(1.96)]2 = 34.5744 𝑟𝑒𝑑𝑜𝑛𝑑𝑒𝑎𝑛𝑑𝑜 𝑛 = 35

Normal (Media=0,Desv. Est.=1 )


Probabilidad = 0.95

0.4

0.3
densidad

0.2

0.1

0
-5 -3 -1 1 3 5
X: -1.95997, 1.95997

Obsérvese: que si no se toma en cuenta l distribución de los datos con la aplicación de la fórmula de
la ley débil de los grandes números se requiere un tamaña de muestra 𝑛 ≥ 180, mientras que si se
toma en cuenta la distribución que le corresponde el tamaño de muestra disminuye mucho esto es
𝑛 ≥ 35 por lo que, si se considera 180 o más, lógicamente se cumple con mucha más razón la
condición que se requiere
𝑃(|𝑋̅ − 𝜇| ≤ 1) ≥ 0.95

Nota: La ley débil de los grandes números nos permite hallar el tamaño mínimo de una m.a. para
estimar la cercanía de la media muestral 𝑋̅𝑛 a una media poblacional μ𝑋 en términos de
probabilidades.

1.4 El teorema del límite central.

10
Teorema del límite central: Sean 𝑋1 , 𝑋2 , … 𝑋𝑛 una muestra aleatoria de una población con media 𝜇
y 𝜎 2 Sea 𝑋̅ la media muestral y 𝑍𝑛 definida por
𝑋̅ − 𝐸(𝑋̅) 𝑋̅ − 𝜇
𝑍𝑛 = = 𝜎
√𝑉(𝑋̅ )
√𝑛
𝜎2
Cuando n ⟶ ∞ entonces la distribución de 𝑍𝑛 ~̇𝑁(0,1) y 𝑋̅ ~̇𝑁(𝜇, ) 𝑛

Notas: El teorema del límite central es válido para una muestra aleatoria de cualquier distribución, se
tiene que 𝑍𝑛 (estandarización de 𝑋̅) tiene una distribución normal estándar. Además, esto
𝜎 2
implícitamente que 𝑋̅ tiene una distribución 𝑁(𝜇, 𝑛 ). El teorema de límite central solamente es
válido cuando el tamaño de muestra es grande (consideraremos en el curso muestra grande cuando
𝑛 ≥ 30

Ejemplo: Sea 𝑋1 , 𝑋2 , . . . 𝑋100 una muestra aleatoria con distribución exponencial con media 𝛽
entonces:
𝑋̅ − 𝜇
𝑍𝑛 =
𝜎/√𝑛
De la tabla de distribuciones se tiene que:
𝐸(𝑋) = 𝜇 = 𝛽
𝑉(𝑋) = 𝜎 2 = 𝛽 2 entonces 𝜎 = 𝛽
N=100 entonces:
𝑋̅ − 𝛽
𝑍𝑛 = ̇
~𝑁(0,1)
𝛽/10

Ejemplo: Sea 𝑋1 , 𝑋2 , . . . 𝑋100 una muestra aleatoria con distribución Poisso (𝜆) entonces:
𝑋̅ − 𝜇
𝑍𝑛 =
𝜎/√𝑛
De la tabla de distribuciones se tiene que:
𝐸(𝑋) = 𝜇 = 𝜆
𝑉(𝑋) = 𝜎 2 = 𝜆 entonces 𝜎 = √𝜆
N=100 entonces:
𝑋̅ − 𝜆
𝑍𝑛 = ̇
~̇𝑁(0,1)
√𝜆/10

Aquí termina la clase del día lunes 23 de enero 2023


Aquí inicia la clase del día martes 24 de enero 2023

Obsérvese que:
𝑋̅ − 𝐸(𝑋̅) 𝑋̅ − 𝜇 𝑋̅ − 𝜇
𝑍𝑛 = = =
√𝑉(𝑋̅) √𝜎 2 /𝑛 𝜎/√𝑛
Consideraremos n grande n≥30
Observación:

11
1 1
𝑛 (𝑛 ∑𝑛𝑖=1 𝑋𝑖 − 𝐸 (𝑛 ∑𝑛𝑖=| 𝑋𝑖 ))
𝑋̅ − 𝐸(𝑋̅) 𝑛(𝑋̅ − 𝐸(𝑋̅)) ∑𝑛𝑖=1 𝑋𝑖 − 𝐸(∑𝑛𝑖=1 𝑋𝑖 )
𝑍𝑛 = = = =
√𝑉(𝑋̅) 𝑛√𝑉(𝑋̅) 1 1 2
𝑛√𝑉 (𝑛 ∑𝑛𝑖=| 𝑋𝑖 ) 𝑛√( ) 𝑉(∑𝑛𝑖=| 𝑋𝑖 )
𝑛
∑𝑛𝑖=1 𝑋𝑖 − 𝐸(∑𝑛𝑖=1 𝑋𝑖 )
= ~𝑁(0,1)
√𝑉(∑𝑛𝑖=1 𝑋𝑖 )

Entonces 𝑍𝑛 del Teorema del Límite central se puede ver como:


∑𝑛𝑖=1 𝑋𝑖 − 𝐸(∑𝑛𝑖=1 𝑋𝑖 )
𝑍𝑛 =
√𝑉(∑𝑛𝑖=1 𝑋𝑖 )

1.5 Aproximación normal a la distribución binomial.

Si 𝑋1 , 𝑋2 , … 𝑋𝑛 es una muestra aleatoria de variables de distribución Bernouillis(p) entonces:


∑𝑛𝑖=1 𝑋𝑖 es una v.a Binomial(n,p)
Entonces tomando en cuenta el teorema de límite central con n≥30
∑𝑛𝑖=1 𝑋𝑖 − 𝐸(∑𝑛𝑖=1 𝑋𝑖 )
𝑍=
√𝑉(∑𝑛𝑖=1 𝑋𝑖 )
𝑋 = ∑𝑛𝑖=1 𝑋𝑖 ~𝐵𝑖𝑛(𝑛, 𝑝) entonces:
𝑋 − 𝐸(𝑋)
𝑍=
√𝑉(𝑋)
𝐸(𝑋) = 𝑛𝑝
𝑉(𝑋) = 𝑛𝑝𝑞
𝑋 − 𝑛𝑝
𝑍𝑛 = ~̇𝑁(0,1)
√𝑛𝑝𝑞

Comentarios sobre muestras de distribuciones normales.


1) En una muestra aleatoria de una distribución normal es posible obtener la distribución de
funciones importantes de las observaciones muestrales, hay muchos resultados que se obtienen de
manera menos compleja que si la muestra tuviera otro tipo de distribución.
2) Modela el comportamiento de un gran número de medidas como son: Estaturas, Pesos de una
población (que pueden ser personas, animales, plantas, etc.) calificaciones, la medida de tornillos u
otros productos.
3) El teorema del límite central está relacionada fundamentalmente con la distribución normal. Una
consecuencia importante de este teorema es que funciones de observaciones muestrales incluida la
media muestral 𝑋̅ entre ellas, tendrán distribución aproximadamente normal.

Si 𝑋 tiene una distribución 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝) entonces se tiene como:


𝑋 − 𝑛𝑝
𝑍𝑛 = ̇
~̇𝑁(0,1)
√𝑛𝑝𝑞
Cuando 𝑛 → ∞
Aquí consideraremos (𝑛 ≥ 30)

12
Ejemplo: Suponga que un sistema está formado por 100 componentes, cada uno de los cuales tiene
una confiabilidad igual a 0.95 (es decir, la probabilidad que funcione el componente durante un
tiempo específico es igual a 0.95). Si estas componentes funcionan independientemente una de otra
y el sistema funciona correctamente cuando al menos funcionan 80 componentes. ¿Cuál es la
confiabilidad del sistema?

Solución:
X-No. de componentes que funcionan
𝑋1 , 𝑋2 , . . 𝑋100 es una muestra aleatoria con distribución Bernoullis(0.95) con n=100
𝑋 = 𝑋1 + 𝑋2 +. . . +𝑋100 = ∑𝑛𝑖=1 𝑋𝑖 , y 𝑋 = ∑𝑛𝑖=1 𝑋𝑖 tiene distribución Binomial(100,0.95)

1 si la i − ésima componente funciona


Xi = 
0 de otro mod o
Se desea: 𝑃(𝑋 ≥ 80)
Empleamos el TLC para aproximar la probabilidad P(X80), entonces se tiene que:
𝑋 − 𝑛𝑝
𝑍𝑛 = ̇
~̇𝑁(0,1)
√𝑛𝑝𝑞
Se sabe que: 𝑛 = 100, 𝑝 = 0.95 𝑞 = 0.05
𝑋 − (100)(0.95) 𝑋 − 95
𝑍𝑛 = = ~̇𝑁(0,1)
√(100)(0.95)(0.05) √4.75

𝑋 − 95 80 − 95 15
𝑃(𝑋 ≥ 80) = 𝑃 ( ≥ ) = 𝑃 (𝑍 ≥ − ) = 𝑃(𝑍 ≥ −6.88) = 1
√4.75 √4.75 2.179

Normal (Media=0,Desv. Est.=1 )


Probabilidad = 0.99

0.4

0.3
densidad

0.2

0.1

0
-5 -3 -1 1 3 5
X: -2.32635

///////
Analizar:
De la normal estándar
P(Z<3)=1-P(Z>3)=1-0.0013=0.9987
P(Z<-3)=P(Z>3)=0.0013/////

13
Usando la probabilidad exacta
𝑋 = ∑𝑛𝑖=1 𝑋𝑖 tiene distribución Binomial(100,0.95)
100
𝑓(𝑥) = ( ) (0.95)𝑥 (0.05)100−𝑥 𝐼{0,1,2,3…100} (𝑥)
𝑥
Se desea 𝑃(𝑋 ≥ 80) = 𝑃(𝑋 = 80) + 𝑃(𝑋 = 81) + ⋯ 𝑃(𝑋 = 100)
100 (0.95)𝑥
= ∑100
𝑥=80 ( ) (0.05)100−𝑥 calcular
𝑥

Corrección por continuidad


La siguiente corrección mejora la aproximación de una v.a discreta binomial mediante la v.a. continua
normal, y por consiguiente aproximaciones de probabilidades de binomiales mediante las
probabilidades de la distribución normal estándar.

Ejemplo: si se tiene 𝑋1 , 𝑋2 , . . 𝑋35 Bernoulli(0.6) entonces 𝑋 = ∑35


𝑖=1 𝑋𝑖 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(35,0.6)
Determinar P(X=20)
a) Emplear la distribución exacta

b) Utilizar la aproximación de la binomial a la normal con el factor de corrección

Solución:
35 35
a) Distribución Exacta de una binomial: 𝑃(𝑋 = 𝑥) = ( ) 𝑝 𝑥 𝑞35−𝑥 = ( ) (0.6)𝑥 (0.4)35−𝑥
𝑥 𝑥
35
Determinar la P(X=20)= ( ) (. 6)20 (0.4)15 = 0.1274
20
𝑋−𝑛𝑝 𝑋−(35)(0.6) 𝑋−21
b) 𝑍 = 𝑛𝑝𝑞 = = 2.898 ~̇𝑁(0,1)
√ √(35)(0.6)(0.4)
𝑋−21 20−21
𝑃(𝑋 = 20) = 𝑃 ( 2.898 = 2.898 ) = 𝑃(𝑍 = −0.3450) = 0!!!!! Pues Z es una v.a continua y en una v.a.
continua P(Z=a)=0 a es valor real (no hay área)

En lugar que se determine 𝑃(𝑋 = 20) se determina 𝑃(19.5 < 𝑋 < 20.5)

Usando el factor de corrección.


19.5 − 21 𝑋 − 21 20.5 − 21 1.5 0.5
𝑃(19.5 < 𝑋 < 20.5) = 𝑃 ( < < ) = 𝑃 (− <𝑍<− )
2.898 2.898 2.898 2.898 2.898

= 𝑃(−0.52 < 𝑍 < −0.17) = 𝑃(0.17 < 𝑍 < 0.52) = 𝑃(𝑍 > 0.17) − 𝑃(𝑍 > 0.52)
= 0.4325 − 0.3015 = 0.131
Veamos algunos casos de cómo se emplea la aproximación usando el factor de corrección por
continuidad.

10.5−21 14.5−21
P(10<X<15)= 𝑃(10.5 < 𝑋 < 14.5) = 𝑃 ( 2.898
<𝑍< 2.898
) = 𝑃(−3.62 < 𝑍 < −2.24)
= 𝑃(2.24 < 𝑍 < 3.62) = 𝑃(𝑍 > 2.24) − 𝑃(𝑍 > 3.62) = 0.0125 − 0 = 0.0125

𝑃(2.24 < 𝑍 < 3.62) = 𝑃(2.24 < 𝑍) − 𝑃(𝑍 < 3.62) esto no es correcto

14
9.5−21 14.5−21
𝑃(10 ≤ 𝑋 < 15) = 𝑃(9.5 ≤ 𝑋 < 14.5) = 𝑃 ( ≤𝑍< ) (Se concluye usando la tabla
2.898 2.898
N(0,1))
2.5−21 5.5−21
𝑃(2 < 𝑋 ≤ 5) = 𝑃(2.5 < 𝑋 ≤ 5.5) = 𝑃( 2.898 < 𝑍 ≤ 2.898
(Se concluye usando la tabla N(0,1))
𝑃(2 ≤ 𝑋 < 5) = 𝑃(1.5 ≤ 𝑋 < 4.5)
𝑃(2 ≤ 𝑋 ≤ 5) = 𝑃(1.5 ≤ 𝑋 ≤ 5.5)

Obsérvese: La gráfica de una binomial (10,0.3)

Binomial

0.3 Prob. Evento,Ensayos


0.7,10
0.25

0.2
probabilidad

0.15

0.1

0.05

0
0 2 4 6 8 10
x

Obsérvese: La gráfica de una binomial (10,0.3)


Binomial

0.3 Prob. Evento,Ensayos


0.3,10
0.25

0.2
probabilidad

0.15

0.1

0.05

0
0 2 4 6 8 10
x

Obsérvese: la gráfica de una binomial (10,0.5) y las probabilidades de los valores posibles
X=0,1,2,3,4,5,6,7,8,9 en la tabla de abajo.

15
Binomial

0.25 Prob. Evento,Ensayos


0.5,10

0.2

probabilidad
0.15

0.1

0.05

0
0 2 4 6 8 10
x

Probabilidad de Masa (=)


Variable Dist. 1 Dist. 2 Dist. 3 Dist. 4 Dist. 5
0 0.000976563
1 0.00976563
2 0.0439454
3 0.117188
4 0.205078
Probabilidad de Masa (=)
Variable Dist. 1 Dist. 2 Dist. 3 Dist. 4 Dist. 5
5 0.246094
6 0.205078
7 0.117188
8 0.0439454
9 0.00976563

En esta gráfica las alturas de los segmentos de los valores posibles corresponden a las probabilidades,
lo que se encuentra en la tabla de probabilidades.

16
10
𝑃(𝑋 = 𝑥) = ( ) 0.5𝑥 0.5𝑛−𝑥
𝑥

Ejemplo: Sea Una variable aleatoria con distribución 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(35,0.6) entonces:


35
𝑃(𝑋 = 𝑥) = ( ) (0.6)𝑥 (0.4)𝑛−𝑥
𝑥
Determinar P(10<X<15)
a) Usar la distribución Exacta

b) Con aproximación de la normal a la binomial sin factor de corrección

c) Con aproximación de la normal a la binomial con factor de corrección

Solución:

a) La distribución exacta es:

Se desea:

17
35
𝑃(10 < 𝑋 < 15) = ∑14
𝑥=11 ( ) (0.6)𝑥 (0.4)35−𝑥 = 𝑃(𝑋 = 11) + 𝑃(𝑋 = 12) + 𝑃(𝑋 = 13) + 𝑃(𝑋 =
𝑥
14) = 0.013092094
𝑋−𝑛𝑝 𝑋−(35)(0.6) 𝑋−21
b) 𝑍𝑛 = = = ~𝑁(0,1)
√𝑛𝑝𝑞 √(35)(0.6)(0.4) 2.898
10 − 21 15 − 21
𝑃(10 < 𝑋 < 15) = 𝑃 ( <𝑍< ) = 𝑃(−3.79 < 𝑍 < −2.07)
2.898 2.898
= 𝑃(2.07 < 𝑍 < 3.79)
= 𝑃(𝑍 > 2.07) − 𝑃(𝑍 > 3.79) = 0.0192 − 0 = 0.0192

10.5−21 14.5−21
c) 𝑃(10 < 𝑋 < 15) = 𝑃(10.5 < 𝑋 < 14.5) = 𝑃 ( 2.898
<𝑍< 2.898
) = 𝑃(−3.62 < 𝑍 < −2.24)

= 𝑃(2.24 < 𝑍 < 3.62) = 𝑃(𝑍 > 2.24) − 𝑃(𝑍 > 3.62) = 0.0125 − 0 = 0.0125
Aquí termina la clase del martes 24 enero 2023

1.1 Distribución de combinaciones lineales de variables aleatorias normales.

Teorema: Sean 𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 … 𝑿𝒏 variables aleatorias independientes con función generadora de


momentos conocidas 𝒎𝑿𝟏 (𝒕), 𝒎𝑿𝟐 (𝒕), 𝒎𝑿𝟑 (𝒕) … 𝒎𝑿𝒏 (𝒕) respectivamente de cada una de estas
variables 𝑿𝒏 y si Y es una combinación lineal definida por:
𝒀 = 𝒂 + 𝒂𝟏 𝑿𝟏 + 𝒂𝟐 𝑿𝟐 + ⋯ . . 𝒂𝒏 𝑿𝒏
Entonces, la función generadora de momentos (fgm) de 𝒀 es:
⟹ 𝒎𝒀 (𝒕) = 𝒆𝒂𝒕 𝒎𝑿𝟏 (𝒂𝟏 𝒕)𝒎𝑿𝟐 (𝒂𝟐 𝒕)𝒎𝑿𝟑 (𝒂𝟑 𝒕) … 𝒎𝑿𝒏 (𝒂𝒏 𝒕)

Observaciones:
El caso general del Teorema una combinación lineal de las variables aleatorias 𝑋1 , 𝑋2 , 𝑋3 … 𝑋𝑛
independientes es
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛 con 𝑎, 𝑎1 , 𝑎2 … 𝑎𝑛 constantes

Casos particulares del Teorema anterior


1. 𝑌 = 𝑋1 + 𝑋2 + ⋯ . . 𝑋𝑛 combinación lineal con 𝑎 = 0, 𝑎1 = 1, 𝑎2 = 1 … 𝑎𝑛 = 1 entonces la
función generadora de momentos (fgm) de Y es:
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)𝑚𝑋3 (𝑡) … 𝑚𝑋𝑛 (𝑡)
1 1 1 1 1 1
2. 𝑋̅ = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 = 𝑛 𝑋1 + 𝑛 𝑋2 + … 𝑛 𝑋𝑛 combinación lineal con 𝑎 = 0, 𝑎1 = 𝑛 , 𝑎2 = 𝑛 … 𝑎𝑛 =
1
, entonces la fgm es:
𝑛

1 1 1 1
𝑚𝑌 (𝑡) = 𝑚𝑋1 ( 𝑡) 𝑚𝑋2 ( 𝑡) 𝑚𝑋3 ( 𝑡) … 𝑚𝑋𝑛 ( 𝑡)
𝑛 𝑛 𝑛 𝑛
3. 𝑌 = 2 + 𝑋1 + 𝑋2 + ⋯ . . 𝑋𝑛 combinación lineal con 𝑎 = 2, 𝑎1 = 1, 𝑎2 = 1 … 𝑎𝑛 = 1, entonces la
fgm de Y es:
𝑚𝑌 (𝑡) = 𝑒 2𝑡 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)𝑚𝑋3 (𝑡) … 𝑚𝑋𝑛 (𝑡)

18
1 1
4. 𝑌 = 3 + 2 𝑋1 − 𝑋2 combinación lineal con 𝑎 = 3, 𝑎1 = 2 , 𝑎2 = −1, entonces la fgm de 𝑌 es:

1
𝑚𝑌 (𝑡) = 𝑒 3𝑡 𝑚𝑋1 ( 𝑡) 𝑚𝑋2 (−𝑡)
2
5. 𝑌 = 𝑎 − ∑𝑛𝑖=1 𝑋𝑖 combinación lineal con 𝑎, 𝑎1 = −1, 𝑎2 = −1, 𝑎3 = −1, … . . 𝑎𝑛 = −1 entonces
la fgm de Y es:
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (−𝑡)𝑚𝑋2 (−𝑡) … 𝑚𝑋𝑛 (−𝑡)

6. 𝑌 = 2𝑋 se puede ver como combinación lineal 𝑎 = 0, 𝑎1 = 2 , entonces la fgm de Y es


𝑚𝑌 (𝑡) = 𝑚𝑋 (2𝑡)
2−𝑋
7. 𝑌 = 𝑘
k es una constante

𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)𝑚𝑋3 (𝑎3 𝑡) … 𝑚𝑋𝑛 (𝑎𝑛 𝑡)

2 1
Se puede ver como una combinación lineal con 𝑎 = , 𝑎1 = −
𝑘 𝑘
2−𝑋 2 1
Pues 𝑌 = 𝑘
= 𝑘 − 𝑘 𝑋 entonces la fgm de 𝑌 es:

𝑌 = 𝑎 + 𝑎1 𝑋
2 1
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋 (𝑎1 𝑡) 𝑎 = 𝑘 𝑎1 − 𝑘
2 1
𝑚𝑌 (𝑡) = 𝑒 𝑘𝑡 𝑚𝑋 (− 𝑡)
𝑘
El objetivo de este tema es, dadas variables aleatorias con alguna distribución conocida y una
combinación lineal de ellas "𝑌" determinar la nueva distribución de esta combinación lineal “Y”,
siempre que se conozca la función generadora de momentos de las variables aleatorias. Para esto
aplicaremos el teorema y las funciones generadoras de momentos que se encuentran en la tabla de
distribuciones más comunes.

Ejemplos:

1) Sean 𝑋1 , 𝑋2 , … 𝑋𝑛 muestra aleatoria con distribución 𝑋𝑖 ~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 (𝑝). Determinar la


distribución de 𝑌 = 𝑋1 + 𝑋2 + … + 𝑋𝑛

Solución
𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
Es una combinación lineal de variables aleatorias independientes de una distribución Bernoulli(p)
Entonces, por teorema la fgm de 𝑌 es:
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡) … 𝑚𝑋𝑛 (𝑡)

Pero se sabe que 𝑋𝑖 ~𝐵𝑒𝑟𝑛𝑢𝑙𝑙𝑖(𝑝) entonces 𝑚𝑋𝑖 (𝑡) = 𝑞 + 𝑝𝑒 𝑡 donde 𝑖 = 1,2, … 𝑛

19
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)𝑚𝑋3 (𝑡)…… 𝑚𝑋𝑛 (𝑡)
= ( 𝑞 + 𝑝𝑒 𝑡 )( 𝑞 + 𝑝𝑒 𝑡 ) … . . ( 𝑞 + 𝑝𝑒 𝑡 )
= ( 𝑞 + 𝑝𝑒 𝑡 )𝑛
Se observa que la fgm de 𝑌 es:
𝑚𝑌 (𝑡) = ( 𝑞 + 𝑝𝑒 𝑡 )𝑛
Observando la tabla de distribuciones, esta 𝑚𝑌 (𝑡) corresponde a una Binomial(n,p) por lo que se
concluye que
𝑌~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝)
Nota: Sumas de n variables aleatorias independientes Bernoullis(p) idénticamente distribuidas
resulta una distribución binomial

2) Sean 𝑋1 , 𝑋2 variables aleatorias independientes, tal que 𝑋𝑖 ~𝑁(𝜇𝑖 , 𝜎𝑖2 ) 𝑖 = 1,2 determinar la
distribución de
𝑌 = 𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2
Solución:
El teorema usado para la técnica de combinación lineal:
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛
⟹ 𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)𝑚𝑋3 (𝑎3 𝑡) … 𝑚𝑋𝑛 (𝑎𝑛 𝑡)

Nótese que 𝑋1 , 𝑋2 son variables aleatorias independientes pero no idénticamente distribuidas ya


que cada 𝑋𝑖 tiene su propia media y su propia varianzas no son iguales.
La función generadora de una v.a. normal es:

𝑌 = 𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2 entonces la fgm de 𝑌 es:


𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡) (*)

donde cada 𝑋𝑖 tiene distribución y fgm siguientes:


1 1
𝑋1 ~𝑁(𝜇1 , 𝜎12 ) → 𝑚𝑋1 (𝑡) = 𝑒𝑥𝑝 [𝜇1 𝑡 + 𝜎12 𝑡 2 ] → 𝑚𝑋1 (𝑎1 𝑡) = 𝑒𝑥𝑝 [𝜇1 (𝑎1 𝑡) + 𝜎12 (𝑎1 𝑡)2 ]
2 2
1 1
𝑋2 ~𝑁(𝜇2 , 𝜎22 ) → 𝑚𝑋2 (𝑡) = 𝑒𝑥𝑝 [𝜇2 𝑡 + 𝜎22 𝑡 2 ] → 𝑚𝑋2 (𝑎2 𝑡) = 𝑒𝑥𝑝 [𝜇2 (𝑎2 𝑡) + 𝜎22 (𝑎2 𝑡)2 ]
2 2

Retomamos la igualdad (*)

𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)


1 1
= 𝑒 𝑎𝑡 𝑒𝑥𝑝 [𝜇1 𝑎1 𝑡 + 2 𝜎12 (𝑎1 𝑡)2 ] 𝑒𝑥𝑝 [𝜇2 𝑎2 𝑡 + 2 𝜎22 (𝑎2 𝑡)2 ]
1 1
= 𝑒 𝑎𝑡 𝑒𝑥𝑝 [𝜇1 𝑎1 𝑡 + 2 𝜎12 𝑎12 𝑡 2 ] 𝑒𝑥𝑝 [𝜇2 𝑎2 𝑡 + 2 𝜎22 𝑎22 𝑡 2 ] por propiedades de exponenciales se
tiene:
1 1 𝑡2
= 𝑒𝑥𝑝 [𝑎𝑡 + 𝜇1 𝑎1 𝑡 + 𝜎12 𝑎12 𝑡 2 + 𝜇2 𝑎2 𝑡 + 𝜎22 𝑎22 𝑡 2 ] se factorizan 𝑡 y y se tiene:
2 2 2
𝑡2
= 𝑒𝑥𝑝 [(𝑎+𝜇1 𝑎1 + 𝜇2 𝑎2 )𝑡 + 2
(𝜎12 𝑎12 + 𝜎22 𝑎22 )]
1
= 𝑒𝑥𝑝 [(𝑎 + ∑2𝑖=1 𝜇𝑖 𝑎𝑖 )𝑡 + 2 𝑡 2 (∑2𝑖=1 𝜎𝑖2 𝑎𝑖2 )]

20
Observen: la fgm de una v.a normal es:

Y obtuvimos:
2 2
1
𝑚𝑌 (𝑡) = 𝑒𝑥𝑝 [(𝑎 + ∑ 𝜇𝑖 𝑎𝑖 ) 𝑡 + 𝑡 2 (∑ 𝜎𝑖2 𝑎𝑖2 )]
2
𝑖=1 𝑖=1
Entonces la fgm de “Y” corresponde a una Normal con media (𝑎 + ∑2𝑖=1 𝜇𝑖 𝑎𝑖 ) y varianza
(∑2𝑖=1 𝜎𝑖2 𝑎𝑖2 ) entonces se concluye que:
2 2

𝑌~𝑁 (𝑎 + ∑ 𝜇𝑖 𝑎𝑖 , ∑ 𝜎𝑖2 𝑎𝑖2 )


𝑖=1 𝑖=1
3) De manera similar: Sean 𝑋1 , 𝑋2 … , 𝑋𝑛 variables aleatorias independientes, tal que
𝑋𝑖 ~𝑁(𝜇𝑖 , 𝜎𝑖2 )
𝑖 = 1,2,…n determinar la distribución de
𝑌 = 𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2 + ⋯ +𝑎𝑛 𝑋𝑛
Solución: proceso similar al ejercicio anterior, se llega a:
𝑛 𝑛

𝑌~𝑁 (𝑎 + ∑ 𝜇𝑖 𝑎𝑖 , ∑ 𝜎𝑖2 𝑎𝑖2 )


𝑖=1 𝑖=1

Observación
Se puede observar de la combinación lineal: 𝑌 = 𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2 + ⋯ +𝑎𝑛 𝑋𝑛

𝐸(𝑌) = 𝐸(𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2 + ⋯ +𝑎𝑛 𝑋𝑛 )


𝐸(𝑌) = 𝑎 + 𝑎1 𝐸(𝑋1 )+𝑎2 𝐸(𝑋2 ) + ⋯ +𝑎𝑛 𝐸(𝑋𝑛 ) pero recuérdese por notación 𝐸(𝑋𝑖 ) = 𝜇𝑖 entonces:
𝐸(𝑌) = 𝑎 + 𝑎1 𝜇1 +𝑎2 𝜇2 + ⋯ +𝑎𝑛 𝜇𝑛
𝐸(𝑌) = 𝑎 + ∑𝑛𝑖=1 𝜇𝑖 𝑎𝑖

𝑉(𝑌) = 𝑉(𝑎 + 𝑎1 𝑋1 +𝑎2 𝑋2 + ⋯ +𝑎𝑛 𝑋𝑛 ) por propiedad: V(a+X)=V(X)


𝑉(𝑌) = 𝑉(𝑎1 𝑋1 +𝑎2 𝑋2 pero si las v.a. 𝑋𝑖 son independientes como en este caso se tiene:
𝑉(𝑌) = 𝑎1 𝑉(𝑋1 ) + 𝑎2 𝑉(𝑋2 ) + ⋯ 𝑎𝑛2 𝑉(𝑋𝑛 ) pero recuérdese por notación 𝑉(𝑋𝑖 ) = 𝜎𝑖2 entonces:
2 2

𝑉(𝑌) = 𝑎12 𝜎12 + 𝑎22 𝜎22 + ⋯ 𝑎𝑛2 𝜎𝑛2


𝑉(𝑌) = ∑𝑛𝑖=1 𝑎𝑖2 𝜎𝑖2

De lo anterior se deduce el siguiente teorema:

Teorema: Sean las v.a. 𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 … 𝑿𝒏 independientes con 𝑿𝒊 ~𝑵(𝝁𝒊 , 𝝈𝟐𝒊 ) i=1,2...n y sea
𝒀 = 𝒂 + 𝒂𝟏 𝑿𝟏 + 𝒂𝟐 𝑿𝟐 + ⋯ . . 𝒂𝒏 𝑿𝒏 , 𝐝𝐨𝐧𝐝𝐞 𝒂𝒊 ≠ 𝟎 𝐩𝐚𝐫𝐚 𝐚𝐥 𝐦𝐞𝐧𝐨𝐬 𝐚𝐥𝐠𝐮𝐧𝐚 𝒊, Entonces ⟹
𝒀~𝑵[𝑬(𝒀), 𝑽(𝒀)]

Nota: este último teorema solo es válido para variables aleatorias independientes con distribución
normal

21
4) Sea una variable aleatoria 𝑋~𝑁(3,9) y sea 𝑌 = 2𝑋 + 10 determinar la distribución de Y
Solución:
𝑌 = 2𝑋 + 10
𝑌 = 𝑎 + 𝑎1 𝑋1
es una combinación lineal con una v.a. con distribución Normal donde 𝑋~𝑁(3,9)
Entonces por teorema 𝑌~𝑁[𝐸(𝑌), 𝑉(𝑌)]

Donde 𝑌 = 10 + 2𝑋

E(𝑌) = 𝐸(10 + 2𝑋) = 10 + 2𝐸(𝑋) = 10 + 2(3) = 16


V(𝑌) = 𝑉(10 + 2𝑋) = 𝑉(2𝑋) = 4𝑉(𝑋) = 4(9) = 36 // V(a+X)=V(X)//

Entonces 𝑌 = 10 + 2𝑋 tiene distribución N(16,36) 𝑌~𝑁(16,36)

5) Sean 𝑋1 , 𝑋2 , … 𝑋𝑛 variables aleatorias independientes, tal que 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ). Usando la técnica de


la función generadora de momentos o el teorema determinar la distribución de
a) 𝑌 = ∑𝑛𝑖=1 𝑋𝑖
1
b) 𝑋̅ recuerde que 𝑋̅ = ∑𝑛𝑖=1 𝑋𝑖
𝑛

Solución:
a) Si se da la opción de usar el teorema, o bien no se pide específicamente un método lo más
práctico es usar el teorema. ! Claro siempre y cuando las variables aleatorias sean independientes y
con distribuciones normales.

Usando el teorema: 𝑌 = ∑𝑛𝑖=1 𝑋𝑖 = 𝑋1 + 𝑋2 + ⋯ 𝑋𝑛 es una combinación lineal de distribuciones


normales e independientes. Entonces

𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))………….(*)

𝐸(𝑌) = 𝐸(∑𝑛𝑖=1 𝑋𝑖 ) = ∑𝑛𝑖=1 𝐸(𝑋𝑖 ) = ∑𝑛𝑖=1 𝜇 = 𝑛𝜇


𝑉(𝑌) = 𝑉(∑𝑛𝑖=1 𝑋𝑖 ) = ∑𝑛𝑖=1 𝑉(𝑋𝑖 ) = ∑𝑛𝑖=1 𝜎 2 = 𝑛𝜎 2

Recuerde que cada 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ) entonces implica que 𝐸(𝑋𝑖 ) = 𝜇 y 𝑉(𝑋𝑖 ) = 𝜎 2 son idénticamente
distribuidas
Entonces de acuerdo a (*)
𝑌~𝑁(𝑛𝜇, 𝑛𝜎 2 )
1 1 1 1
b) 𝑋̅ recuerde que 𝑋̅ = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 = 𝑛 𝑋1 + 𝑛 𝑋2 + ⋯ 𝑛 𝑋𝑛 es una combinación lineal de variables
aleatorias independientes. Entonces por teorema

𝑋̅~𝑁(𝐸(𝑋̅), 𝑉(𝑋̅))
𝜎2
Sabemos por propiedades de 𝑋̅ 𝐸(𝑋̅) = 𝜇 𝑉(𝑋̅) = 𝑛
𝜎2
̅
𝑋~𝑁 (𝜇, )
𝑛

22
//// Observación:
𝜎2
Si 𝑋̅~𝑁 (𝜇, ) y Estandarizando𝑋̅ se tiene que:
𝑛
𝑋̅ − 𝜇 𝑋̅ − 𝜇
𝑍= =
𝜎 2 𝜎/√𝑛

𝑛
𝑋−𝜇
Si 𝑋~𝑁(𝜇, 𝜎 2 ) si se estandariza X 𝑍 = ////
𝜎

6) Si 𝑋1 , 𝑋2 son v.a independientes donde 𝑋1 tiene distribución N(65,4) y 𝑋2 tiene distribución


N(70,9). Determinar la distribución de 𝑌 = 𝑋1 + 𝑋2

Solución:
a) Usando el teorema:

𝑌 = 𝑋1 + 𝑋2 , como es una combinación de distribuciones normales independientes se tiene que:


𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))
𝐸(𝑌) = 𝐸(𝑋1 + 𝑋2 ) = 𝐸(𝑋1 ) + 𝐸(𝑋2 ) = 65 + 70 = 135
𝑉(𝑌) = 𝑉(𝑋1 + 𝑋2 ) = 𝑉(𝑋1 ) + 𝑉(𝑋2 ) = 4 + 9 = 13

Entonces: 𝑌~𝑁(135,13)

b) Usando la técnica de la función generadora de momentos:


𝑌 = 𝑋1 + 𝑋2
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)
La fgm de una variable aleatoria Normal es:

donde cada 𝑋𝑖 tiene distribución Normal entonces sus fgm son las siguientes:
1
𝑋1 ~𝑁(65,4) → 𝑚𝑋1 (𝑡) = 𝑒𝑥𝑝 [65𝑡 + 2 4𝑡 2 ]
1
𝑋2 ~𝑁(70,9) → 𝑚𝑋2 (𝑡) = 𝑒𝑥𝑝 [70𝑡 + 9𝑡 2 ]
2
Entonces:
𝑚𝑌 (𝑡) = 𝑚𝑋1 (𝑡)𝑚𝑋2 (𝑡)
1 1
= 𝑒𝑥𝑝 [65𝑡 + 2 4𝑡 2 ] 𝑒𝑥𝑝 [70𝑡 + 2 9𝑡 2 ] por propiedades de exponenciales se tiene:
1 1
= 𝑒𝑥𝑝 [65𝑡 + 2 4𝑡 2 + 70𝑡 + 2 9𝑡 2 ]
1
= 𝑒𝑥𝑝 [135𝑡 + 2 𝑡 2 (4 + 9)]
1
= 𝑒𝑥𝑝 [135𝑡 + 2 (13)𝑡 2 ]
1
Entonces: 𝑚𝑌 (𝑡) = 𝑒𝑥𝑝 [135𝑡 + (13)𝑡 2 ]
2

//La forma de la fgm de una distribución normal es:

23
//
Analizando entonces se concluye que la fgm de Y corresponde a una distribución Normal con 𝜇 =
135 y 𝜎 2 = 13
Entonces:
𝑌~𝑁(135,13)

7) Sea X una variable aleatoria con 𝑋~𝑁(𝜇, 𝜎 2 ) Emplee la técnica de la función generadora de
momentos para determinar la distribución de 𝑌 = 3𝑋

Solución:
Ahora en este ejercicio 𝑌 = 3𝑋 es una sola variable, se puede considerar como combinación
lineal
𝑌 = 0 + 3𝑋 entonces la fgm de 𝑌 es:
𝑚𝑌 (𝑡) = 𝑒 𝑎𝑡 𝑚𝑋1 (𝑎1 𝑡)𝑚𝑋2 (𝑎2 𝑡)𝑚𝑋3 (𝑎3 𝑡) … 𝑚𝑋𝑛 (𝑎𝑛 𝑡)

𝑚𝑌 (𝑡) = 𝑒 0𝑡 𝑚𝑋 (3𝑡) = 𝑚𝑋 (3𝑡) ………………………… (*)


1
𝑋~𝑁(𝜇, 𝜎 2 ) → 𝑚𝑋 (𝑡) = 𝑒𝑥𝑝 (𝜇𝑡 + 𝜎 2 𝑡 2 )
2
1 1
𝑚𝑋 (3𝑡) = 𝑒𝑥𝑝 (𝜇(3𝑡) + 𝜎 2 (3𝑡)2 ) = 𝑒𝑥𝑝 (3𝜇𝑡 + 9𝜎 2 𝑡 2 )
2 2
Entonces
1
𝑚𝑌 (𝑡) = 𝑒𝑥𝑝 ((3𝜇)𝑡 + (9𝜎 2 )𝑡 2 )
2
La forma de la fgm de una variable Normal es:

Se observa que la fgm de “Y” corresponde a una Normal con media 3𝜇 y varianza 9𝜎 2 entonces se
concluye que:
𝑌~𝑁(3𝜇, 9𝜎 2 )
Usando el teorema:
𝑌 = 3𝑋 es una combinación lineal entonces por teorema
𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))….. *

𝐸(𝑌) = 𝐸(3𝑋) = 3𝐸(𝑋) = 3𝜇


𝑉(𝑌) = 𝑉(3𝑋) = 9𝑉(𝑋) = 9𝜎 2
Entonces en asterisco se sustituye 𝐸(𝑌), 𝑉(𝑌)
𝑌~𝑁(3𝜇, 9𝜎 2 )

8) Si X es una v.a con distribución 𝑋~𝑁(𝜇, 𝜎 2 )


𝑋−𝜇
Determine la distribución 𝑍 =
𝜎
Solución:

24
𝑋−𝜇 𝑋 𝜇 𝜇 1
Se tiene 𝑍 = 𝜎
= 𝜎 − 𝜎 = −𝜎 + 𝜎𝑋 se observa que Z es una combinación lineal de una v.a con
distribución Normal
Entonces 𝑍~𝑁(𝐸(𝑍), 𝑉(𝑍))
𝜇 1 𝜇 1 𝜇 1 𝜇 1
𝐸(𝑍) = 𝐸 (− + 𝑋) = − + 𝐸 ( 𝑋) = − + 𝐸(𝑋) = − + 𝜇 = 0
𝜎 𝜎 𝜎 𝜎 𝜎 𝜎 𝜎 𝜎
𝜇 1 1 1 2 1
𝑉(𝑍) = 𝑉 (− 𝜎 + 𝜎 𝑋) = 𝑉 (𝜎 𝑋) = (𝜎) 𝑉(𝑋) = 𝜎2 𝜎 2 =1

Entonces 𝑍~𝑁(0,1)
Tarea: para este mismo ejercicio emplear la técnica de la fgm

𝑡 2 (1) 𝑡2
Si 𝑋~𝑁(0,1) entonces 𝑚𝑋 (𝑡) = exp (0𝑡 + 2
) = 𝑒𝑥( 2 )
𝑡2
𝑚𝑧 (𝑡) = 𝑒𝑥𝑝( )
2
2.2. Distribución Ji-cuadrada.

Si 𝑋 es una variable aleatoria con función de densidad


n 1
n/2 −1 −
1 1 x
f X ( x) =   x 2 e 2 I (0, ) ( x)
(n / 2)  2 
entonces se dice que 𝑋 tiene una distribución Ji-cuadrada con n grados de libertad, denotémoslo
como 𝑋~𝜒𝑛2 .

Teorema: Si X es una variable aleatoria con distribución normal estándar y 𝑿𝟐 entonces


𝑿𝟐 ~𝝌𝟐𝟏 , es decir tiene una distribución Ji-cuadrada con un grado de libertad.

Ejemplo: Sean 𝑤1 , 𝑤2 , 𝑤3 variables aleatorias independientes, tal que 𝑤1 ~𝜒𝑛1


2
, 𝑤2 ~𝜒𝑛2
2
, 𝑤3 ~𝜒𝑛3
2
,
donde 𝑛1, 𝑛2, 𝑛3 son enteros positivos, determinar la distribución de 𝑌 = 𝑤1 +𝑤2 + 𝑤3

Solución:
Nota: 𝑤1 ~𝜒𝑛1
2
indica que 𝑤𝑖 tiene distribución Chi-cuadrada con 𝑛1 grados de libertad y así para
cada 𝑤𝑖 donde 𝑖 = 1,2,3. Obsérvese que las variables aleatorias 𝑤𝑖 no son idénticamente
distribuidas ya que las 𝑛𝑖 cambian.
En este ejercicio 𝑌 = 𝑤1 +𝑤2 + 𝑤3 este es una combinación lineal, donde la fgm de Y es
𝑚𝑌 (𝑡) = 𝑚𝑤1 (𝑡)𝑚𝑤2 (𝑡)𝑚𝑤3 (𝑡)
donde cada 𝑤𝑖 tiene las siguientes distribuciones y fgm:
𝑛1
2
𝑤1 ~𝜒𝑛1 → 𝑚𝑤1 (𝑡) = (1 − 2𝑡)− 2
𝑛2
2
𝑤2 ~𝜒𝑛2 → 𝑚𝑤2 (𝑡) = (1 − 2𝑡)− 2
𝑛3
2
𝑤3 ~𝜒𝑛3 → 𝑚𝑤3 (𝑡) = (1 − 2𝑡)− 2
Sustituyendo:

25
𝑛1 𝑛2 𝑛3
𝑚𝑌 (𝑡) = 𝑚𝑤1 (𝑡)𝑚𝑤2 (𝑡)𝑚𝑤3 (𝑡) = (1 − 2𝑡)− 2 (1 − 2𝑡)− 2 (1 − 2𝑡)− 2
𝑛1+𝑛2+𝑛3
= (1 − 2𝑡)− 2

Se observa que la fgm de 𝑌 es:


𝑛1+𝑛2+𝑛3
𝑚𝑌 (𝑡) = (1 − 2𝑡)− 2

Se puede ver que esta fgm corresponde a una distribución 𝜒𝑛1+𝑛2+𝑛3


2
, entonces se concluye que:
2
𝑌~𝜒𝑛1+𝑛2+𝑛3
Nota:
Sumas de variables aleatorias independientes con distribución Chi-cuadrada resulta una chi-
cuadrada con grados de libertad que es la suma de los grados de libertad de las variables aleatorias
sumadas.

Teorema 1: Sean 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏 variables aleatorias independientes con distribución 𝑿𝒊 ~𝑵(𝝁, 𝝈𝟐 )


𝒙𝒊 −𝝁 𝟐
Entonces: 𝑼 = ∑𝒏𝒊=𝟏 ( ) tiene una distribución 𝝌𝟐𝒏 .
𝝈

Demostración:
Definamos: 𝑍𝑖 =
𝑥𝑖 −𝜇  𝑍𝑖 ~𝑁(0,1)  𝑍𝑖2 ~𝜒12  𝑈 = ∑𝑛𝑖=1 𝑍𝑖2 ~𝜒𝑛2
𝜎
Así:
𝑛
𝑥𝑖 − 𝜇 2
∑( ) ~ 𝜒𝑛2
𝜎
𝑖=1

Teorema 2: Si 𝑍1 , 𝑍2 , … , 𝑍𝑛 es una muestra aleatoria de una distribución normal estándar N(0,1),


entonces:
i) √𝑛𝑍̅ tiene una distribución normal estándar
ii) 𝑍̅ y ∑𝑛𝑖=1(𝑍𝑖 − 𝑍̅)2 son independientes.
iii) ∑𝑛𝑖=1(𝑍𝑖 − 𝑍̅)2 tiene una distribución 𝜒𝑛−1
2
Ji-Cuadrada con n-1 grados de libertad.

Demostración:

i) √𝑛𝑍̅~𝑁(01) por comprobar


Prueba

1 1 1 1 1 1 1
√𝑛𝑍̅ = √𝑛 (𝑛 ∑𝑛𝑖=1 𝑧𝑖 ) = √𝑛 (𝑛 𝑧1 + 𝑛 𝑧2 + ⋯ 𝑛 𝑧𝑛 ) = (√𝑛 𝑧1 + √𝑛 𝑧2 + ⋯ √𝑛 𝑧𝑛 ) es una combinación
lineal de distribuciones normales
𝑌 = 𝑎 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ . . 𝑎𝑛 𝑋𝑛

Haciendo 𝑌 = √𝑛 𝑍̅ entonces por teorema

𝑌~𝑁(𝐸(𝑌), 𝑉(𝑌))

26
𝐸(𝑌) = 𝐸(√𝑛𝑍̅) = √𝑛𝐸(𝑍̅) = √𝑛𝜇 = √𝑛(0) = 0 la 𝜇 de las 𝑧𝑖 es 𝜇 = 0
1 𝜎2
𝑉(𝑌) = 𝑉(√𝑛𝑍̅) = 𝑛𝑉(𝑍̅) = 𝑛 ( 𝑛 ) = 𝑛 (𝑛) = 1 la 𝜎 2 de las 𝑧𝑖 es 𝜎 2 = 1
Entonces se concluye que
𝑌 = √𝑛 𝑍̅~𝑁(0,1)
i) y iii) ∑𝑛𝑖=1(𝑍𝑖
̅
− 𝑍 ) tiene una distribución 𝜒𝑛−1
2 2
Ji-Cuadrada con n-1 grados de libertad.
La vamos a considerar válida sin demostración

Observación:
Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria tal que 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ), entonces tenemos que:
𝑋𝑖 −𝜇
Además, si se estandariza cada 𝑋𝑖 definiendo 𝑍𝑖 = ~𝑁(0,1), entonces se tiene:
𝜎
𝑋 −𝜇 1
𝑍𝑖 − 𝑍̅ = ( 𝑖 ) − ∑𝑛𝑖=1 𝑍𝑖
𝜎 𝑛
𝑋𝑖 −𝜇 1 𝑛 𝑋 −𝜇
= ( 𝜎 ) − 𝑛 ∑𝑖=1 ( 𝑖𝜎 )
𝑋 𝜇 1
= ( 𝑖 − ) − {∑𝑛𝑖=1(𝑋𝑖 − 𝜇)}
𝜎 𝜎 𝑛𝜎
𝑋 𝜇 1
= ( 𝜎𝑖 − 𝜎) − 𝑛𝜎 {∑𝑛𝑖=1 𝑋𝑖 − 𝑛𝜇}
𝑋 𝜇 1 1
= ( 𝜎𝑖 − 𝜎) − 𝑛𝜎 ∑𝑛𝑖=1 𝑋𝑖 + 𝑛𝜎 𝑛𝜇
𝑋 𝜇 1 𝜇
= ( 𝜎𝑖 − 𝜎) − 𝑛𝜎 ∑𝑛𝑖=1 𝑋𝑖 + 𝜎
𝑋 𝜇 𝑋̅ 𝜇
= ( 𝜎𝑖 − 𝜎) − 𝜎 + 𝜎
𝑋𝑖 𝑋̅
= 𝜎
−𝜎
𝑋𝑖 −𝑋̅
=
𝜎
Por lo tanto, se tienen las siguientes igualdades:
𝑋 −𝑋 ̅
𝑍𝑖 − 𝑍̅ = 𝑖𝜎
𝑋 −𝑋 ̅ 2
(𝑍𝑖 − 𝑍̅)2 = ( 𝑖 ) para cada 𝑋𝑖
𝜎
𝑋 −𝑋 ̅ 2
∑𝑛𝑖=1(𝑍𝑖 − 𝑍̅)2 = ∑𝑛𝑖=1 ( 𝑖 )
𝜎
Por el teorema anterior se tiene que:
𝑛

∑(𝑍𝑖 − 𝑍̅)2 ~𝜒𝑛−1


2

𝑖 =1

𝒏 𝟐
̅
𝑿𝒊 − 𝑿
∑( ) ~𝝌𝟐𝒏−𝟏
𝝈
𝒊=𝟏
Además, obsérvese que
𝑛 2 𝑛 𝑛
𝑋𝑖 − 𝑋̅ 1 (𝑛 − 1) 1 (𝑛 − 1) 2 (𝑛 − 1)𝑆 2
∑( ) = 2 ∑(𝑋𝑖 − 𝑋̅) =
2
( ∑(𝑋𝑖 − ̅
𝑋 )2
) = 𝑆 =
𝜎 𝜎 𝜎2 𝑛−1 𝜎2 𝜎2
𝑖=1 𝑖=1 𝑖=1

27
(𝑛−1)𝑆 2
 2
~𝜒𝑛−1
𝜎2

2.3. Distribución T de Student.

Si 𝑋 es una variable aleatoria con función de densidad


(n + 1) / 2 1
f X ( x) = I (0, ) ( x) n  0

n / 2 n 1 + ( x / n) 2
( n +1) / 2

entonces se dice que 𝑋 tiene una distribución t con n grados de libertad, denotado como 𝑋~𝑡𝑛 .

Teorema: Supóngase que se tienen dos variables aleatorias independientes 𝑋 𝑦 𝑌 tal que 𝑋~𝑁(0,1) y 𝑌~
𝑋
𝜒𝑛2 . Sea 𝑇 = entonces T tiene una distribución t con n grados de libertad, es decir:
√𝑌/𝑛
𝑇~𝑡𝑛
(Para probarlo es posible emplear el método de transformación)

Teorema: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria con distribución Normal con 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 )
𝑋̅−𝜇
y sea 𝑌 = 𝑆/ 𝑛, entonces: Y tiene una distribución t con n-1 grados de libertad.

Demostración.
Se requiere una v.a. Z con distribución normal estándar y otra variable Y con distribución 𝜒𝑛−1
2

Determinemos la v.a. con distribución normal estándar:


𝑛
1 1 1 1
𝑋̅ = ∑ 𝑋𝑖 = 𝑋1 + 𝑋2 + ⋯ . 𝑋𝑛
𝑛 𝑛 𝑛 𝑛
𝑖=1
𝑋̅ es una combinación lineal de variables aleatorias normales
Entonces por teorema 𝑋̅ ~𝑁(𝐸(𝑋̅), 𝑉(𝑋̅))
𝜎 2
O bien 𝑋̅ ~𝑁 (𝜇, 𝑛 )
𝑋̅−𝜇 𝑋̅−𝜇
estandarizando 𝑋̅ se tiene que 𝑍 = = ~𝑁(0,1)
𝜎2 𝜎/√𝑛

𝑛
𝑋̅−𝜇
Así la que utilizaremos como v.a. estándar es: 𝑍 = ~𝑁(0,1)
𝜎/√𝑛
Ahora determinemos la v.a. Y con distribución 𝜒𝑛−1
2

(𝑛−1)𝑆 2
Así la que utilizaremos como v.a. chi-cuadrada con n-1 gl es 𝑌 = 2
~𝜒𝑛−1
𝜎2

Tenemos que:
𝑋̅−𝜇 (𝑛−1)𝑆 2
Z= ~𝑁(0,1) y 𝑌= 2
~𝜒𝑛−1
𝜎/√𝑛 𝜎2
Entonces por teorema

28
𝑍
𝑇= ~𝑡𝑛−1
√𝑌/(𝑛−1)
𝑋̅ − 𝜇
𝜎/√𝑛
𝑇= ~𝑡𝑛−1
2
√(𝑛 − 1)𝑆
2 /(𝑛 − 1)
𝜎
̅ −𝜇
𝑋
𝜎/√𝑛 (𝑋̅−𝜇)√𝑛−1 (𝑋̅−𝜇)√𝑛−1 (𝑋̅−𝜇) 𝑋̅−𝜇
𝑇= ~𝑡𝑛−1 = = = = 𝑠/ ~𝑡𝑛−1
2 (𝑛−1)𝑆2 1/√𝑛√(𝑛−1)𝑆 2 1/√𝑛√𝑆2 √𝑛
√(𝑛−1)𝑆 /(𝑛−1) 𝜎/√𝑛√
𝜎2 𝜎2

t n −1

𝑋̅ − 𝜇
 𝑠/√𝑛
~𝑡𝑛−1

2.4. Distribución F.

Si 𝑋 es una variable aleatoria con función de densidad

(m + n) / 2  m  x ( m−2) / 2
m/2

f X ( x) =   I (0, ) ( x)
m / 2n / 2  n  1 + (m / n) x( m+n) / 2
entonces se dice que 𝑋 tiene una distribución F con m(numerador) y n (denominador) grados de libertad,
es decir, denotémoslo como 𝑋~F𝑚,𝑛 .

Teorema: Sean 𝑋1 , 𝑋2 variables aleatorias independientes con distribución 𝜒𝑚


2
𝑦 𝜒𝑛2 respectivamente, y
𝑋 /𝑚
sea Y = 1 , entonces la variable aleatoria Y tiene una distribución F con m y n grados de libertad.
𝑋2 /𝑛
(Para probarlo es posible emplear el método de transformación o también denominado como método de
jacobianos)

En resumen:
Si se tiene 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria tal que 𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ), entonces tenemos que:
𝑋̅−𝜇
a) 𝜎/√𝑛
~𝑁(0,1)

𝑋𝑖 −𝜇 2
b) ∑𝑛𝑖=1 ( 2
) ~𝜒𝑛−1
𝜎

𝑋𝑖 −𝑋̅ 2 (𝑛−1)𝑆 2
c) ∑𝑛𝑖=1 (
𝜎
2
) ~𝜒𝑛−1 equivalente a 𝜎2
~𝜒2𝑛−1
𝑋̅−𝜇
d) ~𝑡𝑛−1
𝑆/√𝑛

29
Teorema: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una m.a con distribución 𝑁(𝜇1 , 𝜎 2 ) y 𝑌1 , 𝑌2 , … , 𝑌𝑚 una m.a con
distribución 𝑁(𝜇2 , 𝜎 2 ). Entre las muestras aleatoria 𝑋i y la muestra aleatoria 𝑌j hay independencia,
probar que:
(𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
~𝑡𝑛+𝑚−2
1 1
√( + ) (𝑆𝑝 ) 2
𝑛 𝑚
∑𝑛 ̅ 2 𝑚 ̅ 2
𝑖=1(𝑋𝑖 −𝑋) +∑𝑗=1(𝑌𝑖 −𝑌)
Donde 𝑆𝑝2 = 𝑛+𝑚−2

Demostración:
La variable aleatoria 𝑍 = 𝑋̅ − 𝑌̅ es una combinación lineal de v.a. con distribución normal entonces:
𝑍~𝑁[𝐸(𝑍), 𝑉(𝑍)]
𝑍~𝑁[𝐸(𝑋̅ − 𝑌̅ ), 𝑉(𝑋̅ − 𝑌̅ )]
𝑍~𝑁[𝐸(𝑋̅) − 𝐸(𝑌̅ ), 𝑉(𝑋̅) + 𝑉(𝑌̅ )]
𝜎2 𝜎2
𝑍~𝑁 [(𝜇1 − 𝜇2 ), + ]
𝑛 𝑚
1 1
𝑍~𝑁 [(𝜇1 − 𝜇2 ), 𝜎 2 ( + )]
𝑛 𝑚
1 1
(𝑋̅ − 𝑌̅)~𝑁 [(𝜇1 − 𝜇2 ), 𝜎 2 ( + )]
𝑛 𝑚

Entonces estandarizando (𝑋̅ − 𝑌̅) se tiene que:


(𝑋̅−𝑌̅)−(𝜇1 −𝜇2 )
𝐾= 1 1
~𝑁(0,1) ……………………… (I)
√𝜎 2 ( + )
𝑛 𝑚

𝑋𝑖 −𝑋̅ 2 𝑌𝑗 −𝑌̅ 2
Por otro lado, tenemos que: 𝑊1 = ∑𝑛𝑖=1 ( 2
) ~𝜒𝑛−1 y 𝑊2 = ∑𝑚
𝑗=1 (
2
) ~𝜒𝑚−1
𝜎 𝜎
Entonces 𝑊 = 𝑊1 + 𝑊2 ~𝜒𝑛+𝑚−2
2
ya que:
( n −1) / 2 ( m −1) / 2 ( n+ m−2) / 2
 1   1   1 
mW (t ) = mW1 (t )mW2 (t ) =     = 
 1 − 2t   1 − 2t   1 − 2t 
Se observa que 𝑚𝑊 (𝑡) es la f.g.m. de una distribución Ji-cuadrada con (n+m-2) grados de libertad es
decir:
𝑋𝑖 −𝑋̅ 2 𝑌𝑗 −𝑌̅ 2
𝑊 = ∑𝑛𝑖=1 ( 𝜎
) + ∑𝑚
𝑗=1 ( 𝜎
2
) ~𝜒𝑛+𝑚−2 ……………………..(II)
De (I) y (II) tenemos que

𝐾
𝑇= ~𝑡𝑛+𝑚−2
√ 𝑊
𝑛+𝑚−2

30
(𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
√𝜎 2 (1 + 1 )
𝑛 𝑚
𝑇= ~𝑡𝑛+𝑚−2
2 2
𝑛 𝑋𝑖 − 𝑋̅ 𝑚 𝑌𝑗 − 𝑌̅
√ ∑𝑖=1 ( 𝜎 ) + ∑𝑗=1 ( 𝜎 )
𝑛+𝑚−2
(𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
1 1
𝜎 √(𝑛 + 𝑚)
𝑇= ~𝑡𝑛+𝑚−2
2
1√ ∑𝑛𝑖=1(𝑋𝑖
− + 𝑋̅)2 − 𝑌̅)∑𝑚
𝑗=1(𝑌𝑗
𝜎 𝑛+𝑚−2
̅ ̅
(𝑋 − 𝑌) − (𝜇1 − 𝜇2 )
√(1 + 1 ) (𝑋̅ − 𝑌̅) − (𝜇1 − 𝜇2 )
𝑛 𝑚
𝑇= = ~𝑡𝑛+𝑚−2
√𝑆𝑝2 √(1 + 1 ) 𝑆𝑝2
𝑛 𝑚

(𝑋̅−𝑌̅)−(𝜇1 −𝜇2 )
~𝑡𝑛+𝑚−2
 1 1
√( + )𝑆𝑝2
𝑛 𝑚

Ejemplos: Sea una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 , … 𝑋10 con distribución normal estándar, a partir de
estas
a) Construir un estadístico o variable aleatoria con distribución 𝜒32
b) Construir un estadístico o variable aleatoria con distribución 𝑡2
c) Construir un estadístico o variable aleatoria con distribución 𝑡5
d) Construir un estadístico o variable aleatoria con distribución 𝐹3,5
Solución:
a) 𝑌 = (𝑋22 + 𝑋32 + 𝑋10
2
)~𝜒32

b) 𝑋8 ~𝑁(01), 𝑌 = 𝑋22 + 𝑋32 ~𝜒22

𝑋8 𝑋8
Entonces por teorema 𝑇 = ~𝑡2 o 𝑇 = 2 2
√𝑌/2 √(𝑋2 +𝑋3)
2

c) 𝑋1 ~𝑁(01), 𝑌 = 𝑋22 + 𝑋32 + 𝑋52 + 𝑋62 + 𝑋92 ~𝜒52


𝑋1
𝑇= ~𝑡5
√𝑌/5
d) 𝑈 = 𝑋12 + 𝑋32 + 𝑋42 ~𝜒32
𝑊 = 𝑋22 + 𝑋52 + 𝑋62 + 𝑋82 + 𝑋72 ~𝜒52

𝑈/3
Entonces por teorema 𝐹 = 𝑊/5 ~𝐹3,5

31
Ejemplos: Sea variables aleatorias independientes 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 donde 𝑋1 , 𝑋2 con distribución
N(1,1) 𝑋3 , 𝑋4 con distribución N(2,2) y 𝑋5 ~𝑁(0,2)
a) Construir un estadístico o variable aleatoria con distribución 𝜒32
b) Construir un estadístico o variable aleatoria con distribución 𝑡2
c) Construir un estadístico o variable aleatoria con distribución 𝐹3,2
Solución

𝑋2 −1 2 𝑋3 −2 2 𝑋 2
a) 𝑌 = ( 1
) +( ) + ( 25 ) ~𝜒32
√2 √
𝑋3 −2 𝑋 2 𝑋1 −1 2 1
b) 𝑈 = , 𝑊= ( 52) +( ) = 2 (𝑋5 )2 + (𝑋1 − 1)2
√2 √ 1
𝑈
Por teorema se tiene que 𝑊 = = ~𝑡2
𝑊

2

𝑋2 −1 2 𝑋3 −2 2 𝑋 2
c) 𝑌1 = ( ) +( ) + ( 5 ) ~𝜒32
1 √2 √2
𝑋 −1 2 𝑋 −2 2
𝑌2 = ( 1
1
) +( 4
) ~𝜒22
√2
𝑌 /3
Por teorema se tiene que: 𝑊 = 𝑌1 /2 ~𝐹3,2
2

Ejemplos: Sea variables aleatorias independientes 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 donde 𝑋1 , 𝑋2 con distribución


N(1,1) 𝑋3 , 𝑋4 con distribución N(2,2) y 𝑋5 ~𝑁(0,2).
𝑋2 −1 2 𝑋3 −2 2 𝑋4 −2 2
a) Determinar la distribución 𝑌 = ( ) +( ) +( )
1 √2 √2
𝑋1 −1
b) Determinar la distribución de 𝑈 =
𝑋 −2 2
3 2
√( √2 ) +(𝑋2 −1)
2
𝑋5 2
c) Determine la distribución de 𝑊 = (𝑋1 − 1)2 + 2
Solución:
𝑋2 −1 2 𝑋3 −2 2 𝑋4 −2 2
a) Se desea determinar la distribución de 𝑌 = ( 1
) +( ) +( )
√2 √2
Analizando:
𝑋2 −1 𝑋2 −1 2
1
~𝑁(0,1)𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 ( 1
) ~𝜒12
𝑋3 −2 𝑋 −2 2
~𝑁(0,1) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 ( 3
) ~𝜒12
√2 √2
𝑋4 −2 𝑋4 −2 2
~𝑁(0,1) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 ( ) ~𝜒12
√2 √2
Por teorema sumas de v.a independientes Chi-cuadrada es una Chi-cuadrada entonces:
𝑋2 − 1 2 𝑋3 − 2 2 𝑋4 − 2 2
𝑌=( ) +( ) +( ) ~𝜒32
1 √2 √2
𝑋1 −1
b) 𝑈 =
3 𝑋 −2 2 2
√( √2 ) +(𝑋2 −1)
2

Observando el numerador: 𝑋1 ~𝑁(1,1) → (𝑋1 − 1)~𝑁(0,1)

32
𝐴 = (𝑋1 − 1)~𝑁(0,1)
Observando el denominador:
𝑋3 −2 𝑋3 −2 2
𝑋3 ~𝑁(2,2) → ~𝑁(0,1) →( ) ~𝜒12
√2 √2
𝑋2 ~𝑁(1,1) → (𝑋2 − 1)~𝑁(0,1) → (𝑋2 − 1)2 ~𝜒12
𝑋3 − 2 2
→ 𝐵 = [( ) + (𝑋2 − 1)2 ] ~𝜒22
√2
Por teorema:
𝑋1 − 1 𝐴
𝑈= = ~𝑡2
2 √ 𝐵
𝑋3 − 2 2 2
√( √2 ) + (𝑋2 − 1)
2

𝑋5 2
c) 𝑊 = (𝑋1 − 1)2 +
2
𝑋1 ~𝑁(1,1) → (𝑋1 − 1)~𝑁(0,1) ⟹ (𝑋1 − 1)2 ~𝜒12
𝑋5 𝑋 2 (𝑋5 )2
𝑋5 ~𝑁(0,2) → ~𝑁(0,1) → ( 25 ) ~𝜒12 → ~𝜒12
√2 √ 2
(𝑋5 )2
Entonces: (𝑋1 − 1)2 + ~𝜒22
2

Ejemplos: Sean 𝑋1 , 𝑋2 muestra aleatoria con distribución N(0,1). Determinar las distribuciones de las
siguientes variables:
a) (𝑋2 − 𝑋1 )/√2
(𝑋1 +𝑋2 )2
b) (𝑋2 −𝑋1 )2
𝑋2 +𝑋1
c)
√(𝑋1 −𝑋2 )2
𝑋1 + 𝑋2
d)
√2
e) 2(𝑋1 − 𝑋2 )

Solución:
𝑋2 𝑋1 1 1
a) (𝑋2 − 𝑋1 )/√2 = − = 𝑋 − 𝑋
√2 √2 √2 2 √2 1
es una combinación lineal de variables aleatorias independientes. Por teorema tiene una
distribución normal
1 1 1 1 1 1
( 𝑋2 − 𝑋1 ) ~𝑁 (𝐸 ( 𝑋2 − 𝑋1 ) , 𝑉 (
𝑋1 )) 𝑋2 −
√2 √2 √2 √2 √2 √2
1 1 1 1 1 1
𝐸 ( 𝑋2 − 𝑋1 ) = 𝐸(𝑋2 ) − 𝐸(𝑋1 ) = (0)) − (0) = 0
√2 √2 √2 √2 √2 √2
1 1 1 1 1 2 1 2 1 1
𝑉 ( 𝑋2 − 𝑋1 ) = 𝑉 ( 𝑋2 + (− 𝑋1 )) = ( ) 𝑉(𝑋2 ) + (− ) 𝑉(𝑋1 ) = 𝑉(𝑋2 ) + 𝑉(𝑋1 )
√2 √2 √2 √2 √2 √2 2 2
1 1
= (1) + (1) = 1
2 2

33
(𝑋2 − 𝑋1 )/√2 ~𝑁(0,1) #
(𝑋1 +𝑋2 )2
b) (𝑋2 −𝑋1 )2

Se observa que
𝑋1 + 𝑋2 es una combinación lineal entonces:
(𝑋1 + 𝑋2 )~𝑁(𝐸(𝑋1 + 𝑋2 ), 𝑉(𝑋1 + 𝑋2 )
𝑋1 +𝑋2
(𝑋1 + 𝑋2 )~𝑁(0,2) entonces estandarizando ~𝑁(01)
√2
𝑋1 +𝑋2 2
entonces ( ) ~𝜒12
√2
2
𝑋1 + 𝑋2 1
𝐴=( ) = (𝑋 + 𝑋2 )2 ~𝜒12
√2 2 1

𝑋2 −𝑋1 2 1
Obsérvese también de manera similar que: 𝐵 = ( ) = 2 (𝑋2 − 𝑋1 )2 ~𝜒12
√2
(𝐴/1)
~𝐹
(𝐵/1) 1,1

1
(𝑋1 + 𝑋2 )2
(2 )
1
(𝑋1 + 𝑋2 )2
= ~𝐹
1
(𝑋2 − 𝑋1 )2 (𝑋2 − 𝑋1 )2 1,1
(2 )
1
𝑋2 +𝑋1
c)
√(𝑋1 −𝑋2 )2

𝑋2 +𝑋1
(𝑋2 + 𝑋1 )~𝑁(0,2) estandarizando 𝑈 = ~𝑁(0,1)
√2
𝑋1 −𝑋2 𝑋1 −𝑋2 2
(𝑋1 − 𝑋2 )~𝑁(0,2) estandarizando ~𝑁(0,1) 𝑊=( ) ~𝜒1
√2 √2
Entonces por teorema
𝑈
~𝑡1
√𝑊
1
𝑋2 + 𝑋1 𝑋2 + 𝑋1 𝑋2 + 𝑋1
√2 √2 √2 𝑋2 + 𝑋1
= = =
1 1 √ (𝑋1 − 𝑋2 )2 √ (𝑋1 − 𝑋2 )2
𝑋1 − 𝑋2 2 √2 (𝑋 − 𝑋 ) 2
√ ( √2 )
1 2
√2 1
1
1

𝑋2 +𝑋1
Entonces ~𝑡1 #
√(𝑋1 −𝑋2 )2
𝑋1 + 𝑋2
d)
√2

34
𝑋1 + 𝑋2
es una combinación de v.a normales entonces
√2
𝑋1 + 𝑋2 𝑋 +𝑋 𝑋 +𝑋
~𝑁 [𝐸 ( 1 2 2 ) , 𝑉 ( 1 2 2 )]
√2 √ √
𝑋1 + 𝑋2 1
𝐸 ( 2 ) = 2 (𝐸(𝑋1 + 𝑋2 )) = 0
√ √
𝑋1 + 𝑋2 1 1 1 1
𝑉 ( 2 ) = 2 𝑉(𝑋1 + 𝑋2 ) = 2 [𝑉(𝑋1 ) + 𝑉(𝑋2 )] = 2 [1 + 1] 2 [2] = 1

𝑋1 + 𝑋2
Entonces: ~𝑁(0,1)#
√2

e) 2(𝑋1 − 𝑋2 ) es una combinación lineal de distribuciones normales entonces:

2(𝑋1 − 𝑋2 )~𝑁[𝐸(2(𝑋1 − 𝑋2 )), 𝑉(2(𝑋1 − 𝑋2 ))]


𝐸(2(𝑋1 − 𝑋2 )) = 2𝐸(𝑋1 − 𝑋2 ) = 2[𝐸(𝑋1 ) − 𝐸(𝑋2 ] = 2(0) = 0
𝑉(2(𝑋1 − 𝑋2 )) = 4𝑉[𝑋1 + (− 𝑋2 )] = 4[𝑉(𝑋1 ) + 𝑉(𝑋2 )] = 4(2) = 8
2(𝑋1 − 𝑋2 )~𝑁(0,8)

Ejemplo: Sea variables aleatorias independientes 𝑋1 , 𝑋2 , 𝑌1 , 𝑌2 , 𝑍1 donde 𝑋1 , 𝑋2 con distribución N(1,1)


𝑌1 , 𝑌2 con distribución N(2,2) y 𝑍1 ~𝑁(0,2). Determine la distribución de 𝑈 = 𝑋̅ − 3𝑍̅
Solución:
𝑈 = 𝑋̅ − 3𝑍̅~𝑁(𝐸(𝑈), 𝑉(𝑈))

𝑋1 , 𝑋2 𝑁(1,1)
𝑌1 , 𝑌2 𝑁(2,2)
𝑍1 ~𝑁(0,2)
𝐸(𝑈) = 𝐸(𝑋̅ − 3𝑍̅) = 𝐸(𝑋̅ ) − 3𝐸(𝑍̅) = 1 − 3(0) = 1)
1 2 1 37
𝑉(𝑈) = 𝑉(𝑋̅ − 3𝑍̅) = 𝑉[𝑋̅ + (−3)𝑍̅] = 𝑉(𝑋̅) + (−3)2 𝑉(𝑍̅) = + 9 ( ) = + 18 =
2 1 2 2
37
𝑈~𝑁(1,
)
2
Ejemplo: Sea tres muestras aleatorias independientes 𝑋1 , 𝑋2 , 𝑋3 , 𝑌1 , 𝑌2 , 𝑌2 y 𝑍1 , 𝑍2 donde 𝑋𝑖 ~𝑁(3,3),
𝑌i ~𝑁(0,3) y 𝑍i ~𝑁(1,3).
𝑋̅+𝑌̅+𝑍̅
a) Determinar la distribución de W= 3
b) Construir una distribución 𝑡2 usando 𝑋̅, 𝑌̅ 𝑦 𝑍̅
(𝑋̅−3)2
c) Determine la distribución de 𝑈 = 𝑌̅ 2

35

También podría gustarte