Modelos Discretos y Continuos-Teoria - Unlocked
Modelos Discretos y Continuos-Teoria - Unlocked
Modelos Discretos y Continuos-Teoria - Unlocked
Teoría y ejemplos
c 2000 CRESLINE
°
om
más usuales, obteniendo una serie de características y propiedades de cada una
de ellas.
.c
Distribución uniforme discreta
Definición
es
Diremos que una variable aleatoria discreta X se distribuye uniformemente sobre
n puntos x1 , . . . , xn si su función de probabilidad es
d
½ 1
en
n para i = 1, 2, . . . , n
f (xi ) = P (X = xi ) =
0 en otro caso
pr
Obsérvese que la variable aleatoria toma diferentes valores pero siempre con la
misma probabilidad.
.a
Propiedades
1. Función de distribución:
w
X
F (x) = P (X ≤ x) = P (X = xi )
w
xi ≤x
w
2. Esperanza:
n
1X
E(X) = xi
n i=1
Demostración:
n
X n
X n
1 1X
E(X) = xi · P (X = xi ) = xi · = xi .
i=1 i=1
n n i=1
3. Varianza: Ã !2
n n
1X 2 1X
V ar(X) = x − xi
n i=1 i n i=1
1
Demostración:
n n
!2 Ã
X 1X
2 2
V ar(X) = E(X ) − (E(X)) = x2i
· P (X = xi ) − xi =
i=1
n i=1
n
à n !2 n
à n !2
X 1X 1X 2 1X
2 1
= xi · − xi = x − xi .
i=1
n n i=1 n i=1 i n i=1
4. Función característica:
n
1 X itxi
ϕ(t) = e
n i=1
om
Demostración:
n
X n
X n
1 1 X itxi
ϕ(t) = E(eitX ) = eitxi · P (X = xi ) = eitxi · = e .
i=1 i=1
n n i=1
.c
es
5. Función generatriz de momentos:
n
1 X txi
d
g(t) = e
n i=1
en
Demostración:
pr
n
X n
X n
1 1 X txi
g(t) = E(etX ) = etxi · P (X = xi ) = etxi · = e .
i=1 i=1
n n i=1
.a
w
Distribución de Bernouilli
w
Definición
w
f (x) = P (X = x) = px (1 − p)1−x , x = 0, 1.
2
Propiedades
1. Función de distribución:
0 si x < 0
F (x) = P (X ≤ x) = 1 − p si 0 ≤ x < 1
1 si x ≥ 1
2. Esperanza:
E(X) = p
Demostración:
E(X) = 1 · p + 0 · (1 − p) = p.
om
3. Varianza:
V ar(X) = p · q
Demostración:
.c
V ar(X) = E[(X − E(X))2 ] = (0 − p)2 q + (1 − p)2 p =
es
= p2 q + q 2 p = pq(p + q) = pq.
d
en
4. Función característica:
ϕ(t) = q + peit
pr
Demostración:
g(t) = q + pet
w
Demostración:
Ejemplo
Ejemplo 1 Un agente de seguros dedicado a la venta de seguros de vida realiza
visitas a posibles clientes con el fin de contratar un seguro de vida. Se sabe de
su trayectoria como agente que en el 60% de las visitas tiene éxito y contrata
un seguro. Definir la variable aleatoria asociada a este experimento aleatorio y
obtener la media y varianza.
Solución: El experimento aleatorio es realizar la visita a una posible cliente,
y hay dos resultados posibles: conseguir que el cliente contrate el seguro (suceso
3
éxito) o no conseguirlo (suceso fracaso). La variable aleatoria X asociada al
experimento toma los valores
X = 1 si el cliente contrata el seguro
X = 0 si el cliente no contrata el seguro.
Es, por tanto, una variable de tipo Bernouilli, y su función de probabilidad será
P (X = 1) = 0.6 = p
P (X = 0) = 1 − 0.6 = 0.4 = q
Por consiguiente, la media y la varianza valen
E(X) = p = 0.6
V ar(X) = pq = 0.6 · 0.4 = 0.24.
om
Distribución Binomial
.c
Definición es
Una generalización importante de la distribución de Bernouilli se obtiene cuando
el experimento se repite varias veces. Así pues consideremos n repeticiones
independientes de un experimento, siendo la probabilidad de éxito, P (A) = p,
d
constante en todas las repeticiones. Asociada a cada una de las n repeticiones
del experimento tenemos una variable aleatoria Xi tal que
en
½
1 ω∈A
Xi (ω) = ,
0 ω∈A
pr
X= Xi ,
i=1
w
4
Propiedades
1. Función de distribución:
Px
µ ¶0 si x < 0
n
F (x) = P (X ≤ x) = pi (1 − p)n−i si 0 ≤ x < n
i=0 i
1 si x ≥ n
2. Esperanza:
E(X) = np
om
E(X) = E(X1 + X2 + · · · + Xn ) = E(X1 ) + E(X2 ) + · · · + E(Xn ) =
= p + p + · · · + p = np.
.c
3. Varianza:
es
V ar(X) = npq,
donde q = 1 − p
d
Demostración: Como una variable de tipo binomial B(n, p) puede ex-
presarse como suma de n variables independientes de tipo Bernouilli B(p),
en
tenemos:
= pq + pq + · · · + pq = npq.
.a
4. Función característica:
w
ϕ(t) = (q + p · eit )n
w
ϕX (t) = ϕ(X1 +X2 +···+Xn ) (t) = ϕX1 (t) · ϕX2 (t) · · · · · ϕXn (t) =
= (q + p · eit ) · (q + p · eit ) · · · · · (q + p · eit ) = (q + p · eit )n .
g(t) = (q + p · et )n
5
y la función generatriz de momentos de una suma de variables aleatorias
independientes es el producto de las funciones generatrizs, tenemos:
gX (t) = g(X1 +X2 +···+Xn ) (t) = gX1 (t) · gX2 (t) · · · · · gXn (t) =
= (q + p · et ) · (q + p · et ) · · · · · (q + p · et ) = (q + p · et )n .
P (X = x) = P (Y = n − x),
om
ya que la probabilidad de obtener x éxitos lógicamente coincide con la
probabilidad de obtener n − x fracasos.
Teorema 1 Si X1 , X2 , . . . , Xh son h variables independientes de tipo B(n1 , p), B(n2 , p), . . . , B(nh , p)
.c
respectivamente, entonces X = X1 + X2 + · · · + Xh es de tipo B(n1 + n2 + · · · +
nh , p).
es
Demostración: Como las variables son independientes, se cumple:
nh , p).
.a
Ejemplos
Ejemplo 2 En una cierta comarca, el 30% del ganado está afectado de una
w
µ ¶
20
P (X = 5) = (0.3)5 (0.7)15 = 0.1785.
5
La segunda pregunta es, de hecho, la misma que la primera, luego ya conocemos
el resultado.
6
Distribución Multinomial
Definición
La distribución multinomial es una generalización de la distribución binomial, y
se usa cuando el experimento aleatorio no sólo da lugar a dos posibles sucesos,
éxito A y fracaso A, como ocurría en la binomial, sino que da lugar a tres o más
posibles resultados.
Así pues, consideremos un experimento aleatorio en el que se pueden dar k
resultados posibles y mutuamente excluyentes A1 , . . . , Ak , k > 2, de tal manera
que forman una partición del espacio muestral. Si designamos por pi = P (Ai ),
P
k
i = 1, 2, . . . , k, se cumple pi = 1.
i=1
Supongamos que realizamos n repeticiones independientes del experimento
en las mismas condiciones y por tanto las probabilidades pi se mantienen con-
om
stantes. Consideremos k variables aleatorias X1 , . . . , Xk , donde la variable
aleatoria Xi indica el número de veces que se presenta el suceso Ai cuando
se realizan las n repeticiones independientes del experimento.
.c
Definimos la variable aleatoria multinomial (X1 , . . . , Xk ) como aquella que
representa el número de veces que se presentan cada uno de los sucesos A1 , . . . , Ak
cuando se realizan las n repeticiones independientes del experimento. Obsérvese
es
que una variable multinomial es un ejemplo de una variable aleatoria multidi-
mensional.
d
Decimos que una variable aleatoria k-dimensional (X1 , . . . , Xk ) sigue una
distribución multinomial de parámetros n, p1 , . . . , pk si su función de probabili-
en
dad es
n!
f (x1 , . . . , xk ) = P (X1 = x1 , . . . , Xk = xk ) = px1 · · · · · pxk k
pr
x1 ! · · · · · xk ! 1
P
k
.a
Propiedades
w
à k !n
X
g(t1 , . . . , tk ) = pi eti
i=1
Demostración:
7
2. Esperanza:
E(Xi ) = npi
Demostración:
n ¯
¯ k ¯
∂g(t1 , . . . , tk ) ¯¯ ∂ X tj ¯
¯
E(Xi ) = ¯ = pj e ¯ (=1)
∂ti t1 =···=tk =0 ∂ti j=1 ¯
t1 =···=tk =0
¯
= npi eti (p1 eti + · · · + pi eti + · · · + pk eti )n−1 ¯t1 =···=t =0 = (2)
k
om
3. Varianza:
V ar(Xi ) = npi (1 − pi )
.c
Demostración: Empezamos calculando
¯
∂ 2 g(t1 , . . . , tk ) ¯¯
es
2
E(Xi ) = ¯ = n2 p2i − np2i + npi .
∂t2i t1 =···=tk =0
d
Entonces tenemos:
en
4. Covarianza:
Cov(Xi , Xj ) = −npi pj
w
∂ 2 g(t1 , . . . , tk ) ¯¯
E(Xi Xj ) = ¯ = n2 pi pj − npi pj
∂ti ∂tj
w
t1 =···=tk =0
Entonces,
8
Demostración: Considerando la función generatriz de momentos de la vari-
able aleatoria Z = X + Y, tenemos:
om
Ejemplo
Ejemplo 4 En un cierto cruce de ratones, el resultado de negros, grises y blan-
cos está en la relación 8:4:4. Calcular la probabilidad de que de 10 ratones, 6
.c
sean blancos, 3 grises y 1 blanco.
Solución: Sean X1 el número de ratones negros de entre 10, X2 el número
es
de ratones grises de entre 10 y X3 el número de ratones blancos de entre 10.
Podemos ajustar una distribución multinomial de parámetros
d
1 1 1
n = 10 p1 = p2 = p3 = .
2 4 4
en
Por tanto,
µ ¶6 µ ¶3 µ ¶1
pr
10! 1 1 1
P (X1 = 6, X2 = 3, X3 = 1) = = 0.0512.
6!3!1! 2 4 4
.a
Solución: Sean
P (X1 = 3, X2 = 5, X3 = 2, X4 = 2) =
12!
= (0.3)3 (0.4)5 (0.1)2 (0.2)2 = 0.4728.
3!5!2!2!
9
Distribución geométrica o de Pascal
Definición
Sea A un suceso de probabilidad P (A) = p, y sea X la variable aleatoria que
expresa el número de fracasos que tienen lugar en las repeticiones independientes
de pruebas de Bernouilli, hasta que ocurre A por primera vez. La variable X
toma los valores 0, 1, 2, . . . (número de fracasos). Decimos que una variable
aleatoria X sigue una distribución geométrica de parámetro p si su función de
probabilidad es
f (x) = (1 − p)x p, x = 0, 1, . . .
En tal caso decimos que X es del tipo G(p).
Propiedades
om
1. Función de distribución:
0 si x < 0
F (x) = P (X ≤ x) = P
x
(1 − p)i p si x ≥ 0
.c
i=0
es
2. Función generatriz de momentos:
p
g(t) = ,
d
1 − qet
en
donde q = 1 − p
Demostración:
∞
X ∞
X
pr
t 2 2t 3 3t
= p(1 + qe + q e + q e + · · · ) = .
1 − qet
w
3. Esperanza:
w
1−p
E(X) =
p
w
Demostración:
dg(t) pqet
= .
dt (1 − qet )2
¯
dg(t) ¯¯ pq pq q 1−p
E(X) = ¯ = 2
= 2 = = .
dt t=0 (1 − q) p p p
4. Varianza:
1−p
V ar(X) =
p2
Demostración:
d2 g(t) pqet (1 − qet )2 − pqet 2(1 − qet )(−qet ) pqet (1 − qet ) + 2pq 2 e2t
= = .
dt2 (1 − qet )4 (1 − qet )3
10
¯
d2 g(t) ¯¯ pq(1 − q) + 2pq 2 p2 q + 2pq 2 pq + 2q 2
α2 = = = =
dt2 ¯ t=0 (1 − q)3 p3 p2
Por tanto,
µ ¶2
pq + 2q 2 2 1−p pq + 2q 2 − q 2
V ar(X) = α2 − (E(X)) = − = =
p2 p p2
pq + q 2 (1 − q)q + q 2 q 1−p
= 2
= 2
= 2 = .
p p p p2
P (X ≥ h + k/X ≥ h) = P (X ≥ k)
om
con h, k = 0, 1, 2, . . . .
Demostración: A partir de la función de distribución de la variable aleato-
ria geométrica de parámetro p, G(p), podemos escribir, para x ≥ 0, que
P (X
.c
≥ x) = 1 − P (X < x) = 1 − P (X ≤ x − 1) = 1 − F (x − 1) =
es
x−1
X x−1
X x−1
X
= 1− (1 − p)i p = 1 − qi p = 1 − p qi =
i=0 i=0 i=0
d
1 − q · q x−1 1 − qx
= 1−p =1−p = 1 − (1 − q x ) =
en
1−q p
= qx
pr
Por tanto,
P (X ≥ h + k, X ≥ h)
.a
P (X ≥ h + k/X ≥ h) = =
P (X ≥ h)
P (X ≥ h + k) q h+k
w
= = h = q k = P (X ≥ k).
P (X ≥ h) q
w
w
Ejemplo
Ejemplo 6 En una cierta cadena de producción, se sabe que en promedio uno
de cada 20 productos manufacturados es defectuoso. ¿Cuál es la probabilidad de
que al hacer un control, el cuarto producto manufacturado seleccionado sea el
primero defectuoso?
11
Solución: Sea D el suceso ”seleccionar un producto defectuoso”. Sabe-
1
mos que P (D) = 20 . El modelo es una distribución geométrica, con lo que la
probabilidad pedida es
µ ¶3
19 1
P = = 0.0428.
20 20
om
probabilidad de éxito p constante para cada repetición.
Definimos la variable aleatoria binomial negativa X como el número de fra-
casos que tienen lugar antes de que aparezca el r-ésimo éxito. Diremos que una
variable aleatoria X sigue una distribución binomial negativa de parámetros r y
.c
p, si su función de probabilidad es
µ ¶
es
x+r−1
f (x) = P (X = x) = (1 − p)x pr , x = 0, 1, 2, . . . , r = 1, 2, . . .
x
d
En tal caso decimos que X es del tipo BN (r, p). Obsérvese que si tomamos
en
Propiedades
pr
1. Función de distribución:
.a
µ 0 ¶ si x < 0
F (x) = P (X ≤ x) = P
x i+r−1
(1 − p)i pr si x ≥ 0
i
w
i=0
w
g(t) = ,
1 − qet
donde q = 1 − p
Demostración:
∞
X ∞
X ¶ µ
tX tx x+r−1 x r tx
g(t) = E(e ) = e P (X = x) = e · q p =
x=0 x=0
x
X∞ µ ¶ X∞ µ ¶
−r −r
= etx · (−q)x pr = pr (−qet )x · 1−r−x =
x=0
x x=0
x
µ ¶r
p
= pr (1 − qet )−r = .
1 − qet
12
Hemos usado que
µ ¶
x+r−1 (x + r − 1) · (x + r − 2) · · · · · (r + 2) · (r + 1) · r
= =
x x!
(−r) · (−r − 1) · (−r − 2) · · · · · (−r − x + 1)
= (−1)x =
µ ¶ x!
−r
= (−1)x .
x
3. Esperanza:
rq
E(X) =
p
Demostración: Utilizando la función generatriz, obtenemos:
om
¯ µ ¶r ¯
dg(t) ¯¯ d p ¯
¯
E(X) = ¯ = t ¯ =
dt t=0 dt 1 − qe t=0
µ ¶r−1 ¯
−p(−qet ) ¯¯
.c
p
= r· · ¯ =
1 − qet (1 − qet )2 ¯
t=0
es
¯
rpr qet ¯¯ rpr q
= = =
(1 − qet )r+1 ¯t=0 (1 − q)r+1
d
rpr q rq
= = .
en
pr+1 p
pr
4. Varianza:
rq
V ar(X) =
p2
.a
Demostración:
¯ µ ¶¯
d2 g(t) ¯¯ d rpr qet ¯
¯
w
2
E(X ) = = =
dt2 ¯ t=0 dt (1 − qet )r+1 ¯t=0
¯
rpr qet (1 − qet )r+1 − rpr qet (r + 1)(1 − qet )r (−qet ) ¯¯
w
= ¯ =
(1 − qet )2r+2 t=0
¯
w
13
Teorema 4 Si X1 y X2 son dos variables aleatorias independientes distribuidas
según BN (r1 , p) y BN (r2 , p) respectivamente, entonces la variable X = X1 +X2
se distribuye según BN (r1 + r2 , p).
Demostración: A partir de la función generatriz de momentos de la vari-
able aleatoria X = X1 + X2 tenemos:
om
Ejemplo
Ejemplo 7 Se extraen una a una, al azar y con reemplazamiento, cartas de
una baraja española. ¿Cuál es la probabilidad de obtener 5 cartas que no sean
.c
oros antes de obtener el tercer oro?
Solución: Supongamos que el suceso éxito es sacar un oro, y el suceso
es
fracaso, sacar una carta que no sea oro. Entonces
1 3
d
p= q= .
4 4
en
P (X = 5) = = = 0.0778.
5 4 4 5 48
.a
Distribución Hipergeométrica
w
Definición
w
14
La función de probabilidad de X (considerando la primera de la subpobla-
ciones) es: µ ¶µ ¶
N1 N2
k n−k
f (k) = P (X = k) = µ ¶ ,
N
n
donde k cumple max {0, n − N2 } ≤ k ≤ min {n, N1 }. Si designamos por p la
probabilidad de que un elemento pertenezca a la primera subpoblación y por
q = 1 − p, la probabilidad de que pertenezca a la segunda subpoblación, resulta:
N1 = N ·p
N2 = N · (1 − p) = N · q
om
Diremos que X sigue una distribución hipergeométrica de parámetros N, n, p, o,
abreviadamente, X es de tipo H(N, n, p), si su función de probabilidad es
µ ¶µ ¶
Np Nq
.c
x n−x
f (x) = P (X = x) = µ ¶ ,
N
es
n
Propiedades
1. Función de distribución:
pr
x i n−i
F (x) = si max {0, n − N q} ≤ x ≤ min {n, N p}
i=0 N
n
w
1 si x > min {n, N p}
w
2. Esperanza:
w
E(X) = n p
Demostración:
¡N·p¢¡ N ·q ¢
X X x
E(X) = x · P (X = x) = x· ¡N n−x
¢ =
x x n
¡ Nq ¢
1 X N p · (N p − 1) · · · · · (N p − x + 1) · n−x
= ¡N ¢ x· =
n x
x · (x − 1) · · · · · 1
µ ¶ µ ¶ µ ¶
Np X Np − 1 Nq Np N − 1
= ¡N ¢ · = ¡N ¢ =
n x
x−1 n−x n
n−1
Np
= · n = np.
N
15
3. Varianza:
N −n
V ar(X) = n pq
N −1
Demostración: Empezamos calculando el momento de orden dos:
¡Np¢¡ N q ¢
X X
2
E(X ) = 2
x · P (X = x) = x · x ¡Nn−x
2
¢ =
x x n
¡
N p Np−1
¢¡ N q ¢
X x x−1
= x2 · ¡N ¢ n−x =
x n
µ ¶µ ¶
Np X Np − 1 Nq
= ¡N ¢ ((x − 1) + 1) =
n x
x−1 n−x
" #
X µN p − 2¶µ N q ¶ X µN p − 1¶µ N q ¶
om
Np
= ¡N ¢ (N p − 1) + =
n x
x−2 n−x x
x−1 n−x
· µ ¶ µ ¶¸
Np Np + Nq − 2 Np + Nq − 1
= ¡N ¢ (N p − 1) + =
.c
n
x−2+n−x x−1+n−x
· µ ¶ µ ¶¸
Np N −2 N −1
= ¡N ¢ (N p − 1) + =
es
n
n−2 n−1
· ¸
N p n! (N − n)! (N p − 1)(n − 1)(N − 2)! + (N − 1)!
= =
d
N! (n − 1)!(N − n)!
en
N −n
= npq ·
N −1
w
w
Interpretación
La distribución hipergeométrica se aplica con cierta frecuencia en el control
estadístico de calidad de una fabricación en serie. Así pues, si el lote bajo control
contiene N1 elementos buenos y N2 = N − N1 elementos defectuosos, cuando
tomamos una muestra de tamaño n sin reemplazamiento estaremos interesados
en saber el número de elementos buenos que han aparecido en la muestra de
tamaño n para así determinar la calidad del proceso de fabricación.
16
una repetición a otra del experimento (muestra de n elementos sin reemplaza-
miento). Sin embargo, se cumple la siguiente propiedad:
H(N, n, p) → B(n, p) si N → ∞.
om
Desarrollando los números combinatorios, obtendremos:
.c
n! (N p)!(N q)!(N − n)!
= · =
x!(n − x)! (N p − x)!(N q − n + x)!N !
µ ¶
es
n N p · (N p − 1) · · · · · (N p − x + 1) · N q · (N q − 1) · · · · · (N q − n + x + 1)
= ·
x N · (N − 1) · (N − 2) · · · · · (N − n + 1)
d
Tomando límite cuando N → ∞, y teniendo en cuenta que el numerador es un
en
µ ¶
n x n−x
lim P (X = x) = p q ,
N →∞ x
.a
que es la función de probabilidad de una B(n, p), tal como queríamos demostrar.
w
w
Ejemplo
Ejemplo 8 Un fabricante de faros para coches informa que en un envío de
4000 faros a un distribuidor, 500 tenían un ligero defecto. Si se compran a ese
distribuidor 20 faros al azar, ¿cuál es la probabilidad de que haya exactamente
2 defectuosos?
Solución: Sea X el número de faros defectuosos de entre 20 comprados.
Ajustamos una distribución hipergeométrica, es decir, X es de tipo H(4000, 20, 0.125).
Por tanto, ¡ ¢¡ ¢
500 3500
2
P (X = 2) = ¡400018
¢ = 0.2546.
20
17
Distribución de Poisson
Definición
Hay ciertos experimentos aleatorios que se caracterizan por las siguientes propiedades:
om
3. La probabilidad de que ocurran más de un resultado o suceso en un in-
tervalo de tiempo muy pequeño o en una región muy pequeña es prácti-
camente nula.
.c
Son ejemplos de experimentos aleatorios de este tipo los siguientes:
es
1. Accidentes de tráfico que se producen durante el fin de semana en una
determinada ciudad.
d
2. Llamadas telefónicas por día en una determinada oficina.
en
λx −λ
f (x) = P (X = x) = e , x = 0, 1, 2, . . . ,
x!
donde λ es el número medio de resultados que ocurren en el intervalo dado. En
tal caso decimos que X es una variable de tipo P (λ).
18
Propiedades
1. Función de distribución:
0 si x < 0
F (x) = P (X ≤ x) = Px
λi −λ
i! e si x ≥ 0
i=0
2. Esperanza:
E(X) = λ
Demostración:
∞
X ∞
X λx −λ
E(X) = x P (X = x) = x
e =
x=0 x=0
x!
om
· ¸
λ λ2 λ3
= e−λ 0 + 1 + 2 + 3 + · · · =
1! 2! 3!
· 2 3 ¸
λ λ
= eλ λ +
.c
+ + ··· =
1! 2!
· ¸
λ λ2
es
= e−λ λ 1 + + + ··· =
1! 2!
= e−λ · λ · eλ = λ.
d
en
3. Varianza:
V ar(X) = λ
pr
Demostración:
.a
∞
X ∞
X λx −λ
E(X 2 ) = 2
x P (X = x) = x2 e =
x=0 x=0
x!
w
· 2 3 ¸
−λ λ 2λ 2λ
= e 0+1 +2 +3 + ··· =
w
1! 2! 3!
· ¸
−λ 2 3λ3 4λ4
w
= e λ + 2λ + + + ··· =
2! 3!
· ¸
3λ2 4λ3
= λe−λ 1 + 2λ + + + ··· =
2! 3!
· ¸
λ2 λ3
= λe−λ 1 + (1 + 1)λ + (1 + 2) + (1 + 3) + · · · =
2! 3!
· 2 3 2 ¸
−λ λ λ λ λ λ λ3
= λe 1+ + + + ··· + + 2 + 3 + ··· =
1! 2! 3! 1! 2! 3!
· 2 3 2 3 ¸
−λ λ λ λ λ λ λ
= λe 1+ + + + ··· + + + + ··· =
1! 2! 3! 1! 1! 2!
· µ ¶¸
λ λ2
= λe−λ eλ + λ 1 + + + ··· =
1! 2!
= λe−λ [eλ + λeλ ] = λ(1 + λ) = λ + λ2 .
19
Por lo tanto, la varianza vale
2
V ar(X) = E(X 2 ) − (E(X)) = λ + λ2 − λ2 = λ.
Demostración:
∞
X ∞
X λx −λ
g(t) = E(etX ) = etx P (X = x) = etx e =
x=0 x=0
x!
∞
X x ∞
X
tx λ (et λ)x
om
= e−λ e = e−λ =
x=0
x! x=0
x!
· ¸
−λ et λ (et λ) (et λ)3 2
= e 1+ + + + ··· =
1! 2! 3!
.c
t t t
= e−λ · ee λ
= e(e λ−λ)
= eλ(e −1)
.
d es
Teorema 6 Si X1 , X2 , . . . , Xn son variables independientes de tipo P (λ1 ), P (λ2 ), . . . , P (λn ),
respectivamente, entonces la variable X = X1 + X2 + · · · + Xn es de tipo
en
P (λ1 + λ2 + · · · + λn ).
Demostración: Utilizamos la función generatriz: como cada Xi es de tipo
P (λi ), entonces su función generatriz de momentos es
pr
t
gi (t) = eλi (e −1)
.
.a
parámetro λ = λ1 + λ2 + · · · + λn .
20
Calculamos cada uno de estos límites por separado:
n(n − 1) · · · · · (n − x + 1)
lim = 1,
n→∞ nx
∞
ya que es una indeterminación del tipo ∞, y se trata de un cociente de polinomios
de igual grado.
λx λx
lim
=
n → ∞ x! x!
µ ¶n µ ¶n "µ ¶− nλ #−λ
λ 1 1
lim 1 − = lim 1 + n = lim 1+ n = e−λ .
n→∞ n n→∞ −λ n→∞ −λ
µ ¶x
λ
lim 1 − = 1x = 1.
n→∞ n
om
Por lo tanto, µ ¶
n x n−x λx −λ
lim p q = e .
n→∞ x x!
.c
Así pues la distribución binomial converge en ley a la distribución de Poisson
de parámetro λ. Esto significa que podemos aproximar la distribución binomial
es
por la de Poisson si n es grande y p pequeño, tomando como parámetro λ = np.
En la práctica, la distribución binomial se puede aproximar a una Poisson
cuando np < 5 y p < 0.1, y como la media en la distribución binomial es np y
d
Ejemplos
pr
P (X ≤ 5) = P (X = 0) + P (X = 1) + P (X = 2) +
+ P (X = 3) + P (X = 4) + P (X = 5) =
20 −2 21 −2 22 −2 23 −2
= e + e + e + e +
0! 1! 2! 3!
24 −2 25 −2
+ e + e =
4! 5!
= 0.1353 + 0.2707 + 0.2707 + 0.1804 +
+ 0.0902 + 0.0361 =
= 0.9834.
21
Ejemplo 10 Una compañía de seguros calculó que el 0.01% de la población
fallece cada año de un cierto tipo de accidente. ¿Cuál es la probabilidad de que
la compañía tenga que pagar por más de cuatro de sus 10000 asegurados un año
dado?
Solución: Sea X el número de pagos efectuados en un año dado. X tiene
distribución B(10000, 0.0001). Como np = 1 < 5 y p = 0.0001 < 0.1, podemos
aproximar la binomial por una Poisson P (1). Entonces tenemos:
P (X > 4) = 1 − P (X ≤ 4) =
= 1 − [P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)] =
· 0 ¸
1 −1 11 −1 12 −1 13 −1 14 −1
= 1− e + e + e + e + e =
0! 1! 2! 3! 4!
= 1 − [0.3679 + 0.3679 + 0.1839 + 0.0613 + 0.0153] =
om
= 0.0037.
.c
Ejemplo 11 Se ha comprobado que el número medio de coches que llegan a
un estación de servicio es de 180 a la hora. Si en dicha estación se pueden
es
atender cinco coches por minuto, calcular la probabilidad de que en un minuto
dado queden coches sin atender.
Solución: Sea X el número de coches que llegan en un minuto. El número
d
medio de coches por minuto es λ = 180
60 = 3, luego el modelo es una distribución
en
P (X > 5) = 1 − P (X ≤ 5) =
pr
X5
= 1− P (X = x) =
i=0
.a
X5
3x −3
= 1− e =
x!
w
i=0
= 1 − (0.0498 + 0.1494 + 0.2240 +
w
Distribución uniforme
Definición
Se dice que la v.a. X tiene distribución uniforme o rectangular en el intervalo
[a, b], a < b, si su función de densidad es constante en [a, b] y nula en el resto.
22
R +∞
Como f (x) ≥ 0 para todo x ∈ R, y −∞ f (x) dx = 1, se tiene que
Z +∞
1
k dx = 1 ⇒ k(b − a) = 1 ⇒ k = .
−∞ b − a
Por tanto, la función de densidad viene dada por
½ 1
b−a si x ∈ [a, b]
f (x) = .
0 si x ∈
/ [a, b]
Diremos que X es una variable de tipo U [a, b].
Propiedades
1. Función de distribución:
om
0 si x < a
x−a
F (x) = b−a si a ≤ x ≤ b
1 si x > b
.c
Demostración:
Z x
es
Si x < a, F (x) = P (X ≤ x) = 0 dt = 0.
−∞
Z x Z a Z x
1 x−a
d
Si a ≤ x ≤ b, F (x) = P (X ≤ x) = f (t) dt = 0 dt + dt = .
−∞ −∞ a b−a b−a
Z Z Z Z x
en
x a b
1
Si b < x, F (x) = P (X ≤ x) = f (t) dt = 0 dt + dt + 0 dt = 1.
−∞ −∞ a b−a b
pr
( tb
e −eta
t(b−a) si t 6= 0
g(t) =
1 si t = 0
w
w
Demostración: Si t 6= 0 :
Z +∞ Z b · tx ¸b
1 1 e
w
tX tx tx
g(t) = E(e ) = e f (x) dx = e dx = =
−∞ a b−a b−a t a
etb − eta
= .
t(b − a)
Si t = 0 :
g(0) = E(e0X ) = E(1) = 1.
3. Esperanza:
a+b
E(X) =
2
R +∞ Rb 1 h ib
1 x2 1 b2 −a2
Demostración: E(X)= −∞ x f (x) dx = a x b−a dx = b−a 2 = 2 b−a =
a
a+b
2 .
23
4. Varianza:
1
V ar(X) = (b − a)2
12
Demostración:
Z +∞ Z b · 3 ¸b
2 2 2 1 1 x
E(X ) = x f (x) dx = x dx = =
−∞ a b−a b−a 3 a
1 b − a3
3
1
= = (b2 + ab + a2 ).
3 b−a 3
Por tanto,
µ ¶2
1 a+b
V ar(X) = E(X ) − [E(X)] = (b2 + ab + a2 ) −
2 2
=
3 2
om
b2 + ab + a2 a2 + 2ab + b2
= − =
3 4
b2 − 2ab + a2 (b − a)2
= = .
.c
12 12 es
Ejemplo
d
Ejemplo 12 Una variable de tipo uniforme U [a, b] tiene por media µ = 200 y
por varianza σ 2 = 12. Calcular la probabilidad de que X sea menor que 196.
en
a+b
µ =
2
.a
1
σ2 = (b − a)2
12
w
Por tanto, ¾
a+b
2 = 200
w
1 2
12 (b − a) = 12
resolviendo el sistema, obtenemos
w
a = 194
b = 206
La función de densidad de X es
0 si x ≤ 194
1
f (x) = si 194 ≤ x ≤ 206
12
0 si x > 206
y por consiguiente,
Z 196 Z 196
1 1
P (X ≤ 196) = f (x) dx = dx = .
−∞ 194 12 6
24
Distribución Gamma
Definición
Se dice que la v.a. X sigue una distribución gamma de parámetros p > 0 y
a > 0 (y se denota por γ(p, a)) si su función de densidad viene dada por
( p p−1 −ax
a x e
Γ(p) si x > 0
f (x) = ,
0 en otro caso
om
Recordamos alguna propiedades de la función Γ :
1. Γ(p) = (p − 1) · Γ(p − 1)
2. Si p ∈ N, entonces Γ(p) = (p − 1)!
.c
¡ ¢ √
3. Γ 12 = π
es
Propiedades
d
1. Función de distribución:
½ Rx
en
ap
Γ(p) 0
xp−1 e−ax dx si x > 0
F (x) =
0 si x ≤ 0
pr
g(t) = 1−
a
w
Demostración:
Z Z
w
+∞ +∞
ap xp−1 e−ax
g(t) = E(etX ) = etx f (x) dx = etx dx =
−∞ 0 Γ(p)
w
Z +∞
ap ap Γ(p)
= e−(a−t)x xp−1 dx = =
Γ(p) 0 Γ(p) (a − t)p
µ ¶−p µ ¶−p
ap a−t t
= = = 1− .
(a − t)p a a
3. Esperanza:
p
E(X) =
a
¯
dg(t) ¯
Demostración: Sabemos que E(X) = dt ¯ . Como
t=0
µ ¶−p−1 µ ¶ µ ¶−p−1
dg(t) t 1 p t
= −p 1 − − = 1− ,
dt a a a a
25
entonces ¯
dg(t) ¯¯ p
E(X) = = .
dt ¯t=0 a
4. Varianza:
p
V ar(X) =
a2
Demostración: Como
µ ¶−p−2 µ ¶ µ ¶−p−2
d2 g(t) p t 1 p(p + 1) t
= (−p − 1) 1 − − = 1− ,
dt2 a a a a2 a
entonces ¯
d2 g(t) ¯¯ p(p + 1)
om
E(X 2 ) = = .
dt2 ¯t=0 a2
Por lo tanto,
.c
p(p + 1) p2 p
V ar(X) = E(X 2 ) − [E(X)]2 = − 2 = 2.
a2 a a
es
Teorema 7 Si X1 , X2 , . . . , Xn son variables aleatorias independientes con dis-
d
tribuciones γ(p1 , a), γ(p2 , a), . . . , γ(pn , a), respectivamente, entonces X = X1 +
en
1 − at . Por tanto,
gX (t) = gX1 +X2 +···+Xn (t) = gX1 (t) · gX2 (t) · · · · · gXn (t) =
.a
a a a
µ P
¶− ni=1 pi
t
w
= 1− ,
a
P
w
Ejemplo
Ejemplo 13 El tiempo de duración X de una pieza de un cierto equipo se
distribuye según una distribución gamma de parámetros p = 3 y a = 0.2. Deter-
minar:
Solución:
26
1. Teniendo en cuenta la expresión de la función de distribución de una
γ(p, a), tenemos que
Z ¡ 1 ¢3 Z ∞
(0.2)3 ∞ 2 −(0.2)x
P (X > 10) = x e dx = 5 x2 e−x/5 dx.
Γ(3) 10 Γ(3) 10
Esta integral se puede resolver por partes, reiterando dos veces el proced-
imiento, y resultaría
Z
x2 e−x/5 dx = −5x2 e−x/5 − 50x e−x/5 − 250e−x/5 =
Por tanto,
om
1 h i∞
P (X > 10) = (−5x2 − 50x − 250) e−x/5 =
125 · 2 10
1
= (500 + 500 + 250) e−2 ' 0.68.
250
2.
.c
es
¡ 1 ¢3 Z 15
P (10 ≤ X ≤ 15) = 5
x2 e−x/5 dx =
Γ(3)
d
10
1 h i15
= (−5x2 − 50x − 250) e−x/5 =
en
125 · 2 10
1 ¡ ¢
= (−1.125 − 750 − 250) e−3 − (−500 − 500 − 250) e−2 =
250
pr
= 0.25.
.a
Distribución exponencial
w
Definición
w
Propiedades
1. Función de distribución:
½ R x −ax
0
ae dx = 1 − e−ax si x > 0
F (x) =
0 si x ≤ 0
27
2. Función generatriz de momentos:
µ ¶−1
t
g(t) = 1−
a
3. Media:
1
E(X) =
a
4. Varianza:
1
V ar(X) =
a2
Teorema 8 Si X1 , X2 , . . . , Xn son n variables aleatorias independientes e idén-
ticamente distribuidas, con distribución Exp(a), entonces X = X1 + X2 + · · · +
Xn sigue una distribución γ(n, a).
om
Demostración: Dado que cada Xi , i = 1, . . . , n sigue una distribución
Exp(a), entonces es también de tipo γ(1, a). Por el teorema de adición de vari-
ables aleatorias con distribución γ(p, a), sabemos que X = X1 + X2 + · · · + Xn
es de tipo γ(1 + 1 + · · · + 1, a) = γ(n, a).
Ejemplo
.c
es
Ejemplo 14 En un parking público se ha observado que los coches llegan aleato-
ria e independientemente a razón de 360 coches por hora. Utilizando la distribu-
d
ción exponencial, encontrar la probabilidad de que el próximo coche no llegue
en
60
Entonces la probabilidad deseada es
w
Distribución de Weibull
Definición
Se dice que la variable aleatoria X sigue una distribución de Weibull de parámet-
ros α y β (y se denota W (α, β)) si su función de densidad es
½ β
αβ xβ−1 e−αx si x > 0
f (x) = .
0 si x ≤ 0
Si se toma β = 1 resulta la distribución exponencial, es decir, Exp(α) =
W (α, 1). La esperanza y la varianza de una variable X ∈ W (α, β) son:
1
E(X) = α−1/β Γ(1 + )
β
28
( · ¸2 )
−2/β 2 1
V ar(X) = α Γ(1 + ) − Γ(1 + )
β β
Esta distribución se utiliza en problemas de fiabilidad de sistemas para estudiar
la distribución del tiempo transcurrido para que se produzca el fallo de un
componente del sistema.
Distribución Beta
Definición
Diremos que una variable aleatoria X de tipo continuo sigue una distribución
beta de parámetros p y q, siendo p, q ∈ R y p, q > 0, si la función de densidad
es ½ 1 p−1
β(p,q) x (1 − x)q−1 si 0 < x < 1
om
f (x) = ,
0 en otro caso
donde β(p, q) es la función beta, y se define por
Z
.c
1
β(p, q) = xp−1 (1 − x)q−1 dx, p > 0, q > 0.
0
es
Como
Γ(p) · Γ(q)
β(p, q) = ,
d
Γ(p + q)
en
0 en otro caso
Obsérvese que la función de densidad está definida sobre el intervalo (0, 1),
lo cual nos indica que esta familia de distribuciones es muy útil para modelar
w
etc.).
w
Propiedades
1. Función de distribución:
R 0 si x ≤ 0
x 1 p−1 q−1
F (x) = x (1 − x) dx si 0<x≤1
0 β(p,q)
1 si x ≥ 1
2. Esperanza:
p
E(X) =
p+q
29
Demostración: Calculamos primero los momentos de orden r respecto
al origen, para poder obtener fácilmente la esperanza y la varianza:
Z 1 Z 1
r r 1 p−1 q−1 1
E(X ) = x · x (1 − x) dx = xp+r−1 (1 − x)q−1 dx =
0 β(p, q) β(p, q) 0
β(p + r, q) Γ(p + r) · Γ(q) Γ(p + q)
= = · =
β(p, q) Γ(p + r + q) Γ(p) · Γ(q)
Γ(p + r) · Γ(p + q) (p + r)! · (p + q)!
= =
Γ(p + r + q) · Γ(p) (p + r + q)! · (p)!
(p + r − 1) · · · · · (p + 1) · p
=
(p + r + q − 1) · · · · · (p + q)
om
p
E(X) = .
p+q
.c
3. Varianza:
pq
es
V ar(X) =
(p + q + 1)(p + q)2
(p + r − 1) · · · · · (p + 1) · p
en
E(X r ) = .
(p + r + q − 1) · · · · · (p + q)
(p + 1)p
E(X 2 ) = .
.a
(p + q + 1)(p + q)
Entonces la varianza es
w
(p + 1)p p2
V ar(X) = E(X 2 ) − (E(X))2 = − =
w
(p + q + 1)(p + q) (p + q)2
(p2 + p)(p + q) − p2 (p + q + 1)
w
= =
(p + q + 1)(p + q)2
pq
= .
(p + q + 1)(p + q)2
Ejemplo
Ejemplo 15 Si consideramos una variable aleatoria X que representa la pro-
porción de personas que consumen una determinada marca de aceite de oliva y
que sigue una distribución beta de parámetros p = 1 y q = 1, β(1, 1), determinar
la probabilidad de que dicha proporción esté comprendida entre el 10% y el 50%.
Solución: Sabemos que la distribución beta se puede utilizar para repre-
sentar variables físicas cuyos valores están comprendidos en el intervalo (0, 1),
30
es decir, para representar proporciones. La probabilidad pedida es
Z 0.5
Γ(1 + 1) 1−1
P (0.1 ≤ X ≤ 0.5) = x (1 − x)1−1 dx =
0.1 Γ(1) · Γ(1)
Z 0.5
= dx = [x]0.5
0.1 = 0.4.
0.1
Distribución normal
Definición
Se dice que la variable aleatoria X sigue una distribución normal reducida, y se
denota por N (0, 1), si su función de densidad es
om
1 x2
f (x) = √ e− 2 para todo x ∈ R.
2π
.c
Propiedades
es
1. Función de distribución:
Z x
1 x2
F (X) = P (X ≤ x) = √ e− 2 dx
d
−∞ 2π
en
N (0, 1).
w
g(t) = e 2
w
Demostración:
Z +∞ Z +∞
1 x2 1 x2
g(t) = E(etX ) = etx √ e− 2 dx = √ e− 2 +tx dx =
−∞ 2π 2π −∞
Z +∞ 2 Z +∞
1 t (x−t)2
1 t 2 (x−t)2
= √ e 2 e− 2 dx = √ e 2 e− 2 dx
2π −∞ 2π −∞
31
3. Esperanza:
µ = E(X) = 0
t2 t2 /2 (t2 /2)2 t2 t4
g(t) = e 2 = 1 + + + ··· = 1 + + 2 + ··· ,
1! 2! 2 2 · 2!
de donde obtenemos
¯
dg(t) ¯¯
µ = E(X) = = 0.
dt ¯t=0
4. Varianza:
om
V ar(X) = 1
.c
t2 t2 t4
g(t) = e 2 = 1 + + 2 + ··· ,
2 2 · 2!
es
de donde obtenemos
¯
d2 g(t) ¯¯
d
2
E(X ) = = 1.
dt2 ¯t=0
en
Por tanto,
σ 2 = E(X 2 ) − [E(X)]2 = 1 − 0 = 1.
pr
.a
32
Por tanto,
µ ¶ µ ¶
1 0 x−µ 1 x−µ
fY (x) = FY0 (x) = F = fX ,
σ X σ σ σ
de donde
1 2 2
fY (x) = √ e−(x−µ) /2σ .
σ 2π
Esta transformación de variables posibilita el paso de la N (µ, σ) a la N (0, 1) y,
en consecuencia, la utilización de las tablas de la N (0, 1) para la resolución de
problemas de la N (µ, σ).
om
X= .
σ
Observación 1 Sabemos que una variable tipificada tiene distribución N (0, 1),
con lo cual si queremos calcular, por ejemplo, P (3 < Y < 5), donde Y es de
.c
tipo N (3, 2), haremos
µ ¶
es
3−3 Y −3 5−3
P (3 < Y < 5) = P < < = P (0 < X < 1),
2 2 2
d
donde X es N (0, 1), y se puede calcular P (0 < X < 1) a partir de las tablas.
en
A partir de la relación entre N (µ, σ) y N (0, 1), se pueden deducir las propiedades
de toda variable aleatoria Y de tipo N (µ, σ) :
pr
Propiedades
.a
g(t) = etµ+ 2
w
Demostración:
³ ´
w
2 (tσ)2
g(t) = E(etY ) = E et(µ+σX) = etµ E(etσX ) = etµ e(tσ) /2 = etµ+ 2 .
2. Esperanza:
µ = E(X) = µ
Demostración:
33
3. Varianza:
V ar(X) = σ 2
Demostración:
V ar(Y ) = σ 2 V ar(X) = σ 2 · 1 = σ 2 .
om
gX (t) = E(etX ) = E(etX1 ) · E(etX1 ) · · · · · E(etX1 ) =
2 2 2
= etµ1 +(tσ1 ) /2
· etµ2 +(tσ2 ) /2
· · · · · etµn +(tσn ) /2
=
2
t(µ1 +µ2 +···+µn )+ t2 (σ 21 +σ 22 +···+σ 2n )
.c
= e ,
X1 + · · · + Xn
X=
.a
n
³ ´
es de tipo N µ, √σn .
w
³ X1 X2 Xn
´ ³ t ´ ³ t ´ ³ t ´
gX (t) = E(etX ) = E et( n + n +···+ n ) = E e n X1 · E e n X2 · · · · · E e n Xn =
w
µ 2
¶ µ 2
¶ µ 2
¶ µ 2
¶n
t
µ+ (tσ) t
µ+ (tσ) t
µ+ (tσ) t
µ+ (tσ)
= e n 2n2
· e n 2n2
· ··· · e n 2n2
= e n 2n 2
=
2
= etµ+(tσ) /2n
,
34
Demostración: Como X tiene distribución B(n, p), su función generatriz
es (pet + q)n , luego la función generatriz de Y será
√ √ √
gY (t) = E(etY ) = E(et(X−np)/ npq ) = e−npt/ npq · E(etX/ npq ) =
√ ³ √ ´n ³ √ ´n ³ √ ´n
= e−npt/ npq pet/ npq + q = e−pt/ npq pet/ npq + q =
³ √ √ ´n ³ √ √ ´n
= pet(1−p)/ npq + qe−tp/ npq = petq/ npq + qe−tp/ npq .
P∞ zr
Considerando el desarrollo de McLaurin de ez = r=0 r! hasta el término de
grado dos, resulta
√ pq pq 2 2 pq 3
petq/npq
= p+ √ t+ t +θ t3
npq 2npq 3!(npq)3/2
om
√ pq p2 q 2 p3 q
qe−tp/npq
= q− √ t+ t +θ t3
npq 2npq 3!(npq)3/2
de donde se obtiene
.c
µ ¶n
t2 (pq 3 + qp3 )t3
gY (t) = 1+ +θ
3!(npq)3/2
es
2n
Definiendo
t2 (pq 3 + qp3 )t3
d
z= +θ √ ,
2 3!(pq)3/2 n
en
resulta ³ z´ n ³ z´
log gY (t) = n log 1 + = z log 1 + .
n z n
pr
Si t es fijo y n → ∞, entonces
t2
.a
z →
2
z
w
→ 0
n ¡ ¢
n ³ z´ log 1 + nz t2
w
z log 1 + = z· z → z →
z n n 2
w
Por tanto,
2
lim gY (t) = et /2
,
que es la función generatriz de momentos de la N (0, 1).
35
Ejemplos
Ejemplo 16 La estatura Y de un cierto grupo de personas sigue una distribu-
ción normal de media µ = 1.70 m y desviación típica σ = 0.10 m. Calcular la
probabilidad de que una persona seleccionada al azar mida más de 1.80.
Solución: Y tiene distribución N (1.70, 0.10). Tipificando esta variable se
−1.70
obtiene una nueva variable X = Y 0.10 de tipo N (0.1). Entonces,
µ ¶
Y − 1.70 1.80 − 1.70
P (Y > 1.80) = P > = P (X > 1) = 0.1587.
0.10 0.10
om
1. Calcular la probabilidad de que una pieza tenga una longitud comprendida
entre 31.1 y 32.6.
2. Si se eligen tres piezas al azar, ¿cuál es la probabilidad de que dos y sólo
.c
dos de ellas tengan longitud comprendida en el intervalo [31.1, 32.6]?
es
Solución:
1. Sea Y la longitud de las piezas. Sabemos que la distribución de Y es
−32
N (32, 0.3). Tipificando, obtenemos una nueva variable X = Y 0.3
d
de tipo
N (0, 1).
en
µ ¶
31.1 − 32 Y − 32 32.6 − 32
P (31.1 < Y < 32.6) = P < < =
0.3 0.3 0.3
pr
µ ¶
3
P (Z = 2) = (0.9758)2 0.0242 = 0.0695.
w
2
w
1. La distribución binomial,
2. La distribución normal.
Solución:
36
1. Sea Y el número de caras en 10 lanzamientos de una moneda. Y es de
tipo B(10, 12 ). Por tanto,
P (3 ≤ Y ≤ 6) = P (Y = 3) + P (Y = 4) + P (Y = 5) + P (Y = 6) =
µ ¶ µ ¶3 µ ¶7 µ ¶ µ ¶4 µ ¶6
10 1 1 10 1 1
= + +
3 2 2 4 2 2
µ ¶ µ ¶5 µ ¶5 µ ¶ µ ¶6 µ ¶4
10 1 1 10 1 1
+ + =
5 2 2 6 2 2
·µ ¶ µ ¶ µ ¶ µ ¶¸
1 10 10 10 10
= 10
+ + + =
2 3 4 5 6
= 0.7734
√
2. Aproximamos Y por una N (np, npq) = N (5, 1.58). Entonces la variable
om
tipificada X = Y1.58−5
tiene distribución N (0, 1). Cada valor discreto de la
binomial se convierte en un intervalo de la normal de amplitud 1 centrado
en dicho valor, con lo que resulta:
µ ¶
.c
2.5 − 5 Y −5 6.5 − 5
P (2.5 < Y < 6.5) = P < < =
1.58 1.58 1.58
es
= P (−1.58 < X < 0.95) = 0.7718.
d
Ejemplo 19 Dos establecimientos venden el mismo tipo de artículo. Las ventas
en
Solución: Sean
X1 = unidades vendidas en el primer establecimiento
.a
Y − 200 50 − 200
P (Y > 50) = P > =
134.53 134.53
w
Distribución Log-normal
Definición
Una variable aleatoria X de tipo continuo, no negativa, sigue una distribución
log-normal de parámetros µ y σ si la variable aleatoria Y = ln X sigue una
distribución N (µ, σ), con −∞ < µ < +∞ y σ > 0. Su función de densidad es
( 2 2
2
√ e[−(ln x−µ) /2σ ] si x > 0
f (x) = xσ 2π
0 si x ≤ 0
Abreviadamente, diremos que X es de tipo log N (µ, σ).
37
Propiedades
1. Función de distribución: La función de distribución de una variable aleato-
ria X log-normal en x es igual a la función de distribución de una variable
N (0, 1) en ln x−µ
σ .
Demostración: Sea X una variable aleatoria log-normal, e Y = ln X,
que sigue una distribución N (µ, σ). Entonces
µ ¶
Y −µ ln x − µ
FX (x) = FY (ln x) = P (Y ≤ ln x) = P ≤ '
σ σ
µ ¶ µ ¶
ln x − µ ln x − µ
' P Z≤ =F .
σ σ
om
2. Esperanza:
1 2
E(X) = eµ+ 2 σ
Demostración: Calculemos primero el momento de orden r respecto al
origen de la variable X, teniendo en cuenta que
Y = ln X ⇒
.c X = eY .
es
Sabemos que la función generatriz de momentos para una variable aleato-
ria Y de tipo N (µ, σ) es
d
1 2
σ2
gY (t) = E(etY ) = etµ+ 2 t
en
1 2 2
E(X r ) = E(erY ) = erµ+ 2 r σ .
Haciendo r = 1, obtenemos la esperanza, que viene dada por
w
1 2
E(X) = eµ+ 2 σ .
w
w
3. Varianza: 2 2
V ar(X) = e2µ+σ · (eσ − 1)
Demostración: Sabemos que el momento de orden r viene dado por
2
1
σ2
E(X r ) = E(erY ) = erµ+ 2 r .
Por tanto, el momento de orden 2 es
1 2
E(X 2 ) = e2µ+ 2 4σ .
Por tanto, la varianza es
1 2
³ ´
1 2 2
V ar(X) = E(X 2 ) − (E(X))2 = e2µ+ 2 4σ − eµ+ 2 σ =
2 2 2 2
= e2µ+2σ − e2µ+σ = e2µ+σ · (eσ − 1).
38
Ejemplo
Ejemplo 20 El consumo semanal de gasoil de los autobuses urbanos de una
ciudad sigue una distribución log-normal de parámetros µ = 4 y σ = 1.5. De-
terminar:
om
es
µ ¶
ln X − 4 ln 600 − 4
P (X ≤ 600) = P (ln X ≤ ln 600) = P ≤ '
1.5 1.5
µ ¶ µ ¶
.c
ln 600 − 4 6.39 − 4
' P Z≤ =P Z≤ =
1.5 1.5
es
= P (Z ≤ 1.59) = F (1.59) = 0.9441.
d
2. La probabilidad de que el consumo semanal esté comprendido entre 500 y
700 litros es:
en
= P ≤ ≤ '
1.5 1.5 1.5
µ ¶
6.21 − 4 6.55 − 4
.a
' P ≤Z≤ =
1.5 1.5
= P (1.47 ≤ Z ≤ 1.7) = F (1.7) − F (1.47) =
w
= 0.9554 − 0.9292 =
w
= 0.0262.
w
Distribución χ2 de Pearson
Definición
Dadas las variables X1 , X2 , . . . , Xn de tipo N (0, 1) e independientes, se llama
variable χ2 de Pearson con n grados de libertad a la variable definida por
39
A la distribución de probabilidad de variable continua definida por f se le conoce
como distribución χ2 de Pearson con n grados de libertad y se denota por χ2n .
Está claro que n es el único parámetro de esta distribución. Mirando la función
de densidad, se tiene que µ ¶
2 n 1
χn = γ , ,
2 2
de donde podemos deducir las propiedades de la distribución χ2n :
Propiedades
1. Esperanza:
E(X) = n
Demostración: Sabemos que la esperanza de¡una ¢distribución γ(p, a) es
µ = ap . Por tanto, la esperanza de una χ2n = γ n2 , 12 es
om
n/2
E(X) = = n.
1/2
2. Varianza:
.c
es
σ 2 = V ar(X) = 2n
Demostración: Sabemos que la varianza de una ¡ distribución
¢ γ(p, a) es
d
σ 2 = ap2 . Por tanto, la varianza de una χ2n = γ n2 , 12 es
en
n/2
V ar(X) = = 2n.
(1/2)2
pr
distribución γ(p,
¡ a) es
¢ gX (t) = 1 − at . Por tanto, la función generatriz
de una χ2n = γ n2 , 12 es
w
µ ¶− n2
t n
= (1 − 2t)− 2 .
w
gX (t) = 1 −
1/2
4. Si X es una variable
√ aleatoria distribuida según una χ2n , entonces
√ la vari-
able aleatoria 2X sigue aproximadamente una distribución N ( 2n − 1, 1).
Teorema 12 Si X1 , X2 , . . . , Xk son k variables aleatorias independientes con
distribuciones χ2n1 , χ2n2 , . . . , χ2nk , respectivamente, entonces X = X1 +X2 +· · ·+
Xk tiene distribución χ2 con n1 + n2 + · · · + nk grados de libertad. ¡ ¢
Demostración: Sabemos que cada Xi tiene distribución γ n2i , 12 . Por el
teorema de adición de distribuciones γ, sabemos que X = X1 + X2 + · · · + Xk
tiene distribución
µ ¶ µ ¶
n1 n2 nk 1 n1 + n2 + · · · + nk 1
γ + + ··· + , =γ , = χ2(n1 +n2 +···+nk ) .
2 2 2 2 2 2
40
Ejemplo
Ejemplo 21 Dada una variable aleatoria X distribuida según una χ238 , obtener
la probabilidad P (χ238 ≤ 20).
Solución: Sabemos que la variable aleatoria
√ q
2X ≡ 2χ238
√
se aproxima por una distribución N ( 2 · 38 − 1, 1). Por tanto,
q √
P (χ238 ≤ 20) = P ( 2χ238 ≤ 2 · 20) =
Ãp √ √ √ !
2χ238 − 2 · 38 − 1 2 · 20 − 2 · 38 − 1
= P ≤ '
1 1
√ √
om
' P (Z ≤ 40 − 75) = P (Z ≤ −2.34) =
= FZ (−2.34) = 0.0096.
Distribución t de Student
.c
es
Definición
d
Dadas las variables aleatorias X, X1 , X2 , . . . , Xn independientes e idénticamente
en
1
n i=1 Xi2
Propiedades
1. Función de distribución:
Z µ ¶−(n+1)/2
Γ( n+1 ) t
t2
F (t) = P (T ≤ t) = √ 2 1 1+ dt.
nπ Γ( 2 ) −∞ n
2. Esperanza:
E(T ) = 0,
por la simetría de la función de densidad.
3. Varianza:
n
V ar(T ) = .
n−2
41
Distribución F de Snedecor
Definición
Sean X1 , X2 , . . . , Xm, Y1 , Y2 , . . . , Yn m +n variables aleatorias independientes e
idénticamente distribuidas N (0, 1). Se llama variable F de Snedecor con (m, n)
grados de libertad y se denota Fm,n a la variable aleatoria definida por
1
Pm
X2
F = 1 Pni=1 2i
m
n i=1 Yi
om
Γ[(m+n)/2] ¡ m ¢ 2 ( m −1) ¡ ¢−(m+n)/2
m
x 2 1+x m si x > 0
f (x) = Γ(m/2) Γ(n/2) n n
0 si x ≤ 0
.c
se la denomina F de Snedecor con (m, n) grados de libertad.
es
Propiedades
1. Función de distribución:
(
d
Γ[(m+n)/2] ¡ m ¢ m2 R x m ¡ ¢−(m+n)/2
x( 2 −1) 1 + x m dx si x > 0
F (x) = P (X ≤ x) = Γ(m/2) Γ(n/2) n 0 n
en
0 si x ≤ 0
2. Esperanza:
pr
n
E(X) =
n−2
.a
3. Varianza:
n2 (2m + 2n − 4)
w
V ar(X) =
m(n − 2)2 (n − 4)
w
42